WO2012173439A2 - 스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치 - Google Patents
스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치 Download PDFInfo
- Publication number
- WO2012173439A2 WO2012173439A2 PCT/KR2012/004777 KR2012004777W WO2012173439A2 WO 2012173439 A2 WO2012173439 A2 WO 2012173439A2 KR 2012004777 W KR2012004777 W KR 2012004777W WO 2012173439 A2 WO2012173439 A2 WO 2012173439A2
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- layer
- picture
- prediction
- enhancement layer
- information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/36—Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
Definitions
- the present invention relates to the processing of video information, and more particularly, to a video encoding method and a video decoding method using scalable video coding (SVC, hereinafter referred to as "SVC") and an apparatus using the same.
- SVC scalable video coding
- the supporting performance is also diversified by device.
- the network in which information is transmitted is also diversified not only in the external structure such as wired and wireless networks, but also in functions such as the type of information to be transmitted, the amount and speed of information.
- the user selects a terminal and a network to be used according to a desired function, and the spectrum of terminals and networks provided by the enterprise to the user is also diversified.
- Ultra High Definition which has four times the resolution of HDTV
- HDTV High Definition
- an inter prediction technique for predicting a pixel value included in a current picture from a previous and / or subsequent picture in time, another pixel included in the current picture using pixel information in the current picture
- An intra prediction technique for predicting a value an entropy encoding technique for allocating a short sign to a high frequency symbol and a long code to a low frequency symbol may be used.
- the quality, size, frame, etc. of the supported image need to be diversified accordingly.
- One technical object of the present invention is to provide a method and apparatus capable of efficiently performing video encoding and video decoding
- Another technical object of the present invention is to provide a method and apparatus capable of providing various video services in various environments.
- Another technical object of the present invention is to provide a method and apparatus capable of video service having various image quality, resolution, size, and / or frame rate while bringing a gain of bit rate compared to the same transmission (simulcast).
- An embodiment of the present invention is an interlayer prediction method, which includes determining whether to apply interlayer prediction to an enhancement layer and generating from a decoded reference picture of a reference layer when applying interlayer prediction. Performing prediction on the current block of the enhancement layer based on the generalized reference information.
- whether to apply interlayer prediction to an enhancement layer may be determined based on flag information indicating interlayer prediction.
- the generalized reference information may be upsampled according to the picture size of the enhancement layer.
- the generalized reference picture may be included in a reference picture list for the current block of the enhancement layer and used as a reference picture for the current block of the enhancement layer.
- enhancement based on a difference between the enhancement layer and pictures of the reference layer may be applied to the generalized reference picture.
- the generalized reference picture is a decoded picture of the base layer, a picture upsampled from a decoded picture of the base layer, a picture generated based on the decoded picture and the residual information of the base layer, or
- the picture may be a sample upsampled from a decoded picture of the base layer and a picture generated based on the residual information.
- the generalized reference information is a generalized reference block generated based on the decoded picture of the reference layer
- the generalized reference block may be used as a prediction block for the current block of the enhancement layer.
- enhancement based on a difference between the enhancement layer and pictures of the reference layer may be applied.
- the generalized reference information is a generalized reference picture generated based on a decoded picture of the reference layer
- the generalized reference picture may be used as a reference picture for the current block of the enhancement layer.
- the generalized reference picture may be included in a reference picture list for the current block of the enhancement layer and used as a reference picture for the current block of the enhancement layer.
- the generalized reference picture may be an enhancement based on a difference between the enhancement layer and pictures of the reference layer.
- the generalized reference picture is based on a decoded picture of the base layer, a picture upsampled from a decoded picture of the base layer, a decoded picture of the base layer and the residual information.
- the picture may be a picture generated by up-sampling a picture generated based on the generated picture or the decoded picture of the base layer and the residual information.
- the generalized reference information is a generalized reference block generated based on the decoded picture of the reference layer
- the generalized reference block may be used as a prediction block for the current block of the enhancement layer.
- the generalized reference block may be an enhancement based on a difference between the enhancement layer and pictures of the reference layer.
- Another embodiment of the present invention is a scalable encoding apparatus, comprising: a base layer encoder for performing prediction on an input image of a base layer, an enhancement layer encoding unit for performing prediction on an input image of an enhancement layer, and And an interlayer prediction unit configured to generate generalized reference information for performing prediction on an input image of the enhancement layer.
- the interlayer prediction unit is configured to decode the base layer from the decoded information of the base layer.
- the generalized reference information may be generated, and the enhancement layer encoder may perform prediction on the current block of the enhancement layer based on the generalized reference information.
- Another embodiment of the present invention is a scalable decoding apparatus, comprising: a base layer decoder for performing prediction on an image of a base layer, an enhancement layer decoder for performing prediction on an image of an enhancement layer, and An interlayer prediction unit is configured to generate generalized reference information for performing prediction on an image of an enhancement layer. When interlayer prediction is applied, the interlayer prediction unit is generalized from decoded information of the base layer. The reference information is generated, and the enhancement layer decoding unit may perform prediction on the current block of the enhancement layer based on the generalized reference information.
- various video services can be provided in terms of time, space, and / or image quality according to various needs or purposes of use of a user.
- scalable video coding capable of providing various services in various environments can be efficiently performed.
- the present invention it is possible to provide a video service having various image quality, resolution, size, and / or frame rate while bringing a gain of a bit rate compared to the same transmission (simulcast).
- FIG. 1 is a block diagram illustrating a basic configuration of an encoding apparatus according to an embodiment.
- FIG. 2 is a block diagram illustrating a basic configuration according to an embodiment of a decoding apparatus.
- FIG 3 schematically illustrates an example of an intra prediction mode.
- FIG. 4 is a diagram schematically illustrating an example of transcoding by single layer encoding.
- FIG. 5 is a diagram schematically illustrating an example in which scalable non-ideal coding using multilayer encoding is used as an example using SVC.
- FIG. 6 is a diagram schematically illustrating an example of an encoding apparatus employing SVC.
- FIG. 7 is a diagram schematically illustrating an example of a decoding apparatus employing SVC.
- FIG. 8 is a diagram schematically illustrating a multilayer encoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 9 is a diagram schematically illustrating a multilayer encoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 10 is a diagram schematically illustrating a multilayer encoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 11 is a diagram schematically illustrating a multilayer decoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 12 is a diagram schematically illustrating a multilayer decoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 13 is a diagram schematically illustrating a multilayer decoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 14 is a diagram schematically illustrating an example of a configuration of a reference picture generation unit generalized in an interlayer prediction unit to which the present invention is applied.
- 15 is a diagram schematically illustrating an example of a configuration of a generalized reference block generator in an interlayer prediction unit to which the present invention is applied.
- 16 is a flow chart schematically illustrating interlayer prediction performed in accordance with the present invention.
- first and second may be used to describe various configurations, but the configurations are not limited by the terms. The terms are used to distinguish one configuration from another.
- first configuration may be referred to as the second configuration, and similarly, the second configuration may also be referred to as the first configuration.
- each component shown in the embodiments of the present invention are independently shown to represent different characteristic functions, and do not mean that each component is made of separate hardware or one software component unit.
- each component is listed as a component for convenience of description, and at least two of the components may form one component, or one component may be divided into a plurality of components to perform a function.
- the integrated and separated embodiments of each component are also included in the scope of the present invention without departing from the spirit of the present invention.
- FIG. 1 is a block diagram illustrating a basic configuration of an encoding apparatus according to an embodiment.
- the encoding apparatus 100 may include an inter prediction unit 110, an intra prediction unit 120, a switch 125, a subtractor 130, a transform unit 135, a quantization unit 140, and entropy encoding.
- the unit 150 includes an inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a picture buffer 190.
- the encoding apparatus 100 may encode the input image in an intra mode or an inter mode and output a bitstream. In the intra mode, the switch 125 is switched to intra, and in the inter mode, the switch 125 is switched to inter. The encoding apparatus 100 may generate a prediction block for the input block of the input image and then encode the difference between the input block and the prediction block.
- the intra predictor 120 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
- the inter prediction unit 110 may obtain a motion vector by searching for a region corresponding to the input block in the reference image stored in the picture buffer 190 during the motion prediction process.
- the inter predictor 110 may generate a prediction block by performing motion compensation using the motion vector and the reference image stored in the picture buffer 190.
- the subtractor 130 may generate a residual block by the difference between the input block and the generated prediction block.
- the transformer 135 may perform a transform on the residual block and output a transform coefficient.
- the quantization unit 140 may output the quantized coefficient by quantizing the input transform coefficient according to the quantization parameter.
- the entropy encoding unit 150 may output a bitstream by entropy encoding the quantized coefficients according to a probability distribution based on values calculated by the quantization unit 140 or encoding parameter values calculated in the encoding process. Can be.
- the quantized coefficients may be inversely quantized by the inverse quantizer 160 and inversely transformed by the inverse transformer 170.
- the inverse quantized and inverse transformed coefficients are added to the prediction block through the adder 175 and a reconstruction block can be generated.
- the reconstruction block passes through the filter unit 180, and the filter unit 180 applies at least one or more of a deblocking filter, a sample adaptive offset (SAO), and an adaptive loop filter (ALF) to the reconstruction block or the reconstruction picture. can do.
- the reconstructed block that has passed through the filter unit 180 may be stored in the picture buffer 190.
- FIG. 2 is a block diagram illustrating a basic configuration according to an embodiment of a decoding apparatus.
- the decoding apparatus 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, an inter prediction unit 250, and a filter unit 260. ) And picture buffer 270.
- the decoding apparatus 200 may receive the bitstream output from the encoding apparatus, decode the intra mode or the inter mode, and output a reconstructed image, that is, a reconstructed image.
- the switch In the intra mode, the switch may be switched to intra, and in the inter mode, the switch may be switched to inter.
- the decoding apparatus 200 may obtain a residual block reconstructed from the received bitstream, generate a prediction block, and then add the reconstructed residual block and the prediction block to generate a reconstructed block, that is, a reconstruction block. .
- the entropy decoding unit 210 entropy decodes the input bitstream according to the probability distribution. By entropy decoding, quantized (transform) coefficients can be generated.
- the quantized coefficients are inversely quantized by the inverse quantizer 220 and inversely transformed by the inverse transformer 230, and as a result of the inverse quantization / inverse transformation of the quantized coefficients, a reconstructed residual block may be generated.
- the intra predictor 240 may generate a prediction block by performing spatial prediction using pixel values of blocks that are already encoded around the current block.
- the inter predictor 250 may generate a predictive block by performing motion compensation using a motion vector and a reference image stored in the picture buffer 270.
- the reconstructed residual block and the prediction block are added through the adder 255, and the added block passes through the filter unit 260.
- the filter unit 260 may apply at least one of the deblocking filter, SAO, and ALF to the reconstructed block or the reconstructed picture.
- the filter unit 260 outputs a reconstructed image, that is, a reconstructed image.
- the reconstructed image may be stored in the picture buffer 270 and used for inter prediction.
- the encoding apparatus and the decoding apparatus perform prediction on the current block for video encoding / decoding.
- the prediction may be performed in the encoding unit / decoding device, specifically, the prediction unit of the encoding device / decoding device.
- the prediction unit of the encoding apparatus may include, for example, the inter predictor 110 and the intra predictor 120 of FIG. 1.
- the prediction unit of the decoding apparatus may include, for example, the intra predictor 240 and the inter predictor 250 of FIG. 2.
- the prediction unit performs prediction for the current block based on pixels (reference samples) in the previously encoded current picture according to the intra prediction mode of the current block. can do.
- the prediction unit may perform intra prediction to generate a prediction block for the current block from the reference sample.
- the prediction mode may have 33 directional prediction modes and at least two non-directional modes.
- 33 directional prediction modes from prediction mode 2 to prediction mode 34 are shown.
- the non-directional mode may include a DC prediction mode, a planar mode, and the like.
- a prediction block may be generated after applying a filter to a reference sample.
- whether to apply the filter to the reference sample may be determined according to the intra prediction mode and / or the size of the current block.
- the prediction unit sets at least one of a previous picture or a next picture of the current picture as a reference picture, and performs prediction on the current block based on the reference picture.
- An image used for prediction of the current block is called a reference picture or a reference frame.
- the region in the reference picture may be represented using a reference picture index refIdx, a motion vector, etc. indicating the reference picture.
- the prediction unit may generate a prediction block for the current block by selecting the reference picture and the reference block corresponding to the current block in the reference picture.
- the prediction unit may generate the prediction block such that the residual signal with the current block is minimized and the size of the motion vector is also minimized.
- information of neighboring blocks of the current block may be used.
- the prediction block for the current block may be generated based on the information of the neighboring block through a skip mode, a merge mode, an advanced motion vector prediction (AMVP), and the like.
- AMVP advanced motion vector prediction
- the prediction unit of the decoding apparatus may identify and derive motion information required for inter prediction of the current block, for example, a skip flag, a merge flag, and the like received from the encoding apparatus.
- the processing unit in which the prediction is performed and the processing unit in which the prediction method and the details are determined may be different from each other.
- a prediction mode may be determined in units of PUs, and prediction may be performed in units of PUs, or a prediction mode may be determined in units of PUs, and intra prediction may be performed in units of TUs.
- a reference picture list may be configured of pictures used for prediction, and the reference picture index may indicate a specific reference picture in the reference picture list.
- a P picture is a picture that can be encoded / decoded using inter prediction or intra prediction using at least one motion vector and reference picture index to predict the sample value of each block.
- a B picture is a picture that can be encoded / decoded using inter prediction or intra prediction using at least two motion vectors and reference picture indices to predict the sample value of each block.
- I pictures to which intra prediction is applied.
- the prediction unit may use information of the neighboring block as it is in the current block. Therefore, in the skip mode, the encoding apparatus does not transmit syntax information such as residual to the decoding apparatus other than the information indicating which block motion information to use as the motion information of the current block.
- the prediction unit may generate the prediction block for the current block using the motion information of the neighboring block as it is.
- the encoding apparatus may transmit information on whether the merge mode is applied, information on which block motion information to use, residual information, and the like, to the decoding apparatus.
- the decoding apparatus may reconstruct the current block by adding the prediction block and the residual transmitted from the encoding apparatus.
- the encoding apparatus predicts the motion vector of the current block by using the motion information of the neighboring blocks, (1) information on which motion block of the neighboring block is used, and (2) the motion vector of the current block.
- the difference between the predicted motion vectors, (3) a reference picture index indicating the reference picture, and the like may be transmitted to the decoding apparatus.
- the decoding apparatus may predict the motion vector of the current block using the motion information of the neighboring block, and may derive the motion vector for the current block using the residual received from the encoding apparatus.
- the decoding apparatus may generate a prediction block for the current block based on the derived motion vector and the reference picture index information received from the encoding apparatus.
- SVC Scalable Video Coding
- a sub bitstream capable of reproducing a valid video image may also be configured by a portion of the video bitstream.
- the sub bitstream is an elementary stream for the corresponding content, and the sub bitstream may reconstruct an image having a lower quality, a smaller size, and / or a lower frame rate than an image reconstructed by the entire bitstream.
- FIG. 4 is a diagram schematically illustrating an example of transcoding by single layer encoding.
- Single layer encoding refers to encoding of a video sequence that does not provide a scalability function.
- the original content 410 is single-layer encoded from each encoder / transcoder according to quality and resolution and transmitted to each terminal.
- high quality content is transmitted from the high quality encoder / transcoder 420
- low quality content is transmitted from the low quality encoder / transcoder 430
- low resolution content is sent.
- Terminal 1 450 which receives and uses high quality content, may be a TV device such as an HD TV or a UHD TV.
- the terminal 2 460 which receives and uses low quality content may have a smaller screen than a TV or a low specification PC having a slower information processing speed than a TV.
- the terminal 3 470 that receives and uses the content having a lower resolution may be a mobile phone with a small screen. It is a matter of course that the content different from the above example can be received and used according to the performance of each terminal.
- the encoded bitstream may include a plurality of layers.
- Scalable encoding allows the decoder to selectively decode only a portion of the encoded bitstream.
- the coded bitstream may be arranged in a plurality of layers, and may include a base base layer and one or more enhancement layers.
- FIG. 5 is a diagram schematically illustrating an example of transcoding in which scalable video encoding using multilayer encoding is used as an example using SVC.
- Multilayer encoding provides scalability by encoding multiple layers of video sequences.
- a layer having the lowest or most basic quality video data is also called a base layer.
- a layer having higher quality video data is also called an enhancement layer.
- Temporal scalability is scalability with respect to frame rate.
- Spatial scalability is scalability with respect to picture size or resolution.
- qualitative scalability may be related to fidelity of an image.
- original content 510 is encoded by scalable encoder 520.
- the scalable encoder 520 supports the temporal, spatial and qualitative scalability described above.
- the scalable encoder 520 encodes the original content 510 to generate a multi-layer bitstream 530.
- the multi-layer is composed of a base layer including basic image information and an enhancement layer including information about an image having improved quality (accuracy, size, and / or frame rate, etc.) than the base layer. Can be.
- the decoding apparatus of the terminal receives the base layer and decodes the image, the basic image is decoded. For example, images of basic size, basic quality and / or basic frame rate are decoded.
- the decoding device of the terminal When the decoding device of the terminal receives and decodes the enhancement layer together with the base layer, it may decode a larger size, better quality and / or higher frame rate. For example, when spatial scalability is supported, when the decoding apparatus of the terminal receives and decodes the enhancement layer together with the base layer, it may obtain a higher resolution image or a larger size image. When temporal scalability is supported, when the decoding apparatus of the terminal receives and decodes the enhancement layer together with the base layer, an image having a high frame rate may be obtained. When qualitative scalability is supported, when the decoding device of the terminal receives and decodes the enhancement layer together with the base layer, it is possible to obtain a high fidelity image.
- the scalable encoder 520 outputs a bitstream 530 arranged in a plurality of layers (layer 1, layer 2, and layer 3).
- the extractor 540 extracts and transmits a required layer from the bitstream 530 according to a request of each terminal or network.
- the terminal 3 570 may receive and decode a stream composed of only layer 1 which is a base layer.
- the terminal 2 560 and the terminal 3 550 are terminals capable of processing a high quality image such as a TV or a PC
- the terminal 2 560 and the terminal 1 550 may be configured according to the supported performance or desired image type. Accordingly, at least one of the enhancement layers (layer 2 and layer 3) may be received and decoded together with the base layer (layer 1).
- inter layer prediction A method of determining or predicting a data value of an enhancement layer using a lower layer (reference layer) is called inter layer prediction.
- the layer on which the prediction is based is called a reference layer.
- information of an enhancement layer is predicted using the information of a lower layer such as a base layer to the maximum. Therefore, the amount of information transmitted or processed for the prediction of the enhancement layer can be greatly reduced.
- the information of the reconstructed lower layer may be upsampled and used to restore the information of the upper layer, for example, the enhancement layer.
- Interlayer prediction methods include interlayer texture prediction, interlayer motion prediction, interlayer residual prediction, and the like.
- the SVC encoding apparatus 600 includes a base layer encoder 630, an inter-layer prediction unit 650, and an enhancement layer encoder 670.
- Video streams 610 and 620 for encoding the corresponding layer are input to the base layer encoder 630 and the enhancement layer encoder 670.
- a low resolution video stream 610 is input to the base layer encoder 630, and a high resolution video stream 620 is input to the enhancement layer encoder 670.
- the base layer encoder 630 may perform encoding on the base layer by the encoding method described with reference to FIG. 1.
- the encoding information performed by the base layer encoder 630 is transferred 640 to the interlayer prediction unit 650.
- the inter-layer predictor 650 may upsample the video information reconstructed by the base layer encoder 630 and transfer the sampled information to the enhancement layer encoder 670.
- the base layer information transmitted through the inter layer prediction unit 650 may be decoded image information (texture information) of a reference layer when a multi-loop method described below is applied.
- the enhancement layer encoder 670 may also encode the enhancement layer using the encoding method described with reference to FIG. 1. However, the enhancement layer encoder 670 may encode the enhancement layer based on the base layer information and the high resolution video sequence information transmitted from the interlayer prediction unit 650.
- Upsampling based on the information of the base layer may be performed by the interlayer prediction unit 650.
- the video stream input to the base layer encoder 630 is a low resolution video stream and is a high resolution video stream input to the enhancement layer encoder 670.
- the present invention is not limited thereto, and the video stream input to the base layer encoder 630 is a high quality video stream with respect to resolution, reliability, and / or frame rate, and the video stream input to the enhancement layer encoder 670. May be a low or basic quality video stream in terms of resolution, reliability and / or frame rate, and the like.
- the SVC decoding apparatus 700 includes a base layer decoder 740, an interlayer prediction unit 760, and an enhancement layer decoder 780.
- the bit stream 710 transmitted from the encoding apparatus is a bit stream for the base layer decoder 740 and a high resolution as a bit stream for the enhancement layer decoder 780 and a bit stream 720 having low resolution video information.
- Bit streams 720 and 730 for decoding the corresponding layer are input to the base layer decoder 740 and the enhancement layer decoder 780, respectively. That is, a bit stream 720 for a low resolution video is input to the base layer decoder 740, and a bit stream 730 for a high resolution video is input to the enhancement layer decoder 780.
- the base layer decoder 740 may perform decoding on the base layer by the decoding method described with reference to FIG. 2.
- the base layer video information reconstructed by the base layer decoder 740 is transferred 750 to the interlayer prediction unit 760.
- the interlayer prediction unit 760 may upsample the video information reconstructed by the base layer decoder 740 and transfer the information to the enhancement layer decoder 780.
- the base layer information transmitted through the inter layer prediction unit 760 may be decoded image information (texture information) of a reference layer (base layer) when a multi-loop method described below is applied.
- the enhancement layer decoder 780 may also decode the base layer by the decoding method described with reference to FIG. 2. However, the enhancement layer decoder 780 may decode the enhancement layer based on the base layer information and the high resolution video sequence information transmitted from the interlayer prediction unit 760.
- Upsampling based on the information of the base layer may be performed by the interlayer prediction unit 760.
- bitstream input to the base layer decoder 740 is a low resolution bitstream, and the bitstream of the high resolution input to the enhancement layer decoder 780 has been described.
- the present invention is not limited thereto, and the bitstream input to the base layer decoder 740 is a high quality bitstream in terms of resolution, reliability, and / or frame rate, and the bitstream input to the enhancement layer decoder 780. May be a low quality or basic quality bitstream with respect to resolution, reliability and / or frame rate.
- the encoding device and the decoding device for the high layer may perform encoding and decoding on the high layer based on the information on the low layer.
- FIG. 6 and 7 illustrate that single information is transmitted as information transmitted from the base layer encoder and the base layer decoder to the interlayer prediction unit and information transmitted from the interlayer predictor to the enhancement layer encoder and the enhancement layer decoder. .
- This is for convenience of description, and in the case of FIG. 6, corresponding scalability among processing units supporting specific scalability in the base layer encoder, the inter layer prediction unit, and the enhancement layer encoder according to the supported scalability.
- Information to support the can be delivered. For example, a unit that transmits and receives information for processing temporal scalability and processes spatial scalability between units that process temporal scalability in the base layer encoder, the inter-layer predictor, and the enhancement layer encoder of FIG. 6.
- Transmitting and receiving information for processing spatial scalability, and information for processing qualitative scalability is transmitted and received between the units. Some or all of the pieces of information may be transmitted to a unit for collecting or integrating the information, and the pieces of information may be transmitted together or separately from a unit for collecting or integrating the information.
- information for supporting the scalability may be transferred between units supporting a particular scalability in the base layer decoder-inter layer predictor-enhanced layer decoder.
- Transmitting and receiving information for processing spatial scalability, and information for processing qualitative scalability is transmitted and received between the units.
- Some or all of the pieces of information may be transmitted to a unit for collecting or integrating the information, and the pieces of information may be transmitted together or separately from a unit for collecting or integrating the information.
- inter-layer prediction includes a single loop prediction method and a multi loop prediction method.
- the encoding device / decoding device does not completely decode the referenceable layers among the lower layers except for the current layer to be decoded in decoding the encoded bit stream of the multilayer.
- the encoding device / decoding device includes encoding information (motion information, intra prediction mode information) and a register of a lower layer (reference layer) that can be referred to for decoding a decoding target block (current block) or a decoding target picture (current picture) of the current layer. Only the dual signal (residual information) is decoded and used.
- the encoding information decoded for reference may include motion information such as a motion vector (MV), a reference picture index, a motion information prediction candidate index, a motion information integration candidate index, and / or an intra prediction mode. .
- the encoding device / decoding device completely decodes referenceable layers among lower layers, including the current layer to be decoded, in decoding the encoded bit string of the multilayer.
- the encoding device / decoding device decodes a decoding target block (current block) or decoding target picture (current picture) of the current layer of the current layer based on texture information obtained by completely decoding the reference layer (s).
- the complexity is reduced, but the available information or possible interlayer prediction is limited.
- the block is referred to to decode the block.
- motion information of a co-located block in a picture corresponding to the current picture in the reference layer without performing motion estimation (ME) on the current block may be performed based on (motion vector, residual information, reference picture index, etc.).
- the encoding apparatus may select the best mode in consideration of the RDO.
- 8 is a diagram schematically illustrating a multilayer encoding apparatus for performing interlayer prediction according to the present invention. 8 illustrates an example of an encoding apparatus for a base layer in a multilayer encoding apparatus.
- the unit 880 and the picture buffer 890 may serve as components of the encoding apparatus as described with reference to FIG. 1.
- the converter 810 may DST or DCT the difference value of the pixel predicted from the input image and the inter predictor 820 or the intra predictor 830, that is, a residual signal.
- the quantization unit 840 quantizes a difference value of the DST or DCT transformed pixel, that is, a residual signal (residual block).
- the inverse quantization unit 850 dequantizes the quantized value from the quantization unit 840 again.
- the inverse transform unit 860 inversely transforms the inverse quantized value by IDCT (Inverse DCT) or IDST (Inverse DST).
- the entropy encoding unit 870 entropy encodes the quantized value from the quantization unit 840 using CABAC or CAVLC.
- the inter prediction unit 820 performs prediction (inter prediction) on the current block based on the reference picture stored in the picture buffer 890 when the encoding apparatus 800 performs encoding in the inter mode.
- the intra prediction unit 830 performs prediction (intra prediction) on the current block based on neighboring blocks in the current picture. Details of inter prediction performed by the inter prediction unit and intra prediction performed by the intra prediction unit have been described with reference to FIG. 1.
- the picture buffer 890 stores the decoded image
- the filter unit 880 may apply an in-loop filter to the image before storing the image in the picture buffer 890.
- the image information processed by the encoding apparatus 800 for the base layer is transmitted to the interlayer prediction unit.
- the decoded and reconstructed image information a may be transmitted to the interlayer prediction unit after at least one of in-loop filters (deblocking filter, SAO, ALF, etc.) is applied in the filter unit 880.
- the image information a may be transmitted to the interlayer prediction unit without being filtered by the filter 880.
- 9 is a diagram schematically illustrating a multilayer encoding apparatus for performing interlayer prediction according to the present invention. 9 illustrates an example of an interlayer prediction unit in a multilayer encoding apparatus.
- the interlayer predictor 900 includes a generalized reference picture generator 910, a generalized reference block generator 920, and a predictor 925.
- the predictor 925 includes a texture predictor 930 and a spatial enlarger 940.
- the image information a shown in FIG. 9 as information input to the interlayer predictor 900 is information transmitted from the base layer encoding apparatus and is the same as the image information a shown in FIG. 8.
- the interlayer prediction unit generates prediction information necessary for interlayer prediction based on the input information a.
- the texture predictor 930 performs texture prediction based on the information a transmitted from the base layer encoding apparatus to decode the textures of the reference layer blocks corresponding to the encoding target block of the enhancement layer (current layer). Information can be obtained.
- Texture prediction is a process of obtaining a pixel value from a block of a reference layer (base layer) corresponding to a current block of an enhancement layer (current layer).
- the texture predictor 930 may obtain a base layer (reference layer) block pixel value corresponding to the current block.
- the spatial enlarger 940 may enlarge (eg, upsample) the decoded texture information of the reference layer blocks obtained by the texture predictor 930 according to the size of the enhancement layer (current layer).
- the generalized reference picture generator 910 generalizes the image based on the image information of the base layer generated from the predictor 925 and the image information 1 of the decoded enhancement layer transferred from the picture buffer of the enhancement layer encoding apparatus.
- a reference picture can be generated.
- the predictor 925 obtains the texture information a from the base layer, performs spatial enlargement if necessary, and transmits it to the generalized reference picture generator 910.
- the generalized reference picture may be a picture composed of the decoded texture signals (sum of residual signal and prediction signal) of the reference layer, for example, without an in-loop filter applied as a reconstructed picture.
- the picture may be a picture, or may be a picture to which at least one of in-loop filters (deblocking filter, SAO, ALF) is applied as a reconstructed picture.
- SAO blocking filter
- ALF in-loop filters
- a picture in which picture enhancement is performed on a picture composed of decoded texture signals of a reference layer may be used as a generalized reference picture.
- the generalized reference picture may be added to the reference picture list for the current encoding target picture (block) of the enhancement layer (current layer) and used for inter prediction of the encoding target picture (block).
- the generalized reference picture may not be added to the reference picture list, but may be designated and used as a reference picture for the encoding target picture (block) of the enhancement layer (current layer).
- the generalized reference block generator 920 may generate a generalized reference block based on texture information of the base layer generated from the predictor 925. As described above, the predictor 925 obtains the texture information a from the base layer, performs spatial enlargement if necessary, and delivers it to the generalized reference block generator 920.
- the generalized reference block may be a block composed of decoded texture signals (sum of residual signals and prediction signals) of the reference layer, for example, reconstructed in the reference layer so that the in-loop filter is not applied. It may be a block of a picture that is not in the picture, or a block of a picture reconstructed in the reference layer to which at least one of in-loop filters (deblocking filter, SAO, ALF) is applied. In addition, a block of a picture in which picture enhancement is performed on a picture composed of decoded texture signals of a reference layer may be used as a generalized reference block.
- the generalized reference block may be used as a prediction signal for the encoding target block of the enhancement layer (current layer).
- the generalized reference block generator 920 may obtain a N ⁇ N size block generated from a picture of a decoded reference layer as a generalized reference block when the size of an encoding target block of the current layer is N ⁇ N.
- the encoding apparatus of the enhancement layer may encode a difference (residual signal) from the original block of the enhancement layer by using the generalized reference block as a prediction block for the current block.
- Generalized reference picture information (2) generated by the generalized reference picture generator 910 and generalized reference block information (3, 4) generated by the generalized reference block generator 920 are transmitted to the enhancement layer encoding apparatus. Delivered.
- the generalized reference block information 3 and 4 output from the generalized reference block generator 920 may be the same information.
- FIG. 10 is a diagram schematically illustrating a multilayer encoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 10 illustrates an example of an enhancement layer encoding apparatus in a multilayer encoding apparatus.
- the enhancement layer encoding apparatus 1000 may include a transformer 1010, an intra predictor 1020, an inter predictor 1030, a quantizer 1040, an inverse quantizer 1050, an inverse transform unit 1060, and a filter unit. 1070, a picture buffer 1080, and an entropy encoding unit 1090.
- the entropy encoding unit 1090 may serve as each component in the encoding apparatus as described with reference to FIG. 8.
- the transformer 1010 may DST or DCT the difference value of the pixel predicted from the input image and the inter predictor 820 or the intra predictor 830, that is, a residual signal.
- the input image input to the enhancement layer encoding apparatus 1000 is information about an image having a higher image quality, a larger size, a higher resolution, and / or a higher frame rate than the input image input to the base layer encoding apparatus 800.
- the video stream may be a video stream composed of part or all of the entire video stream.
- the quantization unit 1040 quantizes the difference value of the DST or DCT transformed pixel, that is, a residual signal (residual block).
- the inverse quantization unit 1050 inversely quantizes the quantized value from the quantization unit 1040.
- the inverse transform unit 1060 inversely converts the inverse quantized value by IDCT (Inverse DCT) or IDST (Inverse DST).
- the entropy encoding unit 1090 entropy encodes the quantized value from the quantization unit 1040 using CABAC or CAVLC.
- the picture buffer 1080 stores the decoded image, and the filter unit 1070 may apply an in-loop filter to the image before storing the image in the picture buffer 880.
- the intra prediction unit 1020 performs prediction (intra prediction) on the current block based on neighboring blocks in the current picture when the encoding apparatus 800 performs encoding in the intra mode.
- the inter prediction unit 1030 performs prediction (inter prediction) on the current block based on the reference picture when the encoding apparatus 1000 performs encoding in the inter mode. Details of inter prediction performed by the inter prediction unit and intra prediction performed by the intra prediction unit have been described with reference to FIG. 1.
- image information processed by an encoding apparatus for a base layer is transmitted to the encoding apparatus 1000 for an enhancement layer through an interlayer prediction unit.
- information (2) about the generalized reference picture generated from the generalized reference picture generation unit of the interlayer prediction unit is transferred to the picture buffer 1080.
- Information (3) and (4) about the generalized reference block generated from the generalized reference block generator of the interlayer prediction unit are transmitted to the intra predictor 1020 and the inter predictor 1030.
- the intra predictor 1020 may use a generalized reference block 3 transmitted from the interlayer predictor as a prediction signal of the current block.
- the intra prediction unit 1020 may perform intra prediction on the current block by using neighboring reference samples of the current block in the enhancement layer as described above.
- the intra predictor 1020 may perform inter prediction on the current block of the enhancement layer (current layer) using a reference picture transferred from the inter layer predictor and stored in the picture buffer 1080.
- the inter prediction unit 1030 may use the generalized reference block 4 transmitted from the inter layer prediction unit as a prediction signal for the current block of the enhancement layer.
- the inter prediction unit 1030 may also perform motion prediction by using the image information (2) of the base layer stored in the picture buffer 1080 and the reference picture of the enhancement layer.
- the inter prediction unit 1030 that performs inter prediction on the input image of the enhancement layer and the intra prediction unit 1020 that performs intra prediction on the input image of the enhancement layer by the encoding apparatus 1000 of the enhancement layer.
- the encoding apparatus of the enhancement layer may include a prediction unit separate from the inter prediction unit 1030 and / or the intra prediction unit 1020, and the information may be transmitted from the inter layer prediction unit to the separate prediction unit (3 and 4). It may also be able to perform the prediction based on.
- information input and output information to the inter prediction unit 1030, the intra prediction unit 1020, and a separate prediction unit may be provided with a switch to be selected.
- 11 is a diagram schematically illustrating a multilayer decoding apparatus for performing interlayer prediction according to the present invention. 11 illustrates an example of a base layer decoding apparatus in the multilayer decoding apparatus.
- the base layer decoding apparatus 1100 may include an entropy decoding unit 1110, an inverse quantization unit 1120, an inverse transform unit 1130, a filter unit 1140, a picture buffer 1150, and an inter prediction unit ( 1160, an intra predictor 1170.
- the entropy decoding unit 1110, the inverse quantization unit 1120, the inverse transform unit 1130, the filter unit 1140, the picture buffer 1150, the inter prediction unit 1160, and the intra prediction unit 1170 are described with reference to FIG. 2. It can serve as each component in the decoding device as shown.
- the entropy decoding unit 1110 may receive the bitstream and perform entropy decoding by a method such as CABAC, CAVLC, or the like.
- the inverse quantization unit 1120 may inverse quantize the quantized transform coefficients obtained from the entropy decoding unit 1110.
- the inverse transform unit 1130 performs inverse quantization according to a transform method applied to the quantized transform coefficients. For example, if the quantized transform coefficients are due to DCT, inverse quantization may be performed using IDCT. If the quantized transform coefficients are due to DST, inverse quantization may be performed using IDST.
- the picture buffer unit 1150 stores the decoded image information, and the filter unit 1140 may apply an in-loop filter to the reconstructed image (picture) before being stored in the picture buffer 1150.
- the inter prediction unit 1160 performs inter prediction based on a reference picture stored in the picture buffer unit 1150 when the decoding apparatus 1100 performs inter prediction on the current block.
- the intra prediction unit 1170 performs intra prediction on the current block based on information of neighboring blocks. Details of inter prediction and intra prediction are as described above.
- image information processed by the decoding apparatus 1100 for the base layer is transmitted to the interlayer prediction unit.
- the decoded and reconstructed image information b may be transmitted to the interlayer prediction unit after at least one of in-loop filters (deblocking filter, SAO, ALF, etc.) is applied in the filter unit 1140.
- the image information b may be transmitted to the interlayer prediction unit without being filtered by the filter unit 1140.
- FIG. 12 is a diagram schematically illustrating a multilayer decoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 12 illustrates an example of an interlayer prediction unit in a multilayer decoding apparatus.
- the interlayer prediction unit 1200 of the multilayer decoding apparatus includes a generalized reference block generator 1210, a generalized reference picture generator 1220, and a predictor 1225.
- the predictor 1225 includes a texture predictor 1230 and a spatial enlarger 1240.
- the image information b shown in FIG. 12 is information transmitted from the base layer encoding apparatus and is the same as the image information b shown in FIG. 11.
- the interlayer prediction unit generates prediction information required for interlayer prediction based on the input information b.
- the texture predictor 1230 performs texture prediction based on the information b transmitted from the base layer decoding apparatus to decode the textures of the reference layer blocks corresponding to the decoding target block of the enhancement layer (current layer). Information can be obtained.
- Texture prediction is a process of obtaining a pixel value from a block of a reference layer (base layer) corresponding to a current block of an enhancement layer (current layer).
- the texture predictor 1230 may obtain a base layer (reference layer) block pixel value corresponding to the current block.
- the spatial enlarger 1240 may enlarge (eg, upsample) the decoded texture information of the reference layer blocks obtained by the texture predictor 1230 according to the size of the enhancement layer (current layer).
- the generalized reference block generator 1210 generates a generalized reference block based on texture information of the base layer generated from the predictor 1225. As described above, the predictor 1225 obtains the texture information b from the base layer, performs spatial enlargement if necessary, and delivers it to the generalized reference block generator 1210.
- the generalized reference block may be a block composed of decoded texture signals (sum of residual signal and prediction signal) of the reference layer, for example, reconstructed in the reference layer and
- the block may be a block of a picture to which the loop filter is not applied, or may be a block of a picture reconstructed in the reference layer to which at least one of in-loop filters (deblocking filter, SAO, ALF) is applied.
- SAO in-loop filters
- a block of a picture in which picture enhancement is performed on a picture composed of decoded texture signals of a reference layer may be used as a generalized reference block.
- the generalized reference block may be used as a prediction signal for the decoding object block of the enhancement layer (current layer). If the size of the decoding target block of the current layer is N ⁇ N, the generalized reference block generator 920 may obtain a block of size N ⁇ N generated from the picture of the decoded reference layer as the generalized reference block. The decoding device of the enhancement layer may reconstruct the original block of the enhancement layer by adding the residual signal and the generalized reference block.
- the generalized reference picture generator 1220 generalizes based on the image information of the base layer generated from the predictor 1225 and the image information (8) of the decoded enhancement layer transferred from the picture buffer of the enhancement layer decoding apparatus.
- the generated reference picture As described above, the predictor 1225 obtains the texture information b from the base layer, performs spatial enlargement if necessary, and delivers it to the generalized reference picture generator 1220.
- the generalized reference picture may be a picture composed of decoded texture signals (sum of residual signal and prediction signal) of the reference layer, for example, in-loop as a reconstructed picture.
- the picture may be a picture to which no filter is applied, or a picture to which at least one of in-loop filters (deblocking filter, SAO, ALF) is applied as a reconstructed picture.
- SAO blocking filter
- ALF in-loop filters
- a picture in which picture enhancement is performed on a picture configured of a decoded texture signal of a reference layer may be used as a generalized reference picture.
- the generalized reference picture may be added to the reference picture list for the current decoding target picture (block) of the enhancement layer (current layer) and used for inter prediction of the decoding target picture (block).
- the generalized reference picture may not be added to the reference picture list but may be designated and used as a reference picture for the decoding target picture (block) of the enhancement layer (current layer).
- the generalized reference picture information (7) generated by the generalized reference picture generator 1220 and the generalized reference block information (5, 6) generated by the generalized reference block generator 1210 are transmitted to the enhancement layer decoding apparatus. Delivered.
- FIG. 13 is a diagram schematically illustrating a multilayer decoding apparatus for performing interlayer prediction according to the present invention.
- FIG. 13 illustrates an example of an enhancement layer decoding apparatus in the multilayer decoding apparatus.
- the enhancement layer decoding apparatus 1300 may include an entropy decoding unit 1310, an inverse quantization unit 1320, an inverse transform unit 1330, a filter unit 1340, a picture buffer 1350, and an inter prediction unit. 1360, an intra predictor 1370.
- the entropy decoding unit 1310, the inverse quantization unit 1320, the inverse transform unit 1330, the filter unit 1340, the picture buffer 1350, the inter prediction unit 1360, and the intra prediction unit 1370 are also described with reference to FIG. 2. It can serve as each component in the decoding device as shown.
- the entropy decoding unit 1310 may receive the bitstream and perform entropy decoding by a method such as CABAC, CAVLC, or the like.
- the bitstream input to the enhancement decoding apparatus 1300 is information about an image having a higher image quality, a larger size, a higher resolution, and / or a higher frame rate than the bitstream input to the base layer decoding apparatus. It may be a bitstream composed of part or all of the stream.
- the inverse quantization unit 1320 may inverse quantize the quantized transform coefficients obtained from the entropy decoding unit 1310.
- the inverse transform unit 1330 performs inverse quantization according to a transform method applied to the quantized transform coefficients. For example, if the quantized transform coefficients are due to DCT, inverse quantization may be performed using IDCT. If the quantized transform coefficients are due to DST, inverse quantization may be performed using IDST.
- the picture buffer unit 1350 stores the decoded image information, and the filter unit 1340 may apply the in-loop filter to the reconstructed image (picture) before being stored in the picture buffer 1350.
- the inter prediction unit 1360 performs inter prediction based on a reference picture stored in the picture buffer unit 1350 when the decoding apparatus 1300 performs inter prediction on the current block.
- the intra prediction unit 1370 performs intra prediction on the current block based on information of neighboring blocks. Details of inter prediction and intra prediction are as described above.
- image information processed by the decoding apparatus 1100 for the base layer is transmitted to the enhancement layer decoding apparatus 1300 through the interlayer prediction unit 1200.
- information 7 about the generalized reference picture generated from the generalized reference picture generator of the interlayer prediction unit is transferred to the picture buffer 1350.
- information (5, 6) about the generalized reference block generated from the generalized reference block generator of the interlayer prediction unit is transmitted to the intra predictor 1370 and the inter predictor 1360.
- the intra predictor 1370 may use the generalized crooked block 5 transmitted from the interlayer predictor as a prediction signal of the current block. In addition, as described above, the intra predictor 1370 may perform intra prediction on the current block by using neighboring reference samples of the current block in the enhancement layer. In addition, the intra predictor 1370 may perform inter prediction on the current block of the enhancement layer (current layer) by using the reference picture transmitted from the inter layer predictor and stored in the picture buffer 1350.
- Whether to use the generalized reference block or to perform intra prediction in the current layer may be determined based on the indication or information transmitted from the encoding apparatus.
- the inter prediction unit 1360 may use the generalized reference block 6 transmitted from the inter layer prediction unit as a prediction signal for the current block of the enhancement layer.
- the inter prediction unit 1360 may also perform motion prediction by using the image information (7) of the base layer stored in the picture buffer 1350 and the reference picture of the enhancement layer. Based on the information, whether to perform prediction on the current block may be predetermined between the encoding apparatus and the decoding apparatus, or may be indicated from the encoding apparatus.
- the inter prediction unit 1360 that performs inter prediction on the input image of the enhancement layer and the intra prediction unit 1370 that performs intra prediction on the input image of the enhancement layer is performed by the decoding apparatus 1300 of the enhancement layer.
- the decoding apparatus of the enhancement layer includes a prediction unit separate from the inter prediction unit 1360 and / or the intra prediction unit 1357, and the information (5, 6) transmitted by the separate prediction unit from the inter layer prediction unit. It may also be able to perform the prediction based on.
- the information inputted to the inter prediction unit 1360, the intra prediction unit 1370, and a separate prediction unit and the output information may be provided with a switch to be selected.
- FIG. 14 is a diagram schematically illustrating an example of a configuration of a reference picture generation unit generalized in an interlayer prediction unit to which the present invention is applied.
- the generalized reference picture generator when the multi-loop scheme is applied, the generalized reference picture generator generates a generalized reference signal by receiving texture information acquired by the predictor (925 of FIG. 9 and 1225 of FIG. 12) of the interlayer prediction unit. Create
- the generalized reference picture generation unit 1400 includes a picture enhancement unit 1410.
- the picture enhancement unit 1410 performs a process (picture enhancement) to make the input picture or block the same as or similar to the input source picture or the input source block of the enhancement layer (current layer).
- the picture enhancement unit 1410 may apply the image information (texture information) of the base layer and the image information stored in the picture buffer 1420 of the enhancement layer.
- the image enhancement is performed on the input image information (texture information) based on the image information stored in the picture buffer 1420 of the enhancement layer.
- the image information stored in the picture buffer 1520 of the enhancement layer that is the basis of the picture enhancement may be an original image of the enhancement layer.
- the picture enhancement unit 1410 may apply at least one of an adaptive loop filter (ALF) and a sample adaptive offset (SAO) to the input image information (texture information).
- ALF adaptive loop filter
- SAO sample adaptive offset
- a picture enhancement method and a filter coefficient applied to the picture enhancement unit 1410 may be determined and signaled by the encoding apparatus.
- texture information input to the generalized reference picture generation unit 1400 may be used as the generalized reference picture.
- 15 is a diagram schematically illustrating an example of a configuration of a generalized reference block generator in an interlayer prediction unit to which the present invention is applied.
- the generalized reference block generation unit 1500 includes a picture enhancement unit 1520.
- the picture enhancement unit 1510 performs a process (picture enhancement) to make the input picture or block the same as or similar to the input source picture or the input source block of the enhancement layer (current layer).
- the picture enhancement unit 1510 may apply the image information (texture information) of the base layer and the image information stored in the picture buffer 1520 of the enhancement layer.
- the image enhancement is performed on the input image information (texture information) based on the image information stored in the picture buffer 1520 of the enhancement layer.
- the image information stored in the picture buffer 1520 of the enhancement layer that is the basis of the picture enhancement may be an original image of the enhancement layer.
- the picture enhancement unit 1510 may apply at least one of an adaptive loop filter (ALF) and a sample adaptive offset (SAO) to the input image information (texture information).
- ALF adaptive loop filter
- SAO sample adaptive offset
- a picture enhancement method and a filter coefficient applied to the picture enhancement unit 1510 may be determined and signaled by the encoding apparatus.
- the generalized reference block generator 1500 transmits the generalized reference block to the inter prediction unit 1530 or the intra prediction unit 1540 of the enhancement layer (current layer).
- texture information input to the generalized reference block generation unit 1500 may be used as the generalized reference block.
- 16 is a flow chart schematically illustrating interlayer prediction performed in accordance with the present invention.
- the multilayer encoding apparatus and the multilayer decoding apparatus determine the prediction method for the current block of the enhancement layer.
- the encoding device / decoding device determines whether to perform inter-layer prediction on the current block of the enhancement layer (S1610).
- the encoding apparatus may determine whether to perform inter-layer prediction or single-layer prediction in the enhancement layer in consideration of RDO and / or data transmission cost.
- the encoding apparatus may transmit a flag indicating whether to perform interlayer prediction or single layer prediction to the decoding apparatus.
- the decoding apparatus may determine whether to perform inter-layer prediction or single-layer prediction on the current block of the enhancement layer as indicated by a flag received from the encoding apparatus. For example, if the flag indicating whether to perform interlayer prediction is interLayerPred_flag, when the value of interLayerPred_flag is 1, the decoding apparatus performs interlayer prediction, and when the value of interLayerPred_flag is 0, the decoding apparatus performs single layer prediction. It can also be done. Although a flag having a value of 1 indicates interlayer prediction, a flag having a value of 0 may be set to indicate interlayer prediction.
- the prediction block may be performed in the enhancement layer with respect to the current block of the enhancement layer (S1620).
- the slice type including the current block of the enhancement layer is an intra-slice (I-slice)
- prediction may be performed on the current block by performing intra prediction.
- an example of the intra prediction mode applicable to the current block of the enhancement layer is as described with reference to FIG. 3.
- the encoding device / decoding device may perform intra prediction on the enhancement layer using one of a directional prediction mode and a non-directional prediction mode as shown in FIG. 3, and generate a prediction block.
- the encoding device transmits information about the intra prediction mode to be used for the current block of the enhancement layer to the decoding device, and the decoding device predicts the current block of the enhancement layer according to the intra prediction mode indicated by the information received from the encoding device. Can be performed.
- the encoding device / decoding device has the same enhancement.
- Inter prediction may be performed on the current block based on reference pictures in the layer.
- the encoding device / decoding device may perform inter prediction on the current block by using any one of an inter prediction method such as a skip mode, a merge mode, and an AMVP. Can be.
- the encoding apparatus transmits information about the inter prediction method to be used for the current block of the enhancement layer to the decoding apparatus, and the decoding apparatus determines the current block of the enhancement layer according to the inter prediction method indicated by the information received from the encoding apparatus. You can make predictions.
- the encoding device / decoding device predicts the current block of the enhancement layer based on the generalized reference picture or the generalized reference block generated from the information of the reference layer (base layer). It may be performed (S1630). For convenience of description, a method of performing interlayer prediction according to a slice type will be described.
- the slice type of the enhancement layer or the slice type of the base layer is intra slice (I-slice) and inter layer prediction is applied
- the encoding device / decoding device may perform prediction on the current block of the enhancement layer based on the generalized reference picture or the generalized reference block generated using the decoded picture information of the reference layer (base layer).
- the decoded picture of the reference layer is up-sampled according to the picture size of the enhancement layer to generalize the reference picture.
- a generalized reference block may be generated. Upsampling may be performed in the interlayer prediction unit as described with reference to FIG. 9 or 12, for example.
- Upsampling may be performed using at least one of a fixed filter using a fixed filter coefficient, an adaptive filter that adaptively varies filter coefficients according to slices, pictures, and blocks.
- the encoding device / decoding device uses a generalized reference picture (upsampled decoding of the reference layer).
- a reference picture list for a current block of an enhancement layer including a picture or a decoded picture that is not upsampled.
- the encoding device / decoding device may perform inter prediction on the current block of the enhancement layer by using the generalized reference picture included in the reference picture list of the current block of the enhancement layer as the reference picture.
- an inter prediction method such as AMVP, merge mode, and skip mode may be used as described above.
- the generalized reference picture is added to the current picture of the enhancement layer without adding the generalized reference picture (upsampled decoded picture or non-upsampled decoded picture of the reference layer) to the reference picture list. It may be used as a reference picture for the block.
- the encoding apparatus may transmit information indicating the generalized reference picture as the reference picture for the current block to the decoding apparatus.
- the decoding apparatus may perform inter prediction on the current block of the enhancement layer using the generalized reference picture. have.
- the generalized reference picture is described as an upsampled decoded picture or an unsampled decoded picture of the reference layer.
- a picture enhancement is performed on the decoded picture of the base layer. May be performed to generate a generalized reference picture.
- Picture enhancement is a method of minimizing the error between the decoded picture and the original picture used as the reference picture as described above.
- the picture enhancement can be said to minimize the error between the generalized reference picture and the original picture generated based on the reference layer.
- the original picture refers to a picture input to the encoding device of the enhancement layer.
- the encoding apparatus calculates filter coefficients capable of minimizing an error between an original picture and a generalized reference picture, and then has the filter coefficients in an upsampled decoded picture or an unsampled decoded picture obtained from a reference layer. Filters may be applied to generate generalized reference pictures.
- the encoding apparatus may also transmit information about the calculated filter coefficients to the decoding apparatus.
- the decoding apparatus may generate a generalized reference picture by applying a filter having a filter coefficient received from the encoding apparatus to an upsampled decoded picture or an unsampled decoded picture obtained from the reference layer.
- the encoding device / decoding device is based on the decoded picture of the base layer (reference layer).
- a prediction signal (prediction block) for the current block of the enhancement layer may be obtained from the generalized reference block generated as follows.
- upsampling may be performed on the decoded picture obtained from the reference layer. Upsampling may be performed, for example, in the interlayer prediction unit as described with reference to FIG. 9 or 12.
- Upsampling may be performed using at least one of a fixed filter using a fixed filter coefficient, an adaptive filter that adaptively varies filter coefficients according to slices, pictures, and blocks.
- the generalized reference block may be a block obtained by upsampling a decoded picture obtained from a reference layer (base layer) or may be a block obtained without upsampling.
- the current block of the enhancement layer may be encoded / decoded in various block sizes according to the quad tree structure.
- the current block of the enhancement layer may be encoded / decoded, predicted, or transformed in any one of CU, PU, and TU.
- the generalized reference block may be composed of pixels of the reference layer (base layer) to correspond to the current block size of the enhancement layer, or may be upsampled to correspond to the current block size of the enhancement layer.
- Picture enhancement may be further performed on the decoded image obtained from the reference layer (base layer) so that the generalized reference block may be closer to the original of the encoding / decoding target block (current block) of the enhancement layer.
- the picture enhancement may be referred to as minimization of an error between the generalized reference block generated based on the reference layer and the current block (original block) of the enhancement layer.
- the encoding apparatus calculates filter coefficients that can minimize the error between the original picture and the generalized reference block, and then applies the filter coefficients to an upsampled decoded block or an unsampled decoding block obtained from a reference layer.
- a generalized reference block can be generated by applying a filter having.
- the encoding apparatus may also transmit information about the calculated filter coefficients to the decoding apparatus.
- the decoding apparatus may generate a generalized reference block by applying a filter having a filter coefficient received from the encoding apparatus to an upsampled decoding block or an unsampled decoding block obtained from the reference layer.
- the slice type of the enhancement layer or the slice type of the base layer is inter slice (P-slice, B-slice, etc.) and inter layer prediction is applied
- the encoding device / decoding device performs prediction on the current block of the enhancement layer based on the decoded picture of the reference layer (base layer) or the generalized reference picture or the generalized reference block generated using the information of the decoded picture. You may.
- the encoding device / decoding device may upsample the decoded picture of the reference layer to match the picture size of the enhancement layer.
- the upsampling may use at least one of various filters, such as a fixed filter using fixed filter coefficients, a slice, a picture, and an adaptive filter adaptively changing filter coefficients for each block.
- the encoding device / decoding device may perform prediction on the current block of the enhancement layer based on the decoded picture of the reference layer and the generalized reference picture generated by using the decoded picture information.
- a picture upsampled from the decoded picture of the reference layer or the decoded picture of the reference layer can be used as a generalized reference picture for inter-layer prediction. Upsampling may be performed to fit the picture of the base layer (reference layer) to the picture of the enhancement layer, as described above. For example, when the picture size of the reference layer (base layer) is different from the picture size of the enhancement layer, the encoding device / decoding device may perform upsampling on the picture of the base layer to match the picture size.
- inter-layer prediction may be performed on the current block of the enhancement layer.
- the generalized reference picture included in the reference picture list may be used as a reference picture when inter prediction is performed on the current block of the enhancement layer.
- the prediction of the current block of the enhancement layer may be performed by using the inter prediction method such as the above-described AMVP, merge mode, and skip mode.
- a predetermined reference picture may be replaced with a generalized reference picture in the reference picture list for the current block of the enhancement layer.
- the generalized reference picture may simply be added to the reference picture list for the current block of the enhancement layer.
- the generalized reference picture may be used as a reference picture for the current block of the enhancement layer without adding the generalized reference picture to the reference picture list.
- the encoding apparatus may transmit information indicating the generalized reference picture as the reference picture for the current block to the decoding apparatus.
- the decoding apparatus may perform inter prediction on the current block of the enhancement layer using the generalized reference picture. have.
- the encoding device / decoding device uses the decoded picture of the reference layer (base layer).
- a prediction signal (prediction block) for the encoding or decoding target block (current block) of the enhancement layer can be obtained from the generated generalized reference block.
- the encoding device / decoding device obtains a pixel value obtained from a generalized reference block generated from an upsampled picture of a reference layer (base layer) corresponding to a current block of an enhancement layer or a generalized reference block generated from an unsampled picture. May be used as a prediction signal for the current block of the enhancement layer.
- the current block of the enhancement layer may be encoded / decoded in various block sizes according to the quad tree structure.
- the current block of the enhancement layer may be encoded / decoded, predicted, or transformed in any one of CU, PU, and TU.
- the generalized reference block may be composed of pixels of the reference layer (base layer) to correspond to the current block size of the enhancement layer, or may be upsampled to correspond to the current block size of the enhancement layer.
- the encoding device / decoding device may reconstruct or encode the current picture of the enhancement layer based on a result of the single layer prediction or the inter-layer prediction for the current block of the enhancement layer (S1650).
- the encoding apparatus may transform, quantize, and entropy encode a residual block (residual signal) generated based on a prediction result and transmit the same to the decoding apparatus.
- the encoding apparatus may multiplex and transmit a bitstream output from the base layer encoding apparatus and the enhancement layer encoding apparatus using a multiplexer.
- the decoding apparatus also, as described above, is a high definition, high resolution, large size and / or high frame supported by the enhancement layer based on the prediction block (prediction signal) and the residual block (residual signal) generated by the prediction. It is possible to reconstruct the picture (or video) of the rate.
- the bitstream input to the encoding apparatus may be divided into a base layer and an enhancement layer by a demultiplexer, and input to the base layer encoding apparatus and the enhancement layer encoding apparatus, respectively.
- the base layer is referred to as a reference layer and the enhancement layer is encoded or decoded as a layer to be encoded.
- the multi-layer encoding / decoding composed of two layers is described. It is assuming. This is an example of the present invention, the present invention is not limited to the double layer configuration.
- an encoding or decoding target layer may be inter-layer predicted using at least one of layers lower than itself as a reference layer, or may be single-layer predicted within an encoding or decoding target layer.
- the information obtained from the lower layer in order to perform the SVC has been described as upsampling with respect to the size, but this is for convenience of description, and the video of the lower layer in accordance with the video information of the upper layer like the upsampling is described. Enhancement may be equally performed for image quality, resolution, and frame rate as well as picture size.
- the generalized reference picture and the generalized reference block may be used together for inter-layer prediction, or only one may be used.
- the encoding apparatus and the decoding apparatus may have only the necessary configuration of the generalized reference block generator and the generalized reference picture generator.
- the methods are described based on a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and any steps may be in a different order than the above-described steps or It can happen at the same time.
- the above-described embodiments include examples of various aspects. For example, a combination of each embodiment will also be understood as one embodiment of the present invention.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
본 발명은 인터 레이어 인트라 예측 방법 및 장치에 관한 것으로서, 본 발명에 따른 인터 레이어 인트라 예측 방법은, 인핸스먼트 레이어에 인터 레이어 예측을 적용할 것인지를 결정하는 단계 및 인터레이어 예측을 적용하는 경우에, 참조 레이어의 디코딩된 참조 픽처로부터 생성한 일반화된 참조 정보를 기반으로 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계를 포함한다.
Description
본 발명은 영상 정보의 처리에 관한 것으로서, 더 구체적으로는 스케일러블 비디오 코딩(Scalable Video Coding: SVC, 이하 ‘SVC’라 함)을 이용한 비디오 인코딩 방법 및 비디오 디코딩 방법과 이들을 이용한 장치에 관한 것이다.
최근 멀티미디어(multimedia) 환경이 구축되면서, 다양한 단말과 네트워크가 이용되고 있으며, 이에 따른 사용자 요구도 다변화하고 있다.
예컨대, 단말의 성능과 컴퓨팅 능력(computing ability)가 다양해짐에 따라서 지원하는 성능도 기기별로 다양해지고 있다. 또한 정보가 전송되는 네트워크 역시 유무선 네트워크와 같은 외형적인 구조뿐만 아니라, 전송하는 정보의 형태, 정보량과 속도 등 기능별로도 다양해지고 있다. 사용자는 원하는 기능에 따라서 사용할 단말과 네트워크를 선택하며, 사용자에게 기업이 제공하는 단말과 네트워크의 스펙트럼도 다양해지고 있다.
이와 관련하여, 최근 HD(High Definition) 해상도를 가지는 방송이 국내뿐만 아니라 세계적으로 확대되어 서비스되면서, 많은 사용자들이 고해상도, 고화질의 영상에 익숙해지고 있다. 이에 따라서 많은 영상 서비스 관련 기관들이 차세대 영상 기기에 대한 개발에 박차를 가하고 있다.
또한 HDTV와 더불어 HDTV의 4배 이상의 해상도를 갖는 UHD(Ultra High Definition)에 대한 관심이 증대되면서 보다 높은 해상도, 고화질의 영상을 압축하여 처리하는 기술에 대한 요구는 더 높아지고 있다.
영상을 압축하여 처리하기 위해, 시간적으로 이전 및/또는 이후의 픽처로부터 현재 픽처에 포함된 화소값을 예측하는 인터(inter) 예측 기술, 현재 픽처 내의 화소 정보를 이용하여 현재 픽처에 포함된 다른 화소값을 예측하는 인트라(intra) 예측 기술, 출현 빈도가 높은 심볼(symbol)에 짧은 부호를 할당하고 출현 빈도가 낮은 심볼에 긴 부호를 할당하는 엔트로피 인코딩 기술 등이 사용될 수 있다.
상술한 바와 같이, 지원하는 기능이 상이한 각 단말과 네트워크 그리고 다변화된 사용자 요구를 고려할 때, 지원되는 영상의 품질, 크기, 프레임 등도 이에 따라 다변화될 필요가 있다.
이와 같이, 이종의 통신망과 다양한 기능/종류의 단말로 인해, 영상의 화질, 해상도, 크기, 프레임 레이트 등을 다양하게 지원하는 스케일러빌러티(scalability)은 비디오 포맷의 중요한 기능이 되고 있다.
따라서, 고효율의 비디오 부호화 방법을 기반으로 다양한 환경에서 사용자가 요구하는 서비스를 제공하기 위해 시간, 공간, 화질 등의 측면에서 효율적인 비디오 인코딩과 디코딩이 가능하도록 스케일러빌러티 기능을 제공하는 것이 필요하다.
본 발명의 일 기술적 목적은 비디오 인코딩 및 비디오 디코딩을 효율적으로 수행할 수 있는 방법 및 장치를 제공하는 것이다,
본 발명의 다른 기술적 목적은 다양한 환경에서 다양한 비디오 서비스를 제공할 수 있는 방법 및 장치를 제공하는 것이다,
본 발명의 또다른 기술적 목적은 이용자의 요구 또는 목적에 따라서 시간, 공간 및/또는 화질의 측면에서 다양한 비디오 서비스가 가능한 방법 및 장치를 제공하는 것이다.
본 발명의 또다른 기술적 목적은 동일 전송(simulcast)과 대비하여 비트율의 이득을 가져오면서 다양한 화질, 해상도, 사이즈 및/또는 프레임 레이트 등을 가지는 비디오 서비스가 가능한 방법 및 장치를 제공하는 것이다.
(1) 본 발명의 일 실시 형태는 인터 레이어 예측 방법으로서, 인핸스먼트 레이어에 인터 레이어 예측을 적용할 것인지를 결정하는 단계 및 인터레이어 예측을 적용하는 경우에, 참조 레이어의 디코딩된 참조 픽처로부터 생성한 일반화된 참조 정보를 기반으로 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계를 포함한다.
(2) (1)에서, 인핸스먼트 레이어에 인터 레이어 예측을 적용할 것인지는 인터 레이어 예측을 지시하는 플래그 정보를 기반으로 결정될 수 있다.
(3) (1)에서, 상기 일반화된 참조 정보는, 상기 인핸스먼트 레이어의 픽처 사이즈에 맞춰 업샘플링될 수 있다.
(4) (1에서), 상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 픽처이면, 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는, 상기 일반화된 참조 픽처를 상기 현재 블록의 참조 픽처로서 이용할 수 있다.
(5) (4)에서, 상기 일반화된 참조 픽처는, 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트에 포함되어 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용될 수 있다.
(6) (4)에서, 상기 일반화된 참조 픽처에는, 상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용될 수 있다.
(7) 상기 일반화된 참조 픽처는, 상기 베이스 레이어의 디코딩된 픽처, 상기 베이스 레이어의 디코딩된 픽처를 업샘플링한 픽처, 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처 또는 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처를 업샘플링한 픽처일 수 있다.
(8) (1)에서, 상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 블록인 경우에, 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는, 상기 일반화된 참조 블록을 상기 인핸스먼트 레이어의 현재 블록에 대한 예측 블록으로 할 수 있다.
(9) (8)에서, 상기 일반화된 참조 블록은, 상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용될 수 있다.
(10) (1)에서, 상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 픽처인 경우에, 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는, 상기 일반화된 참조 픽처를 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용할 수 있다.
(11) (10)에서, 상기 일반화된 참조 픽처는, 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트에 포함되어 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용될 수 있다.
(12) (10)에서, 상기 일반화된 참조 픽처는, 상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용된 것일 수 있다.
(13) (10)에서, 상기 일반화된 참조 픽처는, 상기 베이스 레이어의 디코딩된 픽처, 상기 베이스 레이어의 디코딩된 픽처를 업샘플링한 픽처, 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처 또는 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처를 업샘플링한 픽처일 수 있다.
(14) (1)에서, 상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 블록인 경우에, 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는, 상기 일반화된 참조 블록을 상기 인핸스먼트 레이어의 현재 블록에 대한 예측 블록으로 할 수 있다.
(15) (14)에서, 상기 일반화된 참조 블록은, 상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용된 것일 수 있다.
(16) 본 발명의 다른 실시형태는 스케일러블 인코딩 장치로서, 베이스 레이어의 입력 영상에 대한 예측을 수행하는 베이스 레이어 인코딩부, 인핸스먼트 레이어의 입력 영상에 대한 예측을 수행하는 인핸스먼트 레이어 인코딩부 및 상기 인핸스먼트 레이어의 입력 영상에 대한 예측을 수행하기 위한 일반화된 참조 정보를 생성하는 인터 레이어 예측부를 포함하며, 인터레이어 예측을 적용하는 경우에, 상기 인터 레이어 예측부는 상기 베이스 레이어의 디코딩된 정보로부터 일반화된 참조 정보를 생성하고, 상기 인핸스먼트 레이어 인코딩부는 상기 일반화된 참조 정보를 기반으로 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다.
(17) 본 발명의 또 다른 실시형태는 스케일러블 디코딩 장치로서, 베이스 레이어의 영상에 대한 예측을 수행하는 베이스 레이어 디코딩부, 인핸스먼트 레이어의 영상에 대한 예측을 수행하는 인핸스먼트 레이어 디코딩부 및 상기 인핸스먼트 레이어의 영상에 대한 예측을 수행하기 위한 일반화된 참조 정보를 생성하는 인터 레이어 예측부를 포함하며, 인터 레이어 예측을 적용하는 경우에, 상기 인터 레이어 예측부는 상기 베이스 레이어의 디코딩된 정보로부터 일반화된 참조 정보를 생성하며, 상기 인핸스먼트 레이어 디코딩부는 상기 일반화된 참조 정보를 기반으로 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다.
본 발명에 의하면, 다양한 환경에서 다양한 비디오 서비스를 효율적으로 제공할 수 있다.
본 발명에 의하면, 이용자의 다양한 요구 또는 이용 목적에 따라서 시간, 공간 및/또는 화질의 측면에서 다양한 비디오 서비스를 제공할 수 있다.
본 발명에 의하면, 다양한 환경에서 다양한 서비스를 제공할 수 있는 스케일러블 비디오 코딩(Scalable Video Coding)을 효율적으로 수행할 수 있다.
본 발명에 의하면, 동일 전송(simulcast)과 대비하여 비트율의 이득을 가져오면서 다양한 화질, 해상도, 사이즈 및/또는 프레임 레이트 등을 가지는 비디오 서비스를 제공할 수 있다.
도 1은 인코딩 장치의 일 실시예에 따른 기본 구성을 나타내는 블록도이다.
도 2는 디코딩 장치의 일 실시예에 따른 기본 구성을 나타내는 블록도이다.
도 3은 인트라 예측 모드의 일 예를 개략적으로 나타낸 것이다.
도 4는 싱글 레이어(single layer) 인코딩에 의한 트랜스코딩(transcodig)의 일 예를 개략적으로 설명하는 도면이다.
도 5는 SVC를 채용한 예로서 멀티 레이어 인코딩에 의한 스케일러블 비이도 부호화가 이용되는 일 예를 개략적으로 설명하는 도면이다.
도 6은 SVC를 적용하는 인코딩 장치의 일 예를 개략적으로 설명하는 도면이다.
도 7은 SVC를 적용하는 디코딩 장치의 일 예를 개략적으로 설명하는 도면이다.
도 8은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 인코딩 장치에 관하여 개략적으로 설명하는 도면이다.
도 9는 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 인코딩 장치에 관하여 개략적으로 설명하는 도면이다.
도 10은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 인코딩 장치에 관하여 개략적으로 설명하는 도면이다.
도 11은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 디코딩 장치에 관하여 개략적으로 설명하는 도면이다.
도 12는 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 디코딩 장치에 관하여 개략적으로 설명하는 도면이다.
도 13은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 디코딩 장치에 관하여 개략적으로 설명하는 도면이다.
도 14는 본 발명이 적용되는 인터 레이어 예측부에서 일반화된 참조 픽처 생성부의 구성에 관한 일 예를 개략적으로 설명하는 도면이다.
도 15는 본 발명이 적용되는 인터 레이어 예측부에서 일반화된 참조 블록 생성부의 구성에 관한 일 예를 개략적으로 설명하는 도면이다.
도 16은 본 발명에 따라서 수행되는 인터 레이어 예측을 개략적으로 설명하는 플로우 차트이다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 해당 설명을 생략할 수도 있다.
본 명세서에서 어떤 구성 요소가 다른 구성 요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있는 것을 의미할 수도 있고, 중간에 다른 구성 요소가 존재하는 것을 의미할 수도 있다. 아울러, 본 명세서에서 특정 구성을 “포함”한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
제1, 제2 등의 용어는 다양한 구성들을 설명하는데 사용될 수 있지만, 상기 구성들은 상기 용어에 의해 한정되지 않는다. 상기 용어들은 하나의 구성을 다른 구성으로부터 구별하는 목적으로 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성은 제2 구성으로 명명될 수 있고, 유사하게 제2 구성도 제1 구성으로 명명될 수 있다.
또한 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성 단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 하나의 구성부를 이루거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.
도 1은 인코딩 장치의 일 실시예에 따른 기본 구성을 나타내는 블록도이다.
도 1을 참조하면, 인코딩 장치(100)는 인터 예측부(110), 인트라 예측부(120), 스위치(125), 감산기(130), 변환부(135), 양자화부(140), 엔트로피 인코딩부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 픽처 버퍼(190)를 포함한다.
인코딩 장치(100)는 입력 영상에 대해 인트라(intra) 모드 또는 인터(inter) 모드로 인코딩을 수행하고 비트스트림(bitstream)을 출력할 수 있다. 인트라 모드인 경우 스위치(125)가 인트라로 전환되고, 인터 모드인 경우 스위치(125)가 인터로 전환된다. 인코딩 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성한 후, 입력 블록과 예측 블록의 차분을 인코딩할 수 있다.
인트라 모드인 경우, 인트라 예측부(120)는 현재 블록 주변의 이미 인코딩된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다.
인터 모드인 경우, 인터 예측부(110)는, 움직임 예측 과정에서 픽처 버퍼(190)에 저장되어 있는 참조 영상에서 입력 블록에 대응하는 영역을 찾아 움직임 벡터를 구할 수 있다. 인터 예측부(110)는 움직임 벡터와 픽처 버퍼(190)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다.
감산기(130)는 입력 블록과 생성된 예측 블록의 차분에 의해 레지듀얼 블록(residual block)을 생성할 수 있다. 변환부(135)는 레지듀얼 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 출력할 수 있다. 그리고 양자화부(140)는 입력된 변환 계수를 양자화 파라미터에 따라 양자화하여 양자화된 계수(quantized coefficient)를 출력할 수 있다.
엔트로피 인코딩부(150)는, 양자화부(140)에서 산출된 값들 또는 인코딩 과정에서 산출된 인코딩 파라미터 값 등을 기초로, 양자화된 계수를 확률 분포에 따라 엔트로피 인코딩하여 비트스트림(bitstream)을 출력할 수 있다.
양자화된 계수는 역양자화부(160)에서 역양자화되고 역변환부(170)에서 역변환될 수 있다. 역양자화, 역변환된 계수는 가산기(175)를 통해 예측 블록과 더해지고 복원 블록이 생성될 수 있다.
복원 블록은 필터부(180)를 거치고, 필터부(180)는 디블록킹 필터(deblocking filter), SAO(Sample Adaptive Offset), ALF(Adaptive Loop Filter) 중 적어도 하나 이상을 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(180)를 거친 복원 블록은 픽처 버퍼(190)에 저장될 수 있다.
도 2는 디코딩 장치의 일 실시예에 따른 기본 구성을 나타내는 블록도이다.
도 2를 참조하면, 디코딩 장치(200)는 엔트로피 디코딩부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 인터 예측부(250), 필터부(260) 및 픽처 버퍼(270)를 포함한다.
디코딩 장치(200)는 인코딩 장치에서 출력된 비트스트림을 입력 받아 인트라 모드 또는 인터 모드로 디코딩을 수행하고 재구성된 영상, 즉 복원 영상을 출력할 수 있다. 인트라 모드인 경우 스위치가 인트라로 전환되고, 인터 모드인 경우 스위치가 인터로 전환될 수 있다.
디코딩 장치(200)는 입력 받은 비트스트림으로부터 복원된 레지듀얼 블록(residual block)을 얻고 예측 블록을 생성한 후 복원된 레지듀얼 블록과 예측 블록을 더하여 재구성된 블록, 즉 복원 블록을 생성할 수 있다.
엔트로피 디코딩부(210)는, 입력된 비트스트림을 확률 분포에 따라 엔트로피 디코딩한다. 엔트로피 디코딩에 의해, 양자화된 (변환) 계수가 생성될 수 있다.
양자화된 계수는 역양자화부(220)에서 역양자화되고 역변환부(230)에서 역변환되며, 양자화된 계수가 역양자화/역변환된 결과, 복원된 레지듀얼 블록(residual block)이 생성될 수 있다.
인트라 모드인 경우, 인트라 예측부(240)는 현재 블록 주변의 이미 인코딩된 블록의 화소값을 이용하여 공간적 예측을 수행하여 예측 블록을 생성할 수 있다. 인터 모드인 경우, 인터 예측부(250)는 움직임 벡터 및 픽처 버퍼(270)에 저장되어 있는 참조 영상을 이용하여 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다.
복원된 레지듀얼 블록과 예측 블록은 가산기(255)를 통해 더해지고, 더해진 블록은 필터부(260)를 거친다. 필터부(260)는 디블록킹 필터, SAO, ALF 중 적어도 하나를 복원 블록 또는 복원 픽쳐에 적용할 수 있다. 필터부(260)는 재구성된 영상, 즉 복원 영상을 출력한다. 복원 영상은 픽처 버퍼(270)에 저장되어 화면 간 예측에 사용될 수 있다.
상술한 바와 같이, 인코딩 장치 및 디코딩 장치는 영상(video) 인코딩/디코딩을 위해 현재 블록에 대한 예측을 수행한다.
예측은 인코딩 장치/디코딩 장치, 구체적으로 인코딩 장치/디코딩 장치의 예측부에서 수행될 수 있다. 인코딩 장치의 예측부는, 예컨대 도 1의 인터 예측부(110), 인트라 예측부(120) 등을 포함할 수 있다. 디코딩 장치의 예측부는, 예컨대 도 2의 인트라 예측부(240), 인터 예측부(250) 등을 포함할 수 있다.
현재 블록에 대한 예측 모드가 인트라 예측(intra prediction)인 경우에, 예측부는 현재 블록의 인트라 예측 모드에 따라서, 이전에 인코딩된 현재 픽처 내의 픽셀(참조 샘플)을 기반으로 현재 블록에 대한 예측을 수행할 수 있다. 예측부는 참조 샘플로부터 현재 블록에 대한 예측 블록을 생성하는 인트라 예측을 수행할 수 있다.
도 3은 인트라 예측 모드의 일 예를 개략적으로 나타낸 것이다. 인트라 예측에서 예측 모드는 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 도 3의 예에서는, 예측 모드 2부터 예측 모드 34까지 33개의 방향성 예측 모드를 도시하고 있다. 비방향성 모드는 DC 예측 모드 및 플레너 모드(Planar 모드) 등을 포함할 수 있다.
인트라 예측에서는 참조 샘플에 필터를 적용한 후 예측 블록을 생성할 수 있다. 이때, 참조 샘플에 필터를 적용할 것인지는 현재 블록의 인트라 예측 모드 및/또는 사이즈에 따라 결정될 수도 있다.
현재 블록에 대한 예측 모드가 인터 예측(inter prediction) 모드인 경우에, 예측부는 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나를 참조 픽처로 하고, 참조 픽처를 기반으로 현재 블록에 대한 예측을 수행할 수 있다. 현재 블록의 예측에 이용되는 영상을 참조 픽처(reference picture) 또는 참조 프레임(reference frame)이라고 한다. 참조 픽처 내의 영역은 참조 픽처를 지시하는 참조 픽처 인덱스(refIdx) 및 움직임 벡터(motion vector) 등을 이용하여 나타낼 수 있다.
인터 예측의 경우에, 예측부는 참조 픽처 및 참조 픽처 내에서 현재 블록에 대응하는 참조 블록을 선택해서, 현재 블록에 대한 예측 블록을 생성할 수 있다. 예측부는, 현재 블록과의 레지듀얼(residual) 신호가 최소화되며 움직임 벡터 크기 역시 최소가 되도록 예측 블록을 생성할 수 있다.
참조 픽처의 정보를 이용하기 위해, 현재 블록의 주변 블록들의 정보를 이용할 수 있다. 예컨대, 스킵(skip) 모드, 머지(merge) 모드, AMVP(Advanced Motion Vector Prediction) 등을 통해, 주변 블록의 정보에 기반하여 현재 블록에 대한 예측 블록을 생성할 수 있다.
디코딩 장치의 예측부는 현재 블록의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽처 인덱스 등에 관한 정보를 인코딩 장치로부터 수신한 스킵 플래그, 머지 플래그 등을 확인하고 이에 대응하여 유도할 수 있다.
예측이 수행되는 처리 단위와 예측 방법 및 구체적인 내용이 정해지는 처리 단위는 서로 다를 수도 있다. 예컨대, PU 단위로 예측 모드가 정해져서 PU 단위로 예측이 수행될 수도 있고, PU 단위로 예측 모드가 정해지고 TU 단위로 화면 내 예측이 수행될 수도 있다.
현재 픽처에 대하여, 예측을 위하여 사용되는 픽처들로 참조 픽처 리스트를 구성할 수 있으며, 참조 픽처 인덱스는 참조 픽처 리스트에서 특정 참조 픽처를 지시할 수 있다.
P 픽처는 각 블록의 샘플 값을 예측하기 위해 적어도 하나의 움직임 벡터 및 참조 픽처 인덱스를 이용한 인터 예측 또는 인트라 예측을 이용해서 인코딩/디코딩될 수 있는 픽처이다. B 픽처는 각 블록의 샘플 값을 예측하기 위해 적어도 두 개의 움직임 벡터들과 참조 픽처 인덱스들을 이용한 인터 예측 또는 인트라 예측을 이용해서 인코딩/디코딩될 수 있는 픽처이다. P 픽처와 B 픽처 외에, 인트라 예측이 적용되는 I 픽처가 있다.
인터 예측에 있어서, 스킵 모드의 경우에 예측부는, 주변 블록의 정보를 그대로 현재 블록에 이용할 수 있다. 따라서, 스킵 모드의 경우에, 인코딩 장치는 현재 블록의 움직임 정보로서 어떤 블록의 움직임 정보를 이용할 것인지를 지시하는 정보 외에 레지듀얼 등과 같은 신택스 정보를 디코딩 장치에 전송하지 않는다.
또한, 머지 모드의 경우에, 예측부는 주변 블록의 움직임 정보를 그대로 이용하여 현재 블록에 대한 예측 블록을 생성할 수 있다. 인코딩 장치는 머지 모드를 적용하는지에 관한 정보와 어떤 블록의 움직임 정보를 이용할지에 관한 정보, 레지듀얼 정보 등을 디코딩 장치에 전송할 수 있다. 디코딩 장치는 예측 블록과 인코딩 장치로부터 전송되는 레지듀얼을 더하여 현재 블록을 복원할 수 있다.
AMVP의 경우에, 인코딩 장치는 주변 블록들의 움직임 정보를 이용하여 현재 블록의 움직임 벡터를 예측하고, (1) 어떤 주변 블록의 움직임 정보를 이용하는지에 관한 정보, (2) 현재 블록의 움직임 벡터와 예측된 움직임 벡터 사이의 차이, (3) 참조 픽처를 지시하는 참조 픽처 인덱스 등을 디코딩 장치에 전송할 수 있다. 디코딩 장치는 주변 블록의 움직임 정보들을 이용하여 현재 블록의 움직임 벡터를 예측하고, 인코딩 장치로부터 수신한 레지듀얼을 이용하여 현재 블록에 대한 움직임 벡터를 유도할 수 있다. 디코딩 장치는 유도한 움직임 벡터와 인코딩 장치로부터 수신한 참조 픽처 인덱스 정보를 기반으로 현재 블록에 대한 예측 블록을 생성할 수 있다.
한편, 통신 및 영상 기술의 발달에 따라서, 영상 정보를 이용하는 다양한 기기가 서로 다른 성능을 가지고 이용되고 있다. 핸드폰과 같은 기기들은 비교적 낮은 해상도의 동영상을 비트 스트림 기반으로 재생하기도 한다. 이에 비하여, PC(Personal Computer)와 같은 기기들은 비교적 높은 해상도의 동영상을 재생할 수 있다.
따라서, 다양한 성능의 기기들에 최적의 동영상 서비스를 제공하기 위한 방법이 고려될 필요가 있다. 이에 대한 해법 중 하나가 스케일러블 비디오 코딩(Scalable Video Coding: SVC, 이하, ‘SVC’라 함)이다.
일반적으로, 스케일러블 비디오 코딩에서는, 유효한 비디오 영상을 재생할 수 있는 서브 비트스트림이 비디오 비트스트림의 일부에 의해서도 구성될 수 있다. 이때, 서브 비트스트림은 해당 콘텐츠에 대한 기본 스트림으로서, 서브 비트스트림에 의해서는 전체 비트스트림에 의해 복원(reconstruction)되는 영상보다는 낮은 품질, 적은 사이즈 및/또는 낮은 프레임 레이트의 영상이 복원될 수 있다.
도 4는 싱글 레이어(single layer) 인코딩에 의한 트랜스코딩(transcodig)의 일 예를 개략적으로 설명하는 도면이다. 싱글 레이어 인코딩은 스케일러빌러티 기능(scalability function)을 제공하지 않는 비디오 시퀀스의 인코딩을 의미한다.
도 4의 예에서는, 원본 콘텐츠(410)가 품질, 해상도에 따라서 각각의 인코더/트랜스코더(transcoder)로부터 싱글 레이어 인코딩되어서 각 단말에 전송된다. 예컨대, 고품질 인코더/트랜스코더(420)로부터는 높은 품질의 콘텐츠가 전송되고, 저품질 인코더/트랜스코더(430)로부터 낮은 품질의 콘텐츠가 전송되며, 저해상도 인코더/트랜스코더(440)로부터 낮은 해상도의 콘텐츠가 전송된다.
높은 품질의 콘텐츠를 수신해서 이용하는 단말 1(450)은 HD TV, UHD TV 등과 같은 TV 장치일 수 있다. 낮은 품질의 콘텐츠를 수신해서 이용하는 단말 2(460)은 TV보다 작은 화면을 가지거나, TV보다 정보 처리 속도가 느린 저사양의 PC 등일 수 있다. 낮은 해상도의 콘텐츠를 수신해서 이용하는 단말 3(470)은 작은 화면의 이동 전화 등일 수 있다. 각 단말의 성능에 따라서 상술한 예와 다른 콘텐츠를 수신해서 이용할 수 있음은 물론이다.
한편, 인코딩된 비트스트림이 복수의 레이어를 포함할 수도 있다.
스케일러블 인코딩은 인코딩된 비트스트림의 일부만을 디코더가 선택적으로 디코딩할 수 있게 한다. 코딩된 비트스트림은 복수의 레이어로 배열될 수 있는데, 기본이 되는 베이스 레이어(base layer)와 하나 이상의 인핸스먼트 레이어(enhancement layer)를 포함할 수 있다.
도 5는 SVC를 채용한 예로서 멀티 레이어 인코딩에 의한 스케일러블 비디오 부호화가 이용되는 트랜스코딩의 일 예를 개략적으로 설명하는 도면이다.
멀티 레이어 인코딩은 복수 계층의 비디오 시퀀스를 인코딩함으로써 스케일러빌러티(scalability)를 제공한다. 스케일러블 시스템에서, 가장 낮은 혹은 가장 기본되는 품질의 비디오 데이터를 가지는 레이어를 베이스 레이어라고도 한다. 또한, 더 높은 품질의 비디오 데이터를 가지는 레이어를 인핸스먼트 레이어(enhancement layer)라고도 한다.
일반적인 스케일러빌러티(Scalability)로는 시간에 관한(temporal), 공간에 관한(spatial), 품질에 관한(Quality) 스케일러빌러티가 있다. 시간적 스케일러빌러티는 프레임 레이트(frame rate)에 관한 스케일러빌러티이다. 공간적 스케일러빌러티는 픽처 사이즈 또는 해상도에 관한 스케일러빌러티이다. 또한, 질적 스케일러빌러티는 영상의 신뢰도(fidelity)에 관한 것이라고 할 수 있다.
도 5의 예에서, 원본 콘텐츠(510)는 스케일러블(scalable) 인코더(520)에 의해 인코딩된다.
스케일러블 인코더(520)는 상술한 시간적, 공간적, 질적 스케일러빌러티를 지원한다. 스케일러블 인코더(520)는 원본 콘텐츠(510)를 인코딩하여 멀티 레이어의 비트스트림(530)을 생성한다.
멀티 레이어는 기본적인 영상 정보를 포함하는 베이스 레이어와 베이스 레이어보다 품질(정확도, 크기 및/또는 프레임 레이트(frame rate) 등)이 더 향상된 영상에 대한 정보를 포함하는 인핸스먼트 레이어(enhancement layer)로 구성될 수 있다.
단말의 디코딩 장치가 베이스 레이어를 수신해서 영상을 디코딩하는 경우에는, 기본적인 영상이 디코딩된다. 예컨대, 기본 사이즈, 기본 품질 및/또는 기본 프레임 레이트의 영상이 디코딩된다.
단말의 디코딩 장치가 인핸스먼트 레이어를 베이스 레이어와 함께 수신하여 디코딩하면, 더 큰 사이즈, 더 좋은 품질 및/또는 더 높은 프레임 레이트의 영상을 디코딩할 수 있다. 예컨대, 공간적 스케일러빌러티가 지원되는 경우에, 단말의 디코딩 장치가 인핸스먼트 레이어를 베이스 레이어와 함께 수신하여 디코딩하면, 더 높은 해상도의 영상 또는 더 큰 사이즈의 영상을 획득할 수 있다. 시간적 스케일러빌러티가 지원되는 경우에, 단말의 디코딩 장치가 인핸스먼트 레이어를 베이스 레이어와 함께 수신하여 디코딩하면 높은 프레임 레이트의 영상을 획득할 수 있다. 질적 스케일러빌러티가 지원되는 경우에, 단말의 디코딩 장치가 인핸스트 레이어를 베이스 레이어와 함께 수신하여 디코딩하면 높은 신뢰도(fidelity)의 영상을 획득할 수 있다.
도 5를 참조하면, 스케일러블 인코더(520)는 복수의 레이어(레이어 1, 레이어 2, 레이어 3)로 배열된 비트스트림(530)을 출력한다. 추출기(extractor, 540)는 비트스트림(530)으로부터 각 단말 혹은 네트워크의 요구에 따라 필요한 레이어를 추출하여 전송한다.
레이어 1이 베이스 레이어라고 가정하자. 단말 3(570)이 셀 폰 등의 기본적인 품질의 영상을 처리하는 단말인 경우에, 단말 3(570)은 베이스 레이어인 레이어 1만으로 구성된 스트림을 수신하여 디코딩할 수 있다.
단말 2(560)과 단말 3(550)이 TV나 PC 등과 같이 고품질의 영상을 처리할 수 있는 단말인 경우에, 단말 2(560)과 단말 1(550)은 지원되는 성능 또는 원하는 영상 타입에 따라서, 인핸스먼트 레이어(레이어 2, 레이어 3) 중 적어도 하나를 베이스 레이어(레이어 1)과 함께 수신하여 디코딩 할 수 있다.
하위 레이어(참조 레이어)를 이용하여 인핸스먼트 레이어의 데이터 값을 결정 혹은 예측하는 방법을 인터 레이어(inter layer) 예측이라고 한다. 이때, 예측의 기반이 되는 레이어를 참조 레이어라고 한다.
인터 레이어 예측에서는 베이스 레이어와 같은 하위 레이어의 정보를 최대한 활용하여 인핸스먼트 레이어의 정보를 예측한다. 따라서, 인핸스먼트 레이어의 예측을 위해 전송하거나 처리하는 정보의 양을 크게 줄일 수 있다. 예컨대, 하위 레이어와 상위 레이어에서 처리되는 픽처 사이즈가 다를 경우에는, 복원된(reconstructed) 하위 레이어의 정보를 업샘플링하여 상위 레이어, 예컨대 인핸스먼트 레이어의 정보를 복원하는데 이용할 수 있다.
인터 레이어 예측 방법으로는 인터 레이어 텍스처(texture) 예측, 인터 레이어 움직임(motion) 예측, 인터 레이어 레지듀얼(residual) 예측 등이 있다.
도 6은 SVC를 적용하는 인코딩 장치의 일 예를 개략적으로 설명하는 도면이다. 도 6을 참조하면, SVC 인코딩 장치(600)는 베이스 레이어 인코더(630), 인터-레이어 예측부(650), 인핸스먼트 레이어 인코더(670)를 포함한다.
베이스 레이어 인코더(630)와 인핸스먼트 레이어 인코더(670)에는 해당 레이어의 인코딩을 위한 비디오 스트림(610, 620)이 입력된다. 베이스 레이어 인코더(630)에는 낮은 해상도의 비디오 스트림(610)이 입력되고, 인핸스먼트 레이어 인코더(670)에는 높은 해상도의 비디오 스트림(620)이 입력된다.
베이스 레이어 인코더(630)는 도 1에서 설명한 인코딩 방법으로 베이스 레이어에 대한 인코딩을 수행할 수 있다. 베이스 레이어 인코더(630)에서 수행된 인코딩 정보는 인터 레이어 예측부(650)에 전달(640)된다.
인터 레이어 예측부(650)에서는 상술한 바와 같이, 베이스 레이어 인코더(630)에서 복원된 비디오 정보를 업샘플링해서 인핸스먼트 레이어 인코더(670)에 전달(660)할 수 있다.
인터 레이어 예측부(650)를 통해 전달되는 베이스 레이어의 정보는, 후술하는 다중 루프 방식이 적용되는 경우에, 참조 레이어의 디코딩된 영상 정보(텍스처 정보)일 수 있다.
인핸스먼트 레이어 인코더(670) 역시 도 1에서 설명한 인코딩 방법으로 인핸스먼트 레이어에 대한 인코딩을 수행할 수 있다. 다만, 인핸스먼트 레이어 인코더(670)는 인터 레이어 예측부(650)에서 전달된 베이스 레이어의 정보와 높은 해상도의 비디오 시퀀스 정보를 기반으로 인핸스먼트 레이어에 대한 인코딩을 수행할 수 있다.
베이스 레이어의 정보를 기반으로 하는 업샘플링은 인터 레이어 예측부(650)에서 수행될 수도 있다.
여기서는, 베이스 레이어 인코더(630)로 입력되는 비디오 스트림은 낮은 해상도의 비디오 스트림이고, 인핸스먼트 레이어 인코더(670)로 입력되는 높은 해상도의 비디오 스트림인 것으로 설명하였다. 하지만, 본 발명에서는 이에 한정하지 않고, 베이스 레이어 인코더(630)로 입력되는 비디오 스트림은 해상도, 신뢰도 및/또는 프레임 레이트 등에 관하여 높은 품질의 비디오 스트림이고 인핸스먼트 레이어 인코더(670)로 입력되는 비디오 스트림은 해상도, 신뢰도 및/또는 프레임 레이트 등에 관하여 낮은 품질 혹은 기본 품질의 비디오 스트림일 수 있다.
도 7은 SVC를 적용하는 디코딩 장치의 일 예를 개략적으로 설명하는 도면이다. 도 7을 참조하면, SVC 디코딩 장치(700)는 베이스 레이어 디코더(740), 인터 레이어 예측부(760) 및 인핸스먼트 레이어 디코더(780)를 포함한다.
인코딩 장치로부터 전송되는 비트 스트림(710)은 베이스 레이어 디코더(740)에 대한 비트 스트림으로서 낮은 해상도의 비디오 정보를 갖는 비트 스트림(720)과 인핸스먼트 레이어 디코더(780)에 대한 비트 스트림으로서 높은 해상도의 비디오 정보를 갖는 비트 스트림(730)을 포함한다.
베이스 레이어 디코더(740)와 인핸스먼트 레이어 디코더(780)에는 해당 레이어의 디코딩을 위한 비트 스트림(720, 730)이 각각 입력된다. 즉, 베이스 레이어 디코더(740)에는 낮은 해상도의 비디오에 대한 비트 스트림(720)이 입력되고, 인핸스먼트 레이어 디코더(780)에는 높은 해상도의 비디오에 대한 비트 스트림(730)이 입력된다.
베이스 레이어 디코더(740)는 도 2에서 설명한 디코딩 방법으로 베이스 레이어에 대한 디코딩을 수행할 수 있다. 베이스 레이어 디코더(740)에서 복원된 베이스 레이어 비디오 정보는 인터 레이어 예측부(760)에 전달(750)된다.
인터 레이어 예측부(760)에서는 상술한 바와 같이, 베이스 레이어 디코더(740)에서 복원된 비디오 정보를 업샘플링해서 인핸스먼트 레이어 디코더(780)에 전달(770)할 수 있다.
인터 레이어 예측부(760)를 통해 전달되는 베이스 레이어의 정보는, 후술하는 다중 루프 방식이 적용되는 경우에, 참조 레이어(베이스 레이어)의 디코딩된 영상 정보(텍스처 정보)일 수 있다.
인핸스먼트 레이어 디코더(780) 역시 도 2에서 설명한 디코딩 방법으로 베이스 레이어에 대한 디코딩을 수행할 수 있다. 다만, 인핸스먼트 레이어 디코더(780)는 인터 레이어 예측부(760)에서 전달된 베이스 레이어의 정보와 높은 해상도의 비디오 시퀀스 정보를 기반으로 인핸스먼트 레이어에 대한 디코딩을 수행할 수 있다.
베이스 레이어의 정보를 기반으로 하는 업샘플링은 인터 레이어 예측부(760)에서 수행될 수도 있다.
여기서는 베이스 레이어 디코더(740)로 입력되는 비트스트림은 낮은 해상도의 비트스트림이고, 인핸스먼트 레이어 디코더(780)로 입력되는 높은 해상도의 비트스트림인 것으로 설명하였다. 하지만, 본 발명에서는 이에 한정하지 않고, 베이스 레이어 디코더(740)로 입력되는 비트스트림은 해상도, 신뢰도 및/또는 프레임 레이트 등에 관하여 높은 품질의 비트스트림이고 인핸스먼트 레이어 디코더(780)로 입력되는 비트스트림은 해상도, 신뢰도 및/또는 프레임 레이트 등에 관하여 낮은 품질 혹은 기본 품질의 비트스트림일 수 있다.
도 6과 도 7에서는 레이어가 베이스 레이어와 인핸스먼트 레이어의 두 레이어로 구성된 예를 설명하였으나, 본 명세서에서 설명하는 방법과 장치는 이에 한정되지 않으며, 인핸스먼트 레이어가 복수의 계측 레이어로서 높은 레이어와 낮은 레이어로 구성된 경우에도 적용될 수 있다. 이 경우, 높은 레이어에 대한 인코딩 장치 및 디코딩 장치는 낮은 레이어에 대한 정보를 기반으로 높은 레이어에 대한 인코딩과 디코딩을 수행할 수 있다.
도 6과 도 7에서는 베이스 레이어 인코더와 베이스 레이어 디코더로부터 인터 레이어 예측부로 전달되는 정보, 인터 레이어 예측부로부터 인핸스먼트 레이어 인코더와 인핸스먼트 레이어 디코더로 전달되는 정보로서, 단일 정보가 전송되는 것으로 설명하였다. 이는 설명의 편의를 위한 것으로서, 도 6의 경우에, 지원되는 스케일러빌러티에 따라서, 베이스 레이어 인코더, 인터 레이어 예측부, 인핸스먼트 레이어 인코더 내에서 특정 스케일러빌러티를 지원하는 처리 유닛 간에 해당 스케일러빌러티를 지원하기 위한 정보가 전달될 수 있다. 예컨대, 도 6의 베이스 레이어 인코더, 인터 레이어 예측부, 인핸스먼트 레이어 인코더 내에서 시간적 스케일러빌러티를 처리하는 유닛 간에는 시간적 스케일러빌러티를 처리하기 위한 정보를 송수신하고, 공간적 스케일러빌러티를 처리하는 유닛 간에는 공간적 스케일러빌러티를 처리하기 위한 정보를 송수신하며, 질적 스케일러빌러티를 처리하는 유닛 간에는 질적 스케일러빌러티를 처리하기 위한 정보를 송수신한다. 정보를 취합 또는 통합 처리하는 유닛에는 각 정보들의 일부 또는 전부가 전송될 수 있으며, 정보를 취합 또는 통합 처리하는 유닛으로부터 각 정보들이 함께 또는 개별적으로 전송될 수도 있다.
도 7의 예에서도, 지원되는 스케일러빌러티에 따라서, 베이스 레이어 디코더-인터 레이어 예측부-인핸스먼트 레이어 디코더 내에서 특정 스케일러빌러티를 지원하는 유닛 간에 해당 스케일러빌러티를 지원하기 위한 정보가 전달될 수 있다. 예컨대, 도 7의 베이스 레이어 디코더, 인터 레이어 예측부, 인핸스먼트 레이어 디코더 내에서 시간적 스케일러빌러티를 처리하는 유닛 간에는 시간적 스케일러빌러티를 처리하기 위한 정보를 송수신하고, 공간적 스케일러빌러티를 처리하는 유닛 간에는 공간적 스케일러빌러티를 처리하기 위한 정보를 송수신하며, 질적 스케일러빌러티를 처리하는 유닛 간에는 질적 스케일러빌러티를 처리하기 위한 정보를 송수신한다. 정보를 취합 또는 통합 처리하는 유닛에는 각 정보들의 일부 또는 전부가 전송될 수 있으며, 정보를 취합 또는 통합 처리하는 유닛으로부터 각 정보들이 함께 또는 개별적으로 전송될 수도 있다.
한편, 인터 레이어 예측에는, 단일 루프(single loop) 예측 방법과 다중 루프(multi loop) 예측 방법이 있다.
단일 루프 예측 방법의 경우에, 인코딩 장치/디코딩 장치는 인코딩된 멀티 레이어의 비트열을 디코딩함에 있어서, 디코딩 대상이 되는 현재 레이어를 제외한, 하위 레이어들 중 참조 가능한 레이어들을 완전히 디코딩하지 않는다. 인코딩 장치/디코딩 장치는 현재 레이어의 디코딩 대상 블록(현재 블록) 또는 디코딩 대상 픽처(현재 픽처)를 디코딩하기 위해 참조 가능한 하위 레이어(참조 레이어)의 부호화 정보(움직임 정보, 인트라 예측 모드 정보) 및 레지듀얼 신호(레지듀얼 정보)만을 디코딩하여 이용한다. 이때, 참조 가능하도록 디코딩되는 부호화 정보는 움직임 벡터(Motion Vector: MV), 참조 픽처 인덱스, 움직임 정보 예측 후보 인덱스, 움직임 정보 통합 후보 인덱스, 등과 같은 움직임 정보 및/또는 인트라 예측 모드를 포함할 수 있다.
다중 루프 예측 방법의 경우에, 인코딩 장치/디코딩 장치는 인코딩된 멀티 레이어의 비트열을 디코딩함에 있어서, 디코딩 대상이 되는 현재 레이어를 포함하여, 하위 레이어들 중 참조 가능한 레이어들을 완전히 디코딩한다. 인코딩 장치/디코딩 장치는 참조레이어(들)을 완전히 디코딩하여 얻은 텍스처 정보를 기반으로 현재 레이어의 현재 레이어의 디코딩 대상 블록(현재 블록) 또는 디코딩 대상 픽처(현재 픽처)를 디코딩한다.
단일 루프 예측 방법을 이용하는 경우에는 복잡도가 감소하는 대신, 이용 가능한 정보 또는 가능한 인터 레이어 예측이 제한된다. 예를 들어 단일 루프 방식을 채택한 경우에, 하위 레이어(참조 레이어)에 위치하는 현재 블록의 동일 위치(co-located) 블록이 인터 예측으로 부호화된 경우, 해당 블록을 디코딩하기 위해 해당 블록이 참조하고 있는 참조 픽처의 참조 블록들을 디코딩해야 하는 어려움이 있다. 따라서 하위 레이어(참조 레이어)의 블록이 인터 예측된 경우는, 일정한 부호화 정보(움직임 벡터, 참조 픽처 인덱스, AMVP후보 인덱스, 머지 후보 인덱스, 인트라 예측 모드 등)와 레지듀얼 신호만을 이용하여 현재 레이어에 대한 인터 레이어 예측을 수행한다.
예컨대, 단일 루프 방식의 인터 레이어 예측에 있어서는, 현재 블록에 대하여 움직임 추정(Motion Estimation: ME)를 수행하지 않고, 참조 레이어에서 현재 픽처에 대응하는 픽처 내 동일 위치(co-located) 블록의 움직임 정보(움직임 벡터, 레지듀얼 정보, 참조 픽처 인덱스 등)를 기반으로 현재 블록에 대한 예측을 수행할 수 있다. 이때, 인코딩 장치는 RDO를 고려하여 최선의 모드를 선택할 수도 있다.
단일 루프 방식과 달리, 다중 루프 방식을 적용하는 경우에는 하위 레이어들 중에서 참조 가능한 레이어들을 모두 디코딩해서, 해당 레이어들의 정보를 이용할 수 있다. 따라서, 단일 루프와 달리, 다중 루프 인터 레이어 예측의 경우에는 이용하는 정보 또는 이용 가능한 인터 레이어 예측 방법에 제한이 없거나 제한이 매우 적다.
다중 루프 방식의 인터 레이어 예측의 경우는, 단일 루프 방식의 인터 레이어 예측에 의한 경우보다 더 높은 품질의 영상을 처리할 수 있다.
이하, 다중 루프 예측 방법을 이용한 인터 레이어 예측에 관하여 도면을 참조하여 구체적으로 설명한다.
도 8은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 인코딩 장치에 관하여 개략적으로 설명하는 도면이다. 도 8에서는 멀티 레이어 인코딩 장치에 있어서, 베이스 레이어에 대한 인코딩 장치의 일 예를 도시하고 있다.
도 8의 변환부(810), 인터 예측부(820), 인트라 예측부(830), 양자화부(840), 역양자화부(850), 역변환부(860), 엔트로피 인코딩부(870), 필터부(880), 픽처 버퍼(890)는 도 1에서 설명한 바와 같은 인코딩 장치 내 각 구성으로서의 역할을 수행할 수 있다.
예컨대, 변환부(810)는 입력 영상과 인터 예측부(820) 또는 인트라 예측부(830)로부터 예측된 픽셀의 차분 값 즉, 레지듀얼 신호(레지듀얼 블록)를 DST 또는 DCT 할 수 있다. 양자화부(840)는 DST 또는 DCT 변환된 픽셀의 차분 값 즉, 레지듀얼 신호(레지듀얼 블록)을 양자화 한다. 역양자화부(850)는 양자화부(840)로부터 양자화된 값을 다시 역양자화 한다. 역변환부(860)는 역양자화된 값을 IDCT(Inverse DCT) 또는 IDST(Inverse DST) 하여 역변환한다. 엔트로피 인코딩부(870)는 양자화부(840)로부터 양자화된 값을 CABAC 또는 CAVLC 등을 이용하여 엔트로피 인코딩한다.
인터 예측부(820)는 인코딩 장치(800)가 인터 모드로 인코딩을 수행하는 경우에, 픽처 버퍼(890)에 저장된 참조 픽처를 기반으로 현재 블록에 대한 예측(인터 예측)을 수행한다. 인트라 예측부(830)는 인코딩 장치(800)가 인트라 모드로 인코딩을 수행하는 경우에, 현재 픽처 내의 주변 블록들을 기반으로 현재 블록에 대한 예측(인트라 예측)을 수행한다. 인터 예측부에서 수행하는 인터 예측과 인트라 예측부에서 수행하는 인트라 예측의 구체적인 내용은 도 1에서 설명한 바 있다.
픽처 버퍼(890)는 디코딩된 영상을 저장하며, 필터부(880)는 픽처 버퍼(890)에 영상을 저장하기 전에, 영상에 인-루프 필터를 적용할 수 있다.
도 8을 참조하면, 베이스 레이어에 대한 인코딩 장치(800)에서 처리된 영상 정보는 인터 레이어 예측부로 전송된다. 디코딩되어 복원된 영상 정보(ⓐ)는 필터부(880)에서 인루프 필터들(디블록킹 필터, SAO, ALF 등) 중에서 적어도 하나가 적용된 뒤에 인터 레이어 예측부에 전달될 수 있다. 이때, 영상 정보(ⓐ)는 필터부(880)에서 필터링되지 않고 인터 레이어 예측 부에 전달될 수도 있다.
도 9는 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 인코딩 장치에 관하여 개략적으로 설명하는 도면이다. 도 9에서는 멀티 레이어 인코딩 장치에 있어서, 인터 레이어 예측부의 일 예를 도시하고 있다.
인터 레이어 예측부(900)는 일반화된 참조 픽처 생성부(910), 일반화된 참조 블록 생성부(920), 예측부(925)를 포함한다. 예측부(925)는 텍스처 예측부(930), 공간적 확대부(940)를 포함한다.
인터 레이어 예측부(900)에 입력되는 정보로서 도 9에 도시된 영상 정보(ⓐ)는 베이스 레이어 인코딩 장치로부터 전송되는 정보로서 도 8에 도시된 영상 정보(ⓐ)와 동일하다.
인터 레이어 예측부는 입력되는 정보(ⓐ)를 기반으로 인터 레이어 예측에 필요한 예측 정보를 생성한다.
구체적으로, 텍스처 예측부(930)는 베이스 레이어 인코딩 장치로부터 전달되는 정보(ⓐ)를 기반으로 텍스처 예측을 수행하여 인핸스먼트 레이어(현재 레이어)의 인코딩 대상 블록에 대응하는 참조 레이어 블록들의 디코딩된 텍스처 정보를 획득할 수 있다.
텍스처 예측이란, 인핸스먼트 레이어(현재 레이어)의 현재 블록에 대응하는 참조 레이어(베이스 레이어)의 블록으로부터 픽셀 값을 획득하는 과정이다. 텍스처 예측을 통해서, 텍스처 예측부(930)는 현재 블록에 대응하는 베이스 레이어(참조 레이어) 블록픽셀 값을 획득할 수 있다.
공간적 확대부(940)는 텍스처 예측부(930)에서 획득한 참조 레이어 블록들의 디코딩된 텍스처 정보를 인핸스먼트 레이어(현재 레이어)의 사이즈에 맞춰 확대(예컨대, 업샘플링)할 수 있다.
일반화된 참조 픽처 생성부(910)는 예측부(925)로부터 생성되는 베이스 레이어의 영상 정보, 인핸스먼트 레이어 인코딩 장치의 픽처 버퍼로부터 전달되는 디코딩된 인핸스먼트 레이어의 영상 정보(①)를 기반으로 일반화된 참조 픽처를 생성할 수 있다. 예측부(925)는 상술한 바와 같이, 베이스 레이어로부터 텍스처 정보(ⓐ)를 획득하고 필요한 경우에 공간적 확대를 수행하여 일반화된 참조 픽처 생성부(910)로 전달한다.
다중 루프를 적용하는 경우에, 일반화된 참조 픽처는 참조 레이어의 디코딩된 텍스처 신호(잔차 신호와 예측 신호의 합)들로 구성된 픽처일 수 있다, 예컨대, 복원된 픽처로서 인루프 필터가 적용되지 않은 픽처일 수도 있고, 복원된 픽처로서 인루프 필터(디블록킹 필터, SAO, ALF) 중 적어도 하나가 적용된 픽처일 수도 있다. 또한, 참조 레이어의 디코딩된 텍스처 신호로 구성된 픽처에 대하여 픽처 향상을 수행한 픽처를 일반화된 참조 픽처로 할 수도 있다.
일반화된 참조 픽처는 인핸스먼트 레이어(현재 레이어)의 현재 인코딩 대상 픽처(블록)에 대한 참조 픽처 리스트에 추가되어 상기 인코딩 대상 픽처(블록)의 인터 예측에 이용될 수 있다. 또한, 일반화된 참조 픽처는 참조 픽처 리스트에 추가되지 않고, 인핸스먼트 레이어(현재 레이어)의 인코딩 대상 픽처(블록)에 대한 참조 픽처로서 지정되어 사용될 수도 있다.
일반화된 참조 블록 생성부(920)는 예측부(925)로부터 생성되는 베이스 레이어의 텍스처 정보를 기반으로 일반화된 참조 블록을 생성할 수 있다. 예측부(925)는 상술한 바와 같이, 베이스 레이어로부터 텍스처 정보(ⓐ)를 획득하고 필요한 경우에 공간적 확대를 수행하여 일반화된 참조 블록 생성부(920)로 전달한다.
다중 루프를 적용하는 경우에, 일반화된 참조 블록은 참조 레이어의 디코딩된 텍스처 신호(잔차 신호와 예측 신호의 합)들로 구성된 블록일 수 있다, 예컨대, 참조 레이어에서 복원되어 인루프 필터가 적용되지 않은 픽처의 블록일 수도 있고, 참조 레이어에서 복원되어 인루프 필터(디블록킹 필터, SAO, ALF) 중 적어도 하나가 적용된 픽처의 블록일 수도 있다. 또한, 참조 레이어의 디코딩된 텍스처 신호로 구성된 픽처에 대하여 픽처 향상을 수행한 픽처의 블록을 일반화된 참조 블록으로 할 수도 있다.
일반화된 참조 블록은 인핸스먼트 레이어(현재 레이어)의 인코딩 대상 블록에 대한 예측 신호로 사용될 수 있다. 일반화된 참조 블록 생성부(920)는 현재 레이어의 인코딩 대상 블록의 크기가 N X N인 경우에, 디코딩된 참조 레이어의 픽처로부터 생성된 N X N 크기의 블록을 일반화된 참조 블록으로 획득할 수 있다. 인핸스먼트 레이어의 인코딩 장치는 일반화된 참조 블록을 현재 블록에 대한 예측 블록으로 해서, 인핸스먼트 레이어의 원본 블록과의 차이(레지듀얼 신호)를 인코딩할 수 있다.
일반화된 참조 픽처 생성부(910)에서 생성된 일반화된 참조 픽처 정보(②)와 일반화된 참조 블록 생성부(920)에서 생성된 일반화된 참조 블록 정보(③, ④)는 인핸스먼트 레이어 인코딩 장치에 전달된다. 일반화된 참조 블록 생성부(920)으로부터 출력되는 일반화된 참조 블록 정보(③, ④)는 서로 동일한 정보일 수 있다.
도 10은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 인코딩 장치에 관하여 개략적으로 설명하는 도면이다. 도 10에서는 멀티 레이어 인코딩 장치에 있어서, 인핸스먼트 레이어 인코딩 장치의 일 예를 도시하고 있다.
인핸스먼트 레이어 인코딩 장치(1000)는 변환부(1010), 인트라 예측부(1020), 인터 예측부(1030), 양자화부(1040), 역양자화부(1050), 역변환부(1060), 필터부(1070), 픽처 버퍼(1080), 엔트로피 인코딩부(1090)를 포함한다.
도 10의 변환부(1010), 인트라 예측부(1020), 인터 예측부(1030), 양자화부(1040), 역양자화부(1050), 역변환부(1060), 필터부(1070), 픽처 버퍼(1080), 엔트로피 인코딩부(1090)는 도 8에서 설명한 바와 같은 인코딩 장치 내 각 구성으로서의 역할을 수행할 수 있다.
예컨대, 변환부(1010)는 입력 영상과 인터 예측부(820) 또는 인트라 예측부(830)로부터 예측된 픽셀의 차분 값 즉, 레지듀얼 신호(레지듀얼 블록)를 DST 또는 DCT 할 수 있다. 인핸스먼트 레이어 인코딩 장치(1000)에 입력되는 입력 영상은 베이스 레이어 인코딩 장치(800)에 입력되는 입력 영상보다 더 높은 화질, 더 큰 사이즈, 더 높은 해상도 및/또는 더 높은 프레임 레이트의 영상에 대한 정보로서, 전체 영상 스트림의 일부 또는 전부로 구성된 영상 스트림일 수 있다. 양자화부(1040)는 DST 또는 DCT 변환된 픽셀의 차분 값 즉, 레지듀얼 신호(레지듀얼 블록)을 양자화 한다. 역양자화부(1050)는 양자화부(1040)로부터 양자화된 값을 다시 역양자화 한다. 역변환부(1060)는 역양자화된 값을 IDCT(Inverse DCT) 또는 IDST(Inverse DST) 하여 역변환한다. 엔트로피 인코딩부(1090)는 양자화부(1040)로부터 양자화된 값을 CABAC 또는 CAVLC 등을 이용하여 엔트로피 인코딩한다.
픽처 버퍼(1080)는 디코딩된 영상을 저장하며, 필터부(1070)는 픽처 버퍼(880)에 영상을 저장하기 전에, 영상에 인-루프 필터를 적용할 수 있다.
인트라 예측부(1020)는 인코딩 장치(800)가 인트라 모드로 인코딩을 수행하는 경우에, 현재 픽처 내의 주변 블록들을 기반으로 현재 블록에 대한 예측(인트라 예측)을 수행한다. 인터 예측부(1030)는 인코딩 장치(1000)가 인터 모드로 인코딩을 수행하는 경우에, 참조 픽처를 기반으로 현재 블록에 대한 예측(인터 예측)을 수행한다. 인터 예측부에서 수행하는 인터 예측과 인트라 예측부에서 수행하는 인트라 예측의 구체적인 내용은 도 1에서 설명한 바 있다.
도 10을 참조하면, 베이스 레이어에 대한 인코딩 장치에서 처리된 영상 정보는 인터 레이어 예측부를 거쳐 인핸스먼트 레이어에 대한 인코딩 장치(1000)로 전송된다. 예컨대, 인터 레이어 예측부의 일반화된 참조 픽처 생성부로부터 생성된 일반화된 참조 픽처에 대한 정보(②)가 픽처 버퍼(1080)로 전달된다. 인터 레이어 예측부의 일반화된 참조 블록 생성부로부터 생성된 일반화된 참조 블록에 대한 정보(③, ④)가 인트라 예측부(1020)와 인터 예측부(1030)에 전달된다.
다중 루프 방식이 적용되는 경우에, 인트라 예측부(1020)는 인터 레이어 예측부로부터 전송되는 일반화된 참조 블록(③)을 현재 블록의 예측 신호로 이용할 수 있다. 또한, 인트라 예측부(1020)는 상술한 바와 같이 인핸스먼트 레이어 내에서, 현재 블록의 주변 참조 샘플들을 이용하여 현재 블록에 대한 인트라 예측을 수행할 수도 있다. 또한, 인트라 예측부(1020)는 인터 레이어 예측부로부터 전달되어 픽처 버퍼(1080)에 저장된 참조 픽처를 이용하여 인핸스먼트 레이어(현재 레이어)의 현재 블록에 대하여 인터 예측을 수행할 수도 있다.
인터 예측부(1030)는 도시된 바와 같이, 인터 레이어 예측부로부터 전송되는 일반화된 참조 블록(④)을 인핸스먼트 레이어의 현재 블록에 대한 예측 신호로 사용할 수 있다. 인터 예측부(1030)는 또한 픽처 버퍼(1080)에 저장된 베이스 레이어의 영상 정보(②) 및 인핸스먼트 레이어의 참조 픽처를 이용하여 움직임 예측을 수행할 수도 있다.
여기서는 인핸스먼트 레이어의 인코딩 장치(1000)에서 인핸스먼트 레이어의 입력 영상에 대한 인터 예측을 수행하는 인터 예측부(1030)와 인핸스먼트 레이어의 입력 영상에 대한 인트라 예측을 수행하는 인트라 예측부(1020)가 인터 레이어 예측부로부터 전달되는 정보를 기반으로 하는 예측까지 수행하는 것으로 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 인핸스먼트 레이어의 인코딩 장치는 인터 예측부(1030) 및/또는 인트라 예측부(1020)와는 별도의 예측부를 구비하고, 상기 별도의 예측부가 인터 레이어 예측부로부터 전송되는 정보(③, ④)를 기반으로 하는 예측을 수행하도록 할 수도 있다. 이 경우에, 인터 예측부(1030), 인트라 예측브(1020) 및 별도의 예측부로 입력되는 정보 및 출력되는 정보는 스위치를 구비하여 선택될 수 있도록 할 수 있다
도 11은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 디코딩 장치에 관하여 개략적으로 설명하는 도면이다. 도 11에서는 멀티 레이어 디코딩 장치에 있어서, 베이스 레이어 디코딩 장치의 일 예를 도시하고 있다.
도 11을 참조하면, 베이스 레이어 디코딩 장치(1100)는 엔트로피 디코딩부(1110), 역양자화부(1120), 역변환부(1130), 필터부(1140), 픽처 버퍼(1150), 인터 예측부(1160), 인트라 예측부(1170)를 포함한다.
엔트로피 디코딩부(1110), 역양자화부(1120), 역변환부(1130), 필터부(1140), 픽처 버퍼(1150), 인터 예측부(1160), 인트라 예측부(1170)는 도 2에서 설명한 바와 같은 디코딩 장치 내 각 구성으로서의 역할을 수행할 수 있다.
예컨대, 엔트로피 디코딩부(1110)는 비트스트림을 수신해서 CABAC, CAVLC 등과 같은 방법으로 엔트로피 디코딩을 수행할 수 있다. 역양자화부(1120)는 엔트로피 디코딩부(1110)로부터 획득한 양자화된 변환 계수를 역양자화 할 수 있다. 역변환부(1130)는 양자화된 변환 계수에 적용된 변환 방법에 따라서 역양자화를 수행한다. 예컨대, 양자화된 변환 계수가 DCT에 의한 것이면, IDCT를 이용하여 역양자화를 수행하며, 양자화된 변환 계수가 DST에 의한 것이면, IDST를 이용하여 역양자화를 수행할 수 있다.
픽처 버퍼부(1150)는 복호화된 영상 정보를 저장하며, 필터부(1140)는 픽처 버퍼(1150)에 저장되기 전에 복원된 영상(픽처)에 인-루프 필터를 적용할 수 있다.
인터 예측부(1160)는 현재 블록에 대하여 디코딩 장치(1100)가 인터 예측을 수행하는 경우에, 픽처 버퍼부(1150)에 저장된 참조 픽처를 기반으로 인터 예측을 수행한다. 인트라 예측부(1170)는 현재 블록에 대하여 디코딩 장치(1100)가 인트라 예측을 수행하는 경우에, 주변 블록의 정보를 기반으로 현재 블록에 대한 인트라 예측을 수행한다. 인터 예측 및 인트라 예측의 구체적인 내용은 상술한 바와 같다.
도 11을 참조하면, 베이스 레이어에 대한 디코딩 장치(1100)에서 처리된 영상 정보는 인터 레이어 예측부로 전송된다. 예컨대, 디코딩되어 복원된 영상 정보(ⓑ)는 필터부(1140)에서 인루프 필터들(디블록킹 필터, SAO, ALF 등) 중에서 적어도 하나가 적용된 뒤에 인터 레이어 예측부에 전달될 수 있다. 이때, 영상 정보(ⓑ)는 필터부(1140)에서 필터링되지 않고 인터 레이어 예측 부에 전달될 수도 있다.
도 12는 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 디코딩 장치에 관하여 개략적으로 설명하는 도면이다. 도 12에서는 멀티 레이어 디코딩 장치에 있어서, 인터 레이어 예측부의 일 예를 도시하고 있다.
멀티 레이어 디코딩 장치의 인터 레이어 예측부(1200)는 일반화된 참조 블록 생성부(1210), 일반화된 참조 픽처 생성부(1220), 예측부(1225)를 포함한다. 예측부(1225)는 텍스처 예측부(1230), 공간적 확대부(1240)를 포함한다.
인터 레이어 예측부(1200)에 입력되는 정보로서 도 12에 도시된 영상 정보(ⓑ)는 베이스 레이어 인코딩 장치로부터 전송되는 정보로서 도 11에 도시된 영상 정보(ⓑ)와 동일하다.
인터 레이어 예측부는 입력되는 정보(ⓑ)를 기반으로 인터 레이어 예측에 필요한 예측 정보를 생성한다.
구체적으로, 텍스처 예측부(1230)는 베이스 레이어 디코딩 장치로부터 전달되는 정보(ⓑ)를 기반으로 텍스처 예측을 수행하여 인핸스먼트 레이어(현재 레이어)의 디코딩 대상 블록에 대응하는 참조 레이어 블록들의 디코딩된 텍스처 정보를 획득할 수 있다.
텍스처 예측이란, 인핸스먼트 레이어(현재 레이어)의 현재 블록에 대응하는 참조 레이어(베이스 레이어)의 블록으로부터 픽셀 값을 획득하는 과정이다. 텍스처 예측을 통해서, 텍스처 예측부(1230)는 현재 블록에 대응하는 베이스 레이어(참조 레이어) 블록픽셀 값을 획득할 수 있다.
공간적 확대부(1240)는 텍스처 예측부(1230)에서 획득한 참조 레이어 블록들의 디코딩된 텍스처 정보를 인핸스먼트 레이어(현재 레이어)의 사이즈에 맞춰 확대(예컨대, 업샘플링)할 수 있다.
일반화된 참조 블록 생성부(1210)는 예측부(1225)로부터 생성되는 베이스 레이어의 텍스처 정보를 기반으로 일반화된 참조 블록을 생성한다. 예측부(1225)는 상술한 바와 같이, 베이스 레이어로부터 텍스처 정보(ⓑ)를 획득하고 필요한 경우에 공간적 확대를 수행하여 일반화된 참조 블록 생성부(1210)로 전달한다.
상술한 바와 같이, 다중 루프를 적용하는 경우에, 일반화된 참조 블록은 참조 레이어의 디코딩된 텍스처 신호(잔차 신호와 예측 신호의 합)들로 구성된 블록일 수 있다, 예컨대, 참조 레이어에서 복원되어 인루프 필터가 적용되지 않은 픽처의 블록일 수도 있고, 참조 레이어에서 복원되어 인루프 필터(디블록킹 필터, SAO, ALF) 중 적어도 하나가 적용된 픽처의 블록일 수도 있다. 또한, 참조 레이어의 디코딩된 텍스처 신호로 구성된 픽처에 대하여 픽처 향상을 수행한 픽처의 블록을 일반화된 참조 블록으로 할 수도 있다.
일반화된 참조 블록은 인핸스먼트 레이어(현재 레이어)의 디코딩 대상 블록에 대한 예측 신호로 사용될 수 있다. 일반화된 참조 블록 생성부(920)는 현재 레이어의 디코딩 대상 블록의 크기가 N X N인 경우에, 디코딩된 참조 레이어의 픽처로부터 생성된 N X N 크기의 블록을 일반화된 참조 블록으로 획득할 수 있다. 인핸스먼트 레이어의 디코딩 장치는 레지듀얼 신호와 일반화된 참조 블록을 합하여 인핸스먼트 레이어의 원본 블록을 복원할 수 있다.
일반화된 참조 픽처 생성부(1220)는 예측부(1225)로부터 생성되는 베이스 레이어의 영상 정보, 인핸스먼트 레이어 디코딩 장치의 픽처 버퍼로부터 전달되는 디코딩된 인핸스먼트 레이어의 영상 정보(⑧)를 기반으로 일반화된 참조 픽처를 생성한다. 예측부(1225)는 상술한 바와 같이, 베이스 레이어로부터 텍스처 정보(ⓑ)를 획득하고 필요한 경우에 공간적 확대를 수행하여 일반화된 참조 픽처 생성부(1220)로 전달한다.
상술한 바와 같이, 다중 루프를 적용하는 경우에, 일반화된 참조 픽처는 참조 레이어의 디코딩된 텍스처 신호(잔차 신호와 예측 신호의 합)들로 구성된 픽처일 수 있다, 예컨대, 복원된 픽처로서 인루프 필터가 적용되지 않은 픽처일 수도 있고, 복원된 픽처로서 인루프 필터(디블록킹 필터, SAO, ALF) 중 적어도 하나가 적용된 픽처일 수도 있다. 또한, 상술한 바와 같이, 참조 레이어의 디코딩된 텍스처 신호로 구성된 픽처에 대하여 픽처 향상을 수행한 픽처를 일반화된 참조 픽처로 할 수도 있다.
일반화된 참조 픽처는 인핸스먼트 레이어(현재 레이어)의 현재 디코딩 대상 픽처(블록)에 대한 참조 픽처 리스트에 추가되어 상기 디코딩 대상 픽처(블록)의 인터 예측에 이용될 수 있다. 또한, 일반화된 참조 픽처는 참조 픽처 리스트에 추가되지 않고, 인핸스먼트 레이어(현재 레이어)의 디코딩 대상 픽처(블록)에 대한 참조 픽처로서 지정되어 사용될 수도 있다.
일반화된 참조 픽처 생성부(1220)에서 생성된 일반화된 참조 픽처 정보(⑦)와 일반화된 참조 블록 생성부(1210)에서 생성된 일반화된 참조 블록 정보(⑤, ⑥)는 인핸스먼트 레이어 디코딩 장치에 전달된다.
도 13은 본 발명에 따라서 인터 레이어 예측을 수행하는 멀티 레이어 디코딩 장치에 관하여 개략적으로 설명하는 도면이다. 도 13서는 멀티 레이어 디코딩 장치에 있어서, 인핸스먼트 레이어 디코딩 장치의 일 예를 도시하고 있다.
도 13을 참조하면, 인핸스먼트 레이어 디코딩 장치(1300)는 엔트로피 디코딩부(1310), 역양자화부(1320), 역변환부(1330), 필터부(1340), 픽처 버퍼(1350), 인터 예측부(1360), 인트라 예측부(1370)를 포함한다.
엔트로피 디코딩부(1310), 역양자화부(1320), 역변환부(1330), 필터부(1340), 픽처 버퍼(1350), 인터 예측부(1360), 인트라 예측부(1370) 역시 도 2에서 설명한 바와 같은 디코딩 장치 내 각 구성으로서의 역할을 수행할 수 있다.
예컨대, 엔트로피 디코딩부(1310)는 비트스트림을 수신해서 CABAC, CAVLC 등과 같은 방법으로 엔트로피 디코딩을 수행할 수 있다. 인핸스먼트 디코딩 장치(1300)에 입력되는 비트스트림은 베이스 레이어 디코딩 장치에 입력되는 비트스트림보다 더 높은 화질, 더 큰 사이즈, 더 높은 해상도 및/또는 더 높은 프레임 레이트의 영상에 대한 정보로서, 전체 비트스트림의 일부 또는 전부로 구성된 비트스트림일 수 있다. 역양자화부(1320)는 엔트로피 디코딩부(1310)로부터 획득한 양자화된 변환 계수를 역양자화 할 수 있다. 역변환부(1330)는 양자화된 변환 계수에 적용된 변환 방법에 따라서 역양자화를 수행한다. 예컨대, 양자화된 변환 계수가 DCT에 의한 것이면, IDCT를 이용하여 역양자화를 수행하며, 양자화된 변환 계수가 DST에 의한 것이면, IDST를 이용하여 역양자화를 수행할 수 있다.
픽처 버퍼부(1350)는 복호화된 영상 정보를 저장하며, 필터부(1340)는 픽처 버퍼(1350)에 저장되기 전에 복원된 영상(픽처)에 인-루프 필터를 적용할 수 있다.
인터 예측부(1360)는 현재 블록에 대하여 디코딩 장치(1300)가 인터 예측을 수행하는 경우에, 픽처 버퍼부(1350)에 저장된 참조 픽처를 기반으로 인터 예측을 수행한다. 인트라 예측부(1370)는 현재 블록에 대하여 디코딩 장치(1300)가 인트라 예측을 수행하는 경우에, 주변 블록의 정보를 기반으로 현재 블록에 대한 인트라 예측을 수행한다. 인터 예측 및 인트라 예측의 구체적인 내용은 상술한 바와 같다.
도 13을 참조하면, 베이스 레이어에 대한 디코딩 장치(1100)에서 처리된 영상 정보는 인터 레이어 예측부(1200)를 통해 인핸스먼트 레이어 디코딩 장치(1300)로 전송된다. 예컨대, 인터 레이어 예측부의 일반화된 참조 픽처 생성부로부터 생성된 일반화된 참조 픽처에 대한 정보(⑦)가 픽처 버퍼(1350)에 전달된다. 또한, 인터 레이어 예측부의 일반화된 참조 블록 생성부로부터 생성된 일반화된 참조 블록에 대한 정보(⑤, ⑥)가 인트라 예측부(1370)와 인터 예측부(1360)에 전달된다.
다중 루프 방식이 적용되는 경우에, 인트라 예측부(1370)는 인터 레이어 예측부로부터 전송되는 일반화된 참보 블록(⑤)을 현재 블록의 예측 신호로 이용할 수 있다. 또한, 인트라 예측부(1370)는 상술한 바와 같이, 인핸스먼트 레이어 내에서 현재 블록의 주변 참조 샘플들을 이용하여 현재 블록에 대한 인트라 예측을 수행할 수도 있다. 또한, 인트라 예측부(1370)는 인터 레이어 예측부로부터 전송되어 픽처 버퍼(1350)에 저장되어 있는 참조 픽처를 이용하여 인핸스먼트 레이어(현재 레이어)의 현재 블록에 대한 인터 예측을 수행할 수도 있다.
일반화된 참조 블록을 이용할 것인지 현재 레이어 내에서 인트라 예측을 수행할 것인지에 관해서는 인코딩 장치로부터 전송되는 지시 혹은 정보를 기반으로 결정할 수 있다.
인터 예측부(1360)는 도시된 바와 같이, 인터 레이어 예측부로부터 전송되는 일반화된 참조 블록(⑥)을 인핸스먼트 레이어의 현재 블록에 대한 예측 신호로 사용할 수 있다. 인터 예측부(1360)는 또한 픽처 버퍼(1350)에 저장된 베이스 레이어의 영상 정보(⑦) 및 인핸스먼트 레이어의 참조 픽처를 이용하여 움직임 예측을 수행할 수도 있다. 어떤 정보를 기반으로 현재 블록에 대한 예측을 수행할 것인지는 인코딩 장치와 디코딩 장치 사이에 미리 정해져 있을 수도 있고, 인코딩 장치로부터 지시될 수도 있다.
여기서는 인핸스먼트 레이어의 디코딩 장치(1300)에서 인핸스먼트 레이어의 입력 영상에 대한 인터 예측을 수행하는 인터 예측부(1360)와 인핸스먼트 레이어의 입력 영상에 대한 인트라 예측을 수행하는 인트라 예측부(1370)가 인터 레이어 예측부로부터 전달되는 정보를 기반으로 하는 예측까지 수행하는 것으로 설명하였으나, 본 발명은 이에 한정되지 않는다. 예컨대, 인핸스먼트 레이어의 디코딩 장치는 인터 예측부(1360) 및/또는 인트라 예측부(1367)와는 별도의 예측부를 구비하고, 상기 별도의 예측부가 인터 레이어 예측부로부터 전송되는 정보(⑤, ⑥)를 기반으로 하는 예측을 수행하도록 할 수도 있다. 이 경우에, 인터 예측부(1360), 인트라 예측브(1370) 및 별도의 예측부로 입력되는 정보 및 출력되는 정보는 스위치를 구비하여 선택될 수 있도록 할 수 있다.
도 14는 본 발명이 적용되는 인터 레이어 예측부에서 일반화된 참조 픽처 생성부의 구성에 관한 일 예를 개략적으로 설명하는 도면이다. 상술한 바와 같이, 일반화된 참조 픽처 생성부는 다중 루프 방식이 적용되는 경우에, 인터 레이어 예측부의 예측부(도 9의 925, 도 12의 1225)에서 획득한 텍스처 정보를 입력 받아 일반화된 참조 신호를 생성한다.
도 14를 참조하면, 일반화된 참조 픽처 생성부(1400)는 픽처 향상부(1410)를 포함한다.
픽처 향상부(1410)는 입력된 픽처 또는 블록을 인핸스먼트 레이어(현재 레이어)의 입력 원본 픽처 또는 입력 원본 블록과 동일하거나 유사하도록 만드는 과정(픽처 향상)을 수행한다.
예컨대, 다중 루프 방식이 적용되는 일반화된 참조 픽처 생성부(1400)에서, 픽처 향상부(1410)는 베이스 레이어의 영상 정보(텍스처 정보) 및 인핸스먼트 레이어의 픽처 버퍼(1420)에 저장된 영상 정보를 입력 받아서, 인핸스먼트 레이어의 픽처 버퍼(1420)에 저장된 영상 정보를 기반으로, 입력된 영상 정보(텍스처 정보)에 대하여 픽처 향상을 수행한다. 이 경우, 픽처 향상의 기반이 되는 인핸스먼트 레이어의 픽처 버퍼(1520)에 저장된 영상 정보는 인핸스먼트 레이어의 원본 영상일 수도 있다.
픽처 향상의 방법으로서, 픽처 향상부(1410)는 입력된 영상 정보(텍스처 정보)에 ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset) 중 적어도 하나를 적용할 수 있다. 디코딩 장치의 경우에는, 픽처 향상부(1410)에서 적용되는 픽처 향상 방법과 필터 계수 등이 인코딩 장치에서 결정되어 시그널링 될 수도 있다.
한편, 픽처 향상을 적용하지 않는 경우에는, 일반화된 참조 픽처 생성부(1400)에 입력되는 텍스처 정보를 일반화된 참조 픽처로서 이용할 수 있다.
도 15는 본 발명이 적용되는 인터 레이어 예측부에서 일반화된 참조 블록 생성부의 구성에 관한 일 예를 개략적으로 설명하는 도면이다.
도 15를 참조하면, 일반화된 참조 블록 생성부(1500)는 픽처 향상부(1520)를 포함한다.
픽처 향상부(1510)는 입력된 픽처 또는 블록을 인핸스먼트 레이어(현재 레이어)의 입력 원본 픽처 또는 입력 원본 블록과 동일하거나 유사하도록 만드는 과정(픽처 향상)을 수행한다.
예컨대, 다중 루프 방식이 적용되는 일반화된 참조 블록 생성부(1500)에서, 픽처 향상부(1510)는 베이스 레이어의 영상 정보(텍스처 정보) 및 인핸스먼트 레이어의 픽처 버퍼(1520)에 저장된 영상 정보를 입력 받아서, 인핸스먼트 레이어의 픽처 버퍼(1520)에 저장된 영상 정보를 기반으로, 입력된 영상 정보(텍스처 정보)에 대하여 픽처 향상을 수행한다. 이 경우, 픽처 향상의 기반이 되는 인핸스먼트 레이어의 픽처 버퍼(1520)에 저장된 영상 정보는 인핸스먼트 레이어의 원본 영상일 수도 있다.
픽처 향상의 방법으로서, 픽처 향상부(1510)는 입력된 영상 정보(텍스처 정보)에 ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset) 중 적어도 하나를 적용할 수 있다. 디코딩 장치의 경우에는, 픽처 향상부(1510)에서 적용되는 픽처 향상 방법과 필터 계수 등이 인코딩 장치에서 결정되어 시그널링 될 수도 있다.
일반화된 참조 블록 생성부(1500)는 일반화된 참조 블록을 인핸스먼트 레이어(현재 레이어)의 인터 예측부(1530) 또는 인트라 예측부(1540)에 전송한다.
한편, 픽처 향상을 적용하지 않는 경우에는, 일반화된 참조 블록 생성부(1500)에 입력되는 텍스처 정보를 일반화된 참조 블록으로서 이용할 수 있다.
도 16은 본 발명에 따라서 수행되는 인터 레이어 예측을 개략적으로 설명하는 플로우 차트이다.
여기서는 설명의 편의를 위해, 멀티 레이어 인코딩 장치 및 멀티 레이어 디코딩 장치(이하, ‘인코딩 장치/디코딩 장치’)가 인핸스먼트 레이어의 현재 블록에 대한 예측 방법을 결정하는 것으로 설명한다.
도 16을 참조하면, 인코딩 장치/디코딩 장치는 인핸스먼트 레이어의 현재 블록에 대하여 인터 레이어 예측을 수행할 것인지를 결정한다(S1610). 이 경우에, 인코딩 장치는 RDO 및/또는 데이터 전송 비용 등을 고려하여 인터 레이어 예측을 수행할 것인지, 인핸스먼트 레이어 내에서 싱글 레이어 예측을 수행할 것인지를 결정할 수 있다. 인코딩 장치는 인터 레이어 예측을 수행할 것인지 싱글 레이어 예측을 수행할 것인지를 지시하는 플래그(flag)를 디코딩 장치에 전송할 수 있다.
디코딩 장치는 인코딩 장치로부터 수신한 플래그가 지시하는 바에 따라서 인핸스먼트 레이어의 현재 블록에 대하여 인터 레이어 예측을 수행할 것인지 싱글 레이어 예측을 수행할 것인지를 결정할 수 있다. 예컨대, 인터 레이어 예측을 수행할 것인지를 지시하는 플래그가 interLayerPred_flag라면, interLayerPred_flag의 값이 1인 경우에 디코딩 장치는 인터 레이어 예측을 수행하고, interLayerPred_flag의 값이 0인 경우에 디코딩 장치는 싱글 레이어 예측을 수행할 수도 있다. 여기서는 1의 값을 가지는 플래그가 인터 레이어 예측을 지시하는 것으로 설명하였으나, 0의 값을 가지는 플래그가 인터 레이어 예측을 지시하도록 설정할 수 있음은 물론이다.
인터 레이어 예측을 수행하지 않는 경우에는, 인핸스먼트 레이어의 현재 블록에 대하여, 인핸스먼트 레이어 내에서 예측을 수행할 수 있다(S1620). 예컨대, 인핸스먼트 레이어의 현재 블록을 포함하는 슬라이스 타입이 인트라 슬라이스(I-slice)인 경우에는, 인핸스먼트 레이어 내에서 현재 인코딩 또는 디코딩의 대상이 되는 블록(현재 블록)의 주변에 위치하는 복원된 참조 블록(주변 블록)에 기반하여, 인트라 예측을 수행함으로써 현재 블록에 대한 예측을 수행할 수 있다. 이때, 인핸스먼트 레이어의 현재 블록에 적용할 수 있는 인트라 예측 모드의 예는 도 3에서 설명한 바와 같다. 인코딩 장치/디코딩 장치는 도 3에 도시된 바와 같은 방향성 예측 모드 또는 비방향성 예측 모드 중 어느 하나를 이용하여 인핸스먼트 레이어에 대한 인트라 예측을 수행하고, 예측 블록을 생성할 수 있다.
인코딩 장치는 인핸스먼트 레이어의 현재 블록에 사용될 인트라 예측 모드에 관한 정보를 디코딩 장치에 전송하고, 디코딩 장치는 인코딩 장치로부터 수신한 정보가 지시하는 인트라 예측 모드에 따라서 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다.
또한, 인핸스먼트 레이어의 현재 블록을 포함하는 슬라이스 타입이 인터 슬라이스(P-slice, B-slice 등)이고, 인핸스먼트 레이어 내에서 싱글 레이어 예측이 수행되는 경우에, 인코딩 장치/디코딩 장치는 동일한 인핸스먼트 레이어 내의 참조 픽처들을 기반으로 현재 블록에 대한 인터 예측을 수행할 수 있다. 이때, 인코딩 장치/디코딩 장치는 현재 블록에 대하여, 상술한 바와 같이 스킵(skip) 모드, 머지(merge) 모드, AMVP 등과 같은 인터 예측 방법 중 어느 하나를 이용하여 현재 블록에 대한 인터 예측을 수행할 수 있다.
인코딩 장치는 인핸스먼트 레이어의 현재 블록에 사용될 인터 예측 방법에 관한 정보를 디코딩 장치에 전송하고, 디코딩 장치는 인코징 장치로부터 수신한 정보가 지시하는 인터 예측 방법에 따라서 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다.
한편, 인터 레이어 예측을 수행하는 경우에, 인코딩 장치/디코딩 장치는 참조 레이어(베이스 레이어)의 정보로부터 생성한 일반화된 참조 픽처 또는 일반화된 참조 블록에 기반하여, 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다(S1630). 설명의 편의를 위해, 슬라이스 타입에 따라서 인터 레이어 예측이 수행되는 방법을 설명한다.
-인핸스먼트 레이어의 슬라이스 타입 또는 베이스 레이어의 슬라이스 타입이 인트라 슬라이스(I-slice)이고 인터 레이어 예측이 적용되는 경우
인코딩 장치/디코딩 장치는 참조 레이어(베이스 레이어)의 디코딩된 픽처 정보를 이용하여 생성되는 일반화된 참조 픽처 또는 일반화된 참조 블록을 기반으로 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다.
이때, 레이어 간의 픽처 사이즈가 다른 경우에는 참조 레이어의 디코딩된 픽처를 획득한 후, 참조 레이어의 디코딩된 픽처를 인핸스먼트 레이어의 픽처 사이즈에 맞춰 업샘플링(up-sampling)을 수행해서 일반화된 참조 픽처 또는 일반화된 참조 블록을 생성할 수도 있다. 업샘플링은 예컨대, 도 9 또는 도 12에서 설명한 바와 같이 인터 레이어 예측부에서 수행될 수 있다.
업샘플링은 고정된 필터 계수를 사용하는 고정형 필터, 슬라이스, 픽처, 블록에 따라서 적응적으로 필터 계수를 달리하는 적응형 필터 중에서 적어도 하나를 이용하여 수행될 수 있다.
일반화된 참조 픽처를 이용하는 경우.
인핸스먼트 레이어의 슬라이스 타입 또는 베이스 레이어의 슬라이스 타입이 인트라 슬라이스이고 일반화된 참조 픽처를 이용하여 인터 레이어 예측을 수행하는 경우에, 인코딩 장치/디코딩 장치는 일반화된 참조 픽처(참조 레이어의 업샘플링된 디코딩 픽처 또는 업샘플링되지 않은 디코딩 픽처)를 포함하는 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트를 구성할 수 있다. 인코딩 장치/디코딩 장치는 인핸스 먼트 레이어의 현재 블록에 대한 참조 픽처 리스트에 포함된 일반화된 참조 픽처를 참조 픽처로서 이용하여 인핸스먼트 레이어의 현재 블록에 대한 인터 예측을 수행할 수 있다.
일반화된 참조 픽처를 이용하여 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 경우에, 상술한 바와 같은 AMVP, 머지 모드, 스킵 모드 등의 인터 예측 방법을 사용할 수 있다.
인터 레이어 예측을 수행하는 경우에, 일반화된 참조 픽처(참조 레이어의 업샘플링된 디코딩 픽처 또는 업샘플링되지 않은 디코딩 픽처)를 참조 픽처 리스트에 추가하지 않고서도, 일반화된 참조 픽처를 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용할 수도 있다. 현재 블록의 참조 픽처로서 일반화된 참조 픽처가 사용되는 경우에, 인코딩 장치는 일반화된 참조 픽처를 현재 블록에 대한 참조 픽처로서 지시하는 정보를 디코딩 장치에 전송할 수 있다. 디코딩 장치는 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처가 일반화된 참조 픽처임을 지시하는 정보를 인코딩 장치로부터 수신하면, 일반화된 참조 픽처를 이용하여 인핸스먼트 레이어의 현재 블록에 대한 인터 예측을 수행할 수 있다.
여기서는 설명의 편의를 위해, 일반화된 참조 픽처를 참조 레이어의 업샘플링된 디코딩 픽처 또는 업샘플링되지 않은 디코딩 픽처로서 설명하였으나, 도 14에서 설명한 같이, 베이스 레이어의 디코딩된 픽처에 픽처 향샹(picture enhancement)를 수행하여 일반화된 참조 픽처를 생성할 수도 있다.
픽처 향상은 상술한 바와 같이 참조 픽처로 사용되는 디코딩된 픽처와 원본 픽처 사이의 오차를 최소화하는 방법이다. 다시 말하자면, 픽처 향상은 참조 레이어를 기반으로 생성된 일반화된 참조 픽처와 원본 픽처 사이 오차의 최소화라고 할 수 있다. 이때, 원본 픽처는 인핸스먼트 레이어의 인코딩 장치에 입력되는 픽처를 의미한다.
예컨대, 인코딩 장치는 원본 픽처와 일반화된 참조 픽처 사이의 오차를 최소화할 수 있는 필터 계수를 산출한 후, 참조 레이어로부터 획득한 업샘플링된 디코딩 픽처 또는 업샘플링되지 않은 디코딩 픽처에 상기 필터 계수를 가지는 필터를 적용하여 일반화된 참조 픽처를 생성할 수 있다. 인코딩 장치는 또한 산출한 필터 계수에 관한 정보를 디코딩 장치에 전송할 수 있다. 디코딩 장치는 인코딩 장치로부터 수신한 필터 계수를 갖는 필터를 참조 레이어로부터 획득한 업샘플링된 디코딩 픽처 또는 업샘플링되지 않은 디코딩 픽처에 적용하여 일반화된 참조 픽처를 생성할 수 있다.
일반화된 참조 블록을 이용하는 경우.
인핸스먼트 레이어의 슬라이스 타입 또는 베이스 레이어의 슬라이스 타입이 인트라 슬라이스이고 일반화된 참조 블록을 이용하여 인터 레이어 예측을 수행하는 경우에, 인코딩 장치/디코딩 장치는 베이스 레이어(참조 레이어)의 디코딩된 픽처를 기반으로 생성한 일반화된 참조 블록으로부터 인핸스먼트 레이어의 현재 블록에 대한 예측 신호(예측 블록)를 얻을 수 있다.
이때, 참조 레이어(베이스 레이어)와 인핸스먼트 레이어 간에 픽처의 사이즈가 상이하면, 참조 레이어로부터 획득한 디코딩된 픽처에 대하여 업샘플링을 수행할 수 있다. 업샘플링은 예컨대, 도 9 또는 도 12에서 설명한 바와 같이 인터 레이어 예측부에서 수행될 수 있다.
업샘플링은 고정된 필터 계수를 사용하는 고정형 필터, 슬라이스, 픽처, 블록에 따라서 적응적으로 필터 계수를 달리하는 적응형 필터 중에서 적어도 하나를 이용하여 수행될 수 있다.
인터 레이어 예측을 수행하는 함에 있어서, 인핸스먼트 레이어의 현재 블록에 대응되는 참조 레이어(베이스 레이어)의 일반화된 참조 블록으로부터 구한 픽셀 값들을 인핸스먼트 레이어의 현재 블록에 대한 예측 신호들(예측 블록)으로 할 수 있다. 이때, 일반화된 참조 블록은 참조 레이어(베이스 레이어)로부터 획득한 디코딩된 픽처를 업샘플링하여 얻은 블록일 수도 있고, 업샘플링하지 않고 얻은 블록일 수도 있다.
인핸스먼트 레이어의 현재 블록은 쿼드 트리 구조에 따른 다양한 블록 크기로 인코딩/디코딩 될 수 있다. 예컨대, 인핸스먼트 레이어의 현재 블록은 CU, PU, TU 중 어느 한 단위로 인코딩/디코딩, 예측 또는 변환될 수 있다. 이 경우에, 일반화된 참조 블록은 인핸스먼트 레이어의 현재 블록 크기에 대응하도록 참조 레이어(베이스 레이어)의 픽셀들로 구성될 수도 있고, 인핸스먼트 레이어의 현재 블록 크기에 대응하도록 업샘플링될 수도 있다.
일반화된 참조 블록이 인핸스먼트 레이어의 인코딩/디코딩 대상 블록(현재 블록)의 원본에 더 가까워질 수 있도록 참조 레이어(베이스 레이어)로부터 획득되는 디코딩된 영상에 대하여도 픽처 향상을 추가적으로 수행할 수 있다. 이 경우에, 픽처 향상은 참조 레이어를 기반으로 생성된 일반화된 참조 블록과 인핸스먼트 레이어의 현재 블록(원본 블록) 사이 오차의 최소화라고 할 수 있다.
인코딩 장치는 원본 픽처와 일반화된 참조 블록 사이의 오차를 최소화할 수 있는 필터 계수를 산출한 후, 참조 레이어로부터 획득한 업샘플링된 디코딩 블록(decoded block) 또는 업샘플링되지 않은 디코딩 블록에 상기 필터 계수를 가지는 필터를 적용하여 일반화된 참조 블록을 생성할 수 있다. 인코딩 장치는 또한 산출한 필터 계수에 관한 정보를 디코딩 장치에 전송할 수 있다. 디코딩 장치는 인코딩 장치로부터 수신한 필터 계수를 갖는 필터를 참조 레이어로부터 획득한 업샘플링된 디코딩 블록 또는 업샘플링되지 않은 디코딩 블록에 적용하여 일반화된 참조 블록을 생성할 수 있다.
-인핸스먼트 레이어의 슬라이스 타입 또는 베이스 레이어의 슬라이스 타입이 인터 슬라이스(P-slice, B-slice 등)이고 인터 레이어 예측이 적용되는 경우
인코딩 장치/디코딩 장치는 참조 레이어(베이스 레이어)의 디코딩된 픽처 또는 디코딩된 픽처의 정보를 이용하여 생성된 일반화된 참조 픽처 또는 일반화된 참조 블록을 기반으로 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수도 있다.
레이어 간(예컨대, 베이스 레이어(참조 레이어)와 인핸스먼트 레이어 사이) 픽처의 사이즈가 상이한 경우에, 인코딩 장치/디코딩 장치는 참조 레이어의 디코딩된 픽처를 인핸스먼트 레이어의 픽처 사이즈에 맞게 업샘플링할 수 있다. 이때 업샘플링은 고정된 필터 계수를 사용하는 고정형 필터, 슬라이스, 픽처, 블록마다 적응적으로 필터 계수를 달리하는 적응형 필터 등 다양한 필터 중에서 적어도 하나를 이용할 수 있다.
일반화된 참조 픽처를 사용하는 경우.
인코딩 장치/디코딩 장치는 상술한 바와 같이, 참조 레이어의 디코딩된 영상 및 디코딩된 영상 정보를 이용하여 생성한 일반화된 참조 픽처를 기반으로 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다.
참조 레이어의 디코딩된 픽처 또는 참조 레이어의 디코딩된 픽처를 업샘플링한 픽처를 인터 레이어 예측을 위한 일반화된 참조 픽처로서 이용할 수 있다. 업샘플링은 상술한 바와 같이, 베이스 레이어(참조 레이어)의 픽처를 인핸스먼트 레이어의 픽처에 맞추기 위해, 수행될 수 있다. 예컨대, 인코딩 장치/디코딩 장치는 참조 레이어(베이스 레이어)의 픽처 사이즈와 인핸스먼트 레이어의 픽처 사이즈가 상이한 경우에, 픽처 사이즈를 맞추기 위해 베이스 레이어의 픽처에 대하여 업샘플링을 수행할 수 있다.
일반화된 참조 픽처를 포함하는 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트를 구성해서, 인핸스먼트 레이어의 현재 블록에 대한 인터 레이어 예측을 수행할 수 있다. 참조 픽처 리스트에 포함된 일반화된 참조 픽처는 인핸스먼트 레이어의 현재 블록에 대하여 인터 예측을 수행하는 경우에 참조 픽처로서 이용될 수 있다.
이때, 상술한 바와 같은 AMVP, 머지 모드, 스킵 모드 등의 인터 예측 방법을 사용하여, 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행할 수 있다.
일반화된 참조 픽처를 참조 픽처 리스트에 포함시키는 경우에, 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트 내에서 소정의 참조 픽처를 일반화된 참조 픽처로 대체할 수도 있다. 또한, 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트에 일반화된 참조 픽처를 단순히 추가할 수도 있다.
뿐만 아니라, 일반화된 참조 픽처를 참조 픽처 리스트에 추가하지 않고, 일반화된 참조 픽처를 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용할 수도 있다. 현재 블록의 참조 픽처로서 일반화된 참조 픽처가 사용되는 경우에, 인코딩 장치는 일반화된 참조 픽처를 현재 블록에 대한 참조 픽처로서 지시하는 정보를 디코딩 장치에 전송할 수 있다. 디코딩 장치는 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처가 일반화된 참조 픽처임을 지시하는 정보를 인코딩 장치로부터 수신하면, 일반화된 참조 픽처를 이용하여 인핸스먼트 레이어의 현재 블록에 대한 인터 예측을 수행할 수 있다.
일반화된 참조 블록을 사용하는 경우.
인핸스먼트 레이어의 슬라이스 타입 또는 베이스 레이어의 슬라이스 타입이 인터 슬라이스이고 일반화된 참조 블록을 이용하여 인터 레이어 예측을 수행하는 경우에, 인코딩 장치/디코딩 장치는 참조 레이어(베이스 레이어)의 디코딩된 픽처를 이용하여 생성한 일반화된 참조 블록으로부터 인핸스먼트 레이어의 인코딩 또는 디코딩 대상 블록(현재 블록)에 대한 예측 신호(예측 블록)을 얻을 수 있다.
인코딩 장치/디코딩 장치는 인핸스먼트 레이어의 현재 블록에 대응하는 참조 레이어(베이스 레이어)의 업샘플링된 픽처로부터 생성한 일반화된 참조 블록 또는 업샘플링되지 않은 픽처로부터 생성한 일반화된 참조 블록으로부터 구한 픽셀 값을 인핸스먼트 레이어의 현재 블록에 대한 예측 신호로 사용할 수 있다.
인핸스먼트 레이어의 현재 블록은 쿼드 트리 구조에 따른 다양한 블록 크기로 인코딩/디코딩 될 수 있다. 예컨대, 인핸스먼트 레이어의 현재 블록은 CU, PU, TU 중 어느 한 단위로 인코딩/디코딩, 예측 또는 변환될 수 있다. 이 경우에, 일반화된 참조 블록은 인핸스먼트 레이어의 현재 블록 크기에 대응하도록 참조 레이어(베이스 레이어)의 픽셀들로 구성될 수도 있고, 인핸스먼트 레이어의 현재 블록 크기에 대응하도록 업샘플링될 수도 있다.
인코딩 장치/디코딩 장치는 상술한 바와 같이 인핸스먼트 레이어의 현재 블록에 대한 싱글 레이어 예측 또는 인터 레이어 예측의 결과를 기반으로 인핸스먼트 레이어의 현재 픽처를 복원하거나 인코딩할 수 있다(S1650).
인코딩 장치는 상술한 바와 같이, 예측 결과를 기반으로 생성한 레지듀얼 블록(레지듀얼 신호)를 변환, 양자화, 엔트로피 인코딩하여 디코딩 장치로 전송할 수 있다. 이때, 인코딩 장치는 베이스 레이어 인코딩 장치와 인핸스먼트 레이어 인코딩 장치로부 출력되는 비트스트림을 멀티플레서를 이용해서 다중화하여 전송할 수도 있다.
디코딩 장치 역시, 상술한 바와 같이, 예측에 의해 생성된 예측 블록(예측 신호)과 레지듀얼 블록(레지듀얼 신호)를 기반으로 인핸스먼트 레이어에 의해 지원되는 고화질, 고해상도, 큰 사이즈 및/또는 높은 프레임 레이트의 픽처(또는 비디오)를 복원할 수 있다. 인코딩 장치로 입력되는 비트스트림은 디멀티플렉서에 의해 베이스 레이어와 인핸스먼트 레이어로 분리되어, 각각 베이스 레이어 인코딩 장치와 인핸스먼트 레이어 인코딩 장치에 입력될 수 있다.
상술한 설명에서는, 멀티 레이어 인코딩/디코딩에 있어서 베이스 레이어를 참조 레이어로서, 인핸스먼트 레이어를 인코딩 또는 디코딩 대상 레이어로서 설명하였으나, 이는 설명의 편의를 위해, 두 개의 레이어로 구성된 멀티 레이어 인코딩/디코딩을 가정함에 따른 것이다. 이는 본 발명의 일 예로서, 본 발명은 더블 레이어 구성에 한정되지 않는다. 3이상의 본 발명에서 인코딩 또는 디코딩 대상 레이어는 자신보다 하위의 레이어들 중 적어도 하나를 참조 레이어로 해서 인터 레이어 예측되거나, 인코딩 또는 디코딩 대상 레이어 내에서 싱글 레이어 예측될 수 있다.
상술한 설명에서는, SVC를 수행하기 위해 하위 레이어로부터 획득한 정보를 사이즈에 관하여 업샘플링하는 것으로 설명하였으나, 이는 설명의 편의를 위한 것으로서, 업샘플링과 같이 상위 레이어의 비디오 정보에 맞춰 하위 레이어의 비디오 정보를 향상(enhancement)시키는 것은 픽처 사이즈뿐만 아니라, 화질, 해상도, 프레이 레이트에 대해서도 동일하게 수행될 수 있다.
상술한 설명에서는 일반화된 참조 픽처와 일반화된 참조 블록을 사용하는 경우를 나누어 설명하였으나, 이는 설명의 편의를 위한 것이다. 일반화된 참조 픽처와 일반화된 참조 블록은 인터 레이어 예측을 위하여 함께 사용될 수도 있고, 어느 하나만 사용될 수도 있다. 일반화된 참조 픽처와 일반화된 참조 블록 중 어느 하나만 사용되는 경우에, 인코딩 장치와 디코딩 장치는 일반화된 참조 블록 생성부와 일반화된 참조 픽처 생성부 중 필요한 구성만을 구비할 수도 있다.
또한, 상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함한다. 예컨대, 각 실시예의 조합 역시 본 발명의 일 실시예로서 이해되어야 할 것이다.
Claims (17)
- 인핸스먼트 레이어에 인터 레이어 예측을 적용할 것인지를 결정하는 단계; 및
인터레이어 예측을 적용하는 경우에, 참조 레이어의 디코딩된 참조 픽처로부터 생성한 일반화된 참조 정보를 기반으로 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계를 포함하는 것을 특징으로 하는 인터 레이어 예측 방법. - 제1항에 있어서, 인핸스먼트 레이어에 인터 레이어 예측을 적용할 것인지는 인터 레이어 예측을 지시하는 플래그 정보를 기반으로 결정되는 것을 특징으로 하는 인터 레이어 예측 방법.
- 제1항에 있어서, 상기 일반화된 참조 정보는,
상기 인핸스먼트 레이어의 픽처 사이즈에 맞춰 업샘플링되는 것을 특징으로 하는 인터 레이어 예측 방법. - 제1항에 있어서,
상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 픽처이며,
상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는,
상기 일반화된 참조 픽처를 상기 현재 블록의 참조 픽처로서 이용하는 것을 특징으로 하는 인터 레이어 예측 방법. - 제4항에 있어서, 상기 일반화된 참조 픽처는,
상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트에 포함되어 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용되는 것을 특징으로 하는 인터 레이어 예측 방법. - 제4항에 있어서, 상기 일반화된 참조 픽처는,
상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용된 것을 특징으로 하는 인터 레이어 예측 방법. - 제4항에 있어서, 상기 일반화된 참조 픽처는,
상기 베이스 레이어의 디코딩된 픽처, 상기 베이스 레이어의 디코딩된 픽처를 업샘플링한 픽처, 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처 또는 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처를 업샘플링한 픽처인 것을 특징으로 하는 인터 레이어 예측 방법. - 제1항에 있어서,
상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 블록이며,
상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는,
상기 일반화된 참조 블록을 상기 인핸스먼트 레이어의 현재 블록에 대한 예측 블록으로 하는 것을 특징으로 하는 인터 레이어 예측 방법. - 제8항에 있어서, 상기 일반화된 참조 블록은,
상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용된 것을 특징으로 하는 인터 레이어 예측 방법. - 제1항에 있어서,
상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 픽처이며,
상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는,
상기 일반화된 참조 픽처를 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용하는 것을 특징으로 하는 인터 레이어 예측 방법. - 제10항에 있어서, 상기 일반화된 참조 픽처는,
상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처 리스트에 포함되어 상기 인핸스먼트 레이어의 현재 블록에 대한 참조 픽처로서 이용되는 것을 특징으로 하는 인터 레이어 예측 방법. - 제10항에 있어서, 상기 일반화된 참조 픽처는,
상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용된 것을 특징으로 하는 인터 레이어 예측 방법. - 제10항에 있어서, 상기 일반화된 참조 픽처는,
상기 베이스 레이어의 디코딩된 픽처, 상기 베이스 레이어의 디코딩된 픽처를 업샘플링한 픽처, 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처 또는 상기 베이스 레이어의 디코딩된 픽처와 상기 레지듀얼 정보를 기반으로 생성된 픽처를 업샘플링한 픽처인 것을 특징으로 하는 인터 레이어 예측 방법. - 제1항에 있어서,
상기 일반화된 참조 정보는 상기 참조 레이어의 디코딩된 픽처를 기반으로 생성된 일반화된 참조 블록이며,
상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 단계에서는,
상기 일반화된 참조 블록을 상기 인핸스먼트 레이어의 현재 블록에 대한 예측 블록으로 하는 것을 특징으로 하는 인터 레이어 예측 방법. - 제14항에 있어서, 상기 일반화된 참조 블록은,
상기 인핸스먼트 레이어와 상기 참조 레이어의 픽처들 사이의 차이에 기반한 인핸스먼트가 적용된 것을 특징으로 하는 인터 레이어 예측 방법. - 베이스 레이어의 입력 영상에 대한 예측을 수행하는 베이스 레이어 인코딩부;
인핸스먼트 레이어의 입력 영상에 대한 예측을 수행하는 인핸스먼트 레이어 인코딩부; 및
상기 인핸스먼트 레이어의 입력 영상에 대한 예측을 수행하기 위한 일반화된 참조 정보를 생성하는 인터 레이어 예측부를 포함하며,
인터레이어 예측을 적용하는 경우에,
상기 인터 레이어 예측부는 상기 베이스 레이어의 디코딩된 정보로부터 일반화된 참조 정보를 생성하며,
상기 인핸스먼트 레이어 인코딩부는 상기 일반화된 참조 정보를 기반으로 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 것을 특징으로 하는 스케일러블 인코딩 장치. - 베이스 레이어의 영상에 대한 예측을 수행하는 베이스 레이어 디코딩부;
인핸스먼트 레이어의 영상에 대한 예측을 수행하는 인핸스먼트 레이어 디코딩부; 및
상기 인핸스먼트 레이어의 영상에 대한 예측을 수행하기 위한 일반화된 참조 정보를 생성하는 인터 레이어 예측부를 포함하며,
인터 레이어 예측을 적용하는 경우에,
상기 인터 레이어 예측부는 상기 베이스 레이어의 디코딩된 정보로부터 일반화된 참조 정보를 생성하며,
상기 인핸스먼트 레이어 디코딩부는 상기 일반화된 참조 정보를 기반으로 상기 인핸스먼트 레이어의 현재 블록에 대한 예측을 수행하는 것을 특징으로 하는 스케일러블 디코딩 장치.
Priority Applications (14)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810094072.5A CN108391136B (zh) | 2011-06-15 | 2012-06-15 | 可伸缩解码方法/设备、可伸缩编码方法/设备和介质 |
CN201810093965.8A CN108337522B (zh) | 2011-06-15 | 2012-06-15 | 可伸缩解码方法/设备、可伸缩编码方法/设备和介质 |
CN201810093971.3A CN108391137B (zh) | 2011-06-15 | 2012-06-15 | 可伸缩解码方法/设备、可伸缩编码方法/设备和介质 |
EP12801420.6A EP2723079A4 (en) | 2011-06-15 | 2012-06-15 | MODULABLE VIDEO ENCODING AND DECODING METHOD AND DEVICE APPLYING THE SAME |
US14/125,840 US9686543B2 (en) | 2011-06-15 | 2012-06-15 | Method for coding and decoding scalable video and apparatus using same |
CN201810093944.6A CN108337521B (zh) | 2011-06-15 | 2012-06-15 | 存储由可伸缩编码方法生成的比特流的计算机记录介质 |
EP21195537.2A EP3958569A1 (en) | 2011-06-15 | 2012-06-15 | Method for coding and decoding scalable video and apparatus using same |
CN201810093972.8A CN108391135B (zh) | 2011-06-15 | 2012-06-15 | 可伸缩解码方法/设备、可伸缩编码方法/设备和介质 |
CN201280039873.2A CN103765899B (zh) | 2011-06-15 | 2012-06-15 | 用于编码和解码可伸缩视频的方法以及使用其的设备 |
US15/585,687 US10142648B2 (en) | 2011-06-15 | 2017-05-03 | Method for coding and decoding scalable video and apparatus using same |
US16/166,712 US10819991B2 (en) | 2011-06-15 | 2018-10-22 | Method for coding and decoding scalable video and apparatus using same |
US17/018,245 US11412240B2 (en) | 2011-06-15 | 2020-09-11 | Method for coding and decoding scalable video and apparatus using same |
US17/852,523 US11838524B2 (en) | 2011-06-15 | 2022-06-29 | Method for coding and decoding scalable video and apparatus using same |
US18/492,046 US20240056587A1 (en) | 2011-06-15 | 2023-10-23 | Method for coding and decoding scalable video and apparatus using same |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20110057906 | 2011-06-15 | ||
KR10-2011-0057906 | 2011-06-15 | ||
KR1020120064634A KR20120138712A (ko) | 2011-06-15 | 2012-06-15 | 스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치 |
KR10-2012-0064634 | 2012-06-15 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US14/125,840 A-371-Of-International US9686543B2 (en) | 2011-06-15 | 2012-06-15 | Method for coding and decoding scalable video and apparatus using same |
US15/585,687 Continuation US10142648B2 (en) | 2011-06-15 | 2017-05-03 | Method for coding and decoding scalable video and apparatus using same |
Publications (2)
Publication Number | Publication Date |
---|---|
WO2012173439A2 true WO2012173439A2 (ko) | 2012-12-20 |
WO2012173439A3 WO2012173439A3 (ko) | 2013-04-04 |
Family
ID=47833933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2012/004777 WO2012173439A2 (ko) | 2011-06-15 | 2012-06-15 | 스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치 |
Country Status (5)
Country | Link |
---|---|
US (7) | US9686543B2 (ko) |
EP (2) | EP3958569A1 (ko) |
KR (7) | KR20120138712A (ko) |
CN (6) | CN108391135B (ko) |
WO (1) | WO2012173439A2 (ko) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916673A (zh) * | 2013-01-06 | 2014-07-09 | 华为技术有限公司 | 基于双向预测的编码方法、解码方法和装置 |
WO2015009020A1 (ko) * | 2013-07-15 | 2015-01-22 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015037922A1 (ko) * | 2013-09-10 | 2015-03-19 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015046866A1 (ko) * | 2013-09-24 | 2015-04-02 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015060641A1 (ko) * | 2013-10-22 | 2015-04-30 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015060642A1 (ko) * | 2013-10-22 | 2015-04-30 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
CN105075260A (zh) * | 2013-02-25 | 2015-11-18 | Lg电子株式会社 | 编码支持可伸缩性的多层结构视频的方法和解码其的方法以及用于其的装置 |
CN105191318A (zh) * | 2013-02-22 | 2015-12-23 | 汤姆逊许可公司 | 画面块的编码和解码方法、对应的设备和数据流 |
CN105340276A (zh) * | 2013-07-02 | 2016-02-17 | 高通股份有限公司 | 对多层视频译码的层间预测信令的优化 |
CN105379274A (zh) * | 2013-07-12 | 2016-03-02 | 佳能株式会社 | 图像编码设备、图像编码方法、记录介质和程序以及图像解码设备、图像解码方法、记录介质和程序 |
CN105519112A (zh) * | 2013-09-03 | 2016-04-20 | 株式会社Kt | 可扩展视频信号编码/解码方法及装置 |
CN105659596A (zh) * | 2013-10-22 | 2016-06-08 | 株式会社Kt | 用于对多层视频信号进行编码/解码的方法和装置 |
CN105659597A (zh) * | 2013-10-22 | 2016-06-08 | 株式会社Kt | 用于对多层视频信号进行编码/解码的方法和装置 |
CN105684446A (zh) * | 2013-10-29 | 2016-06-15 | 株式会社Kt | 多层视频信号编码/解码方法和装置 |
RU2662922C2 (ru) * | 2013-07-12 | 2018-07-31 | Сони Корпорейшн | Способ и устройство кодирования изображений |
US10701373B2 (en) | 2013-02-22 | 2020-06-30 | Interdigital Vc Holdings, Inc. | Coding and decoding methods of a picture block, corresponding devices and data stream |
US12088788B2 (en) | 2015-06-05 | 2024-09-10 | Dolby Laboratories Licensing Corporation | Method and device for encoding and decoding intra-frame prediction |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102030136B1 (ko) | 2010-12-08 | 2019-10-08 | 엘지전자 주식회사 | 인트라 예측 방법과 이를 이용한 부호화 장치 및 복호화 장치 |
US20130107962A1 (en) | 2011-10-26 | 2013-05-02 | Intellectual Discovery Co., Ltd. | Scalable video coding method and apparatus using inter prediction mode |
CN104322067B (zh) * | 2012-03-20 | 2018-08-10 | 三星电子株式会社 | 一种可伸缩视频编/解码方法和装置 |
US9380307B2 (en) * | 2012-11-19 | 2016-06-28 | Qualcomm Incorporated | Method and system for intra base layer (BL) transform in video coding |
US9942545B2 (en) * | 2013-01-03 | 2018-04-10 | Texas Instruments Incorporated | Methods and apparatus for indicating picture buffer size for coded scalable video |
US20140192880A1 (en) * | 2013-01-04 | 2014-07-10 | Zhipin Deng | Inter layer motion data inheritance |
US10368089B2 (en) | 2013-01-23 | 2019-07-30 | Samsung Electronics Co., Ltd. | Video encoding method and apparatus, and video decoding method and apparatus |
WO2014129872A1 (ko) * | 2013-02-25 | 2014-08-28 | 삼성전자 주식회사 | 메모리 대역폭 및 연산량을 고려한 스케일러블 비디오 부호화 장치 및 방법, 스케일러블 비디오 복호화 장치 및 방법 |
US10616607B2 (en) | 2013-02-25 | 2020-04-07 | Lg Electronics Inc. | Method for encoding video of multi-layer structure supporting scalability and method for decoding same and apparatus therefor |
KR102418524B1 (ko) * | 2013-04-04 | 2022-07-07 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 장치 |
KR20140121315A (ko) * | 2013-04-04 | 2014-10-15 | 한국전자통신연구원 | 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치 |
WO2014163418A1 (ko) * | 2013-04-04 | 2014-10-09 | 한국전자통신연구원 | 영상 부호화/복호화 방법 및 장치 |
WO2014163452A1 (ko) | 2013-04-05 | 2014-10-09 | 삼성전자 주식회사 | 멀티 레이어 비디오의 복호화 방법 및 장치, 멀티 레이어 비디오의 부호화 방법 및 장치 |
US20160021382A1 (en) * | 2013-04-05 | 2016-01-21 | Electronics And Telecommunications Research Institute | Method for encoding and decoding video using intra-prediction combined between layers |
KR20160009543A (ko) * | 2013-04-17 | 2016-01-26 | 주식회사 윌러스표준기술연구소 | 비디오 신호 처리 방법 및 장치 |
KR20160005027A (ko) * | 2013-04-17 | 2016-01-13 | 주식회사 윌러스표준기술연구소 | 비디오 신호 처리 방법 및 장치 |
EP2988505A4 (en) * | 2013-04-17 | 2016-10-05 | Wilus Inst Standards & Technology Inc | METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNAL |
US9510001B2 (en) | 2013-07-09 | 2016-11-29 | Electronics And Telecommunications Research Institute | Video decoding method and apparatus using the same |
KR102222311B1 (ko) * | 2013-07-09 | 2021-03-04 | 한국전자통신연구원 | 영상의 복호화 방법 및 이를 이용하는 장치 |
CN105379277B (zh) * | 2013-07-15 | 2019-12-17 | 株式会社Kt | 用于编码/解码可伸缩视频信号的方法和装置 |
WO2015009022A1 (ko) * | 2013-07-15 | 2015-01-22 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015009009A1 (ko) | 2013-07-15 | 2015-01-22 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015016578A1 (ko) * | 2013-07-30 | 2015-02-05 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015016534A1 (ko) * | 2013-07-30 | 2015-02-05 | 주식회사 케이티 | 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치 |
US9894369B2 (en) | 2013-07-30 | 2018-02-13 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
US9762909B2 (en) | 2013-07-30 | 2017-09-12 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
WO2015016535A1 (ko) * | 2013-07-30 | 2015-02-05 | 주식회사 케이티 | 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치 |
US9818422B2 (en) * | 2013-08-30 | 2017-11-14 | The Regents Of The University Of California | Method and apparatus for layered compression of multimedia signals for storage and transmission over heterogeneous networks |
WO2015034216A1 (ko) * | 2013-09-03 | 2015-03-12 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
KR20150064676A (ko) * | 2013-12-03 | 2015-06-11 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
US10432928B2 (en) | 2014-03-21 | 2019-10-01 | Qualcomm Incorporated | Using a current picture as a reference for video coding |
CN104469369B (zh) * | 2014-11-17 | 2017-10-31 | 何震宇 | 一种利用解码端信息提高svc性能的方法 |
WO2016108188A1 (en) * | 2014-12-31 | 2016-07-07 | Nokia Technologies Oy | Inter-layer prediction for scalable video coding and decoding |
US20160227235A1 (en) * | 2015-02-02 | 2016-08-04 | Yaniv Frishman | Wireless bandwidth reduction in an encoder |
EP3417625A1 (en) * | 2016-02-16 | 2018-12-26 | Fraunhofer Gesellschaft zur Förderung der Angewand | Efficient adaptive streaming |
KR102447450B1 (ko) * | 2016-09-05 | 2022-09-26 | 엘지전자 주식회사 | 영상 부호화/복호화 방법 및 이를 위한 장치 |
EP3301925A1 (en) * | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method for local inter-layer prediction intra based |
US10750190B2 (en) * | 2016-10-11 | 2020-08-18 | Lg Electronics Inc. | Video decoding method and device in video coding system |
CN110226328A (zh) * | 2017-02-03 | 2019-09-10 | 索尼公司 | 发送设备、发送方法、接收设备以及接收方法 |
KR102393736B1 (ko) | 2017-04-04 | 2022-05-04 | 한국전자통신연구원 | 영상 부호화 및 복호화 장치 |
GB2569547B (en) | 2017-12-19 | 2021-05-12 | Samsung Electronics Co Ltd | Reconstruction of original images from modified images |
CN111491168A (zh) * | 2019-01-29 | 2020-08-04 | 华为软件技术有限公司 | 视频编解码方法、解码器、编码器和相关设备 |
BR112021017765A2 (pt) | 2019-06-21 | 2022-04-26 | Panasonic Ip Corp America | Codificador, descodificador, método de codificação e método de decodificação |
US20230055497A1 (en) * | 2020-01-06 | 2023-02-23 | Hyundai Motor Company | Image encoding and decoding based on reference picture having different resolution |
EP3989587A1 (en) | 2020-10-21 | 2022-04-27 | Axis AB | Image processing device and method of pre-processing images of a video stream before encoding |
US11595665B2 (en) | 2021-02-11 | 2023-02-28 | Qualcomm Incorporated | Upsampling reference pixels for intra-prediction in video coding |
CN118216148A (zh) * | 2021-11-23 | 2024-06-18 | 华为技术有限公司 | 一种视频编码方法及其相关装置 |
Family Cites Families (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6647061B1 (en) * | 2000-06-09 | 2003-11-11 | General Instrument Corporation | Video size conversion and transcoding from MPEG-2 to MPEG-4 |
US7929610B2 (en) * | 2001-03-26 | 2011-04-19 | Sharp Kabushiki Kaisha | Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding |
JP2007525921A (ja) * | 2004-03-01 | 2007-09-06 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ符号化方法及び装置 |
JP2008516556A (ja) * | 2004-10-13 | 2008-05-15 | トムソン ライセンシング | コンプレクシティスケーラブル映像符号化復号化方法及び装置 |
DE102004059978B4 (de) * | 2004-10-15 | 2006-09-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen einer codierten Videosequenz und zum Decodieren einer codierten Videosequenz unter Verwendung einer Zwischen-Schicht-Restwerte-Prädiktion sowie ein Computerprogramm und ein computerlesbares Medium |
US20060153294A1 (en) * | 2005-01-12 | 2006-07-13 | Nokia Corporation | Inter-layer coefficient coding for scalable video coding |
KR100885443B1 (ko) * | 2005-04-06 | 2009-02-24 | 엘지전자 주식회사 | 레이어간 예측방식를 사용해 엔코딩된 영상신호를디코딩하는 방법 |
KR100703774B1 (ko) * | 2005-04-13 | 2007-04-06 | 삼성전자주식회사 | 인트라 코딩을 선택적으로 적용하여 인트라 bl 예측모드의 비디오 신호를 인코딩 및 디코딩하는 방법 및 장치 |
JP4528694B2 (ja) * | 2005-08-12 | 2010-08-18 | 株式会社東芝 | 動画像符号化装置 |
US9113147B2 (en) * | 2005-09-27 | 2015-08-18 | Qualcomm Incorporated | Scalability techniques based on content information |
JP4534935B2 (ja) * | 2005-10-04 | 2010-09-01 | 株式会社日立製作所 | トランスコーダ、記録装置及びトランスコード方法 |
WO2007042914A1 (en) * | 2005-10-11 | 2007-04-19 | Nokia Corporation | Efficient decoded picture buffer management for scalable video coding |
KR100763194B1 (ko) * | 2005-10-14 | 2007-10-04 | 삼성전자주식회사 | 단일 루프 디코딩 조건을 만족하는 인트라 베이스 예측방법, 상기 방법을 이용한 비디오 코딩 방법 및 장치 |
US9131247B2 (en) * | 2005-10-19 | 2015-09-08 | Thomson Licensing | Multi-view video coding using scalable video coding |
KR100750145B1 (ko) * | 2005-12-12 | 2007-08-21 | 삼성전자주식회사 | 영상의 인트라 예측 부호화, 복호화 방법 및 장치 |
US7956930B2 (en) * | 2006-01-06 | 2011-06-07 | Microsoft Corporation | Resampling and picture resizing operations for multi-resolution video coding and decoding |
KR20080085199A (ko) * | 2006-01-09 | 2008-09-23 | 노키아 코포레이션 | 움직임 보상이 있는 낮은 복잡도 미세 입도 규모가변성비디오 부호화를 위한 시스템 및 장치 |
US8345755B2 (en) * | 2006-01-09 | 2013-01-01 | Lg Electronics, Inc. | Inter-layer prediction method for video signal |
JP5227187B2 (ja) * | 2006-01-09 | 2013-07-03 | トムソン ライセンシング | マルチビュービデオ符号化のための低解像度アップデートモードを提供する方法及び装置 |
US8315308B2 (en) * | 2006-01-11 | 2012-11-20 | Qualcomm Incorporated | Video coding with fine granularity spatial scalability |
US8619865B2 (en) * | 2006-02-16 | 2013-12-31 | Vidyo, Inc. | System and method for thinning of scalable video coding bit-streams |
EP1999960A4 (en) | 2006-03-24 | 2011-05-18 | Korea Electronics Telecomm | CODING METHOD FOR REDUCING REDUNDANCY BETWEEN LAYERS USING MITION DATA OF THE FGS LAYER AND ESTABLISHMENT THEREFOR |
US8320450B2 (en) * | 2006-03-29 | 2012-11-27 | Vidyo, Inc. | System and method for transcoding between scalable and non-scalable video codecs |
KR100781524B1 (ko) * | 2006-04-04 | 2007-12-03 | 삼성전자주식회사 | 확장 매크로블록 스킵 모드를 이용한 인코딩/디코딩 방법및 장치 |
CN101438596B (zh) * | 2006-05-05 | 2014-03-26 | 汤姆森许可贸易公司 | 用于可伸缩视频编码的简化的层间运动预测 |
US8369417B2 (en) * | 2006-05-19 | 2013-02-05 | The Hong Kong University Of Science And Technology | Optimal denoising for video coding |
US8422555B2 (en) * | 2006-07-11 | 2013-04-16 | Nokia Corporation | Scalable video coding |
US8275045B2 (en) * | 2006-07-12 | 2012-09-25 | Qualcomm Incorporated | Video compression using adaptive variable length codes |
US8320460B2 (en) * | 2006-09-18 | 2012-11-27 | Freescale, Semiconductor, Inc. | Dyadic spatial re-sampling filters for inter-layer texture predictions in scalable image processing |
US9014280B2 (en) * | 2006-10-13 | 2015-04-21 | Qualcomm Incorporated | Video coding with adaptive filtering for motion compensated prediction |
BRPI0710067A2 (pt) * | 2006-11-09 | 2011-08-02 | Lg Eletronics Inc | método e aparelho para decodificar/codificar um sinal de vìdeo |
TWI392368B (zh) * | 2006-11-17 | 2013-04-01 | Lg Electronics Inc | 視訊訊號之解碼方法、解碼裝置及其電腦可讀取媒介 |
KR20090004660A (ko) * | 2007-07-02 | 2009-01-12 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR20090004658A (ko) * | 2007-07-02 | 2009-01-12 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR20090004661A (ko) * | 2007-07-04 | 2009-01-12 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
CN101163241B (zh) * | 2007-09-06 | 2010-09-29 | 武汉大学 | 一种视频序列编解码系统 |
US8938009B2 (en) * | 2007-10-12 | 2015-01-20 | Qualcomm Incorporated | Layered encoded bitstream structure |
US8848787B2 (en) * | 2007-10-15 | 2014-09-30 | Qualcomm Incorporated | Enhancement layer coding for scalable video coding |
WO2009054920A2 (en) * | 2007-10-19 | 2009-04-30 | Thomson Licensing | Combined spatial and bit-depth scalability |
CN101198064A (zh) * | 2007-12-10 | 2008-06-11 | 武汉大学 | 一种分辨率分层技术中的运动矢量预测方法 |
KR20090079838A (ko) * | 2008-01-17 | 2009-07-22 | 엘지전자 주식회사 | Iptv 수신 시스템 및 그 데이터 처리 방법 |
KR101460608B1 (ko) * | 2008-03-04 | 2014-11-14 | 삼성전자주식회사 | 필터링된 예측 블록을 이용한 영상 부호화, 복호화 방법 및장치 |
US7930515B2 (en) | 2008-07-29 | 2011-04-19 | International Business Machines Corporation | Virtual memory management |
US8213503B2 (en) * | 2008-09-05 | 2012-07-03 | Microsoft Corporation | Skip modes for inter-layer residual video coding and decoding |
US8724697B2 (en) * | 2008-09-26 | 2014-05-13 | Qualcomm Incorporated | Locating motion vectors for video data units |
US8660176B2 (en) * | 2008-09-26 | 2014-02-25 | Qualcomm Incorporated | Resolving geometric relationships among video data units |
US8634457B2 (en) * | 2008-09-26 | 2014-01-21 | Qualcomm Incorporated | Determining availability of video data units |
US9078007B2 (en) * | 2008-10-03 | 2015-07-07 | Qualcomm Incorporated | Digital video coding with interpolation filters and offsets |
US8483285B2 (en) * | 2008-10-03 | 2013-07-09 | Qualcomm Incorporated | Video coding using transforms bigger than 4×4 and 8×8 |
US8265152B2 (en) * | 2008-10-10 | 2012-09-11 | Arecont Vision, Llc. | System and method for low-latency processing of intra-frame video pixel block prediction |
US20100098156A1 (en) * | 2008-10-16 | 2010-04-22 | Qualcomm Incorporated | Weighted prediction based on vectorized entropy coding |
KR101590500B1 (ko) * | 2008-10-23 | 2016-02-01 | 에스케이텔레콤 주식회사 | 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체 |
RU2543954C2 (ru) * | 2009-01-26 | 2015-03-10 | Томсон Лайсенсинг | Упаковка кадров для кодирования видео |
KR101557504B1 (ko) * | 2009-04-13 | 2015-10-07 | 삼성전자주식회사 | 채널 적응형 비디오 전송 방법, 이를 이용한 장치 및 이를 제공하는 시스템 |
JP5614902B2 (ja) * | 2009-05-01 | 2014-10-29 | トムソン ライセンシングThomson Licensing | 3dvのレイヤ間依存関係情報 |
US9069713B2 (en) * | 2009-06-05 | 2015-06-30 | Qualcomm Incorporated | 4X4 transform for media coding |
CN101873484B (zh) * | 2009-08-13 | 2012-05-30 | 杭州海康威视软件有限公司 | 分层视频编码中编码模式选择方法及装置 |
KR101066117B1 (ko) * | 2009-11-12 | 2011-09-20 | 전자부품연구원 | 스케일러블 영상 코딩 방법 및 장치 |
KR20110065089A (ko) * | 2009-12-09 | 2011-06-15 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US8410959B2 (en) * | 2010-04-09 | 2013-04-02 | Qualcomm, Incorporated | Variable length codes for coding of video data |
US9225961B2 (en) * | 2010-05-13 | 2015-12-29 | Qualcomm Incorporated | Frame packing for asymmetric stereo video |
KR20120000485A (ko) * | 2010-06-25 | 2012-01-02 | 삼성전자주식회사 | 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법 |
GB2483294B (en) * | 2010-09-03 | 2013-01-02 | Canon Kk | Method and device for motion estimation of video data coded according to a scalable coding structure |
US9008175B2 (en) * | 2010-10-01 | 2015-04-14 | Qualcomm Incorporated | Intra smoothing filter for video coding |
US8923395B2 (en) * | 2010-10-01 | 2014-12-30 | Qualcomm Incorporated | Video coding using intra-prediction |
CN103155559B (zh) * | 2010-10-12 | 2016-01-06 | 杜比实验室特许公司 | 用于帧兼容视频传输的联合层优化 |
US9008181B2 (en) * | 2011-01-24 | 2015-04-14 | Qualcomm Incorporated | Single reference picture list utilization for interprediction video coding |
US9930366B2 (en) * | 2011-01-28 | 2018-03-27 | Qualcomm Incorporated | Pixel level adaptive intra-smoothing |
US20120236115A1 (en) * | 2011-03-14 | 2012-09-20 | Qualcomm Incorporated | Post-filtering in full resolution frame-compatible stereoscopic video coding |
US9641866B2 (en) * | 2011-08-18 | 2017-05-02 | Qualcomm Incorporated | Applying partition-based filters |
US10070152B2 (en) * | 2011-08-24 | 2018-09-04 | Texas Instruments Incorporated | Sample adaptive offset (SAO) parameter signaling |
AU2011236109B2 (en) * | 2011-10-18 | 2015-02-19 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding the significance map for residual coefficients of a transform unit |
US20130188718A1 (en) * | 2012-01-20 | 2013-07-25 | Qualcomm Incorporated | Motion prediction in svc without including a temporally neighboring block motion vector in a candidate list |
EP2839653A4 (en) * | 2012-04-16 | 2015-11-25 | Nokia Technologies Oy | METHOD AND DEVICE FOR VIDEO CODING |
US10205961B2 (en) * | 2012-04-23 | 2019-02-12 | Qualcomm Incorporated | View dependency in multi-view coding and 3D coding |
US9344718B2 (en) * | 2012-08-08 | 2016-05-17 | Qualcomm Incorporated | Adaptive up-sampling filter for scalable video coding |
US10448032B2 (en) * | 2012-09-04 | 2019-10-15 | Qualcomm Incorporated | Signaling of down-sampling location information in scalable video coding |
US9906786B2 (en) * | 2012-09-07 | 2018-02-27 | Qualcomm Incorporated | Weighted prediction mode for scalable video coding |
US9948939B2 (en) * | 2012-12-07 | 2018-04-17 | Qualcomm Incorporated | Advanced residual prediction in scalable and multi-view video coding |
US10021414B2 (en) * | 2013-01-04 | 2018-07-10 | Qualcomm Incorporated | Bitstream constraints and motion vector restriction for inter-view or inter-layer reference pictures |
US9294776B2 (en) * | 2013-03-05 | 2016-03-22 | Qualcomm Incorporated | Parallel processing for video coding |
US20140301463A1 (en) * | 2013-04-05 | 2014-10-09 | Nokia Corporation | Method and apparatus for video coding and decoding |
US9674530B1 (en) * | 2013-04-30 | 2017-06-06 | Google Inc. | Hybrid transforms in video coding |
GB2516424A (en) * | 2013-07-15 | 2015-01-28 | Nokia Corp | A method, an apparatus and a computer program product for video coding and decoding |
US10284876B2 (en) * | 2013-07-18 | 2019-05-07 | Samsung Electronics Co., Ltd | Intra scene prediction method of depth image for interlayer video decoding and encoding apparatus and method |
US9641851B2 (en) * | 2014-04-18 | 2017-05-02 | Qualcomm Incorporated | Conformance window information in multi-layer coding |
US10455242B2 (en) * | 2015-03-04 | 2019-10-22 | Qualcomm Incorporated | Signaling output indications in codec-hybrid multi-layer video coding |
-
2012
- 2012-06-15 WO PCT/KR2012/004777 patent/WO2012173439A2/ko active Application Filing
- 2012-06-15 CN CN201810093972.8A patent/CN108391135B/zh active Active
- 2012-06-15 CN CN201810093965.8A patent/CN108337522B/zh active Active
- 2012-06-15 EP EP21195537.2A patent/EP3958569A1/en active Pending
- 2012-06-15 CN CN201810093944.6A patent/CN108337521B/zh active Active
- 2012-06-15 CN CN201280039873.2A patent/CN103765899B/zh active Active
- 2012-06-15 KR KR1020120064634A patent/KR20120138712A/ko active Application Filing
- 2012-06-15 US US14/125,840 patent/US9686543B2/en active Active
- 2012-06-15 KR KR1020120064635A patent/KR20130000334A/ko active Application Filing
- 2012-06-15 CN CN201810094072.5A patent/CN108391136B/zh active Active
- 2012-06-15 US US14/125,974 patent/US9686544B2/en active Active
- 2012-06-15 CN CN201810093971.3A patent/CN108391137B/zh active Active
- 2012-06-15 EP EP12801420.6A patent/EP2723079A4/en not_active Ceased
-
2017
- 2017-05-03 US US15/585,687 patent/US10142648B2/en active Active
-
2018
- 2018-10-22 US US16/166,712 patent/US10819991B2/en active Active
-
2020
- 2020-06-03 KR KR1020200067143A patent/KR20200069272A/ko not_active IP Right Cessation
- 2020-06-03 KR KR1020200067144A patent/KR20200068623A/ko not_active IP Right Cessation
- 2020-09-11 US US17/018,245 patent/US11412240B2/en active Active
-
2021
- 2021-05-21 KR KR1020210065506A patent/KR20210061991A/ko active Application Filing
- 2021-05-21 KR KR1020210065505A patent/KR20210063290A/ko not_active Application Discontinuation
-
2022
- 2022-06-29 US US17/852,523 patent/US11838524B2/en active Active
- 2022-08-02 KR KR1020220095953A patent/KR20220113326A/ko not_active Application Discontinuation
-
2023
- 2023-10-23 US US18/492,046 patent/US20240056587A1/en active Pending
Non-Patent Citations (1)
Title |
---|
None |
Cited By (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103916673A (zh) * | 2013-01-06 | 2014-07-09 | 华为技术有限公司 | 基于双向预测的编码方法、解码方法和装置 |
EP2959689B1 (en) * | 2013-02-22 | 2022-06-22 | InterDigital VC Holdings, Inc. | Coding and decoding methods of a picture block, corresponding devices and data stream |
US10701373B2 (en) | 2013-02-22 | 2020-06-30 | Interdigital Vc Holdings, Inc. | Coding and decoding methods of a picture block, corresponding devices and data stream |
EP4087250A1 (en) * | 2013-02-22 | 2022-11-09 | InterDigital VC Holdings, Inc. | Coding and decoding methods of a picture block, corresponding devices and data stream |
CN105191318B (zh) * | 2013-02-22 | 2019-05-10 | 汤姆逊许可公司 | 画面块的编码和解码方法、对应的设备和数据流 |
US12052432B2 (en) | 2013-02-22 | 2024-07-30 | Interdigital Vc Holdings, Inc. | Coding and decoding methods of a picture block, corresponding devices and data stream |
US11750830B2 (en) | 2013-02-22 | 2023-09-05 | Interdigital Vc Holdings, Inc. | Coding and decoding methods of a picture block, corresponding devices and data stream |
RU2768261C2 (ru) * | 2013-02-22 | 2022-03-23 | ИНТЕРДИДЖИТАЛ ВиСи ХОЛДИНГЗ, ИНК. | Способы кодирования и декодирования блока изображения, соответствующие устройства и поток данных |
CN105191318A (zh) * | 2013-02-22 | 2015-12-23 | 汤姆逊许可公司 | 画面块的编码和解码方法、对应的设备和数据流 |
CN110087100B (zh) * | 2013-02-22 | 2021-09-07 | 汤姆逊许可公司 | 画面块的编码和解码方法、对应的设备和数据流 |
CN110087100A (zh) * | 2013-02-22 | 2019-08-02 | 汤姆逊许可公司 | 画面块的编码和解码方法、对应的设备和数据流 |
US11558629B2 (en) | 2013-02-22 | 2023-01-17 | Interdigital Vc Holdings, Inc. | Coding and decoding methods of a picture block, corresponding devices and data stream |
CN105075260A (zh) * | 2013-02-25 | 2015-11-18 | Lg电子株式会社 | 编码支持可伸缩性的多层结构视频的方法和解码其的方法以及用于其的装置 |
CN105075260B (zh) * | 2013-02-25 | 2020-09-11 | Lg电子株式会社 | 编码支持可伸缩性的多层结构视频的方法和解码其的方法以及用于其的装置 |
CN105340276A (zh) * | 2013-07-02 | 2016-02-17 | 高通股份有限公司 | 对多层视频译码的层间预测信令的优化 |
RU2662922C2 (ru) * | 2013-07-12 | 2018-07-31 | Сони Корпорейшн | Способ и устройство кодирования изображений |
CN105379274A (zh) * | 2013-07-12 | 2016-03-02 | 佳能株式会社 | 图像编码设备、图像编码方法、记录介质和程序以及图像解码设备、图像解码方法、记录介质和程序 |
CN105379274B (zh) * | 2013-07-12 | 2018-12-04 | 佳能株式会社 | 图像编码设备和方法以及图像解码设备和方法 |
US10085033B2 (en) | 2013-07-12 | 2018-09-25 | Canon Kabushiki Kaisha | Image encoding apparatus, image encoding method, recording medium and program, image decoding apparatus, image decoding method, and recording medium and program |
WO2015009020A1 (ko) * | 2013-07-15 | 2015-01-22 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
CN105519112A (zh) * | 2013-09-03 | 2016-04-20 | 株式会社Kt | 可扩展视频信号编码/解码方法及装置 |
US10425650B2 (en) | 2013-09-03 | 2019-09-24 | Kt Corporation | Multi-layer video signal encoding/decoding method and apparatus |
WO2015037920A1 (ko) * | 2013-09-10 | 2015-03-19 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
CN105519114A (zh) * | 2013-09-10 | 2016-04-20 | 株式会社Kt | 用于对可扩展视频信号进行编码/解码的方法及装置 |
US10602166B2 (en) | 2013-09-10 | 2020-03-24 | Kt Corporation | Method and apparatus for encoding/decoding scalable video signal |
CN105519115A (zh) * | 2013-09-10 | 2016-04-20 | 株式会社Kt | 用于对可扩展视频信号进行编码/解码的方法及装置 |
US10602167B2 (en) | 2013-09-10 | 2020-03-24 | Kt Corporation | Method and apparatus for encoding/decoding scalable video signal |
US10063869B2 (en) | 2013-09-10 | 2018-08-28 | Kt Corporation | Method and apparatus for encoding/decoding multi-view video signal |
US9998743B2 (en) | 2013-09-10 | 2018-06-12 | Kt Corporation | Method and apparatus for encoding/decoding scalable video signal |
US9992501B2 (en) | 2013-09-10 | 2018-06-05 | Kt Corporation | Method and apparatus for encoding/decoding scalable video signal |
WO2015037922A1 (ko) * | 2013-09-10 | 2015-03-19 | 주식회사 케이티 | 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치 |
WO2015046866A1 (ko) * | 2013-09-24 | 2015-04-02 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
US10051267B2 (en) | 2013-10-22 | 2018-08-14 | Kt Corporation | Method and device for encoding/decoding multi-layer video signal |
CN105684445A (zh) * | 2013-10-22 | 2016-06-15 | 株式会社Kt | 用于对多层视频信号进行编码/解码的方法和装置 |
CN105659597B (zh) * | 2013-10-22 | 2020-01-07 | 株式会社Kt | 用于对多层视频信号进行编码/解码的方法和装置 |
WO2015060641A1 (ko) * | 2013-10-22 | 2015-04-30 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
US10602168B2 (en) | 2013-10-22 | 2020-03-24 | Kt Corporation | Method and apparatus for encoding/decoding multilayer video signal |
US10602136B2 (en) | 2013-10-22 | 2020-03-24 | Kt Corporation | Method and apparatus for encoding/decoding multilayer video signal |
WO2015060642A1 (ko) * | 2013-10-22 | 2015-04-30 | 주식회사 케이티 | 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치 |
CN105659596A (zh) * | 2013-10-22 | 2016-06-08 | 株式会社Kt | 用于对多层视频信号进行编码/解码的方法和装置 |
US10057589B2 (en) | 2013-10-22 | 2018-08-21 | Kt Corporation | Method and device for encoding/decoding multi-layer video signal |
US10602169B2 (en) | 2013-10-22 | 2020-03-24 | Kt Corporation | Method and device for encoding/decoding multi-layer video signal |
US10602137B2 (en) | 2013-10-22 | 2020-03-24 | Kt Corporation | Method and device for encoding/decoding multi-layer video signal |
US10045019B2 (en) | 2013-10-22 | 2018-08-07 | Kt Corporation | Method and device for encoding/decoding multi-layer video signal |
US10045036B2 (en) | 2013-10-22 | 2018-08-07 | Kt Corporation | Method and device for encoding/decoding multi-layer video signal |
US10045020B2 (en) | 2013-10-22 | 2018-08-07 | Kt Corporation | Method and apparatus for encoding/decoding multilayer video signal |
US9979974B2 (en) | 2013-10-22 | 2018-05-22 | Kt Corporation | Method and apparatus for encoding/decoding multilayer video signal |
CN105659597A (zh) * | 2013-10-22 | 2016-06-08 | 株式会社Kt | 用于对多层视频信号进行编码/解码的方法和装置 |
CN105684445B (zh) * | 2013-10-22 | 2020-01-03 | 株式会社Kt | 用于对多层视频信号进行编码/解码的方法和装置 |
CN105684446A (zh) * | 2013-10-29 | 2016-06-15 | 株式会社Kt | 多层视频信号编码/解码方法和装置 |
US10602165B2 (en) | 2013-10-29 | 2020-03-24 | Kt Corporation | Multilayer video signal encoding/decoding method and device |
US10602164B2 (en) | 2013-10-29 | 2020-03-24 | Kt Corporation | Multilayer video signal encoding/decoding method and device |
CN105684446B (zh) * | 2013-10-29 | 2020-01-07 | 株式会社Kt | 多层视频信号编码/解码方法和装置 |
US12088788B2 (en) | 2015-06-05 | 2024-09-10 | Dolby Laboratories Licensing Corporation | Method and device for encoding and decoding intra-frame prediction |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220113326A (ko) | 스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치 | |
US20140247883A1 (en) | Scalable video encoding and decoding method and apparatus using same | |
WO2014092515A1 (ko) | 비디오 인코딩 방법 및 비디오 디코딩 방법과 이를 이용하는 장치 | |
KR20130107861A (ko) | 인터 레이어 인트라 예측 방법 및 장치 | |
WO2013147557A1 (ko) | 인터 레이어 예측 방법 및 이를 이용하는 인코딩 장치와 디코딩 장치 | |
KR20130037194A (ko) | 비디오 부호화/복호화 방법 및 그 장치 | |
WO2012173440A2 (ko) | 스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치 | |
CN108769683B (zh) | 图像解码方法和使用其的装置 | |
KR20140122189A (ko) | 계층 간 결합된 화면 내 예측을 이용한 영상 부호화/복호화 방법 및 그 장치 | |
WO2013051899A2 (ko) | 스케일러블 비디오 부호화 및 복호화 방법과 이를 이용한 장치 | |
WO2014129873A1 (ko) | 스케일러빌러티를 지원하는 멀티 레이어 구조의 비디오 인코딩 방법 및 비디오 디코딩 방법과 이를 이용하는 장치 | |
WO2014092434A2 (ko) | 비디오 부호화 방법 및 비디오 복호화 방법과 이를 이용하는 장치 | |
WO2013051896A1 (ko) | 비디오 부호화/복호화 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12801420 Country of ref document: EP Kind code of ref document: A2 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14125840 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |