[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2013100694A1 - 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치 - Google Patents

비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치 Download PDF

Info

Publication number
WO2013100694A1
WO2013100694A1 PCT/KR2012/011717 KR2012011717W WO2013100694A1 WO 2013100694 A1 WO2013100694 A1 WO 2013100694A1 KR 2012011717 W KR2012011717 W KR 2012011717W WO 2013100694 A1 WO2013100694 A1 WO 2013100694A1
Authority
WO
WIPO (PCT)
Prior art keywords
entry
point
entry point
offset
information
Prior art date
Application number
PCT/KR2012/011717
Other languages
English (en)
French (fr)
Inventor
헨드리헨드리
전병문
전용준
박승욱
김정선
박준영
임재현
박내리
김철근
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020217038091A priority Critical patent/KR102375821B1/ko
Priority to KR1020227022399A priority patent/KR102500639B1/ko
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020207002499A priority patent/KR102158629B1/ko
Priority to CN201280065507.4A priority patent/CN104041031B/zh
Priority to KR1020217009769A priority patent/KR102331361B1/ko
Priority to KR1020237004933A priority patent/KR102657113B1/ko
Priority to US14/369,063 priority patent/US9883185B2/en
Priority to KR1020147017291A priority patent/KR102072165B1/ko
Priority to KR1020207026685A priority patent/KR102238127B1/ko
Priority to KR1020227008468A priority patent/KR102417101B1/ko
Publication of WO2013100694A1 publication Critical patent/WO2013100694A1/ko
Priority to US15/860,412 priority patent/US10356414B2/en
Priority to US16/292,037 priority patent/US10742985B2/en
Priority to US16/918,418 priority patent/US11240506B2/en
Priority to US17/563,135 priority patent/US11711549B2/en
Priority to US18/205,372 priority patent/US12028556B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/633Control signals issued by server directed to the network components or client
    • H04N21/6332Control signals issued by server directed to the network components or client directed to client
    • H04N21/6336Control signals issued by server directed to the network components or client directed to client directed to decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation

Definitions

  • the present invention relates to image information compression technology, and more particularly, to a method of signaling a bitstream including image information and a method of parsing information using the same.
  • High-efficiency image compression technology can be used to effectively transmit, store, and reproduce high-resolution, high-quality video information.
  • inter prediction and intra prediction may be used.
  • the pixel value of the current picture is predicted by referring to information of another picture
  • the intra prediction method the pixel value is predicted by using the correlation between pixels in the same picture. do.
  • Various methods for making an image identical to an original may be applied to a processing unit, eg, a block, of a predicted image. This allows the decoding apparatus to decode the image more accurately (more consistent with the original), and the encoding apparatus can encode the image so that it can be more accurately reconstructed.
  • An object of the present invention is to provide a method and apparatus for setting and signaling an entry point in bytes when parallel decoding is applied.
  • An embodiment of the present invention is a video encoding method comprising entropy encoding quantized transform information and transmitting entropy encoded information in a bitstream, the bitstream indicating information to be parallel decoded in bytes. Information may be included.
  • the bitstream may include in the slice header offset information indicating an entry point for a row of coding tree units that are subject to parallel decoding, and the offset information may indicate the number of bytes between two entry points.
  • entropy encoding may be initiated at an access point indicated by an entry point for rows of coding tree units, and when the entropy encoding for the reference coding tree unit of the current row is completed, the reference coding Initiate entropy encoding for the first coding tree unit of the next row based on the context of the tree unit, wherein the number of bytes in the current row may be indicated by an offset between entry points transmitted in the bitstream.
  • Another embodiment of the present invention is a video decoding method, comprising: receiving a bitstream and performing parallel decoding based on the bitstream, wherein the bitstream stores information decoded in parallel in units of bytes. It may include information indicating.
  • the performing of the decoding may include performing entropy decoding on the bitstream;
  • the coding tree unit is based on the context of the CTU NL .
  • the bitstream may include offset information indicating an entry point for a row of coding tree units that are subject to parallel decoding, and the offset information may indicate the number of bytes between two entry points.
  • the offset information may be transmitted in a slice header.
  • decoding may be started at an access point indicated by an entry point for rows of coding tree units, and when entropy decoding for the reference coding tree unit of the current row is completed, the decoding of the reference coding tree unit may be performed. Based on the context, entropy decoding may be initiated for the first coding tree unit of the next row, and the number of bytes of the current row may be indicated by an offset between entry points transmitted in the bitstream.
  • coding efficiency can be improved by effectively signaling encoded video information.
  • an entry point when parallel decoding is applied, an entry point may be set in bytes and signaled, thereby effectively using data resources and increasing compression efficiency.
  • the efficiency of video decoding can be greatly improved.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating a video decoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a diagram schematically illustrating an example of a slice.
  • FIG. 4 is a diagram schematically illustrating an example of a tile and a slice.
  • FIG. 5 is a diagram schematically illustrating another example of a tile and a slice.
  • FIG. 6 is a diagram schematically illustrating a WPP substream.
  • FIG. 7 is a diagram schematically illustrating a tile.
  • FIG. 8 is a diagram schematically illustrating a relationship between a WPP and a tile.
  • FIG. 9 is a diagram schematically illustrating an example of a sequence of LCUs in a picture.
  • FIG. 10 is a diagram schematically illustrating an example of an order of LCUs in a bitstream.
  • FIG. 11 illustrates an example for explaining the byte alignment of a substream.
  • FIG. 12 is a diagram schematically illustrating an example of an entry point for a WPP substream.
  • FIG. 13 is a diagram schematically illustrating an example of an entry point for a tile.
  • FIG. 14 is a diagram schematically illustrating an example of an entry point when a tile and a WPP substream are applied together.
  • 15 is a flowchart schematically illustrating an example of an encoding method according to the present invention.
  • 16 is a diagram schematically illustrating an example of an encoding apparatus according to the present invention.
  • FIG. 17 schematically illustrates an example of a decoding method according to the present invention.
  • FIG. 18 is a diagram schematically showing an example of a decoding apparatus according to the present invention.
  • each of the components in the drawings described in the present invention are shown independently for the convenience of description of the different characteristic functions in the video encoding apparatus / decoding apparatus, each component is a separate hardware or separate software It does not mean that it is implemented.
  • two or more of each configuration may be combined to form one configuration, or one configuration may be divided into a plurality of configurations.
  • Embodiments in which each configuration is integrated and / or separated are also included in the scope of the present invention without departing from the spirit of the present invention.
  • the encoding apparatus 100 may include a picture divider 105, a predictor 110, a transformer 115, a quantizer 120, a reordering unit 125, an entropy encoding unit 130, An inverse quantization unit 135, an inverse transform unit 140, a filter unit 145, and a memory 150 are provided.
  • the picture dividing unit 105 may divide the input picture into at least one processing unit block.
  • the block as the processing unit may be a prediction unit (hereinafter referred to as a PU), a transform unit (hereinafter referred to as a TU), or a coding unit (hereinafter referred to as "CU"). It may be called.
  • the processing unit blocks divided by the picture divider 105 may have a quad-tree structure.
  • the predictor 110 includes an inter predictor for performing inter prediction and an intra predictor for performing intra prediction, as described below.
  • the prediction unit 110 generates a prediction block by performing prediction on the processing unit of the picture in the picture division unit 105.
  • the processing unit of the picture in the prediction unit 110 may be a CU, a TU, or a PU.
  • the prediction unit 110 may determine whether the prediction performed on the processing unit is inter prediction or intra prediction, and determine specific contents (eg, prediction mode, etc.) of each prediction method.
  • the processing unit in which the prediction is performed and the processing unit in which the details of the prediction method and the prediction method are determined may be different.
  • the prediction method and the prediction mode may be determined in units of PUs, and the prediction may be performed in units of TUs.
  • a prediction block may be generated by performing prediction based on information of at least one picture of a previous picture and / or a subsequent picture of the current picture.
  • a prediction block may be generated by performing prediction based on pixel information in a current picture.
  • a skip mode, a merge mode, a motion vector prediction (MVP), and the like can be used.
  • a reference picture may be selected for a PU and a reference block corresponding to the PU may be selected.
  • the reference block may be selected in integer pixel units.
  • a prediction block is generated in which a residual signal with the current PU is minimized and the size of the motion vector is also minimized.
  • the prediction block may be generated in integer sample units, or may be generated in sub-pixel units such as 1/2 pixel unit or 1/4 pixel unit.
  • the motion vector may also be expressed in units of integer pixels or less.
  • the residual may be used as the reconstructed block, and thus the residual may not be generated, transformed, quantized, or transmitted.
  • a prediction mode When performing intra prediction, a prediction mode may be determined in units of PUs, and prediction may be performed in units of PUs. In addition, a prediction mode may be determined in units of PUs, and intra prediction may be performed in units of TUs.
  • the prediction mode may have 33 directional prediction modes and at least two non-directional modes.
  • the non-directional mode may include a DC prediction mode and a planner mode (Planar mode).
  • a prediction block may be generated after applying a filter to a reference sample.
  • whether to apply the filter to the reference sample may be determined according to the intra prediction mode and / or the size of the current block.
  • the PU may be a block of various sizes / types, for example, in the case of inter prediction, the PU may be a 2N ⁇ 2N block, a 2N ⁇ N block, an N ⁇ 2N block, an N ⁇ N block (N is an integer), or the like.
  • the PU In the case of intra prediction, the PU may be a 2N ⁇ 2N block or an N ⁇ N block (where N is an integer).
  • the PU of the N ⁇ N block size may be set to apply only in a specific case.
  • the NxN block size PU may be used only for the minimum size CU or only for intra prediction.
  • PUs such as N ⁇ mN blocks, mN ⁇ N blocks, 2N ⁇ mN blocks, or mN ⁇ 2N blocks (m ⁇ 1) may be further defined and used.
  • the residual value (the residual block or the residual signal) between the generated prediction block and the original block is input to the converter 115.
  • the prediction mode information, the motion vector information, etc. used for the prediction are encoded by the entropy encoding unit 130 together with the residual value and transmitted to the decoding apparatus.
  • the transform unit 115 performs transform on the residual block in units of transform blocks and generates transform coefficients.
  • the transform block is a rectangular block of samples to which the same transform is applied.
  • the transform block can be a transform unit (TU) and can have a quad tree structure.
  • the transformer 115 may perform the transformation according to the prediction mode applied to the residual block and the size of the block.
  • the residual block is transformed using a discrete sine transform (DST), otherwise the residual block is transformed into a discrete cosine transform (DCT). Can be converted using.
  • DST discrete sine transform
  • DCT discrete cosine transform
  • the transform unit 115 may generate a transform block of transform coefficients by the transform.
  • the quantization unit 120 may generate quantized transform coefficients by quantizing the residual values transformed by the transform unit 115, that is, the transform coefficients.
  • the value calculated by the quantization unit 120 is provided to the inverse quantization unit 135 and the reordering unit 125.
  • the reordering unit 125 rearranges the quantized transform coefficients provided from the quantization unit 120. By rearranging the quantized transform coefficients, the encoding efficiency of the entropy encoding unit 130 may be increased.
  • the reordering unit 125 may rearrange the quantized transform coefficients in the form of a 2D block into a 1D vector form through a coefficient scanning method.
  • the entropy encoding unit 130 may perform entropy encoding on the quantized transform coefficients rearranged by the reordering unit 125.
  • Entropy encoding may include, for example, encoding methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • the entropy encoding unit 130 may include quantized transform coefficient information, block type information, prediction mode information, partition unit information, PU information, transmission unit information, and motion vector of the CUs received from the reordering unit 125 and the prediction unit 110.
  • Various information such as information, reference picture information, interpolation information of a block, and filtering information may be encoded.
  • the entropy encoding unit 130 may apply a constant change to a parameter set or syntax to be transmitted.
  • the inverse quantizer 135 inversely quantizes the quantized values (quantized transform coefficients) in the quantizer 120, and the inverse transformer 140 inversely transforms the inverse quantized values in the inverse quantizer 135.
  • the reconstructed block may be generated by combining the residual values generated by the inverse quantizer 135 and the inverse transform unit 140 and the prediction blocks predicted by the prediction unit 110.
  • a reconstructed block is generated by adding a residual block and a prediction block through an adder.
  • the adder may be viewed as a separate unit (restore block generation unit) for generating a reconstruction block.
  • the filter unit 145 may apply a deblocking filter, an adaptive loop filter (ALF), and a sample adaptive offset (SAO) to the reconstructed picture.
  • ALF adaptive loop filter
  • SAO sample adaptive offset
  • the deblocking filter may remove distortion generated at the boundary between blocks in the reconstructed picture.
  • the adaptive loop filter may perform filtering based on a value obtained by comparing the reconstructed image with the original image after the block is filtered through the deblocking filter. ALF may be performed only when high efficiency is applied.
  • the SAO restores the offset difference from the original image on a pixel-by-pixel basis to the residual block to which the deblocking filter is applied, and is applied in the form of a band offset and an edge offset.
  • the filter unit 145 may not apply filtering to the reconstructed block used for inter prediction.
  • the memory 150 may store the reconstructed block or the picture calculated by the filter unit 145.
  • the reconstructed block or picture stored in the memory 150 may be provided to the predictor 110 that performs inter prediction.
  • the video decoding apparatus 200 includes an entropy decoding unit 210, a reordering unit 215, an inverse quantization unit 220, an inverse transform unit 225, a prediction unit 230, and a filter unit 235.
  • Memory 240 may be included.
  • the input bitstream may be decoded according to a procedure in which image information is processed in the video encoding apparatus.
  • VLC variable length coding
  • 'VLC' variable length coding
  • CABAC CABAC
  • Information for generating the prediction block among the information decoded by the entropy decoding unit 210 is provided to the predictor 230, and a residual value where entropy decoding is performed by the entropy decoding unit 210, that is, a quantized transform coefficient It may be input to the reordering unit 215.
  • the reordering unit 215 may reorder the information of the bitstream entropy decoded by the entropy decoding unit 210, that is, the quantized transform coefficients, based on the reordering method in the encoding apparatus.
  • the reordering unit 215 may reorder the coefficients expressed in the form of a one-dimensional vector by restoring the coefficients in the form of a two-dimensional block.
  • the reordering unit 215 may generate an array of coefficients (quantized transform coefficients) in the form of a 2D block by scanning coefficients based on the prediction mode applied to the current block (transform block) and the size of the transform block.
  • the inverse quantization unit 220 may perform inverse quantization based on the quantization parameter provided by the encoding apparatus and the coefficient values of the rearranged block.
  • the inverse transform unit 225 may perform inverse DCT and / or inverse DST on the DCT and the DST performed by the transform unit of the encoding apparatus with respect to the quantization result performed by the video encoding apparatus.
  • the inverse transformation may be performed based on a transmission unit determined by the encoding apparatus or a division unit of an image.
  • the DCT and / or DST in the encoding unit of the encoding apparatus may be selectively performed according to a plurality of pieces of information, such as a prediction method, a size and a prediction direction of the current block, and the inverse transform unit 225 of the decoding apparatus is configured in the transformation unit of the encoding apparatus.
  • Inverse transformation may be performed based on the performed transformation information.
  • the prediction unit 230 may generate the prediction block based on the prediction block generation related information provided by the entropy decoding unit 210 and the previously decoded block and / or picture information provided by the memory 240.
  • intra prediction for generating a prediction block based on pixel information in the current picture may be performed.
  • inter prediction on the current PU may be performed based on information included in at least one of a previous picture or a subsequent picture of the current picture.
  • motion information required for inter prediction of the current PU provided by the video encoding apparatus for example, a motion vector, a reference picture index, and the like, may be derived by checking a skip flag, a merge flag, and the like received from the encoding apparatus.
  • the reconstruction block may be generated using the prediction block generated by the predictor 230 and the residual block provided by the inverse transform unit 225.
  • FIG. 2 it is described that the reconstructed block is generated by combining the prediction block and the residual block in the adder.
  • the adder may be viewed as a separate unit (restore block generation unit) for generating a reconstruction block.
  • the residual is not transmitted and the prediction block may be a reconstruction block.
  • the reconstructed block and / or picture may be provided to the filter unit 235.
  • the filter unit 235 may apply deblocking filtering, sample adaptive offset (SAO), and / or ALF to the reconstructed block and / or picture.
  • SAO sample adaptive offset
  • the memory 240 may store the reconstructed picture or block to use as a reference picture or reference block and provide the reconstructed picture to the output unit.
  • the encoding apparatus and the decoding apparatus may divide the picture into predetermined units and process (encode / decode) the picture.
  • a picture may be divided into slices and tiles.
  • a slice is a sequence of one or more slice segments.
  • the slice sequence starts with an independent slice segment and includes dependent slice segments that exist until the next independent slice segment.
  • the slice segment may be a coding tree unit (CTU) or a sequence of coding tree blocks (CTBs).
  • the coding tree unit is a coding unit of a quad-tree structure, and may be a largest coding unit (LCU).
  • LCU largest coding unit
  • a coding tree unit and a maximum coding unit may be mixedly used where necessary for better understanding of the present invention.
  • FIG. 3 is a diagram schematically illustrating an example of a slice.
  • the current picture 300 is divided into two slices by the slice boundary 350.
  • the first slice includes an independent slice segment 310 comprising four coding tree units and a first dependent slice segment 320 comprising twenty-two coding tree units before and after the slice segment boundary 330 and twenty-four codings. It may be composed of a second subordinate slice segment 340 including a tree unit.
  • Another independent slice segment 360 is composed of 28 coding tree units.
  • a tile may also be a coding tree unit, a coding tree block, or a sequence of maximum coding units.
  • the coding tree unit is a coding unit of a quad-tree structure, and may be a largest coding unit (LCU). As described above, in the present specification, a coding tree unit and a maximum coding unit are used interchangeably where necessary to help the understanding of the present invention.
  • a tile may be integer number of coding tree units or maximum coding units co-occurring in an area that may be defined by one row and one column.
  • both of the following two conditions are met or at least one is established.
  • All coding tree units or maximum coding units in a slice segment belong to the same tile.
  • All coding tree units or maximum coding units in a tile belong to the same slice segment.
  • FIG. 4 is a diagram schematically illustrating an example of a tile and a slice.
  • the current picture 400 includes only one slice and is divided into two tiles to the left and right of the tile boundary 410.
  • the slice in the current picture 400 consists of four subordinate slice segments divided by an independent slice segment 420 and slice segment boundaries 430, 440, and 450.
  • FIG. 5 is a diagram schematically illustrating another example of a tile and a slice.
  • the current picture 500 is divided into two tiles to the left and right of the tile boundary 510.
  • the tile to the left of the tile boundary 510 includes two slices based on the slice boundary 550.
  • Slices above slice boundary 550 include independent slice segments 520 and dependent slice segments 540, and slices below slice boundary 550 include independent slice segments 530 and dependent slice segments ( 560).
  • the next slice based on slice boundary 590, ie, the slice in the second tile, includes an independent slice segment 530 and a dependent slice segment 580.
  • Encoding and decoding may be performed on a tile-by-tile basis, and a row (or stream) of a coding tree unit (hereinafter, for convenience of description) or a row (or stream) of a maximum coding unit is referred to as a 'substream'. It may also be performed in units). Each sample in a tile or substream may be processed in a coding tree unit or a maximum coding unit.
  • the decoding process may be processed in parallel.
  • the decoding process may be performed in parallel for each tile.
  • the decoding process may be performed in parallel for each substream.
  • entropy decoding when entropy decoding is performed for each substream, after entropy decoding is performed for the nth (n is an integer) subframe, entropy decoding for the second coding tree unit or the maximum coding unit of the nth substream is completed. Thereafter, entropy decoding may be performed on the n + 1 th substream.
  • the substream may be a row of maximum coding units or coding tree units as a part of a bitstream to be decoded in each decoding process when a plurality of decoding processes are performed in parallel.
  • the first coding tree unit (maximum coding unit) of the n + 1th substream may be entropy decoded based on the context information for the second coding tree unit (maximum coding unit) of the nth substream.
  • WPP wavefront parallel processing
  • each tile can be decoded simultaneously.
  • the maximum number of tiles that can be processed in parallel may be predetermined. For example, a maximum of four tiles may be set to be processed in parallel.
  • the decoding apparatus may process 1 to 4 tiles at once.
  • the tile structure and the WPP allow the encoding device to divide the picture into several parts, which can then be decoded in a parallel manner in the decoding device.
  • An access point on a bitstream for proceeding decoding in parallel using a tile structure (tile substream) or a WPP substream is called an entry point.
  • the entry point may be the start point of each WPP substream or the start point of each tile on the bitstream.
  • Tile and WPP differ in the encoding / decoding technique applied, but the entry point of the tile and the entry point of the substream to which WPP is applied may be signaled in the same way.
  • a tile In parallel processing, a tile always starts at a byte aligned position, but a substream to which WPP is applied (hereinafter referred to as a WPP substream for convenience of description) may not start at a byte aligned position. .
  • a WPP substream For convenience of description, byte alignment is meant to be aligned by byte.
  • tiles and WPP substreams differ in bit granularity for entry points, are the lengths of partitions (i.e. tile WPP substreams) signaled in bytes or bits? It may be important to know if it is signaled in units of).
  • FIG. 6 is a diagram schematically illustrating a WPP substream.
  • the predetermined area 600 in the picture includes a plurality of substreams such as substream A 610, substream B 620, substream C 630, and the like.
  • Each substream is decoded sequentially from the first LCU.
  • Second and subsequent LCUs of each substream may be entropy decoded based on the entropy decoding result of previous LCUs, that is, the context.
  • each substream can be decoded in parallel, and in the substreams after the first substream, the first LCUs can be entropy decoded based on the value of the context variables for the second LCU of the previous substream. have.
  • the decoding process proceeds from the first LCU A1 of the first row 610 in the decoding object region 600.
  • the decoding device stores the value of the context variables for A2.
  • the first LCU B1 of the second row 620 is entropy decoded based on the value of the context variables for the second LCU A2 of the first row 610. Once the entropy decoding for the second LCU B2 of the second row 620 is complete, the decoding device stores the values of the context variables for B2.
  • the first LCU C1 of the third row 630 is entropy decoded based on the value of the context variables for the second LCU B2 of the second row 610.
  • the decoding device stores the values of the context variables for B2.
  • the fourth and subsequent rows can also be entropy decoded using the context variable values for the second LCU of the previous row.
  • the entry point may indicate the decoding start point (access point) for each substream.
  • a predetermined area 600 of a picture may be a partial area of the current picture, a slice of the current picture, or an entire area of the current picture.
  • FIG. 7 is a diagram schematically illustrating a tile.
  • the predetermined area 700 in the picture is divided into tile 1 710, tile 2 720, tile 3 730, and tile 4 740.
  • Each tile includes a plurality of substreams.
  • the decoding device may decode each tile at the same time. As described above, if the number of tiles that can be decoded in parallel is up to four, the decoding apparatus may decode tiles 1 to 4 simultaneously.
  • decoding of substreams proceeds sequentially from the first substream of the tile (for example, A ⁇ B ⁇ C ⁇ %), and within the substream, the LCU is sequentially started from the first LCU.
  • Xx1 ⁇ Xx2 ⁇ Xx3 ⁇ are decoded (Xx1 ⁇ Xx2 ⁇ Xx3 ⁇ ).
  • the entry points may indicate the decoding start point (access point) for each tile.
  • a predetermined area 700 of a picture may be a partial area of the current picture, a slice of the current picture, or an entire area of the current picture.
  • FIG. 8 is a diagram schematically illustrating a relationship between a WPP and a tile structure.
  • the WPP substream is applied within the tile as shown.
  • a predetermined area 800 in a picture is divided into tile 1 810, tile 2 820, tile 3 830, and tile 4 840.
  • Each tile includes a plurality of WPP substreams.
  • sub-stream A and sub-stream B are alternately located in tile 1 810
  • sub-stream C and sub-stream D are alternately located in tile 2 820
  • sub-tile 3 830 are alternately located
  • Stream E and substream F are alternately located
  • sub-stream G and sub-stream H are alternately present in tile 4 840.
  • the entry point is the entry point of the tile.
  • the entry point is the entry point of the WPP substream.
  • the predetermined area 800 in the picture may be a partial area of the current picture, a slice of the current picture, or an entire area of the current picture.
  • the starting point (access point) of each parallel processing is indicated by the entry point. Accordingly, various methods of signaling an entry point in the encoding apparatus and various methods of receiving the signaling of the entry point in the decoding apparatus and processing parallel decoding may be considered.
  • Table 1 shows an example of syntax elements in a slice header signaling an entry point of a WPP substream and a tile.
  • the entry point information may be information about an entry point of a WPP substream or information about an entry point of a tile.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 2 shows an example of a syntax structure regarding entry point location information according to Table 1.
  • the entry point information may be information about an entry point of a WPP substream or information about an entry point of a tile.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus2 Specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). In other words, entry_point_offset_length_minus2 Is entry_point_offset [i] The length of a syntax element may be expressed in bits or bytes.
  • entry_point_offset [i] specifies the number of bits between two entry points. However, if i is 0, entry_point_offset [0] specifies the number of bits between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits between the i-1 th entry point i-1 and the i th entry point i.
  • xx may be defined as in Equation 1.
  • Equation 1 when the number of substreams is greater than 1, WPP may be applied, and when the number of substreams is 1 or less, it may be a case of using a tile.
  • the type of entry point ie, whether the entry point is for a tile or for a WPP substream
  • the type of entry point ie, whether the entry point is for a tile or for a WPP substream
  • tile_info_present_flag 1 && num_substream_minus1> 0
  • the i th entry point is the entry point of the tile and the i th entry point.
  • the entry points become entry points of the WPP substream. That is, when tile information exists and a plurality of substreams exist, the entry point may be estimated as the entry point of the WPP substream, or may be estimated as the entry point of the tile and the WPP substream.
  • a stream (eg, bitstream) of encoded data in a slice may be divided into one or more substreams.
  • the substreams can be units of parallel processing (parallel decoding) and each substream is aligned bit by bit.
  • bit-aligned is referred to as being bit-aligned for convenience of description.
  • each substream may be expressed in bit units, and the entry point of each substream may also be expressed in bit units.
  • FIG. 9 is a diagram schematically illustrating an example of a sequence of LCUs in a picture.
  • a predetermined region 910 of a picture includes two substreams (substream A, which is the 0th substream, and substream B, which is the first substream).
  • the substream A and the substream B are alternately arranged in the region 900.
  • the predetermined area 900 in the picture may be a partial area of the current picture, a slice or a tile of the current picture, or an entire area of the current picture.
  • the LCU may be a coding tree unit (CTU).
  • FIG. 10 is a diagram schematically illustrating an example of an order of LCUs in a bitstream.
  • a bitstream is composed of LCUs described in the example of FIG. 9 will be described as an example.
  • bitstream 1010 includes two substreams (substream A, which is the 0th substream, and substream B, which is the first substream).
  • the entry point 1020 of the substream A may correspond to the start point of the LCU A1
  • the entry point 1030 of the substream B may correspond to the start point of the LCU B1.
  • entry point 1030 may be an entry point of a tile.
  • the substream has a length in bits and is expressed in bits as an entry point.
  • the WPP substreams are byte aligned, and even when the tile structure is applied, the substreams in the tile may be byte aligned.
  • byte-aligned bits may be used as a method for byte-aligning the substream.
  • the byte alignment bits are bits added to the bitstream or substream to byte-align each substream.
  • byte alignment bits may be added if they are not byte aligned at each end of each substream (eg, WPP substream or substream in a tile). Therefore, the length of each substream is expressed in byte units rather than bit units.
  • the byte alignment bits can be added to any portion of the substream to which the byte alignment is to be applied. For example, byte alignment bits may be added at the end of each substream.
  • FIG. 11 illustrates an example for explaining the byte alignment of a substream.
  • FIG. 11 a case where a bitstream is composed of LCUs described in the example of FIG. 9 will be described as an example.
  • bitstream 1110 includes two substreams (substream A, which is the 0th substream, and substream B, which is the first substream).
  • the entry point 1120 of the substream A may correspond to the start point of the LCU A1
  • the entry point 1130 of the substream B may correspond to the start point of the LCU B1.
  • entry point 1130 may be an entry point of a tile.
  • the byte alignment bit 1140 may be added to the rear end of the substream A to indicate the substream A in the byte unit.
  • the byte alignment bit 1150 may be added to the rear end of the substream B to indicate the substream B in the byte unit.
  • the entry point can be signaled in a simpler manner while equalizing the granularity of the entry points of the tile and the WPP substream. have.
  • Table 3 shows an example of syntax elements in a slice header signaling an entry point of a WPP substream and a tile.
  • the entry point information may be information about an entry point of a WPP substream or information about an entry point of a tile.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 4 shows an example of a syntax structure regarding entry point location information according to Table 3.
  • the entry point information may be information about an entry point of a WPP substream or information about an entry point of a tile.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus2 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus2 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • entry_point_offset [i] specifies the number of bytes between the two entry points.
  • entry_point_offset [i] specifies the number of bytes between the end of slice header and the first entry point in the slice.
  • the first few bits of the first tile / WPP substream may be added to the end of the slice header.
  • the added bits serve as the byte alignment bits described above.
  • entry_point_offset [i] specifies the number of bytes between the i-1 st entry point and the i th entry point.
  • the type of entry point (ie, whether the entry point is for a tile or for a WPP substream) may be inferred as follows.
  • tile_info_present_flag 1 && num_substream_minus1> 0
  • the i th entry point is the entry point of the tile and the i th entry point.
  • the entry points become entry points of the WPP substream. That is, when tile information exists and a plurality of substreams exist, the entry point may be estimated as the entry point of the WPP substream, or may be estimated as the entry point of the tile and the WPP substream.
  • only an entry point of a WPP substream may be signaled among the substreams. For example, when only WPP is applied without applying the WPP and the tile structure together, an entry point of the WPP substream may be signaled.
  • Information about the entry point of the WPP substream may also be signaled in the slice header.
  • Table 5 is an example of syntax for signaling information about an entry point of a WPP substream in a slice header.
  • log_max_substream_length_minus2 specifies the number of bits used to transmit information substream_length [i] about the length of the substream.
  • substream_length [i] specifies the number of bits between two entry points.
  • the two entry points may relate to the WPP substream.
  • substream_length [i] specifies the number of bits between the end of slice header and the first entry point in the slice.
  • substream_length [i] specifies the number of bits between the i-1 th entry point i-1 and the i th entry point i.
  • the length of the substream may be expressed in bytes.
  • substream_length [i] specifies the number of bytes between two WPP substream entry points.
  • the entry point offset is transmitted instead of the length of the substream. You can also do that.
  • entry_point_offset [i] specifies the number of bytes or bits between two entry points, and when specifying the number of bytes, byte alignment bits for byte alignment of the substream may be used.
  • a method of directly signaling may be considered without deriving an entry point type (whether the entry point relates to a tile or a WPP substream).
  • Table 6 shows an example of syntax for signaling information about an entry point in a slice header.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 7 shows an example of syntax regarding entry point location information according to Table 6.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus2 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus2 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • entry_point_type [i] indicates an entry point type. For example, when the value of entry_point_type [i] is 1, it indicates that the entry point is a WPP substream, and when the value of entry_point_type [i] is 0, it indicates that it is an entry point of both a tile and a WPP substream.
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. If the value of i is 0, entry_point_offset [0] specifies the number of bits or bytes between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits or bytes between the i-1 th entry point i-1 and the i th entry point i.
  • entry_point_offset [i] specifies the number of bytes between two entry points
  • the byte alignment bits for byte alignment may be used.
  • xx may be defined as in Equation 2.
  • Equation 2 when the number of substreams is greater than 1, WPP may be applied, and when the number of substreams is 1 or less, it may be a case of using a tile.
  • the information on the length of the entry point offset may be signaled in other ways.
  • Table 8 shows an example of syntax elements in a slice header signaling an entry point of a WPP substream and a tile.
  • the entry point information may be information about an entry point of a WPP substream or information about an entry point of a tile.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 9 shows an example of a syntax structure regarding entry point location information according to Table 8.
  • the entry point information may be information about an entry point of a WPP substream or information about an entry point of a tile.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus1 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus1 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • entry_point_type [i] indicates an entry point type. For example, when the value of entry_point_type [i] is 1, it indicates that the entry point is a WPP substream, and when the value of entry_point_type [i] is 0, it indicates that it is an entry point of both a tile and a WPP substream.
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. However, if i value is 0, entry_point_offset [0] specifies the number of bits / bytes between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits / bytes between the i-1 th entry point i-1 and the i th entry point i.
  • the byte alignment bits can be used as described in the second embodiment.
  • xx can be defined as Equation 3 when the length of entry_point_offset [i] is xx.
  • Equation 3 when the number of substreams is greater than 1, WPP may be applied, and when the number of substreams is 1 or less, it may be a case of using a tile.
  • entry_point_location_flagA method of estimating or deriving without transmitting may be considered.
  • the presence of entry point information can be estimated using the following scheme, without the need for a syntax element indicating whether entry point information exists in the bitstream in the slice header.
  • Table 8 shows an example of a method for estimating the presence of entry point information as described.
  • num_tile_columns_minus1 +1 specifies the number of tile columns partitioning a picture, and a value of num_tile_columns_minus1 may be signaled from the encoding apparatus.
  • num_tile_row_minus1 +1 specifies the number of tile columns partitioning a picture, and a value of num_tile_rows_minus1 may be signaled from the encoding apparatus.
  • Table 11 shows another example of syntax for transmitting entry point information in a slice header.
  • the entry_point_location_flag about the existence of the entry point information is transmitted in the slice header, and when the value of the entry_point_location_flag is 1, it indicates that the entry point information exists in the bitstream.
  • entry point information when the number of rows of a tile is greater than 1 or the number of columns of a tile is greater than 1 and the number of substreams is also greater than 1, entry point information is considered to exist in the bitstream. In this case, entry point information may be transmitted as shown in Table 10.
  • Table 12 shows an example of syntax that is transmitted when the end point information is present in the bitstream in Table 11.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus1 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus1 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • entry_point_type [i] indicates an entry point type. For example, when the value of entry_point_type [i] is 1, it indicates that the entry point is a WPP substream, and when the value of entry_point_type [i] is 0, it indicates that it is an entry point of both a tile and a WPP substream.
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. However, if i value is 0, entry_point_offset [0] specifies the number of bits / bytes between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits / bytes between the i-1 th entry point i-1 and the i th entry point i.
  • the byte alignment bits can be used as described in the second embodiment.
  • Table 13 shows an example of syntax for signaling information about an entry point in a slice header.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 14 shows an example of syntax regarding entry point location information according to Table 13.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus2 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus2 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • Entry point type when the number of rows of tiles is greater than 1 or the number of columns of tiles is greater than 1 and the number of substreams is also greater than 1, that is, when there are a plurality of tiles and a plurality of substreams.
  • Signaling information entry_point_type [i] indicating.
  • entry_point_type [i] indicates an entry point type. For example, when the value of entry_point_type [i] is 1, it indicates that the entry point is a WPP substream, and when the value of entry_point_type [i] is 0, it indicates that it is an entry point of both a tile and a WPP substream.
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. If the value of i is 0, entry_point_offset [0] specifies the number of bits or bytes between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits or bytes between the i-1 th entry point i-1 and the i th entry point i.
  • entry_point_offset [i] specifies the number of bytes between two entry points
  • the byte alignment bits for byte alignment may be used.
  • xx may be defined as in Equation 4.
  • Table 15 shows an example of syntax for signaling information about an entry point in a slice header.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 16 shows an example of syntax regarding entry point location information according to Table 15.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus1 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus1 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • Entry point type when the number of rows of tiles is greater than 1 or the number of columns of tiles is greater than 1 and the number of substreams is also greater than 1, that is, when there are a plurality of tiles and a plurality of substreams.
  • Signaling information entry_point_type [i] indicating.
  • entry_point_type [i] indicates an entry point type. For example, when the value of entry_point_type [i] is 1, it indicates that the entry point is a WPP substream, and when the value of entry_point_type [i] is 0, it indicates that it is an entry point of both a tile and a WPP substream.
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. If the value of i is 0, entry_point_offset [0] specifies the number of bits or bytes between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits or bytes between the i-1 th entry point i-1 and the i th entry point i.
  • entry_point_offset [i] specifies the number of bytes between two entry points
  • the byte alignment bits for byte alignment may be used.
  • xx may be defined as in Equation 4.
  • Equation 4 when the number of substreams is greater than 1, WPP may be applied, and when the number of substreams is 1 or less, it may be a case of using a tile.
  • the type of entry point ie, whether the entry point is for a tile or for a WPP substream
  • the type of entry point may be inferred as follows.
  • tile_info_present_flag 1 && num_substream_minus1> 0
  • the i th entry point is the entry point of the tile and the i th entry point.
  • the entry points become entry points of the WPP substream. That is, when tile information exists and a plurality of substreams exist, the entry point may be estimated as the entry point of the WPP substream, or may be estimated as the entry point of the tile and the WPP substream.
  • Table 17 shows an example of syntax for signaling information about an entry point in a slice header.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 18 shows an example of syntax regarding entry point location information according to Table 17.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus2 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus1 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. If the value of i is 0, entry_point_offset [0] specifies the number of bits or bytes between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits or bytes between the i-1 th entry point i-1 and the i th entry point i.
  • entry_point_offset [i] specifies the number of bytes between two entry points
  • the byte alignment bits for byte alignment may be used.
  • the entry point type is not directly signaled. Instead, in Embodiment 9, the entry point type is estimated based on the value of tile_info_present_flag and the value of num_substream_minus1 as described above.
  • the type of entry point ie, whether the entry point is for a tile or for a WPP substream
  • the type of entry point may be inferred as follows.
  • tile_info_present_flag 1 && num_substream_minus1> 0
  • the i th entry point is the entry point of the tile and the i th entry point.
  • the entry points become entry points of the WPP substream. That is, when tile information exists and a plurality of substreams exist, the entry point may be estimated as the entry point of the WPP substream, or may be estimated as the entry point of the tile and the WPP substream.
  • Table 19 shows an example of syntax for signaling information about an entry point in a slice header.
  • entry_point_location_flag indicates whether entry point information exists in the bitstream. For example, if entry point information (eg, entry point location information) is present in the bitstream, the value of entry_point_location_flag is 1, and if entry point information does not exist in the bitstream, the value of entry_point_location_flag is 0.
  • Table 20 shows an example of syntax regarding entry point location information according to Table 19.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus1 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus1 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes.
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. If the value of i is 0, entry_point_offset [0] specifies the number of bits or bytes between the end of slice header and the first entry point in the slice. If the value of i is not 0, entry_point_offset [i] specifies the number of bits or bytes between the i-1 th entry point i-1 and the i th entry point i.
  • entry_point_offset [i] specifies the number of bytes between two entry points
  • the byte alignment bits for byte alignment may be used.
  • the entry point type is not directly signaled. Instead, in the tenth embodiment, as described above, the entry point type is estimated based on the value of tile_info_present_flag and the value of num_substream_minus1.
  • Embodiment 11 describes a method in which at least one of the following modifications or features is added to the preceding ten embodiments.
  • entry_point_location_flag indicating the existence of entry point information may not be needed as described in the above embodiments.
  • the information specifying the number of entry points may also be transmitted as the value of num_of_entry_points instead of num_of_entry_points_minus1 so that the value of 0 may be indicated. That is, instead of transmitting a value obtained by subtracting 1 from the total number of entry points, the value of the total number of entry points may be transmitted.
  • WPP and tiles may not be used together. In this case, no tile is used if WPP is used, and no WPP is used if tile is used.
  • the entry point offset can be calculated from the NALU data of byte 0.
  • Byte 0 may be the first byte of slice segment data.
  • necessary entry point information can be signaled directly without transmitting entry_point_location_flag indicating presence or absence of entry point information in the slice header.
  • Table 21 shows an example of slice header syntax for signaling entry point information about a WPP substream or tile according to the eleventh embodiment.
  • num_of_entry_points_minus1 indicates the number of entry points on the bitstream in the slice. Since the number of entry point offsets is one less than the entry point, num_of_entry_points_minus1 may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • entry_point_offset_length_minus1 specifies the number of bits used to signal information about the entry point offset (entry_point_offset syntax element). That is, entry_point_offset_length_minus1 may indicate the length of the entry_point_offset [i] syntax element in bits or bytes. Although it is described here that entry_point_offset_length_minus1 is signaled, entry_point_offset_length_minus2 may be signaled instead of entry_point_offset_length_minus1 .
  • entry_point_offset [i] specifies the number of bits or bytes between two entry points. If the value of i is 0, entry_point_offset [0] specifies the number of bytes between the beginning of the NAL unit data (ie byte 0) and the first entry point in the slice (ie entry_point_offset [0] -1). If the value of i is not 0, entry_point_offset [i] specifies the number of bits or bytes between the i-1 th entry point i-1 and the i th entry point i.
  • entry_point_offset [i] specifies the number of bytes between two entry points
  • the byte alignment bits for byte alignment may be used.
  • the length of entry_point_offset [i] may be entry_point_offset_length_minus1 + 1 bit or entry_point_offset_length_minus2 + 2 bits.
  • FIG. 12 is a diagram schematically illustrating an example of an entry point for a WPP substream.
  • a predetermined region 1210 of a picture includes four substreams, namely, substream A, substream B, substream C, and substream D.
  • Each substream may be referred to as an array of LCUs.
  • the starting point of each substream may be indicated as an entry point.
  • the entry point for substream A can be specified from the start point of the bitstream (or the end point of the slice header)
  • the entry point for substream B is entry point 0 1220
  • the entry point for is entry point 1 1230
  • the entry point for substream D is entry point 2 1240.
  • entry point 0 (1220) which is the first entry point, sets an entry point offset (eg, entry_point_offset [0]) representing the number of bytes (or bits) between the end point of the slice header and the first entry point. It can be the value added to the endpoint.
  • entry point offset e.g., entry_point_offset [1]
  • the predetermined area 1210 in the picture may be a partial area of the current picture, a slice of the current picture, or an entire area of the current picture.
  • FIG. 13 is a diagram schematically illustrating an example of an entry point for a tile.
  • the predetermined region 310 of the picture includes four tiles, that is, tile 1, tile 2, tile 3, and tile 4.
  • the starting point of each tile may be indicated as an entry point.
  • the entry point for tile 1 can be specified from the start point of the bitstream (or the end point of the slice header)
  • the entry point for tile 2 is entry point 0 1320
  • the entry point for tile 3 Is entry point 1 1330
  • entry point for tile 4 is entry point 2 1340.
  • entry point 0 (1320) which is the first entry point, determines an entry point offset (eg, entry_point_offset [0]) indicating the number of bytes (or bits) between the end point of the slice header and the first entry point. It can be the value added to the endpoint.
  • entry point offset e.g., entry_point_offset [1]
  • the predetermined area 1310 in the picture may be a partial area of the current picture, a slice of the current picture, or an entire area of the current picture.
  • FIG. 14 is a diagram schematically illustrating an example of an entry point when a tile and a WPP substream are applied together.
  • the predetermined region 1410 of the picture includes four tiles, namely, tile 1 1410, tile 2 1420, tile 3 1430, and tile 4 1440.
  • tile 1 1410 includes substream A and substream B.
  • Tile 2 1420 includes substream C and substream D.
  • Tile 3 1430 includes substream E and substream F.
  • Tile 4 1440 includes substream G and substream H.
  • the start point of each tile and / or the start point of the substream may be indicated as an entry point.
  • the entry point for tile 1 1410 may be specified from the beginning of the bitstream (or the end of the slice header) and the entry point for substream A may also be from the beginning of the bitstream (or the ending of the slice header). Can be specified.
  • the entry point for tile 2 1420 and substream C is entry point 1 1455.
  • the entry point for substream D in tile 2 1420 becomes entry point 2 1260.
  • the entry point for tile 3 1430 and substream E is entry point 3 1465, and the entry point for substream F in tile 3 1430 is entry point 4 1470.
  • the entry point for tile 4 1440 and substream G is entry point 5 1475, and the entry point for substream H in tile 4 1440 is entry point 6 1480.
  • entry point 0 (1450), which is the first entry point, determines an entry point offset (eg, entry_point_offset [0]) indicating the number of bytes (or the number of bits) between the end point of the slice header and the first entry point. It can be the value added to the endpoint.
  • entry point offset eg, entry_point_offset [0]
  • Entry point 1 1455 which is the second entry point, may be indicated by a value obtained by adding an entry point offset (eg, entry_point_offset [1]) to entry point 0 1450, which is the first entry point.
  • Entry point 2 1460 which is the third entry point, may be indicated by a value obtained by adding an entry point offset (eg, entry_point_offset [2]) to entry point 1 1455, which is the second entry point.
  • Entry point 3 1465 which is the fourth entry point, may be indicated by a value obtained by adding an entry point offset (eg, entry_point_offset [3]) to entry point 2 1460, which is the third entry point.
  • Entry point 4 (1470), which is the fifth entry point, may be indicated by a value obtained by adding an entry point offset (eg, entry_point_offset [4]) to entry point 3 (1465), which is the fourth entry point.
  • Entry point 5 (1475), which is the sixth entry point may be indicated by adding entry point offset (eg, entry_point_offset [5]) to entry point 4 (1470), which is the fifth entry point.
  • Entry point 6 1480 which is a seventh entry point, may be indicated by a value obtained by adding entry point offset (eg, entry_point_offset [6]) to entry point 5 1475, which is the sixth entry point.
  • 15 is a flowchart schematically illustrating an example of an encoding method according to the present invention.
  • the encoding apparatus may convert an input video signal in operation S1510.
  • the encoding apparatus may divide the input picture into encoding units and perform prediction based on the divided encoding unit or the further divided unit.
  • the encoding apparatus generates a residual which is a difference between the prediction result and the original signal.
  • the encoding device transforms and quantizes the residual. DCT and / or DST may be used as the conversion method.
  • the prediction method, the transform method and the quantization method are as described with reference to FIG. 1.
  • the encoding apparatus may entropy encode the converted signal output from S1510 (S1520).
  • S1510 S1510
  • CABAC CABAC
  • VLC Variable chrometic Coding
  • Exponential Golomb Exponential Golomb
  • the encoding apparatus signals entropy encoded image information and information necessary for decoding in a bitstream (S1530).
  • the signaled information may include information necessary for parallel processing in the slice header, for example, information about an entry point.
  • the information about the entry point includes entry point offset information, information on the number of entry points, and information on the length of the entry point offset, as described above.
  • entry point offset information transmitted in the slice header entry_point_offset [i] specifies the i-th entry point offset in units of bytes.
  • entry_point_offset [i] may be represented by information indicating the length of the entry point offset. For example, if the information indicating the length of an entry point offset is entry_point_offset_length_minus1, entry point offset it may be expressed by adding the 1-bit value entry_point_offset_length_minus1.
  • the slice segment data following the slice header is composed of as many subsets as specified by information indicating the number of entry points, and parallel decoding may be performed on a subset basis. Since the number of entry points is one more than the number of entry point offsets indicating offsets between neighboring entry points, the number of entry points in a slice may be specified by the number of entry point offset information transmitted in a slice header. For example, if the number of entry point offsets is signaled as N, there are N + 1 subsets.
  • the i th entry point in the slice becomes a value obtained by adding the i th entry point offset to the i-1 th entry point.
  • the section of the i-th subset of the subsets constituting the slice segment data may be specified using the i-th entry point offset.
  • the 0 th subset may have a period from the first byte (byte 0) of the slice segment data to the 0 th entry point offset-1.
  • the first byte of the interval of the i subset (i is a nonzero integer) is the sum of the previous subsets (the sum of the previous entry point offsets), and the last byte is one from the first byte plus the i th entry point offset. The value is minus the bit.
  • the information about the number of entry point offsets may specify the number of entry_point_offset [i] syntax elements in the slice header.
  • the number of entry point offsets may have a value ranging from 0 to a number of rows of coding tree blocks (CTBs) in a picture.
  • CTBs coding tree blocks
  • the number of entry point offsets may have a value ranging from 0 to the number of tiles-1.
  • the number of entry point offsets may have a value ranging from 0 to the number of tile columns * the number of CTB rows ⁇ 1.
  • the information about the number of entry point offset syntax elements specifies the number of entry_point_offset [i] syntax elements in the slice header. For example, since the number of entry point offsets is one less than the number of entry points, information about the number of entry point offset syntax elements may be transmitted to num_of_entry_point_munus1. In addition, the number of entry point offsets may be directly transmitted to num_of_entry_point_offset.
  • the information about the length of the entry point offset may specify the length of the entry_point_offset [i] syntax element in bits. For example, when information about the length of the entry point offset syntax element is transmitted to entry_point_offset_length_minus1, the length of the entry point offset syntax element is entry_point_offset_length_minus1 + 1 bits. In addition, when information about the length of the entry point offset syntax element is transmitted to entry_point_offset_length_minus2, the length of the entry point offset syntax element is entry_point_offset_length_minus2 + 2 bits.
  • the length of the entry point offset syntax element may be transmitted as a syntax element of entry_point_offset_length, in which case the length of the entry point offset syntax element is entry_point_offset_length bits.
  • 16 is a diagram schematically illustrating an example of an encoding apparatus according to the present invention.
  • the encoding apparatus 1600 may include a signal converter 1610, an entropy encoder 1620, and a signaling unit 1630.
  • the signal converter 1610 may divide the input picture (video) into encoding units and perform prediction based on the divided encoding unit or the further divided unit.
  • the signal converter 1610 generates a residual, which is a difference between the prediction result and the original signal.
  • the signal converter 1610 converts and quantizes the residuals. DCT and / or DST may be used as the conversion method.
  • the signal converter 1610 may include the picture divider 105, the predictor 110, the converter 115, the quantizer 120, and the realigner 125 described in the example of FIG. 1.
  • the picture splitter 105, the predictor 110, the transformer 115, the quantizer 120, and the reorderer 125 may be performed.
  • the entropy encoding unit 1620 may entropy encode a signal output from the signal converter 1610.
  • the entropy encoding unit 1620 may correspond to the entropy encoding unit 130 described in the example of FIG. 1, and may perform an operation of the entropy encoding unit 130.
  • the signaling unit 1630 signals encoded image information and information necessary for decoding in a bitstream. If parallel decoding is to be applied, the signaled information may include information necessary for parallel processing in the slice header, for example, information about an entry point.
  • the information about the entry point includes entry point offset information, information on the number of entry points, and information on the length of the entry point offset, as described above.
  • the information about the number of entry points may be information indicating the number of entry point offset information transmitted in the slice header.
  • FIG. 17 schematically illustrates an example of a decoding method according to the present invention.
  • the decoding apparatus receives signaling about image information from the encoding apparatus in operation S1710.
  • the image information may be signaled in an entropy encoded bitstream.
  • the decoding apparatus may entropy decode the received bitstream (S1720).
  • the decoding apparatus may receive data bits transmitted in the bitstream and output syntax element values.
  • the syntax element refers to an element of data represented in the bitstream.
  • the data can be byte aligned.
  • byte-aligned means that the position appearing in the bitstream is in bytes. For example, when a position in the bitstream is an integer multiple of 8 bits from the first bit of the bitstream, the position may be said to be byte aligned.
  • the decoding apparatus may perform an initialization process, a binarization process, and a decoding process in this order.
  • the decoding apparatus is initialized when starting at least one of parsing for slice segment data, parsing for the first CTU (LCU) of the tile, parsing for the first CTU (LCU) of the row of LCUs. Can be performed.
  • the decoding apparatus may generate initial values of variables for performing CABAC by initialization.
  • Binarization is a set of bin strings for the possible values of a syntax element.
  • the binarization process is a unique mappimg process that maps possible values of syntax elements to a set of empty strings.
  • the decoding apparatus may output the mapping of the syntax element value to an empty string, that is, a binary sequence or a binary code by binarization.
  • the decoding apparatus may use a predetermined table that maps syntax elements and empty strings for binarization.
  • the decoding apparatus may determine the value of the syntax element through the decoding process of CABAC.
  • the decoding apparatus may determine a bin index for each bin of the bin string, and determine a context index based on the bin index.
  • the decoding apparatus may output the syntax element value by determining the random variable values for the decoding target empty string using the context index.
  • the decoding apparatus may use a predetermined table in the process of determining the context index based on the empty index, and may consider the types (I slice, B slice, and P slice) of the decoding target picture (slice).
  • the above-described row of CTUs may be a WPP substream. If WPP is applied, once the entropy decoding for the second coding tree unit (maximum coding unit) row of the nth substream (nth coding tree unit (maximum coding unit) row) is completed, the associated context information Can be stored.
  • the first coding tree unit (maximum coding unit) of the n + 1th substream may perform initialization based on context information about the second coding tree unit (maximum coding unit) of the nth substream.
  • the decoding apparatus may reconstruct a picture based on syntax element values (S1730).
  • syntax element values may be signaled from an encoding device and obtained through an entropy decoding process.
  • syntax elements may include information indicating an entry point for a tile or information indicating an entry point of a WPP substream.
  • Syntax elements indicating an entry point for example, a syntax element indicating the number of entry points, a syntax element indicating an entry point offset, a syntax element indicating the length of a syntax element with respect to the entry point offset, and an entry point type Details of the syntax element, the syntax element indicating the existence of the entry point information, and the like are as described above.
  • the syntax elements related to the entry point transmitted from the encoding apparatus may be all or part of the above-described syntax elements, as in the above embodiments.
  • the entropy decoding step S1720 and the reconstruction step S1730 have been described in order to facilitate understanding of the present invention.
  • the entropy decoding step S1720 and the reconstruction step S1730 may be referred to as one decoding step. have.
  • FIG. 18 is a diagram schematically showing an example of a decoding apparatus according to the present invention.
  • the decoding apparatus 1800 includes a signaling receiver 1810, an entropy decoding unit 1820, and a recovery unit 1830.
  • the signaling receiver 1810 receives signaling about image information from the encoding apparatus.
  • the image information may be signaled in an entropy encoded bitstream.
  • the entropy decoding unit 1820 may entropy decode the received bitstream.
  • the decoding apparatus may receive data bits transmitted in the bitstream and output syntax element values. The content of entropy decoding is as described with reference to FIG. 17.
  • the entropy decoding unit 1820 corresponds to the entropy decoding unit 210 described in the example of FIG. 2.
  • the reconstruction unit 1830 may reconstruct the picture based on the syntax element values output from the entropy decoding unit 1820.
  • the reconstruction unit 1830 may include the reordering unit 215, the inverse quantization unit 220, the inverse transform unit 225, the prediction unit 230, and the filter unit 235 memory 240 described in the example of FIG. 2.
  • operations of the reordering unit 215, the inverse quantization unit 220, the inverse transform unit 225, the predictor 230, and the filter unit 235 described above with reference to the example of FIG. 2 may be performed.
  • the entropy decoding unit 1820 and the reconstruction unit 1830 have been described in order to facilitate understanding of the present invention. However, the entropy decoding unit 1820 and the reconstruction unit 1830 may be configured as one decoding unit. have.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 비디오 인코딩 및 디코딩에 관한 방법과 장치에 관한 것으로서, 본 발명에 따른 비디오 인코딩 방법은 양자화된 변환 정보를 엔트로피 인코딩하는 단계 및 엔트로피 인코딩된 정보를 비트스트림으로 전송하는 단계를 포함하며, 상기 비트스트림은 병렬 디코딩될 정보들을 바이트 단위로 지시하는 정보를 포함한다.

Description

비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
본 발명은 영상 정보 압축 기술에 관한 것으로, 더 구체적으로는 영상 정보를 포함하는 비트스트림의 시그널링 하는 방법과 이를 이용하여 정보를 파싱하는 방법에 관한 것이다.
최근 고해상도, 고품질의 영상에 대한 요구가 다양한 응용 분야에서 증가하고 있다. 영상이 고해상도를 가지고 고품질이 될수록 해당 영상에 관한 정보량도 함께 증가한다.
따라서 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 정보를 전송하거나 기존의 저장 매체를 이용해 영상 정보를 저장하는 경우에는, 정보의 전송 비용과 저장 비용이 증가하게 된다.
고해상도, 고품질 영상의 정보를 효과적으로 전송하거나 저장하고, 재생하기 위해 고효율의 영상 압축 기술을 이용할 수 있다.
영상 압축의 효율을 높이기 위해, 인터 예측과 인트라 예측을 이용할 수 있다. 인터 예측(inter prediction) 방법에서는 다른 픽처의 정보를 참조하여 현재 픽처(picture)의 픽셀값을 예측하며, 인트라 예측(intra prediction) 방법에서는 동일한 픽처 내에서 픽셀 간 연관 관계를 이용하여 픽셀값을 예측한다.
예측된 영상의 처리 단위, 예컨대 블록에 대하여는 영상을 원본과 동일하게 만들기 위한 다양한 방법이 적용될 수 있다. 이를 통해 디코딩 장치는 해당 영상을 더 정확하게(원본과 더 일치하게) 디코딩할 수 있으며, 인코딩 장치는 해당 영상이 더 정확하게 복원될 수 있도록 인코딩할 수 있다.
본 발명은 인코딩된 비디오 정보를 효과적으로 시그널링하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 병렬 디코딩이 적용되는 경우에 엔트리 포인트를 바이트 단위로 설정하고 이를 시그널링하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 바이트 정렬된 디코딩 단위를 이용하여 병렬 디코딩을 수행하는 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명은 바이트 정렬된 디코딩 단위를 이용하여 병렬 디코딩을 수행하기 위해 전송 및 수신되는 정보를 규정하고 이를 이용하여 인코딩 및 디코딩하는 방법과 장치를 제공하는 것을 목적으로 한다.
본 발명의 일 실시형태는 비디오 인코딩 방법으로서, 양자화된 변환 정보를 엔트로피 인코딩하는 단계 및 엔트로피 인코딩된 정보를 비트스트림으로 전송하는 단계를 포함하며, 상기 비트스트림은 병렬 디코딩될 정보들을 바이트 단위로 지시하는 정보를 포함할 수 있다.
상기 비트스트림은 병렬 디코딩의 대상인 코딩 트리 유닛들의 행에 대한 엔트리 포인트를 지시하는 오프셋 정보를 슬라이스 헤더에 포함할 수 있으며, 상기 오프셋 정보는 두 엔트리 포인트 사이의 바이트 수를 지시할 수 있다.
상기 엔트로피 인코딩을 수행하는 단계에서는, 코딩 트리 유닛들의 행들에 대하여 엔트리 포인트가 지시하는 액세스 포인트에서 엔트로피 인코딩을 개시할 수 있으며, 현재 행의 기준 코딩 트리 유닛에 대한 엔트로피 인코딩이 완료되면, 상기 기준 코딩 트리 유닛의 콘텍스트를 기반으로 다음 행의 첫 번째 코딩 트리 유닛에 대한 엔트로피 인코딩을 개시하되, 상기 현재 행의 바이트 수는 상기 비트스트림으로 전송되는 엔트리 포인트 간의 오프셋에 의해 지시될 수 있다.
본 발명의 다른 실시 형태는 비디오 디코딩 방법으로서, 비트스트림을 수신하는 단계 및 상기 비트스트림을 기반으로 병렬적인 디코딩을 수행하는 단계를 포함하며, 상기 비트스트림은 병렬적으로 디코딩되는 정보를 바이트 단위로 지시하는 정보를 포함할 수 있다.
상기 디코딩을 수행하는 단계는, 상기 비트스트림에 대한 엔트로피 디코딩을 수행하는 단계 및
엔트로피 디코딩된 정보를 기반으로 픽처를 복원하는 단계를 포함할 수 있다.
상기 디코딩을 수행하는 단계에서는, 코딩 트리 유닛들의 N 번째 (N은 정수) 행 내 L 번째 (L은 정수) 코딩 트리 유닛 CTUNL을 엔트로피 디코딩한 후, 상기 CTUNL의 콘텍스트를 기반으로 코딩 트리 유닛들의 N+1 번째 행 내 첫 번째 코딩 트리 유닛 LCUN+11을 엔트로피 디코딩할 수 있으며, 상기 N 번째 행에 대한 바이트 수는 상기 비트스트림에 포함된 엔트리 간 오프셋 정보 중 N 번째 오프셋 정보에 의해 지시될 수 있다.
다시 말해, 상기 비트스트림은 병렬 디코딩의 대상인 코딩 트리 유닛들의 행에 대한 엔트리 포인트를 지시하는 오프셋 정보를 포함할 수 있으며, 하며, 상기 오프셋 정보는 두 엔트리 포인트 사이의 바이트 수를 지시할 수 있다. 상기 오프셋 정보는 슬라이스 헤더에서 전송될 수 있다.
상기 디코딩을 수행하는 단계에서는 코딩 트리 유닛들의 행들에 대하여 엔트리 포인트가 지시하는 액세스 포인트에서 디코딩을 개시할 수 있으며, 현재 행의 기준 코딩 트리 유닛에 대한 엔트로피 디코딩이 완료되면, 상기 기준 코딩 트리 유닛의 콘텍스트를 기반으로 다음 행의 첫 번째 코딩 트리 유닛에 대한 엔트로피 디코딩을 개시할 수 있고, 상기 현재 행의 바이트 수는 상기 비트스트림으로 전송되는 엔트리 포인트 간의 오프셋에 의해 지시될 수 있다.
본 발명에 의하면 인코딩된 비디오 정보를 효과적으로 시그널링함으로써 코딩 효율을 향상시킬 수 있다.
본 발명에 의하면 병렬 디코딩이 적용되는 경우에 엔트리 포인트를 바이트 단위로 설정하고 이를 시그널링함으로써 데이터 자원을 효과적으로 이용하고 압축 효율을 증가시킬 수 있다.
본 발명에 의하면 바이트 정렬된 디코딩 단위를 이용하여 병렬 디코딩을 수행함으로써 비디오 디코딩의 효율을 크게 향상 시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 비디오 인코딩 장치를 개략적으로 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 비디오 디코딩 장치를 개략적으로 나타낸 블록도이다.
도 3은 슬라이스에 관한 일 예를 개략적으로 설명하는 도면이다.
도 4는 타일과 슬라이스에 관한 일 예를 개략적으로 설명하는 도면이다.
도 5는 타일과 슬라이스에 관한 다른 예를 개략적으로 설명하는 도면이다.
도 6은 WPP 서브스트림에 대하여 개략적으로 설명하는 도면이다.
도 7은 타일에 대하여 개략적으로 설명하는 도면이다.
도 8은 WPP와 타일의 관계를 개략적으로 설명하는 도면이다.
도 9는 픽처 내 LCU 들의 순서에 관한 일 예를 개략적으로 설명하는 도면이다.
도 10은 비트스트림 내에서 LCU들의 순서에 관한 일 예를 개략적으로 설명하는 도면이다.
도 11은 서브스트림의 바이트 정렬에 대하여 개략적으로 설명하는 일 예를 도시한 것이다.
도 12는 WPP 서브스트림에 대한 엔트리 포인트의 일 예를 개략적으로 설명하는 도면이다.
도 13은 타일에 대한 엔트리 포인트의 일 예를 개략적으로 설명하는 도면이다.
도 14는 타일과 WPP 서브스트림이 함께 적용되는 경우에 대한 엔트리 포인트의 일 예를 개략적으로 설명하는 도면이다.
도 15는 본 발명에 따른 인코딩 방법의 일 예를 개략적으로 설명하는 순서도이다.
도 16은 본 발명에 따른 인코딩 장치의 일 예를 개략적으로 설명하는 도면이다.
도 17은 본 발명에 따른 디코딩 방법의 일 예를 개략적으로 나타낸 것이다.
도 18은 본 발명에 따른 디코딩 장치의 일 예를 개략적으로 나타낸 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니다. 본 명세서에서 사용하는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 기술적 사상을 한정하려는 의도로 사용되는 것은 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
한편, 본 발명에서 설명되는 도면상의 각 구성들은 비디오 인코딩 장치/디코딩 장치에서 서로 다른 특징적인 기능들에 관한 설명의 편의를 위해 독립적으로 도시된 것으로서, 각 구성들이 서로 별개의 하드웨어나 별개의 소프트웨어로 구현된다는 것을 의미하지는 않는다. 예컨대, 각 구성 중 두 개 이상의 구성이 합쳐져 하나의 구성을 이룰 수도 있고, 하나의 구성이 복수의 구성으로 나뉘어질 수도 있다. 각 구성이 통합 및/또는 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성 요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성 요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일 실시예에 따른 비디오 인코딩 장치를 개략적으로 도시한 블록도이다. 도 1을 참조하면, 인코딩 장치(100)는 픽처 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125), 엔트로피 인코딩부(130), 역양자화부(135), 역변환부(140), 필터부(145) 및 메모리(150)를 구비한다.
픽처 분할부(105)는 입력된 픽처를 적어도 하나의 처리 단위 블록으로 분할할 수 있다. 이때, 처리 단위로서의 블록은 예측 유닛(Prediction Unit, 이하 ‘PU’라 함)일 수도 있고, 변환 유닛(Transform Unit, 이하 ‘TU’라 함)일 수도 있으며, 코딩 유닛(Coding Unit, 이하 ‘CU’라 함)일 수도 있다.
픽처 분할부(105)에서 분할되는 처리 단위 블록들은 쿼드 트리(quad-tree) 구조를 가질 수 있다.
예측부(110)는 후술하는 바와 같이, 인터 예측을 수행하는 인터 예측부와 인트라 예측을 수행하는 인트라 예측부를 포함한다. 예측부(110)는, 픽처 분할부(105)에서 픽처의 처리 단위에 대하여 예측을 수행하여 예측 블록을 생성한다. 예측부(110)에서 픽처의 처리 단위는 CU일 수도 있고, TU일 수도 있고, PU일 수도 있다. 또한, 예측부(110)는 해당 처리 단위에 대하여 실시되는 예측이 인터 예측인지 인트라 예측인지를 결정하고, 각 예측 방법의 구체적인 내용(예컨대, 예측 모드 등)을 정할 수 있다. 이때, 예측이 수행되는 처리 단위와 예측 방법 및 예측 방법의 구체적인 내용이 정해지는 처리 단위는 다를 수 있다. 예컨대, 예측의 방법과 예측 모드 등은 PU 단위로 결정되고, 예측의 수행은 TU 단위로 수행될 수도 있다.
인터 예측을 통해서는 현재 픽처의 이전 픽처 및/또는 이후 픽처 중 적어도 하나의 픽처의 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다. 또한, 인트라 예측을 통해서는 현재 픽처 내의 픽셀 정보를 기초로 예측을 수행하여 예측 블록을 생성할 수 있다.
인터 예측의 방법으로서, 스킵(skip) 모드, 머지(merge) 모드, MVP(Motion Vector Predtiction) 등을 이용할 수 있다. 인터 예측에서는 PU에 대하여, 참조 픽처를 선택하고 PU에 대응하는 참조 블록을 선택할 수 있다. 참조 블록은 정수 픽셀 단위로 선택될 수 있다. 이어서, 현재 PU와의 레지듀얼(residual) 신호가 최소화되며 움직임 벡터 크기 역시 최소가 되는 예측 블록이 생성된다.
예측 블록은 정수 샘플 단위로 생성될 수도 있고, 1/2 픽셀 단위 또는 1/4 픽셀 단위와 같이 정수 이하 픽셀 단위로 생성될 수도 있다. 이때, 움직임 벡터 역시 정수 픽셀 이하의 단위로 표현될 수 있다.
인터 예측을 통해 선택된 참조 픽처의 인덱스, 움직임 벡터(ex. Motion Vector Predictor), 레지듀얼 신호 등의 정보는 엔트로피 인코딩되어 디코딩 장치에 전달된다. 스킵 모드가 적용되는 경우에는 레지듀얼을 예측 블록을 복원 블록으로 할 수 있으므로, 레지듀얼을 생성, 변환, 양자화, 전송하지 않을 수 있다.
인트라 예측을 수행하는 경우에는, PU 단위로 예측 모드가 정해져서 PU 단위로 예측이 수행될 수 있다. 또한, PU 단위로 예측 모드가 정해지고 TU 단위로 인트라 예측이 수행될 수도 있다.
인트라 예측에서 예측 모드는 33개의 방향성 예측 모드와 적어도 2개 이상의 비방향성 모드를 가질 수 있다. 비향성성 모드는 DC 예측 모드 및 플래이너 모드(Planar 모드)을 포함할 수 있다.
인트라 예측에서는 참조 샘플에 필터를 적용한 후 예측 블록을 생성할 수 있다. 이때, 참조 샘플에 필터를 적용할 것인지는 현재 블록의 인트라 예측 모드 및/또는 사이즈에 따라 결정될 수 있다.
PU는 다양한 사이즈/형태의 블록일 수 있으며, 예컨대 인터 예측의 경우에 PU는 2N×2N 블록, 2N×N 블록, N×2N 블록, 또는 N×N 블록 (N은 정수) 등일 수 있다. 인트라 예측의 경우에 PU는 2N×2N 블록 또는 N×N 블록 (N은 정수) 등일 수 있다. 이때, N×N 블록 크기의 PU는 특정한 경우에만 적용하도록 설정할 수 있다. 예컨대 최소 크기 CU에 대해서만 NxN 블록 크기의 PU를 이용하도록 정하거나 인트라 예측에 대해서만 이용하도록 정할 수도 있다. 또한, 상술한 크기의 PU 외에, N×mN 블록, mN×N 블록, 2N×mN 블록 또는 mN×2N 블록 (m<1) 등의 PU를 더 정의하여 사용할 수도 있다.
생성된 예측 블록과 원본 블록 사이의 레지듀얼 값(레지듀얼 블록 또는 레지듀얼 신호)은 변환부(115)로 입력된다. 또한, 예측을 위해 사용한 예측 모드 정보, 움직임 벡터 정보 등은 레지듀얼 값과 함께 엔트로피 인코딩부(130)에서 인코딩되어 디코딩 장치에 전달된다.
변환부(115)는 변환 블록 단위로 레지듀얼 블록에 대한 변환을 수행하고 변환 계수를 생성한다.
변환 블록은 샘플들의 직사각형 블록으로서 동일한 변환이 적용되는 블록이다. 변환 블록은 변환 유닛(TU)일 수 있으며, 쿼드 트리(quad tree) 구조를 가질 수 있다.
변환부(115)는 레지듀얼 블록에 적용된 예측 모드와 블록의 크기에 따라서 변환을 수행할 수 있다.
예컨대, 레지듀얼 블록에 인트라 예측이 적용되었고 블록이 4x4의 레지듀얼 배열이라면, 레지듀얼 블록을 DST(Discrete Sine Transform)를 이용하여 변환하고, 그 외의 경우라면 레지듀얼 블록을 DCT(Discrete Cosine Transform)를 이용하여 변환할 수 있다.
변환부(115)는 변환에 의해 변환 계수들의 변환 블록을 생성할 수 있다.
양자화부(120)는 변환부(115)에서 변환된 레지듀얼 값들, 즉 변환 계수들을 양자화하여 양자화된 변환 계수를 생성할 수 있다. 양자화부(120)에서 산출된 값은 역양자화부(135)와 재정렬부(125)에 제공된다.
재정렬부(125)는 양자화부(120)로부터 제공된 양자화된 변환 계수를 재정렬한다. 양자화된 변환 계수를 재정렬함으로써 엔트로피 인코딩부(130)에서의 인코딩 효율을 높일 수 있다.
재정렬부(125)는 계수 스캐닝(Coefficient Scanning) 방법을 통해 2차원 블록 형태의 양자화된 변환 계수들을 1차원의 벡터 형태로 재정렬할 수 있다.
엔트로피 인코딩부(130)는 재정렬부(125)에 의해 재정렬된 양자화된 변환 계수들에 대한 엔트로피 인코딩을 수행할 수 있다. 엔트로피 인코딩에는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding) 등과 같은 인코딩 방법을 사용할 수 있다. 엔트로피 인코딩부(130)는 재정렬부(125) 및 예측부(110)로부터 전달받은 CU의 양자화된 변환 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 단위 정보, PU 정보 및 전송 단위 정보, 움직임 벡터 정보, 참조 픽처 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 인코딩할 수 있다.
또한, 엔트로피 인코딩부(130)는 필요한 경우에, 전송하는 파라미터 셋(parameter set) 또는 신택스에 일정한 변경을 가할 수도 있다.
역양자화부(135)는 양자화부(120)에서 양자화된 값(양자화된 변환 계수)들을 역양자화하고, 역변환부(140)는 역양자화부(135)에서 역양자화된 값들을 역변환한다.
역양자화부(135) 및 역변환부(140)에서 생성된 레지듀얼 값과 예측부(110)에서 예측된 예측 블록이 합쳐져 복원 블록(Reconstructed Block)이 생성될 수 있다.
도 1에서는 가산기를 통해서, 레지듀얼 블록과 예측 블록이 합쳐져 복원 블록이 생성되는 것으로 설명하고 있다. 이때, 가산기를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수도 있다.
필터부(145)는 디블록킹 필터, ALF(Adaptive Loop Filter), SAO(Sample Adaptive Offset)를 복원된 픽처에 적용할 수 있다.
디블록킹 필터는 복원된 픽처에서 블록 간의 경계에 생긴 왜곡을 제거할 수 있다. ALF(Adaptive Loop Filter)는 디블록킹 필터를 통해 블록이 필터링된 후 복원된 영상과 원래의 영상을 비교한 값을 기초로 필터링을 수행할 수 있다. ALF는 고효율을 적용하는 경우에만 수행될 수도 있다. SAO는 디블록킹 필터가 적용된 레지듀얼 블록에 대하여, 픽셀 단위로 원본 영상과의 오프셋 차이를 복원하며, 밴드 오프셋(Band Offset), 에지 오프셋(Edge Offset) 등의 형태로 적용된다.
한편, 인터 예측에 사용되는 복원 블록에 대해서 필터부(145)는 필터링을 적용하지 않을 수도 있다.
메모리(150)는 필터부(145)를 통해 산출된 복원 블록 또는 픽처를 저장할 수 있다. 메모리(150)에 저장된 복원 블록 또는 픽처는 인터 예측을 수행하는 예측부(110)에 제공될 수 있다.
도 2는 본 발명의 일 실시예에 따른 비디오 디코딩 장치를 개략적으로 나타낸 블록도이다. 도 2를 참조하면, 비디오 디코딩 장치(200)는 엔트로피 디코딩부(210), 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 메모리(240)를 포함할 수 있다.
비디오 인코딩 장치에서 영상 비트스트림이 입력된 경우, 입력된 비트스트림은 비디오 인코딩 장치에서 영상 정보가 처리된 절차에 따라서 디코딩될 수 있다.
예컨대, 비디오 인코딩 장치에서 엔트로피 인코딩을 수행하기 위해 CAVLC 등의 가변 길이 부호화(Variable Length Coding: VLC, 이하 ‘VLC’ 라 함)가 사용된 경우에, 엔트로피 디코딩부(210)도 인코딩 장치에서 사용한 VLC 테이블과 동일한 VLC 테이블로 구현하여 엔트로피 디코딩을 수행할 수 있다. 또한, 비디오 인코딩 장치에서 엔트로피 인코딩을 수행하기 위해 CABAC을 이용한 경우에, 엔트로피 디코딩부(210)는 이에 대응하여 CABAC을 이용한 엔트로피 디코딩을 수행할 수 있다.
엔트로피 디코딩부(210)에서 디코딩된 정보 중 예측 블록을 생성하기 위한 정보는 예측부(230)로 제공되고, 엔트로피 디코딩부(210)에서 엔트로피 디코딩이 수행된 레지듀얼 값, 즉 양자화된 변환 계수는 재정렬부(215)로 입력될 수 있다.
재정렬부(215)는 엔트로피 디코딩부(210)에서 엔트로피 디코딩된 비트스트림의 정보, 즉 양자화된 변환 계수를 인코딩 장치에서 재정렬한 방법을 기초로 재정렬할 수 있다.
재정렬부(215)는 1차원 벡터 형태로 표현된 계수들을 다시 2차원의 블록 형태의 계수로 복원하여 재정렬할 수 있다. 재정렬부(215)는 현재 블록(변환 블록)에 적용된 예측 모드와 변환 블록의 크기를 기반으로 계수에 대한 스캐닝을 수행하여 2 차원 블록 형태의 계수(양자화된 변환 계수) 배열을 생성할 수 있다.
역양자화부(220)는 인코딩 장치에서 제공된 양자화 파라미터와 재정렬된 블록의 계수값을 기초로 역양자화를 수행할 수 있다.
역변환부(225)는 비디오 인코딩 장치에서 수행된 양자화 결과에 대해, 인코딩 장치의 변환부가 수행한 DCT 및 DST에 대해 역DCT 및/또는 역DST를 수행할 수 있다. 역변환은 인코딩 장치에서 결정된 전송 단위 또는 영상의 분할 단위를 기초로 수행될 수 있다. 인코딩 장치의 변환부에서 DCT 및/또는 DST는 예측 방법, 현재 블록의 크기 및 예측 방향 등 복수의 정보에 따라 선택적으로 수행될 수 있고, 디코딩 장치의 역변환부(225)는 인코딩 장치의 변환부에서 수행된 변환 정보를 기초로 역변환을 수행할 수 있다.
예측부(230)는 엔트로피 디코딩부(210)에서 제공된 예측 블록 생성 관련 정보와 메모리(240)에서 제공된 이전에 디코딩된 블록 및/또는 픽처 정보를 기초로 예측 블록을 생성할 수 있다.
현재 PU에 대한 예측 모드가 인트라 예측(intra prediction) 모드인 경우에, 현재 픽처 내의 픽셀 정보를 기초로 예측 블록을 생성하는 인트라 예측을 수행할 수 있다.
현재 PU에 대한 예측 모드가 인터 예측(inter prediction) 모드인 경우에, 현재 픽처의 이전 픽처 또는 이후 픽처 중 적어도 하나의 픽처에 포함된 정보를 기초로 현재 PU에 대한 인터 예측을 수행할 수 있다. 이때, 비디오 인코딩 장치에서 제공된 현재 PU의 인터 예측에 필요한 움직임 정보, 예컨대 움직임 벡터, 참조 픽처 인덱스 등에 관한 정보는 인코딩 장치로부터 수신한 스킵 플래그, 머지 플래그 등을 확인하고 이에 대응하여 유도될 수 있다.
복원 블록은 예측부(230)에서 생성된 예측 블록과 역변환부(225)에서 제공된 레지듀얼 블록을 이용해 생성될 수 있다. 도 2에서는 가산기에서 예측 블록과 레지듀얼 블록이 합쳐져 복원 블록이 생성되는 것으로 설명하고 있다. 이때, 가산기를 복원 블록을 생성하는 별도의 유닛(복원 블록 생성부)로 볼 수 있다.
스킵 모드가 적용되는 경우에는 레지듀얼이 전송되지 않으며 예측 블록을 복원 블록으로 할 수 있다.
복원된 블록 및/또는 픽처는 필터부(235)로 제공될 수 있다. 필터부(235)는 복원된 블록 및/또는 픽처에 디블록킹 필터링, SAO(Sample Adaptive Offset) 및/또는 ALF 등을 적용할 수 있다.
메모리(240)는 복원된 픽처 또는 블록을 저장하여 참조 픽처 또는 참조 블록으로 사용할 수 있도록 할 수 있고 또한 복원된 픽처를 출력부로 제공할 수 있다.
한편, 인코딩 장치와 디코딩 장치는 픽처를 소정의 단위로 분할하여 처리(인코딩/디코딩) 할 수 있다.
예컨대, 픽처는 슬라이스와 타일로 분할될 수 있다.
슬라이스는 하나 이상의 슬라이스 시그먼트(segment)들의 시퀀스이다. 슬라이스 시퀀스는 독립(independent) 슬라이스 시그먼트로부터 시작하며 다음 독립 슬라이스 시그먼트 전까지 존재하는 종속(dependent) 슬라이스 시그먼트들을 포함한다.
슬라이스 시그먼트는 코딩 트리 유닛(Coding Tree Unit: CTU) 또는 코딩 트리 블록(Coding Tree Block: CTB)의 시퀀스일 수 있다. 코딩 트리 유닛은 쿼드 트리(Quad-Tree) 구조의 코딩 유닛으로서, 최대 크기 코딩 유닛(Largest Coding Unit: LCU)일 수 있다. 본 명세서에서는 발명의 이해를 돕기 위해 필요한 곳에서 코딩 트리 유닛, 최대 코딩 유닛을 혼용하여 설명할 수도 있다.
도 3은 슬라이스에 관한 일 예를 개략적으로 설명하는 도면이다.
현재 픽처(300)는 슬라이스 경계(350)에 의해 두 개의 슬라이스로 구분된다. 첫 번째 슬라이스는 4 개의 코딩 트리 유닛을 포함하는 독립 슬라이스 시그먼트(310)와 슬라이스 시그먼트 경계(330)를 전후로 32개의 코딩 트리 유닛을 포함하는 제1 종속 슬라이스 시그먼트(320) 및 24개의 코딩 트리 유닛을 포함하는 제2 종속 슬라이스 시그먼트(340)로 구성될 수 있다.
또 하나의 독립 슬라이스 시그먼트(360)는 28개의 코딩 트리 유닛으로 구성된다.
타일(tile) 역시 코딩 트리 유닛, 코딩 트리 블록 또는 최대 코딩 유닛의 시퀀스일 수 있다. 코딩 트리 유닛은 쿼드 트리(Quad-Tree) 구조의 코딩 유닛으로서, 최대 크기 코딩 유닛(Largest Coding Unit: LCU)일 수 있다. 앞서 말한 바대로, 본 명세서에서는 발명의 이해를 돕기 위해 필요한 곳에서 코딩 트리 유닛, 최대 코딩 유닛을 혼용하여 설명한다.
구체적으로, 타일은 하나의 행(row) 및 하나의 열(column)로 규정될 수 있는 영역 내에 함께 나타나는(co-occurring) 정수 개의 코딩 트리 유닛들 또는 최대 코딩 유닛들일 수 있다.
각 슬라이스와 타일에 대해서는 다음 두 조건이 모두 성립되거나 적어도 하나가 성립된다. (1) 슬라이스 내의 모든 코딩 트리 유닛 또는 최대 코딩 유닛은 동일한 타일에 속한다. (2) 타일 내의 모든 코딩 트리 유닛 또는 최대 코딩 유닛은 동일한 슬라이스에 속한다.
따라서, 동일한 픽처 내에서 복수의 타일을 포함하는 슬라이스들과 복수의 슬라이스를 포함하는 타일이 존재할 수 있다.
또한, 각 슬라이스 시그먼트와 타일에 대해서는 다음 두 조건이 모두 성립되거나 적어도 하나가 성립된다. (1) 슬라이스 시그먼트 내의 모든 코딩 트리 유닛 또는 최대 코딩 유닛은 동일한 타일에 속한다. (2) 타일 내의 모든 코딩 트리 유닛 또는 최대 코딩 유닛은 동일한 슬라이스 시그먼트에 속한다.
도 4는 타일과 슬라이스에 관한 일 예를 개략적으로 설명하는 도면이다.
현재 픽처(400)는 하나의 슬라이스만 포함하며 타일 경계(410) 좌우의 두 타일로 나뉘어진다. 현재 픽처(400) 내의 슬라이스는 독립 슬라이스 시그먼트(420)와 슬라이스 시그먼트 경계(430, 440, 450)에 의해 나뉘는 4 개의 종속 슬라이스 시그먼트들로 구성된다.
도 5는 타일과 슬라이스에 관한 다른 예를 개략적으로 설명하는 도면이다.
현재 픽처(500)는 타일 경계(510) 좌우의 두 타일로 나뉘어진다. 타일 경계(510) 좌측의 타일은 슬라이스 경계(550)을 기준으로 하는 두 개의 슬라이스를 포함한다. 슬라이스 경계(550) 위쪽의 슬라이스는 독립 슬라이스 시그먼트(520)과 종속 슬라이스 시그먼트(540)을 포함하며, 슬라이스 경계(550) 아래쪽의 슬라이스는 독립 슬라이스 시그먼트(530)과 종속 슬라이스 시그먼트(560)을 포함한다. 슬라이스 경계(590)를 기준으로 하는 다음 슬라이스, 즉 두 번째 타일 내의 슬라이스는 독립 슬라이스 시그먼트(530)과 종속 슬라이스 시그먼트(580)을 포함한다.
인코딩과 디코딩은 타일 단위로 수행될 수도 있고, 코딩 트리 유닛의 행(이하, 설명의 편의를 위해, 코딩 트리 유닛의 행(또는 스트림) 혹은 최대 코딩 유닛의 행(또는 스트림)을 ‘서브스트림’이라 한다) 단위로 수행될 수도 있다. 타일 또는 서브스트림에서 각 샘플들은 코딩 트리 유닛 혹은 최대 코딩 유닛 단위로 처리될 수 있다.
이때, 디코딩 과정은 병렬적으로 처리될 수 있다. 예컨대, 디코딩 과정은 각 타일별로 병렬 진행될 수 있다. 또한, 디코딩 과정은 서브스트림별로 병렬 진행될 수도 있다.
예컨대, 서브스트림별로 엔트로피 디코딩이 진행되는 경우에는 n 번째(n은 정수) 서브스트림에 대하여 엔트로피 디코딩이 진행된 후, n 번째 째 서브스트림의 두 번째 코딩 트리 유닛 혹은 최대 코딩 유닛에 대한 엔트로피 디코딩이 완료된 후, n+1 번째 서브스트림에 대한 엔트로피 디코딩이 진행될 수 있다.
서브스트림은 복수의 디코딩 과정이 병렬적으로 진행되는 경우에, 각 디코딩 과정에 있어서 디코딩 대상이 되는 비트스트림의 일부분으로서 최대 코딩유닛들 혹은 코딩 트리 유닛들의 행(row)일 수 있다.
이때, n번째 서브스트림(n 번째 코딩 트리 유닛(최대 코딩 유닛) 행)의 2 번째 코딩 트리 유닛(최대 코딩 유닛)에 대한 엔트로피 디코딩이 완료되면, 관련된 콘텍스트 정보가 저장된다. n+1번째 서브스트림의 1 번째 코딩 트리 유닛(최대 코딩 유닛)은, n번째 서브스트림의 2번째 코딩 트리 유닛(최대 코딩 유닛)에 대한 콘텍스트 정보를 기반으로 엔트로피 디코딩될 수 있다.
이와 같이, 각 서브스트림이 한 코딩 트리 유닛(최대 코딩 유닛)씩의 차이를 두고 병렬적으로 파싱되는 것을 WPP(Wavefront Parallel Processing)이라고 한다.
타일 구조에서는, WPP와 달리 각 타일이 동시에 디코딩될 수 있다. 이때, 병렬 처리 가능한 타일의 최대 개수가 미리 정해져 있을 수도 있다. 예컨대, 최대 4개의 타일을 병렬 처리할 수 있도록 설정할 수 있다. 병렬 처리가 가능한 타일들의 개수4개 이하인 경우에, 디코딩 장치는 1 내지 4개의 타일들을 한번에 처리할 수 있다.
타일 구조와 WPP는 인코딩 장치가 픽처를 몇 개의 부분으로 나눌 수 있도록 하며, 이렇게 나뉘어지 부분들은 디코딩 장치에서 병렬적인 방식(parallel manner)으로 디코딩될 수 있다.
타일 구조(타일 서브스트림) 또는 WPP 서브스트림을 이용하여 디코딩을 병렬적으로 진행하기 위한 비트스트림상의 액세스 포인트를 엔트리 포인트라고 한다. 예컨대, 엔트리 포인트는 비트스트림상에서 병렬 처리의 대상이 되는 각 WPP서브스트림의 시작점 또는 각 타일의 시작점일 수 있다.
따라서, 병렬 처리를 위해 각 타일의 엔트리 포인트(entry point)를 시그널링하거나 WPP서브스트림 슬라이스 헤더의 엔트리 포인트를 시그널링하는 것이 중요하다. 타일과 WPP은 적용되는 인코딩/디코딩 기술에 있어서 차이가 있지만, 타일의 엔트리 포인트와 WPP가 적용되는 서브스트림의 엔트리 포인트는 동일한 방식으로 시그널링될 수 있다.
병렬 처리에 있어서, 타일은 항상 바이트 정렬된(byte aligned) 위치에서 시작되지만 WPP 가 적용되는 서브스트림(이하, 설명의 편의를 위해 WPP 서브스트림이라 함)은 바이트 정렬된 위치에서 시작되지 않을 수도 있다. 바이트 정렬이란, 바이트 단위로 정렬되는 것을 의미한다.
따라서, 타일과 WPP 서브스트림은 엔트리 포인트에 대한 비트 그래뉼리티에서 상이하기 때문에 파티션(즉, 타일의 WPP 서브스트림)의 길이가 바이트 단위로 시그널링되는지 혹은 비츠(bits) 단위로 시그널링 되는지 바이츠(bytes) 단위로 시그널링되는지를 아는 것이 중요할 수 있다.
도 6은 WPP 서브스트림에 대하여 개략적으로 설명하는 도면이다.
도 6의 예에서, 픽처 내 소정의 영역(600)은 서브스트림 A(610), 서브스트림 B(620), 서브스트림 C(630) 등 복수의 서브스트림을 포함한다.
각 서브스트림은 첫 번째 LCU부터 순차적으로 디코딩된다. 각 서브스트림의 두 번째 이후의 LCU들은 이전 LCU들의 엔트로피 디코딩 결과, 즉 콘텍스트를 기반으로 엔트로피 디코딩될 수 있다.
WPP의 경우, 각 서브스트림들은 병렬적으로 디코딩 될 수 있으며, 첫 번째 서브스트림 다음의 서브스트림들에서 첫 번째 LCU들은 이전 서브스트림의 두 번째 LCU에 대한 콘텍스트 변수들의 값을 기반으로 엔트로피 디코딩될 수 있다.
예컨대, WPP를 적용하여 디코딩을 병렬적으로 진행하는 경우에, 디코딩 대상 영역(600) 내 첫 번째 행(610)의 첫 번째 LCU(A1)부터 디코딩 과정이 진행된다. 첫 번째 행(610)의 두 번째 LCU(A2)에 대한 엔트로피 디코딩이 완료되면, 디코딩 장치는 A2에 대한 콘텍스트 변수들(context variables)의 값을 저장한다.
두 번째 행(620)의 첫 번째 LCU(B1)는 첫 번째 행(610)의 두 번째 LCU(A2)에 대한 콘텍스트 변수들의 값을 기반으로 엔트로피 디코딩된다. 두 번째 행(620)의 두 번째 LCU(B2)에 대한 엔트로피 디코딩이 완료되면, 디코딩 장치는 B2에 대한 콘텍스트 변수들의 값을 저장한다.
세 번째 행(630)의 첫 번째 LCU(C1)는 두 번째 행(610)의 두 번째 LCU(B2)에 대한 콘텍스트 변수들의 값을 기반으로 엔트로피 디코딩된다. 세 번째 행(630)의 두 번째 LCU(C2)에 대한 엔트로피 디코딩이 완료되면, 디코딩 장치는 B2에 대한 콘텍스트 변수들의 값을 저장한다.
동일한 방법으로 네 번째 행과 그 이후의 행들에 대해서도 직전 행의 두 번째 LCU에 대한 콘텍스트 변수 값들을 이용하여 엔트로피 디코딩될 수 있다.
WPP가 적용되는 경우, 엔트리 포인트는 각 서브스트림에 대한 디코딩 시작점(액세스 포인트)을 지시할 수 있다.
도 6에서 픽처 내 소정의 영역(600)은 현재 픽처의 일부 영역일 수도 있고, 현재 픽처의 슬라이스일 수도 있으며, 현재 픽처의 전체 영역일 수도 있다.
도 7은 타일에 대하여 개략적으로 설명하는 도면이다.
도 7의 예에서 픽처 내 소정의 영역(700)은 타일 1(710), 타일 2(720), 타일 3(730), 타일 4(740)로 나뉘어 있다. 각 타일은 복수의 서브스트림을 포함한다.
타일 구조가 적용되는 경우, 디코딩 장치는 각 타일을 동시에 디코딩할 수 있다. 상술한 바와 같이, 병렬적으로 디코딩할 수 있는 타일의 개수가 최대 4개라면, 디코딩 장치는 타일 1 내지 4를 동시에 디코딩할 수 있다.
각 타일에 대한 디코딩이 병렬적으로 진행될 때, 타일의 첫 번째 서브스트림부터 차례로 서브스트림들의 디코딩이 진행되며(예컨대, A→B→C→…), 서브스트림 내에서는 첫 번째 LCU부터 차례대로 LCU들이 디코딩된다(Xx1→Xx2→Xx3→…).
타일 구조가 적용되는 경우에, 엔트리 포인트들은 각 타일에 대한 디코딩 시작점(액세스 포인트)을 지시할 수 있다.
도 7에서 픽처 내 소정의 영역(700)은 현재 픽처의 일부 영역일 수도 있고, 현재 픽처의 슬라이스일 수도 있으며, 현재 픽처의 전체 영역일 수도 있다.
한편, WPP와 타일 구조가 모두 적용될 수도 있다.
도 8은 WPP와 타일 구조의 관계를 개략적으로 설명하는 도면이다.
WPP와 타일 구조가 모두 이용되는 경우에, WPP 서브스트림은 도시된 바와 같이 타일 내에 적용된다.
도 8의 예에서, 픽처 내 소정의 영역(800)은 타일 1(810), 타일 2(820), 타일 3(830), 타일 4(840)로 나뉘어 있다. 각 타일은 복수의 WPP 서브스트림을 포함한다.
도시된 바와 같이, 타일 1(810) 내에는 서브스트림 A와 서브스트림 B가 번갈아 위치하며, 타일 2(820) 내에는 서브스트림 C와 서브스트림 D가 번갈아 위치하고, 타일 3(830) 내에는 서브스트림 E와 서브스트림 F가 번갈아 위치하며, 타일 4(840) 내에는 서브스트림 G와 서브스트림 H가 번갈아 존재한다.

따라서, 타일과 WPP의 적용을 고려하면, 타일과 WPP가 둘 다 사용되지 않는 경우, 타일이 사용되는 경우, WPP가 사용되는 경우, 타일과 WPP가 둘 다 사용되는 경우로 나누어 시그널링되는 엔트리 포인트가 지시하는 내용을 특정할 필요가 있다. 예컨대, 엔트리 포인트들이 무엇에 대한 엔트리 포인트인지는 다음과 같이 특정될 수 있다.
(i) 타일과 WPP가 둘 다 사용되지 않는 경우에는, 엔트리 포인트가 존재하지 않는다.
(ii) 타일이 사용되고 WPP가 적용되지 않는 경우에, 엔트리 포인트는 타일의 엔트리 포인트다.
(iii) 타일이 사용되지 않고 WPP가 적용되는 경우에, 엔트리 포인트는 WPP 서브스트림의 엔트리 포인트다.
(iv) 타일과 WPP가 둘 다 사용되는 경우에, i% WPP 서브스트림의 개수=0이면 i번째 엔트리 포인트는 타일과 WPP 서브스트림 모두에 대한 엔트리 포인트이고, i% WPP 서브스트림의 개수≠0 이면 i번째 엔트리 포인트는 WPP 서브스트림의 엔트리 포인트이다.
도 8에서 픽처 내 소정의 영역(800)은 현재 픽처의 일부 영역일 수도 있고, 현재 픽처의 슬라이스일 수도 있으며, 현재 픽처의 전체 영역일 수도 있다.
상술한 바와 같이, 디코딩의 병렬적 수행에 있어서 각 병렬 처리의 개시점(액세스 포인트)은 엔트리 포인트로 지시된다. 따라서, 인코딩 장치에서 엔트리 포인트를 시그널링하는 다양한 방법과 디코딩 장치에서 엔트리 포인트의 시그널링을 수신하여 병렬적 디코딩을 처리하는 다양한 방법을 고려할 수 있다.
이하, 엔트리 포인트에 관한 정보의 시그널링에 관한 다양한 실시예를 구체적으로 설명한다.

실시예 1
표 1은 WPP 서브스트림 및 타일의 엔트리 포인트를 시그널링하는 슬라이스 헤더 내 신택스 엘리먼트의 일 예를 나타낸 것이다.
<표 1>
Figure PCTKR2012011717-appb-I000001
표 1에서, 엔트리 포인트 정보는 WPP 서브스트림의 엔트리 포인트에 관한 정보이거나 타일의 엔트리 포인트에 관한 정보일 수 있다.
entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 2는 표 1에 따른 엔트리 포인트 위치 정보에 관한 신택스 구조의 일 예를 나타낸 것이다.
<표 2>
Figure PCTKR2012011717-appb-I000002
표 2에서 엔트리 포인트 정보는 WPP 서브스트림의 엔트리 포인트에 관한 정보이거나 타일의 엔트리 포인트에 관한 정보일 수 있다.
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus2는 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus2 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수를 특정한다. 다만, i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수를 특정한다.
entry_point_offset[i]의 길이를 xx라고 할 때, xx는 수식 1처럼 정의될 수 있다.
<수식 1>
xx = (num_substreams_minus1 > 0) ? entry_point_offset_length_minus2 + 5 : entry_point_offset_length_minus2 + 2
수식1에서 서브스트림의 개수가 1보다 큰 경우는 WPP가 적용되는 경우일 수 있으며, 서브스트림의 개수가 1 이하인 경우는 타일을 사용하는 경우일 수 있다.
이 경우에, 엔트리 포인트의 타입(즉, 엔트리 포인트가 타일에 대한 것인지 혹은 WPP 서브스트림에 대한 것인지)은 다음과 같이 추정(infer)될 수 있다.
1)tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0이면(if tile_info_present_flag==1 && num_substream_minus1==0), 모든 엔트리 포인트들은 타일의 엔트리 포인트다. 즉, 타일 정보가 존재하고, 서브스트림의 개수가 하나인 경우에 엔트리 포인트들은 타일의 엔트리 포인트로 추정될 수 있다.
(2)tile_info_present_flag의 값이 0이고 num_substream_minus1의 값이 0보다 크면(if tile_info_present_flag==0 && num_substream_minus1>0), 모든 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트다. 즉, 타일 정보가 존재하지 않고, 복수의 서브스트림이 존재하는 경우에, 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트로 추정될 수 있다.
(3) tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0보다 큰 경우에(if tile_info_present_flag==1 && num_substream_minus1>0), i번째 엔트리 포인트는 i가 0이 아니고(i!=0) (i+1)%(num_substream1+1)==0 이면, i번째 엔트리 포인트는 타일의 엔트리 포인트이고 i 번째 엔트리 포인트이다. 그 외 경우에 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트가 된다. 즉, 타일 정보가 존재하고, 서브스트림도 복수 존재하는 경우에, 엔트리 포인트는 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있고, 타일과 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있다.

실시예 2
WPP가 적용되면, 슬라이스 내 인코딩된 데이터의 스트림(예컨대, 비트스트림)이 하나 이상의 서브스트림으로 분할될 수 있다.
서브스트림은 병렬 처리(병렬 디코딩)의 단위일 수 있으며 각 서브스트림은 비트 단위로 정렬된다. 본 명세서에서는 설명의 편의를 위해 비트 단위로 정렬되는 것을 비트 정렬(bit-aligned)라 한다.
따라서, 각 서브스트림의 길이는 비트 단위로 표현될 수 있으며, 각 서브스트림의 엔트리 포인트도 비트 단위로 표현될 수 있다.
도 9는 픽처 내 LCU 들의 순서에 관한 일 예를 개략적으로 설명하는 도면이다.
도 9의 예를 참조하면, 픽처의 소정 영역(910)은 두 개의 서브스트림(0번째 서브스트림인 서브스트림 A, 1번째 서브스트림인 서브스트림 B)을 포함한다. 도시된 바와 같이, 서브스트림 A는 LCU Ax(x=1, 2, …, 7, 8)들로 구성된 스트림이며, 서브스트림 B는 LCU Bx(x=1, 2, …, 7, 8)들로 구성된 스트림이다.
도 9의 예에서는 서브스트림 A와 서브스트림 B는 영역(900) 내에서 교차 배치되어 있다.
픽처 내 소정의 영역(900)은 현재 픽처의 일부 영역일 수도 있고, 현재 픽처의 슬라이스 또는 타일일 수도 있으며, 현재 픽처의 전체 영역일 수도 있다. 또한, LCU는 CTU(Coding Tree Unit)일 수 있다.
도 10은 비트스트림 내에서 LCU들의 순서에 관한 일 예를 개략적으로 설명하는 도면이다. 도 10에서는 도 9의 예에서 설명한 LCU들로 비트스트림이 구성되는 경우를 예로서 설명한다.
도 10을 참조하면, 비트스트림(1010)은 두 서브스트림(0번째 서브스트림인 서브스트림 A, 1번째 서브스트림인 서브스트림 B)를 포함한다. 서브스트림 A는 LCU Ax(x=1, 2, …, 7, 8)들로 구성된 스트림이며, 서브스트림 B는 LCU Bx(x=1, 2, …, 7, 8)들로 구성된 스트림이다.
비트스트림(1010)에서 서브스트림 A의 엔트리 포인트(1020)는 LCU A1의 시작점에 대응하며, 서브스트림 B의 엔트리 포인트(1030)는 LCU B1의 시작점에 대응할 수 있다.
도 9에서 영역(900)가 타일이고 WPP가 아닌 타일 구조가 적용된다면, 엔트리 포인트(1030)는 타일의 엔트리 포인트일 수도 있다.
앞서 설명한 바와 같이, 도 10의 예에서 서브스트림은 비트 단위의 길이를 가지며, 엔트리 포인트로 비트 단위로 표현된다.
이와 관련하여, 서브스트림을 비트 단위로 정렬하는 것이 아니라 바이트 단위로 정렬하는 것을 고려할 수 있다. 본 명세서에서는 설명의 편의를 위해 바이트 단위로 정렬되는 것을 바이트 정렬(byte-aligned)이라 한다.
따라서, WPP가 적용되는 경우에도 WPP 서브스트림들은 바이트 정렬되며, 타일 구조가 적용되는 경우에도 타일 내 서브스트림들은 바이트 정렬될 수 있다.
서브스트림을 바이트 정렬하기 위한 방법으로 바이트 정렬 비트(byte-aligned bits)를 이용할 수 있다. 바이트 정렬 비트는 각 서브스트림을 바이트 정렬 시키기 위해 비트스트림 혹은 서브스트림에 추가되는 비트(bits)이다.
예컨대, 각 서브스트림(예컨대. WPP 서브스트림 또는 타일 내 서브스트림)의 각 종단(end)에서 바이트 정렬되지 않는 경우에는 바이트 정렬 비트가 추가될 수 있다. 따라서, 각 서브스트림의 길이는 비트 단위가 아닌 바이트 단위로 나타내진다.
바이트 정렬 비트는 바이트 정렬을 적용할 서브스트림의 소정 부분에 추가될 수 있다. 예컨대, 바이트 정렬 비트는 각 서브스트림의 종단에 추가될 수 있다.
도 11은 서브스트림의 바이트 정렬에 대하여 개략적으로 설명하는 일 예를 도시한 것이다.
도 11에서는 도 9의 예에서 설명한 LCU들로 비트스트림이 구성되는 경우를 예로서 설명한다.
도 11을 참조하면, 비트스트림(1110)은 두 서브스트림(0번째 서브스트림인 서브스트림 A, 1번째 서브스트림인 서브스트림 B)를 포함한다. 서브스트림 A는 LCU Ax(x=1, 2, …, 7, 8)들로 구성된 스트림이며, 서브스트림 B는 LCU Bx(x=1, 2, …, 7, 8)들로 구성된 스트림이다.
비트스트림(1110)에서 서브스트림 A의 엔트리 포인트(1120)는 LCU A1의 시작점에 대응하며, 서브스트림 B의 엔트리 포인트(1130)는 LCU B1의 시작점에 대응할 수 있다.
도 9에서 영역(900)가 타일이고 WPP가 아닌 타일 구조가 적용된다면, 엔트리 포인트(1130)는 타일의 엔트리 포인트일 수도 있다.
서브스트림 A의 길이가 바이트 단위가 아닌 경우에는 바이트 정렬 비트(1140)를 서브스트림 A의 후단에 추가하여 서브스트림 A를 바이트 단위로 나타낼 수 있다.
서브스트림 B의 길이가 바이트 단위가 아닌 경우에는 바이트 정렬 비트(1150)를 서브스트림 B의 후단에 추가하여 서브스트림 B를 바이트 단위로 나타낼 수 있다.
서브스트림이 바이트 정렬되면, 타일과 WPP 서브스트림을 모두 바이트 레벨에서 표현할 수 있으면, 타일과 WPP 서브스트림의 엔트리 포인트의 그래뉼래러티(granularity)를 동일하게 하면서 더 간단한 방식으로 엔트리 포인트를 시그널링할 수 있다.
표 3은 WPP 서브스트림 및 타일의 엔트리 포인트를 시그널링하는 슬라이스 헤더 내 신택스 엘리먼트의 일 예를 나타낸 것이다.
<표 3>
Figure PCTKR2012011717-appb-I000003
표 3에서, 엔트리 포인트 정보는 WPP 서브스트림의 엔트리 포인트에 관한 정보이거나 타일의 엔트리 포인트에 관한 정보일 수 있다.
entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 4는 표 3에 따른 엔트리 포인트 위치 정보에 관한 신택스 구조의 일 예를 나타낸 것이다.
<표 4>
Figure PCTKR2012011717-appb-I000004
표 4에서 엔트리 포인트 정보는 WPP 서브스트림의 엔트리 포인트에 관한 정보이거나 타일의 엔트리 포인트에 관한 정보일 수 있다.
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus2는 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus2는 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 바이트 수를 특정한다.
i가 0인 경우에, entry_point_offset[i]는 슬라이스 헤더의 끝(the end of slice header)와 슬라이스 내 첫 번째 엔트리 포인트 사이의 바이트 수를 특정한다. 이때, 슬라이스 헤더의 끝을 바이트 정렬시키기 위해서 첫 번째 타일/WPP 서브스트림의 처음 몇 비트를 슬라이스 헤더의 끝에 더할 수 있다. 더해지는 비트는 앞서 설명한 바이트 정렬 비트로서 역할한다.
i가 0이 아닌 경우에 entry_point_offset[i]는 i-1번째 엔트리 포인트와 i 번째 엔트리 포인트 사이의 바이트 수를 특정한다.
이때, entry_point_offset[i]의 길이는 entry_point_offset_length _minus2 + 2가 된다.
엔트리 포인트의 타입(즉, 엔트리 포인트가 타일에 대한 것인지 혹은 WPP 서브스트림에 대한 것인지)은 다음과 같이 추정(infer)될 수 있다.
1)tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0이면(if tile_info_present_flag==1 && num_substream_minus1==0), 모든 엔트리 포인트들은 타일의 엔트리 포인트다. 즉, 타일 정보가 존재하고, 서브스트림의 개수가 하나인 경우에 엔트리 포인트들은 타일의 엔트리 포인트로 추정될 수 있다.
(2)tile_info_present_flag의 값이 0이고 num_substream_minus1의 값이 0보다 크면(if tile_info_present_flag==0 && num_substream_minus1>0), 모든 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트다. 즉, 타일 정보가 존재하지 않고, 복수의 서브스트림이 존재하는 경우에, 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트로 추정될 수 있다.
(3) tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0보다 큰 경우에(if tile_info_present_flag==1 && num_substream_minus1>0), i번째 엔트리 포인트는 i가 0이 아니고(i!=0) (i+1)%(num_substream1+1)==0 이면, i번째 엔트리 포인트는 타일의 엔트리 포인트이고 i 번째 엔트리 포인트이다. 그 외 경우에 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트가 된다. 즉, 타일 정보가 존재하고, 서브스트림도 복수 존재하는 경우에, 엔트리 포인트는 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있고, 타일과 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있다.

실시예 3
병렬 처리가 수행되는 경우에, 서브스트림 중 WPP 서브스트림의 엔트리 포인트만 시그널링할 수 있다. 예컨대, WPP와 타일 구조를 함께 적용하지 않고 WPP 만을 적용하는 경우에, WPP 서브스트림의 엔트리 포인트를 시그널링할 수 있다.
WPP 서브스트림의 엔트리 포인트에 관한 정보 역시 슬라이스 헤더에서 시그널링될 수 있다.
표 5는 슬라이스 헤더에서 WPP 서브스트림의 엔트리 포인트에 관한 정보를 시그널링하는 신택스의 일 예이다.
<표 5>
Figure PCTKR2012011717-appb-I000005
표 5에서, log_max_substream_length_minus2는 서브스트림의 길이에 관한 정보 substream_length[i]를 전송하는데 이용되는 비트 수를 특정한다.
substream_length[i]는 두 엔트리 포인트 사이의 비트 수를 특정한다. 이때 두 엔트리 포인트는 WPP 서브스트림에 관한 것일 수 있다.
i값이 0이면, substream_length[i]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수를 특정한다. i값이 0이 아닌 경우, substream_length[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수를 특정한다.
또한, 실시예 2의 경우와 같이, 서브스트림의 길이는 바이트 단위로 나타낼 수도 있다. 이 경우에, substream_length[i]는 두 WPP 서브스트림 엔트리 포인트 사이의 바이트 수를 특정한다.
여기서는, WPP 서브스트림의 엔트리 포인트만이 전송되는 점을 고려하여, 서브스트림의 길이에 관한 정보를 전송하는 것으로 설명하였으나, 실시예 1 및 2와 같이, 서브스트림의 길이 대신에 엔트리 포인트 오프셋을 전송하도록 할 수도 있다.
이 경우에, 표 5의 슬라이스 헤더는 substream_length[i] 대신 entry_point_offset[i]를 전송한다.entry_point_offset[i]는 두 엔트리 포인트 사이의 바이트 수 혹은 비트 수를 특정하며, 바이트 수를 특정하는 경우에는 서브스트림의 바이트 정렬을 위한 바이트 정렬 비트가 이용될 수도 있다.

실시예 4
앞선 실시예와 달리 엔트리 포인트 타입(엔트리 포인트가 타일에 관한 것인지 WPP 서브스트림에 관한 것인지)를 유도하지 않고, 직접 시그널링하는 방법을 고려할 수 있다.
표 6은 슬라이스 헤더에서 엔트리 포인트에 관한 정보를 시그널링하는 신택스의 일 예를 나타낸 것이다.
<표 6>
Figure PCTKR2012011717-appb-I000006
표 6에서 entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 7은 표 6에 따른 엔트리 포인트 위치 정보(entry point location information)에 관한 신택스의 일 예를 나타낸 것이다.
<표 7>
Figure PCTKR2012011717-appb-I000007
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus2는 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus2는 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
entry_point_type[i]는 엔트리 포인트 타입을 지시한다. 예컨대, entry_point_type[i]의 값이 1인 경우에는 WPP 서브스트림의 엔트리 포인트임을 지시하고, entry_point_type[i]의 값이 0인 경우에는 타일과 WPP 서브스트림 모두의 엔트리 포인트임을 지시한다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수 또는 바이트 수를 특정한다.
entry_point_offset[i]가 두 엔트리 포인트 사이의 바이트 수를 특정하는 경우에는 바이트 정렬을 위한 바이트 정렬 비트를 사용할 수도 있다.
entry_point_offset[i]의 길이를 xx라고 할 때, xx는 수식 2처럼 정의될 수 있다.
<수식 2>
xx = (num_substreams_minus1 > 0) ? entry_point_offset_length_minus2 + 5 : entry_point_offset_length_minus2 + 2
수식 2에서 서브스트림의 개수가 1보다 큰 경우는 WPP가 적용되는 경우일 수 있으며, 서브스트림의 개수가 1 이하인 경우는 타일을 사용하는 경우일 수 있다.

실시예 5
실시예 1 과 달리, 엔트리 포인트 오프셋의 길이에 대한 정보를 다른 방식으로 시그널링할 수도 있다.
표 8은 WPP 서브스트림 및 타일의 엔트리 포인트를 시그널링하는 슬라이스 헤더 내 신택스 엘리먼트의 일 예를 나타낸 것이다.
<표 8>
Figure PCTKR2012011717-appb-I000008
표 8에서, 엔트리 포인트 정보는 WPP 서브스트림의 엔트리 포인트에 관한 정보이거나 타일의 엔트리 포인트에 관한 정보일 수 있다.
entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 9는 표 8에 따른 엔트리 포인트 위치 정보에 관한 신택스 구조의 일 예를 나타낸 것이다.
<표 9>
Figure PCTKR2012011717-appb-I000009
표 9에서 엔트리 포인트 정보는 WPP 서브스트림의 엔트리 포인트에 관한 정보이거나 타일의 엔트리 포인트에 관한 정보일 수 있다.
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus1은 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus1은 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
entry_point_type[i]는 엔트리 포인트 타입을 지시한다. 예컨대, entry_point_type[i]의 값이 1인 경우에는 WPP 서브스트림의 엔트리 포인트임을 지시하고, entry_point_type[i]의 값이 0인 경우에는 타일과 WPP 서브스트림 모두의 엔트리 포인트임을 지시한다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. 다만, i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수/바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수/바이트 수를 특정한다.
엔트리 포인트를 바이트 단위로 나타내는 경우, 즉 서브스트림을 바이트 단위로 정렬하는 경우에는 실시예 2에서 설명한 바와 같이 바이트 정렬 비트를 사용할 수 있다.
entry_point_offset_length_minus1을 이용하여 엔트리 포인트 오프셋의 전송에 이용되는 비트 수를 특정하는 경우에, entry_point_offset[i]의 길이를 xx라고 하면, xx는 수식 3처럼 정의될 수 있다.
<수식 3>
xx = (num_substreams_minus1 > 0) ? entry_point_offset_length_minus1 + 4 : entry_point_offset_length_minus1 + 1
수식 3에서 서브스트림의 개수가 1보다 큰 경우는 WPP가 적용되는 경우일 수 있으며, 서브스트림의 개수가 1 이하인 경우는 타일을 사용하는 경우일 수 있다.

실시예 6
앞선 실시예들에서 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시하던 entry_point_location_flag를 전송하지 않고 추정하거나 유도하는 방법을 고려할 수 있다.
예컨대, 슬라이스 헤더에서 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시하는 신택스 엘리먼트가 전송될 필요없이, 다음의 방식을 이용하여 엔트리 포인트 정보의 존재가 추정될 수 있다.
구체적으로, 타일의 행(row) 개수가 1보다 크거나 타일의 열(column) 개수가 1보다 크고 서브스트림의 개수도 1보다 큰 경우에는 엔트리 포인트 정보가 비트스트림에 존재한다고 추정한다. 그렇지 않은 경우에는 엔트리 포인트 정보가 비트스트림에 존재하지 않는다고 추정한다.
표 8은 설명한 바와 같이 엔트리 포인트 정보의 존재를 추정하는 방법의 일 예를 나나탠 것이다.
<표 10>
Figure PCTKR2012011717-appb-I000010
표 10에서, num_tile_columns_minus1 +1은 픽처를 파티셔닝(partitioning)하는 타일 열(column)의 개수를 특정하며, num_tile_columns_minus1 의 값은 인코딩 장치로부터 시그널링 될 수 있다. 또한, 표 8에서, num_tile_row_minus1 +1은 픽처를 파티셔닝(partitioning)하는 타일 열(column)의 개수를 특정하며, num_tile_rows_minus1 의 값은 인코딩 장치로부터 시그널링 될 수 있다.
따라서, 슬라이스 내에 복수의 타일과 복수의 서브스트림이 존재하는 경우에, 엔트리 포인트 정보가 비트스트림에 존재한다고 추정되도록 할 수도 있다.
표 11는 슬라이스 헤더에서 엔트리 포인트 정보를 전송하는 신택스의 다른 예를 나타낸 것이다.
<표 11>
Figure PCTKR2012011717-appb-I000011
앞선 실시예에서는 슬라이스 헤더에서 엔트리 포인트 정보의 존부에 관한 entry_point_location_flag를 전송하여 entry_point_location_flag의 값이 1이면 엔트리 포인트 정보가 비트스트림에 존재하는 것을 지시하였다.
표 9에서는 타일의 행(row) 개수가 1보다 크거나 타일의 열(column) 개수가 1보다 크고 서브스트림의 개수도 1보다 큰 경우에는 엔트리 포인트 정보가 비트스트림에 존재하는 것으로 본다. 이 경우, 표 10과 같이 엔트리 포인트 정보가 전송될 수 있다.
표 12는 표 11에서 엔트피 포인트 정보가 비트스트림에 존재하는 경우에 전송되는 신택스의 일 예를 나타낸다.
<표 12>
Figure PCTKR2012011717-appb-I000012
표 12에서 num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus1은 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus1은 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
entry_point_type[i]는 엔트리 포인트 타입을 지시한다. 예컨대, entry_point_type[i]의 값이 1인 경우에는 WPP 서브스트림의 엔트리 포인트임을 지시하고, entry_point_type[i]의 값이 0인 경우에는 타일과 WPP 서브스트림 모두의 엔트리 포인트임을 지시한다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. 다만, i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수/바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수/바이트 수를 특정한다.
엔트리 포인트를 바이트 단위로 나타내는 경우, 즉 서브스트림을 바이트 단위로 정렬하는 경우에는 실시예 2에서 설명한 바와 같이 바이트 정렬 비트를 사용할 수 있다.

실시예 7
실시예 4와 같이 엔트리 포인트 오프셋의 길이 정보를 전송하는 경우에, 엔트리 포인트 타입을 조건부로 시그널링하는 방법을 생각할 수 있다.
예컨대, 슬라이스 내에 복수의 타일과 복수의 서브스트림이 존재하는 경우에, 타일과 서브스트림 중 어떤 것의 엔트리 포인트인지, 즉 엔트리 포인트의 타입이 무엇인지를 전송하도록 할 수 있다.
표 13은 슬라이스 헤더에서 엔트리 포인트에 관한 정보를 시그널링하는 신택스의 일 예를 나타낸 것이다.
<표 13>
Figure PCTKR2012011717-appb-I000013
표 13에서 entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 14는 표 13에 따른 엔트리 포인트 위치 정보(entry point location information)에 관한 신택스의 일 예를 나타낸 것이다.
<표 14>
Figure PCTKR2012011717-appb-I000014
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus2 는 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus2는 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
타일의 행(row) 개수가 1보다 크거나 타일의 열(column) 개수가 1보다 크고 서브스트림의 개수도 1보다 큰 경우, 즉 복수의 타일과 복수의 서브스트림이 존재하는 경우에 엔트리 포인트 타입을 지시하는 정보 entry_point_type[i]를 시그널링한다.
entry_point_type[i]는 엔트리 포인트 타입을 지시한다. 예컨대, entry_point_type[i]의 값이 1인 경우에는 WPP 서브스트림의 엔트리 포인트임을 지시하고, entry_point_type[i]의 값이 0인 경우에는 타일과 WPP 서브스트림 모두의 엔트리 포인트임을 지시한다.
따라서, 타일은 복수 개가 아니나 서브스트림은 복수 개인 경우에는 WPP 서브스트림의 엔트리 포인트임을 지시하고, 그렇지 않은 경우에는 타일과 WPP 엔트리 포인트 모두에 대한 엔트리 포인트임을 지시한다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수 또는 바이트 수를 특정한다.
entry_point_offset[i]가 두 엔트리 포인트 사이의 바이트 수를 특정하는 경우에는 바이트 정렬을 위한 바이트 정렬 비트를 사용할 수도 있다.
entry_point_offset[i]의 길이를 xx라고 할 때, xx는 수식 4처럼 정의될 수 있다.
<수식 4>
xx = (num_substreams_minus1 > 0) ? entry_point_offset_length_minus2 + 5 : entry_point_offset_length_minus2 + 2

실시예 8
실시예 5와 같이 엔트리 포인트 오프셋의 길이 정보를 전송하는 경우에, 엔트리 포인트 타입을 조건부로 시그널링하는 방법을 생각할 수 있다.
예컨대, 슬라이스 내에 복수의 타일과 복수의 서브스트림이 존재하는 경우에, 타일과 서브스트림 중 어떤 것의 엔트리 포인트인지, 즉 엔트리 포인트의 타입이 무엇인지를 전송하도록 할 수 있다.
표 15는 슬라이스 헤더에서 엔트리 포인트에 관한 정보를 시그널링하는 신택스의 일 예를 나타낸 것이다.
<표 15>
Figure PCTKR2012011717-appb-I000015
표 15에서 entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 16은 표 15에 따른 엔트리 포인트 위치 정보(entry point location information)에 관한 신택스의 일 예를 나타낸 것이다.
<표 16>
Figure PCTKR2012011717-appb-I000016
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus1 은 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus1은 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
타일의 행(row) 개수가 1보다 크거나 타일의 열(column) 개수가 1보다 크고 서브스트림의 개수도 1보다 큰 경우, 즉 복수의 타일과 복수의 서브스트림이 존재하는 경우에 엔트리 포인트 타입을 지시하는 정보 entry_point_type[i]를 시그널링한다.
entry_point_type[i]는 엔트리 포인트 타입을 지시한다. 예컨대, entry_point_type[i]의 값이 1인 경우에는 WPP 서브스트림의 엔트리 포인트임을 지시하고, entry_point_type[i]의 값이 0인 경우에는 타일과 WPP 서브스트림 모두의 엔트리 포인트임을 지시한다.
따라서, 타일은 복수 개가 아니나 서브스트림은 복수 개인 경우에는 WPP 서브스트림의 엔트리 포인트임을 지시하고, 그렇지 않은 경우에는 타일과 WPP 엔트리 포인트 모두에 대한 엔트리 포인트임을 지시한다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수 또는 바이트 수를 특정한다.
entry_point_offset[i]가 두 엔트리 포인트 사이의 바이트 수를 특정하는 경우에는 바이트 정렬을 위한 바이트 정렬 비트를 사용할 수도 있다.
entry_point_offset[i]의 길이를 xx라고 할 때, xx는 수식 4처럼 정의될 수 있다.
<수식 4>
xx = (num_substreams_minus1 > 0) ? entry_point_offset_length_minus2 + 4 : entry_point_offset_length_minus2 + 1
수식 4에서 서브스트림의 개수가 1보다 큰 경우는 WPP가 적용되는 경우일 수 있으며, 서브스트림의 개수가 1 이하인 경우는 타일을 사용하는 경우일 수 있다.

실시예 9
실시예 4와 같이 엔트리 포인트 오프셋의 길이 정보를 전송하는 경우에, 엔트리 포인트 타입을 시그널링 하지 않고 추정하는 방법을 생각할 수 있다.
예컨대, 엔트리 포인트의 타입(즉, 엔트리 포인트가 타일에 대한 것인지 혹은 WPP 서브스트림에 대한 것인지)은 다음과 같이 추정(infer)될 수 있다.
1)tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0이면(if tile_info_present_flag==1 && num_substream_minus1==0), 모든 엔트리 포인트들은 타일의 엔트리 포인트다. 즉, 타일 정보가 존재하고, 서브스트림의 개수가 하나인 경우에 엔트리 포인트들은 타일의 엔트리 포인트로 추정될 수 있다.
(2)tile_info_present_flag의 값이 0이고 num_substream_minus1의 값이 0보다 크면(if tile_info_present_flag==0 && num_substream_minus1>0), 모든 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트다. 즉, 타일 정보가 존재하지 않고, 복수의 서브스트림이 존재하는 경우에, 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트로 추정될 수 있다.
(3) tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0보다 큰 경우에(if tile_info_present_flag==1 && num_substream_minus1>0), i번째 엔트리 포인트는 i가 0이 아니고(i!=0) (i+1)%(num_substream1+1)==0 이면, i번째 엔트리 포인트는 타일의 엔트리 포인트이고 i 번째 엔트리 포인트이다. 그 외 경우에 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트가 된다. 즉, 타일 정보가 존재하고, 서브스트림도 복수 존재하는 경우에, 엔트리 포인트는 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있고, 타일과 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있다.
표 17은 슬라이스 헤더에서 엔트리 포인트에 관한 정보를 시그널링하는 신택스의 일 예를 나타낸 것이다.
<표 17>
Figure PCTKR2012011717-appb-I000017
표 6에서 entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 18은 표 17에 따른 엔트리 포인트 위치 정보(entry point location information)에 관한 신택스의 일 예를 나타낸 것이다.
<표 18>
Figure PCTKR2012011717-appb-I000018
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus2 는 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus1는 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수 또는 바이트 수를 특정한다.
entry_point_offset[i]가 두 엔트리 포인트 사이의 바이트 수를 특정하는 경우에는 바이트 정렬을 위한 바이트 정렬 비트를 사용할 수도 있다.
표 18에서는 엔트리 포인트 타입을 직접 시그널링하지 않는다. 대신, 실시예 9에서는, 앞서 설명한 바와 같이 tile_info_present_flag의 값과 num_substream_minus1의 값을 기반으로 엔트리 포인트 타입을 추정한다.

실시예 10
실시예 5와 같이 엔트리 포인트 오프셋의 길이 정보를 전송하는 경우에, 엔트리 포인트 타입을 시그널링 하지 않고 추정하는 방법을 생각할 수 있다.
예컨대, 엔트리 포인트의 타입(즉, 엔트리 포인트가 타일에 대한 것인지 혹은 WPP 서브스트림에 대한 것인지)은 다음과 같이 추정(infer)될 수 있다.
(1)tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0이면(if tile_info_present_flag==1 && num_substream_minus1==0), 모든 엔트리 포인트들은 타일의 엔트리 포인트다. 즉, 타일 정보가 존재하고, 서브스트림의 개수가 하나인 경우에 엔트리 포인트들은 타일의 엔트리 포인트로 추정될 수 있다.
(2)tile_info_present_flag의 값이 0이고 num_substream_minus1의 값이 0보다 크면(if tile_info_present_flag==0 && num_substream_minus1>0), 모든 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트다. 즉, 타일 정보가 존재하지 않고, 복수의 서브스트림이 존재하는 경우에, 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트로 추정될 수 있다.
(3) tile_info_present_flag의 값이 1이고 num_substream_minus1의 값이 0보다 큰 경우에(if tile_info_present_flag==1 && num_substream_minus1>0), i번째 엔트리 포인트는 i가 0이 아니고(i!=0) (i+1)%(num_substream1+1)==0 이면, i번째 엔트리 포인트는 타일의 엔트리 포인트이고 i 번째 엔트리 포인트이다. 그 외 경우에 엔트리 포인트들은 WPP 서브스트림의 엔트리 포인트가 된다. 즉, 타일 정보가 존재하고, 서브스트림도 복수 존재하는 경우에, 엔트리 포인트는 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있고, 타일과 WPP 서브스트림의 엔트리 포인트로 추정될 수도 있다.
표 19는 슬라이스 헤더에서 엔트리 포인트에 관한 정보를 시그널링하는 신택스의 일 예를 나타낸 것이다.
<표 19>
Figure PCTKR2012011717-appb-I000019
표 19에서 entry_point_location_flag는 비트스트림에 엔트리 포인트 정보가 존재하는지를 지시한다. 예컨대, 비트스트림 내에 엔트리 포인트 정보(예컨대, 엔트리 포인트 위치 정보)가 존재하면 entry_point_location_flag의 값은 1이 되며, 비트스트림 내에 엔트리 포인트 정보가 존재하지 않으면 entry_point_location_flag의 값은 0이 된다.
표 20은 표 19에 따른 엔트리 포인트 위치 정보(entry point location information)에 관한 신택스의 일 예를 나타낸 것이다.
<표 20>
Figure PCTKR2012011717-appb-I000020
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus1 은 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus1은 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이면, entry_point_offset[0]은 슬라이스 헤더의 끝(the end of slice header)과 슬라이스 내 첫 번째 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수 또는 바이트 수를 특정한다.
entry_point_offset[i]가 두 엔트리 포인트 사이의 바이트 수를 특정하는 경우에는 바이트 정렬을 위한 바이트 정렬 비트를 사용할 수도 있다.
표 20에서는 엔트리 포인트 타입을 직접 시그널링하지 않는다. 대신, 실시예 10에서는, 앞서 설명한 바와 같이 tile_info_present_flag의 값과 num_substream_minus1의 값을 기반으로 엔트리 포인트 타입을 추정한다.

실시예 1 1
실시예 11에서는 앞선 10개의 실시예들에 아래 (1) ~ (4)와 같은 변형 또는 특징들 중 적어도 하나를 부가한 방법을 설명한다.
(1) 디코딩의 병렬 처리를 위해 타일이나 WPP를 적용하는 경우에는, 엔트리 포인트 정보를 전송하게 된다. 따라서, 앞선 실시예들에서 설명한 바와 같이 엔트리 포인트 정보의 존부를 지시하는 entry_point_location_flag는 필요하지 않을 수도 있다.
(2) 타일과 WPP가 이용되지 않는 경우를 고려하여, 엔트리 포인트의 개수를 특정하는 정보도 0의 값을 지시할 수 있도록 num_of_entry_points_minus1 대신 num_of_entry_points의 값으로 전송할 수 있다. 즉, 전체 엔트리 포인트 개수에서 1을 뺀 값을 전송하는 것이 아니라, 전체 엔트리 포인트 개수의 값을 전송할 수 있다.
(3) WPP와 타일이 함께 이용될 수 없도록 할 수도 있다. 이 경우에, WPP가 이용되면 타일이 이용되지 않으며, 타일이 이용되면 WPP가 이용되지 않는다.
(4) 엔트리 포인트 오프셋은 바이트 0의 NALU 데이터로부터 산출되도록 할 수 있다. 바이트 0은 슬라이스 시그먼트 데이터의 첫 번째 바이트일 수 있다.
(1)의 특징을 부가한 경우에, 앞선 10개의 실시예와 달리, 실시예 11에서는 슬라이스 헤더에서 엔트리 포인트 정보의 존부를 지시하는 entry_point_location_flag를 전송하지 않고, 필요한 엔트리 포인트 정보를 바로 시그널링할 수 있다.
표 21은 실시예 11에 따라서 WPP 서브스트림 또는 타일에 관한 엔트리 포인트 정보를 시그널링하는 슬라이스 헤더 신택스의 일 예를 나타낸 것이다.
<표 21>
Figure PCTKR2012011717-appb-I000021
num_of_entry_points_minus1은 슬라이스 내에 있는 비트스트림상의 엔트리 포인트 개수를 지시한다. 엔트리 포인트 오프셋의 개수는 엔트리 포인트보다 1 적으므로, num_of_entry_points_minus1은 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수도 있다.
entry_point_offset_length_minus1 은 엔트리 포인트 오프셋에 관한 정보(entry_point_offset 신택스 엘리먼트)을 시그널링하는데 이용되는 비트 수를 특정한다. 즉, entry_point_offset_length_minus1은 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 혹은 바이트 단위로 나타낼 수 있다. 여기서는 entry_point_offset_length_minus1가 시그널링 되는 것으로 설명하였으나,entry_point_offset_length_minus1 대신 entry_point_offset_length_minus2가 시그널링되도록 할 수도 있다.
entry_point_offset[i]는 두 엔트리 포인트 사이의 비트 수 또는 바이트 수를 특정한다. i값이 0이면, entry_point_offset[0]은 NAL 유닛 데이터의 시작(즉, 바이트 0)과 슬라이스 내 첫 번째 엔트리 포인트(즉, entry_point_offset[0] - 1) 사이의 바이트 수를 특정한다. i값이 0이 아닌 경우, entry_point_offset[i]는 i-1번째 엔트리 포인트(entry point i-1)와 i 번째 엔트리 포인트(entry point i) 사이의 비트 수 또는 바이트 수를 특정한다.
entry_point_offset[i]가 두 엔트리 포인트 사이의 바이트 수를 특정하는 경우에는 바이트 정렬을 위한 바이트 정렬 비트를 사용할 수도 있다.
entry_point_offset[i]의 길이는 entry_point_offset_length_minus1 + 1 비트 혹은 entry_point_offset_length_minus2 + 2 비트가 될 수 있다.

도 12는 WPP 서브스트림에 대한 엔트리 포인트의 일 예를 개략적으로 설명하는 도면이다.
도 12의 예에서 픽처의 소정 영역(1210)은 4 개의 서브스트림, 즉 서브스트림 A, 서브스트림 B, 서브스트림 C, 서브스트림 D를 포함한다. 각 서브스트림은 LCU들의 열(array)라고 할 수 있다.
이때, 각 서브스트림의 시작점은 엔트리 포인트로서 지시될 수 있다. 예컨대, 서브스트림 A에 대한 엔트리 포인트는 비트스트림의 개시점(혹은 슬라이스 헤더의 종료점)으로부터 특정될 수 있다고 할 때, 서브스트림 B에 대한 엔트리 포인트는 엔트리 포인트 0(1220)이고, 서브스트림 C에 대한 엔트리 포인트는 엔트리 포인트 1(1230)이며, 서브스트림 D에 대한 엔트리 포인트는 엔트리 포인트2(1240)가 된다.
이 경우, 1번째 엔트리 포인트인 엔트리 포인트 0(1220)은 슬라이스 헤더의 종료점과 1번째 엔트리 포인트 사이의 바이트 수(혹은 비트 수)를 나타내는 엔트리 포인트 오프셋(예컨대, entry_point_offset[0])을 슬라이스 헤더의 종료점에 더한 값일 수 있다. 마찬가지로, 1 번째 엔트리 포인트인 엔트리 포인트 1(1220)과 2번째 엔트리 포인트인 엔트리 포인트 2(1230) 사이의 바이트 수(혹은 비트 수)도 엔트리 포인트 오프셋(예컨대, entry_point_offset[1])에 의해 지시될 수 있다.
도 12의 예에서 픽처 내 소정의 영역(1210)은 현재 픽처의 일부 영역일 수도 있고, 현재 픽처의 슬라이스일 수도 있으며, 현재 픽처의 전체 영역일 수도 있다.
도 13은 타일에 대한 엔트리 포인트의 일 예를 개략적으로 설명하는 도면이다.
도 13의 예에서 픽처의 소정 영역(310)은 4 개의 타일 즉, 타일 1(Tile 1), 타일 2(Tile 2), 타일 3(Tile 3), 타일 4(Tile 4)을 포함한다.
이때, 각 타일의 시작점은 엔트리 포인트로서 지시될 수 있다. 예컨대, 타일 1 에 대한 엔트리 포인트는 비트스트림의 개시점(혹은 슬라이스 헤더의 종료점)으로부터 특정될 수 있다고 할 때, 타일 2에 대한 엔트리 포인트는 엔트리 포인트 0(1320)이고, 타일 3에 대한 엔트리 포인트는 엔트리 포인트 1(1330)이며, 타일 4에 대한 엔트리 포인트는 엔트리 포인트2(1340)가 된다.
이 경우, 1번째 엔트리 포인트인 엔트리 포인트 0(1320)은 슬라이스 헤더의 종료점과 1번째 엔트리 포인트 사이의 바이트 수(혹은 비트 수)를 나타내는 엔트리 포인트 오프셋(예컨대, entry_point_offset[0])을 슬라이스 헤더의 종료점에 더한 값일 수 있다. 마찬가지로, 1 번째 엔트리 포인트인 엔트리 포인트 1(1320)과 2번째 엔트리 포인트인 엔트리 포인트 2(1330) 사이의 바이트 수(혹은 비트 수)도 엔트리 포인트 오프셋(예컨대, entry_point_offset[1])에 의해 지시될 수 있다.
도 13의 예에서 픽처 내 소정의 영역(1310)은 현재 픽처의 일부 영역일 수도 있고, 현재 픽처의 슬라이스일 수도 있으며, 현재 픽처의 전체 영역일 수도 있다.
도 14는 타일과 WPP 서브스트림이 함께 적용되는 경우에 대한 엔트리 포인트의 일 예를 개략적으로 설명하는 도면이다.
도 14의 예에서 픽처의 소정 영역(1410)은 4 개의 타일, 즉 타일 1(1410), 타일 2(1420), 타일 3(1430), 타일 4(1440)을 포함한다.
또한, 각 타일은 두 개의 서브스트림을 포함한다. 예컨대, 타일 1(1410)은 서브스트림 A와 서브스트림 B를 포함한다. 타일 2(1420)은 서브스트림 C와 서브스트림 D를 포함한다. 타일 3(1430)은 서브스트림 E와 서브스트림 F를 포함한다. 타일 4(1440)은 서브스트림 G와 서브스트림 H를 포함한다.
이때, 각 타일의 시작점 및/또는 서브스트림의 시작점은 엔트리 포인트로서 지시될 수 있다. 예컨대, 타일 1(1410)에 대한 엔트리 포인트는 비트스트림의 개시점(혹은 슬라이스 헤더의 종료점)으로부터 특정될 수 있고 서브스트림 A에 대한 엔트리 포인트 역시 비트스트림의 개시점(혹은 슬라이스 헤더의 종료점)으로부터 특정될 수 있다. 타일 1(1410) 내 두 번째 서브스트림인 서브스트림 B에 대한 엔트리 포인트는 엔트리 포인트 0(1450)이 된다.
타일 2(1420) 및 서브스트림 C에 대한 엔트리 포인트는 엔트리 포인트 1(1455)이 된다. 타일 2(1420) 내 서브스트림 D에 대한 엔트리 포인트는 엔트리 포인트 2(1260)가 된다.
타일 3(1430) 및 서브스트림 E에 대한 엔트리 포인트는 엔트리 포인트 3(1465)이며, 타일 3(1430) 내 서브스트림 F에 대한 엔트리 포인트는 엔트리 포인트 4(1470)가 된다.
타일 4(1440) 및 서브스트림 G에 대한 엔트리 포인트는 엔트리 포인트 5(1475)이며, 타일 4(1440) 내 서브스트림 H에 대한 엔트리 포인트는 엔트리 포인트 6(1480)이 된다.
이 경우, 1번째 엔트리 포인트인 엔트리 포인트 0(1450)은 슬라이스 헤더의 종료점과 1번째 엔트리 포인트 사이의 바이트 수(혹은 비트 수)를 나타내는 엔트리 포인트 오프셋(예컨대, entry_point_offset[0])을 슬라이스 헤더의 종료점에 더한 값일 수 있다.
2번째 엔트리 포인트인 엔트리 포인트 1(1455)는 1 번째 엔트리 포인트인 엔트리 포인트 0(1450)에 엔트리 포인트 오프셋(예컨대, entry_point_offset[1])을 더한 값으로 지시될 수 있다. 3번째 엔트리 포인트인 엔트리 포인트 2(1460)는 2 번째 엔트리 포인트인 엔트리 포인트 1(1455)에 엔트리 포인트 오프셋(예컨대, entry_point_offset[2])을 더한 값으로 지시될 수 있다. 4번째 엔트리 포인트인 엔트리 포인트 3(1465)는 3 번째 엔트리 포인트인 엔트리 포인트 2(1460)에 엔트리 포인트 오프셋(예컨대, entry_point_offset[3])을 더한 값으로 지시될 수 있다. 5번째 엔트리 포인트인 엔트리 포인트 4(1470)는 4 번째 엔트리 포인트인 엔트리 포인트 3(1465)에 엔트리 포인트 오프셋(예컨대, entry_point_offset[4])을 더한 값으로 지시될 수 있다. 6번째 엔트리 포인트인 엔트리 포인트 5(1475)는 5 번째 엔트리 포인트인 엔트리 포인트 4(1470)에 엔트리 포인트 오프셋(예컨대, entry_point_offset[5])을 더한 값으로 지시될 수 있다. 7번째 엔트리 포인트인 엔트리 포인트 6(1480)는 6 번째 엔트리 포인트인 엔트리 포인트 5(1475)에 엔트리 포인트 오프셋(예컨대, entry_point_offset[6])을 더한 값으로 지시될 수 있다.
도 15는 본 발명에 따른 인코딩 방법의 일 예를 개략적으로 설명하는 순서도이다.
도 15를 참조하면, 인코딩 장치는 입력된 영상 신호를 변환할 수 있다(S1510). 인코딩 장치는 입력된 픽처를 인코딩 단위로 분할하고, 분할된 인코딩 단위 또는 더 분할된 단위를 기반으로 예측을 수행할 수 있다. 인코딩 장치는 예측 결과와 원본 신호의 차이값인 레지듀얼을 생성한다. 인코딩 장치는 레지듀얼을 변환하고 양자화한다. 변환 방법으로서 DCT 및/또는 DST가 사용될 수 있다.
예측 방법, 변환 방법 및 양자화 방법은 도 1에서 설명한 바와 같다.
인코딩 장치는 S1510에서 출력된 변환 신호를 엔트로피 인코딩할 수 있다(S1520). 엔트로피 인코딩 방법으로서 CABAC, VLC, 지수 골롬(Exponential Golomb) 등이 이용될 수 있다.
인코딩 장치는 엔트로피 인코딩된 영상 정보 및 디코딩에 필요한 정보를 비트스트림으로 시그널링한다(S1530). 디코딩에 병렬 처리가 적용되는 경우에, 시그널링되는 정보는 슬라이스 헤더에서 병렬 처리에 필요한 정보, 예컨대 엔트리 포인트에 관한 정보를 포함할 수 있다.
엔트리 포인트에 관한 정보는, 상술한 바와 같이, 엔트리 포인트 오프셋 정보, 엔트리 포인트의 개수에 관한 정보, 엔트리 포인트 오프셋의 길이에 관한 정보를 포함한다.
예컨대, 슬라이스 헤더에서 전송되는 엔트리 포인트 오프셋 정보entry_point_offset[i]는 i번째 엔트리 포인트 오프셋을 바이트(bytes) 단위로 특정한다. entry_point_offset[i]는 엔트리 포인트 오프셋의 길이를 지시하는 정보에 의해 표현될 수 있다. 예컨대, 엔트리 포인트 오프셋의 길이를 지시하는 정보가 entry_point_offset_length_minus1이라면, 엔트리 포인트 오프셋은 entry_point_offset_length_minus1에 1비트를 더한 값으로 표현될 수 있다.
슬라이스 헤더에 뒤따르는 슬라이스 시그먼트 데이터는 엔트리 포인트의 개수를 지시하는 정보에 의해 특정되는 개수만큼의 서브셋(subset)으로 구성되며, 서브셋 단위로 병렬 디코딩이 수행될 수 있다. 엔트리 포인트의 개수는 이웃하는 엔트리 포인트 간의 오프셋을 지시하는 엔트리 포인트 오프셋의 개수보다 하나 더 많으므로, 슬라이스 헤더에서 전송되는 엔트리 포인트 오프셋 정보의 개수에 의해 슬라이스 내 엔트리 포인트의 개수가 특정될 수 있다. 예컨대, 엔트리 포인트 오프셋의 개수가 N이라고 시그널링되면, 서브셋은 N+1개가 존재하게 된다.
설명한 바와 같이, 슬라이스 내 i번째 엔트리 포인트는 i-1번째 엔트리 포인트에 i번째 엔트리 포인트 오프셋을 더한 값이 된다.
혹은 i번째 엔트리 포인트 오프셋을 이용하여 슬라이스 시그먼트 데이터를 구성하는 서브셋 중 i번째 서브셋의 구간을 특정할 수도 있다. 예컨대, 0번째 서브셋은 슬라이스 시그먼트 데이터의 첫 번째 바이트(바이트 0)부터 0번째 엔트리 포인트 오프셋-1까지의 구간을 가질 수 있다. i(i는 0이 아닌 정수)번째 서브셋의 구간 중 첫 번째 바이트는 이전 서브셋들의 합(이전 엔트리 포인트 오프셋들의 합)이 되며, 마지막 바이트는 첫 번째 바이트에 i번째 엔트리 포인트 오프셋을 더한 값에서 1 비트를 뺀 값이 된다.
상술한 바와 같이, 엔트리 포인트 오프셋의 개수에 관한 정보는 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정할 수 있다. 예컨대, WPP가 적용되는 경우에 엔트리 포인트 오프셋의 개수는 0부터 픽처 내 CTB(Coding Tree Block)들의 행 개수 범위 내의 값을 가질 수 있다. 타일이 적용되는 경우에 엔트리 포인트 오프셋의 개수는 0부터 타일 개수-1 범위 내의 값을 가질 수 있다. 타일과 WPP가 함께 적용되는 경우에, 엔트리 포인트 오프셋의 개수는 0부터 타일 열의 개수*CTB 행의 개수 -1 범위의 값을 가질 수 있다.
설명한 바와 같이, 엔트리 포인트 오프셋 신택스 엘리먼트의 개수에 관한 정보는 슬라이스 헤더 내 entry_point_offset[i] 신택스 엘리먼트의 개수를 특정한다. 예컨대, 엔트리 포인트 오프셋의 개수는 엔트리 포인트의 개수보다 1 적으므로, 엔트리 포인트 오프셋 신택스 엘리먼트의 개수에 관한 정보가 num_of_entry_point_munus1으로 전송될 수 있다. 또한, 엔트리 포인트 오프셋의 개수를 num_of_entry_point_offset으로 바로 전송할 수도 있다.
엔트리 포인트 오프셋의 길이에 관한 정보는 entry_point_offset[i] 신택스 엘리먼트의 길이를 비트 단위로 특정할 수 있다. 예컨대, 엔트리 포인트 오프셋 신택스 엘리먼트의 길이에 관한 정보가 entry_point_offset_length_minus1로 전송되면, 엔트리 포인트 오프셋 신택스 엘리먼트의 길이는 entry_point_offset_length_minus1+1 비트가 된다. 또한, 엔트리 포인트 오프셋 신택스 엘리먼트의 길이에 관한 정보가 entry_point_offset_length_minus2로 전송되면, 엔트리 포인트 오프셋 신택스 엘리먼트의 길이는 entry_point_offset_length_minus2+2 비트가 된다. 물론, 엔트리 포인트 오프셋 신택스 엘리먼트의 길이를 entry_point_offset_length의 신택스 엘리먼트로 전송할 수도 있으며, 이 경우엔 엔트리 포인트 오프셋 신택스 엘리먼트의 길이는 entry_point_offset_length 비트가 된다.
도 16은 본 발명에 따른 인코딩 장치의 일 예를 개략적으로 설명하는 도면이다.
도 16을 참조하면, 인코딩 장치(1600)는 신호 변환부(1610), 엔트로피 인코딩부(1620), 시그널링부(1630)를 포함한다.
신호 변환부(1610)는 입력된 픽처(비디오)를 인코딩 단위로 분할하고, 분할된 인코딩 단위 또는 더 분할된 단위를 기반으로 예측을 수행할 수 있다. 신호 변환부(1610)는 예측 결과와 원본 신호의 차이값인 레지듀얼을 생성한다. 신호 변환부(1610)는 레지듀얼을 변환하고 양자화한다. 변환 방법으로서 DCT 및/또는 DST가 사용될 수 있다.
신호 변환부(1610)는 도 1의 예에서 설명한 픽처 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125) 등을 포함할 수 있으며, 픽처 분할부(105), 예측부(110), 변환부(115), 양자화부(120), 재정렬부(125)에서 수행되는 절차를 수행할 수 있다.
엔트로피 인코딩부(1620)는 신호 변환부(1610)에서 출력된 신호를 엔트로피 인코딩할 수 있다.
엔트로피 인코딩부(1620)는 도 1의 예에서 설명한 엔트로피 인코딩부(130)에 대응할 수 있으며, 엔트로피 인코딩부(130)의 동작을 수행할 수 있다.
시그널링부(1630)는 인코딩된 영상 정보 및 디코딩에 필요한 정보를 비트스트림으로 시그널링한다. 병렬적 디코딩이 적용되는 경우라면, 시그널링되는 정보는 슬라이스 헤더에서 병렬 처리에 필요한 정보, 예컨대 엔트리 포인트에 관한 정보를 포함할 수 있다.
엔트리 포인트에 관한 정보는, 상술한 바와 같이, 엔트리 포인트 오프셋 정보, 엔트리 포인트의 개수에 관한 정보, 엔트리 포인트 오프셋의 길이에 관한 정보를 포함한다.
설명한 바와 같이, 슬라이스 내 i번째 엔트리 포인트는 i-1번째 엔트리 포인트에 i번째 엔트리 포인트 오프셋을 더한 값이 된다. 따라서, 엔트리 포인트의 개수에 관한 정보는 슬라이스 헤더 내에서 전송되는 엔트리 포인트 오프셋 정보의 개수를 지시하는 정보일 수 있다.
도 17은 본 발명에 따른 디코딩 방법의 일 예를 개략적으로 나타낸 것이다.
도 17을 참조하면, 디코딩 장치는 인코딩 장치로부터 영상 정보에 관한 시그널링을 수신한다(S1710). 영상 정보는 엔트로피 인코딩된 비트스트림으로 시그널링된 것일 수 있다.
디코딩 장치는 수신한 비트스트림을 엔트로피 디코딩할 수 있다(S1720). 디코딩 장치는 비트스트림으로 전송된 데이터 비트들을 입력받아서 신택스 엘리먼트 값들을 출력할 수 있다. 신택스 엘리먼트는 비트스트림에서 나타낸 데이터의 엘리먼트(An element of data represented in the bitstream)를 의미한다.
디코딩이 병렬적으로 진행되는 경우에, 데이터들은 바이트 정렬될 수 있다. 이때, 바이트 정렬(byte-aligned)된다는 것은 비트스트림 내에서 나타나는 위치가 바이트 단위라는 것을 의미한다. 예컨대, 비트스트림 내의 위치(position)가 비트스트림의 첫 번째 비트로부터 8 비트의 정수배인 경우에, 해당 위치가 바이트 정렬되었다고 할 수 있다.
서브스트림의 바이트 정렬에 대해서는 앞서 설명한 바 있다.
엔트로피 디코딩 방법으로 CABAC이 적용되는 경우에, 디코딩 장치는 초기화(initialization) 과정, 이진화(binarization) 과정, 디코딩 과정(decoding process)을 차례로 수행할 수 있다.
디코딩 장치는 슬라이스 시그먼트 데이터에 대한 파싱, 타일의 첫 번째 CTU(LCU)에 대한 파싱, CTU(LCU들의 행(row)의 첫 번째 CTU(LCU)에 대한 파싱 중 적어도 하나를 시작하는 경우에 초기화를 수행할 수 있다.
디코딩 장치는 초기화에 의해 CABAC을 수행하기 위한 변수들의 초기값을 생성할 수 있다.
이진화(binarization)는 신택스 엘리먼트의 가능한 값들에 대한 빈 스트링(bin string)의 집합이다. 이진화 과정은 신택스 엘리먼트의 가능한 값들을 빈 스트링의 집합에 매핑시키는 고유의 매핑 과정(unique mappimg process)이다.
디코딩 장치는 이진화에 의해 신택스 엘리먼트의 값을 빈 스트링, 즉 이진 시퀀스 또는 이진 코드로 매핑시켜 출력할 수 있다. 디코딩 장치는 이진화를 위해 신택스 엘리먼트와 빈 스트링을 매핑시키는 소정의 테이블을 이용할 수도 있다.
디코딩 장치는 CABAC의 디코딩 과정을 통해서 신택스 엘리먼트의 값을 결정할 수 있다. 디코딩 장치는 빈 스트링의 각 빈에 대하여 빈 인덱스를 결정하고, 빈 인덱스를 기반으로 콘텍스트 인덱스를 결정할 수 있다. 디코딩 장치는 콘텍스트 인덱스를 이용하여 복호화 대상 빈 스트링에 대한 확률 변수 값들을 결정하여 신택스 엘리먼트 값을 출력할 수 있다. 디코딩 장치는 빈 인덱스를 기반으로 콘텍스트 인덱스를 결정하는 과정에서 소정의 테이블을 이용할 수 있으며, 복호화 대상 픽처(슬라이스)의 타입(I 슬라이스, B 슬라이스, P 슬라이스)를 고려할 수도 있다.
상술한 CTU(LCU)들의 행은 WPP 서브스트림일 수 있다. WPP가 적용되는 경우에는, n번째 서브스트림(n 번째 코딩 트리 유닛(최대 코딩 유닛) 행)의 2 번째 코딩 트리 유닛(최대 코딩 유닛) 행(row)에 대한 엔트로피 디코딩이 완료되면, 관련된 콘텍스트 정보가 저장될 수 있다. n+1번째 서브스트림의 1 번째 코딩 트리 유닛(최대 코딩 유닛)은, n번째 서브스트림의 2번째 코딩 트리 유닛(최대 코딩 유닛)에 대한 콘텍스트 정보를 기반으로 초기화를 수행할 수 있다.
디코딩 장치는 신택스 엘리먼트 값들을 기반으로 픽처를 복원할 수 있다(S1730). 상술한 바와 같이, 신택스 엘리먼트 값들은 인코딩 장치로부터 시그널링되러 엔트로피 디코딩 과정을 통해 획득될 수 있다.
디코딩이 병렬적으로 진행되는 경우에는 타일 구조 또는 WPP가 적용될 있다. 이 경우에 신택스 엘리먼트들은 타일에 대한 엔트리 포인트를 지시하는 정보 또는 WPP 서브스트림의 엔트리 포인트를 지시하는 정보를 포함할 수 있다.
엔트리 포인트를 지시하는 신택스 엘리먼트들, 예컨대, 엔트리 포인트의 개수를 지시하는 신택스 엘리먼트, 엔트리 포인트 오프셋을 지시하는 신택스 엘리먼트, 엔트리 포인트 오프셋에 관한 신택스 엘리먼트의 길이를 지시하는 신택스 엘리먼트, 엔트리 포인트 타입을 지시하는 신택스 엘리먼트, 엔트리 포인트 정보의 존부를 지시하는 신택스 엘리먼트 등에 관한 구체적인 내용은 앞서 설명한 바와 같다.
이때, 인코딩 장치로부터 전송되는 엔트리 포인트에 관한 신택스 엘리먼트들은 앞서 실시예들에서와 같이, 상술한 신택스 엘리먼트들의 전부 또는 일부일 수 있다.
한편, 도 17의 예에서는 발명의 이해를 돕기 위해 엔트로피 디코딩 단계(S1720) 및 복원 단계(S1730)로 나누어 설명하였으나, 엔트로피 디코딩 단계(S1720)와 복원 단계(S1730)를 하나의 디코딩 단계라고 할 수도 있다.
도 18은 본 발명에 따른 디코딩 장치의 일 예를 개략적으로 나타낸 도면이다.
도 18을 참조하면, 디코딩 장치(1800)는 시그널링 수신부(1810), 엔트로피 디코딩부(1820), 복원부(1830)를 포함한다.
시그널링 수신부(1810)는 인코딩 장치로부터 영상 정보에 관한 시그널링을 수신한다. 영상 정보는 엔트로피 인코딩된 비트스트림으로 시그널링된 것일 수 있다.
엔트로피 디코딩부(1820)는 수신한 비트스트림을 엔트로피 디코딩할 수 있다. 디코딩 장치는 비트스트림으로 전송된 데이터 비트들을 입력받아서 신택스 엘리먼트 값들을 출력할 수 있다. 엔트로피 디코딩의 내용은 도 17에서 설명한 바와 같다.
엔트로피 디코딩부(1820)는 도 2의 예에서 설명한 엔트로피 디코딩부(210)에 대응한다.
복원부(1830)는 엔트로피 디코딩부(1820)에서 출력한 신택스 엘리먼트 값들을 기반으로 픽처를 복원할 수 있다. 복원부(1830)는 도 2의 예에서 설명한 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 메모리(240)를 포함할 수 있으며, 도 2의 예에서 설명한 재정렬부(215), 역양자화부(220), 역변환부(225), 예측부(230), 필터부(235) 메모리(240)의 동작을 수행할 수 있다.
도 18의 예에서는 본 발명의 이해를 돕기 위해, 엔트로피 디코딩부(1820) 및 복원부(1830)으로 나누어 설명하였으나, 엔트로피 디코딩부(1820)와 복원부(1830)를 하나의 디코딩부로 구성할 수도 있다.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 상술한 실시예들은 다양한 양태의 예시들을 포함한다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
지금까지 본 발명에 관한 설명에서 일 구성 요소가 타 구성 요소에 "연결되어" 있다거나 "접속되어"있다고 언급된 때에는, 상기 일 다른 구성 요소가 상기 타 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 두 구성 요소 사이에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 일 구성 요소가 타 구성 요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 두 구성 요소 사이에 다른 구성요소가 존재하지 않는 것으로 이해되어야 한다.



Claims (20)

  1. 양자화된 변환 정보를 엔트로피 인코딩하는 단계; 및
    엔트로피 인코딩된 정보를 비트스트림으로 전송하는 단계를 포함하며,
    상기 비트스트림은 병렬 디코딩될 정보들을 바이트 단위로 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 인코딩 방법.
  2. 제1항에 있어서, 상기 비트스트림은 병렬 디코딩의 대상인 코딩 트리 유닛들의 행에 대한 엔트리 포인트를 지시하는 오프셋 정보를 포함하며,
    상기 오프셋 정보는 두 엔트리 포인트 사이의 바이트 수를 지시하는 것을 특징으로 하는 비디오 인코딩 방법.
  3. 제2항에 있어서, 상기 비트스트림은 상기 오프셋 정보의 개수를 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 인코딩 방법.
  4. 제2항에 있어서, 상기 비트스트림은 상기 오프셋 정보의 길이를 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 인코딩 방법.
  5. 제2항에 있어서, 상기 오프셋 정보는 슬라이스 헤더에서 전송되는 것을 특징으로 하는 비디오 인코딩 방법.
  6. 제1항에 있어서, 상기 엔트로피 인코딩을 수행하는 단계에서는,
    코딩 트리 유닛들의 행들에 대하여 엔트리 포인트가 지시하는 액세스 포인트에서 엔트로피 인코딩을 개시하며,
    현재 행의 기준 코딩 트리 유닛에 대한 엔트로피 인코딩이 완료되면, 상기 기준 코딩 트리 유닛의 콘텍스트를 기반으로 다음 행의 첫 번째 코딩 트리 유닛에 대한 엔트로피 인코딩을 개시하되,
    상기 현재 행의 바이트 수는 상기 비트스트림으로 전송되는 엔트리 포인트 간의 오프셋에 의해 지시되는 것을 특징으로 하는 비디오 인코딩 방법.
  7. 비트스트림을 수신하는 단계; 및
    상기 비트스트림을 기반으로 병렬적인 디코딩을 수행하는 단계를 포함하며,
    상기 비트스트림은 병렬적으로 디코딩되는 정보를 바이트 단위로 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  8. 제7항에 있어서, 상기 디코딩을 수행하는 단계는,
    상기 비트스트림에 대한 엔트로피 디코딩을 수행하는 단계; 및
    엔트로피 디코딩된 정보를 기반으로 픽처를 복원하는 단계를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  9. 제8항에 있어서, 상기 디코딩을 수행하는 단계에서는,
    코딩 트리 유닛(CTU)들의 행들을 병렬적으로 디코딩하며,
    상기 엔트로피 디코딩을 수행하는 단계에서는,
    코딩 트리 유닛들의 N 번째 (N은 정수) 행 내 L 번째 (L은 정수) 코딩 트리 유닛 CTUNL을 엔트로피 디코딩한 후,
    상기 CTUNL의 콘텍스트를 기반으로 코딩 트리 유닛들의 N+1 번째 행 내 첫 번째 코딩 트리 유닛 LCUN+11을 엔트로피 디코딩하는 것을 특징으로 하는 비디오 디코딩 방법.
  10. 제7항에 있어서, 상기 디코딩을 수행하는 단계에서는,
    코딩 트리 유닛들의 N 번째 (N은 정수) 행 내 L 번째 (L은 정수) 코딩 트리 유닛 CTUNL을 엔트로피 디코딩한 후,
    상기 CTUNL의 콘텍스트를 기반으로 코딩 트리 유닛들의 N+1 번째 행 내 첫 번째 코딩 트리 유닛 LCUN+11을 엔트로피 디코딩하되,
    상기 N 번째 행에 대한 바이트 수는 상기 비트스트림에 포함된 엔트리 간 오프셋 정보 중 N 번째 오프셋 정보에 의해 지시되는 것을 특징으로 하는 비디오 디코딩 방법.
  11. 제7항에 있어서, 상기 비트스트림은 병렬 디코딩의 대상인 코딩 트리 유닛들의 행에 대한 엔트리 포인트를 지시하는 오프셋 정보를 포함하며,
    상기 오프셋 정보는 두 엔트리 포인트 사이의 바이트 수를 지시하는 것을 특징으로 하는 비디오 디코딩 방법.
  12. 제11항에 있어서, 상기 비트스트림은 상기 오프셋 정보의 개수를 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  13. 제11항에 있어서, 상기 비트스트림은 상기 오프셋 정보의 길이를 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 디코딩 방법.
  14. 제11항에 있어서, 상기 오프셋 정보는 슬라이스 헤더에서 전송되는 것을 특징으로 하는 비디오 디코딩 방법.
  15. 제7항에 있어서, 상기 디코딩을 수행하는 단계에서는 코딩 트리 유닛들의 행들에 대하여 엔트리 포인트가 지시하는 액세스 포인트에서 디코딩을 개시하며,
    현재 행의 기준 코딩 트리 유닛에 대한 엔트로피 디코딩이 완료되면, 상기 기준 코딩 트리 유닛의 콘텍스트를 기반으로 다음 행의 첫 번째 코딩 트리 유닛에 대한 엔트로피 디코딩을 개시하고,
    상기 현재 행의 바이트 수는 상기 비트스트림으로 전송되는 엔트리 포인트 간의 오프셋에 의해 지시되는 것을 특징으로 하는 비디오 디코딩 방법.
  16. 양자화된 변환 정보를 엔트로피 인코딩하는 엔트로피 인코딩부; 및
    엔트로피 인코딩된 정보를 비트스트림으로 전송하는 시그널링부를 포함하며,
    상기 비트스트림은 병렬 디코딩될 정보들을 바이트 단위로 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 인코딩 장치.
  17. 비트스트림을 수신하는 수신부; 및
    상기 비트스트림을 기반으로 병렬적인 디코딩을 수행하는 디코딩부를 포함하며,
    상기 비트스트림은 병렬적으로 디코딩되는 정보를 바이트 단위로 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 디코딩 장치.
  18. 제17항에 있어서, 상기 디코딩부는 코딩 트리 유닛들의 행들에 대하여 엔트리 포인트가 지시하는 액세스 포인트에서 디코딩을 개시하며,
    현재 행의 기준 코딩 트리 유닛에 대한 엔트로피 디코딩이 완료되면, 상기 기준 코딩 트리 유닛의 콘텍스트를 기반으로 다음 행의 첫 번째 코딩 트리 유닛에 대한 엔트로피 디코딩을 개시하는 것을 특징으로 하는 비디오 디코딩 장치.
  19. 제17항에 있어서, 상기 비트스트림은 병렬 디코딩의 대상인 코딩 트리 유닛들의 행에 대한 엔트리 포인트를 지시하는 오프셋 정보를 포함하며,
    상기 오프셋 정보는 두 엔트리 포인트 사이의 바이트 수를 지시하는 것을 특징으로 하는 비디오 디코딩 장치.
  20. 제19항에 있어서, 비트스트림은 상기 오프셋 정보의 개수 및 각 오프셋 정보의 길이를 지시하는 정보를 포함하는 것을 특징으로 하는 비디오 디코딩 장치.
PCT/KR2012/011717 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치 WO2013100694A1 (ko)

Priority Applications (15)

Application Number Priority Date Filing Date Title
KR1020207026685A KR102238127B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR1020147017291A KR102072165B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR1020207002499A KR102158629B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR1020227022399A KR102500639B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR1020217009769A KR102331361B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR1020237004933A KR102657113B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR1020227008468A KR102417101B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR1020217038091A KR102375821B1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
CN201280065507.4A CN104041031B (zh) 2011-12-29 2012-12-28 视频编码和解码方法和使用该方法的装置
US14/369,063 US9883185B2 (en) 2011-12-29 2012-12-28 Method for encoding and decoding image based on entry point in bitstream and apparatus using same
US15/860,412 US10356414B2 (en) 2011-12-29 2018-01-02 Video encoding and decoding method and apparatus using same
US16/292,037 US10742985B2 (en) 2011-12-29 2019-03-04 Video encoding and decoding method based on entry point information in a slice header, and apparatus using same
US16/918,418 US11240506B2 (en) 2011-12-29 2020-07-01 Video encoding and decoding method based on entry point information in a slice header, and apparatus using same
US17/563,135 US11711549B2 (en) 2011-12-29 2021-12-28 Video encoding and decoding method based on entry point information in a slice header, and apparatus using same
US18/205,372 US12028556B2 (en) 2011-12-29 2023-06-02 Video encoding and decoding method and apparatus using same

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201161581105P 2011-12-29 2011-12-29
US61/581,105 2011-12-29
US201261582822P 2012-01-04 2012-01-04
US61/582,822 2012-01-04
US201261586112P 2012-01-12 2012-01-12
US61/586,112 2012-01-12
US201261597145P 2012-02-09 2012-02-09
US61/597,145 2012-02-09

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/369,063 A-371-Of-International US9883185B2 (en) 2011-12-29 2012-12-28 Method for encoding and decoding image based on entry point in bitstream and apparatus using same
US15/860,412 Continuation US10356414B2 (en) 2011-12-29 2018-01-02 Video encoding and decoding method and apparatus using same

Publications (1)

Publication Number Publication Date
WO2013100694A1 true WO2013100694A1 (ko) 2013-07-04

Family

ID=48698028

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/011717 WO2013100694A1 (ko) 2011-12-29 2012-12-28 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치

Country Status (4)

Country Link
US (6) US9883185B2 (ko)
KR (8) KR102500639B1 (ko)
CN (5) CN108600753B (ko)
WO (1) WO2013100694A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100694A1 (ko) * 2011-12-29 2013-07-04 엘지전자 주식회사 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR102447003B1 (ko) 2012-03-22 2022-09-22 엘지전자 주식회사 비디오 인코딩 방법, 비디오 디코딩 방법 및 이를 이용하는 장치
WO2013164903A1 (ja) * 2012-04-30 2013-11-07 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置及び画像符号化復号装置
PL2884747T3 (pl) * 2012-08-09 2022-05-30 Sun Patent Trust Sposób dekodowania obrazów, urządzenie do dekodowania obrazów
BR122015024097B1 (pt) * 2013-01-04 2021-01-05 Samsung Electronics Co., Ltd. aparelho de decodificação de vídeo
JP6268066B2 (ja) 2013-09-20 2018-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置及び受信装置
FR3018148B1 (fr) * 2014-02-28 2017-08-25 Allegro Dvt Generateur de flux video
CN108886639B (zh) 2016-02-02 2021-05-07 弗劳恩霍夫应用研究促进协会 视频流传输中的场景部分和感兴趣区域处理
MX2019002512A (es) * 2016-09-09 2019-06-20 Sharp Kk Sistemas y metodos para señalizacion de mensajes de alerta de emergencia.
CN108063948B (zh) * 2016-11-08 2020-08-04 联发科技股份有限公司 配合多个处理器的影像处理装置及影像处理方法
GB2570879B (en) * 2018-02-06 2022-08-17 Advanced Risc Mach Ltd Encoding data arrays
EP3837842A4 (en) * 2018-08-22 2022-06-01 HFI Innovation Inc. METHOD AND DEVICE FOR TRANSFORMATION COEFFICIENT ENCODING
HUE066947T2 (hu) * 2018-09-14 2024-09-28 Huawei Tech Co Ltd Feldarabolás és csempézés a videokódolásban
US11178427B2 (en) * 2019-02-08 2021-11-16 Qualcomm Incorporated Dynamic sub-partition intra prediction for video coding
SG11202111967VA (en) 2019-05-10 2021-11-29 Beijing Bytedance Network Technology Co Ltd Multiple secondary transform matrices for video processing
EP3967032A4 (en) 2019-06-07 2022-07-27 Beijing Bytedance Network Technology Co., Ltd. CONDITIONAL SIGNALING OF A REDUCED SECONDARY TRANSFORM FOR VIDEO BIANARY FLOWS
WO2021023151A1 (en) 2019-08-03 2021-02-11 Beijing Bytedance Network Technology Co., Ltd. Position based mode derivation in reduced secondary transforms for video
CN114223208B (zh) 2019-08-17 2023-12-29 北京字节跳动网络技术有限公司 为视频中的缩减二次变换的边信息的上下文建模
US12015796B2 (en) 2019-11-14 2024-06-18 Lg Electronics Inc. Image coding method on basis of entry point-related information in video or image coding system
WO2021118076A1 (ko) * 2019-12-12 2021-06-17 엘지전자 주식회사 비디오 또는 영상 코딩 시스템에서의 일부 엔트리 포인트 관련 정보에 기반한 영상 코딩 방법
CN117676146A (zh) * 2022-09-08 2024-03-08 华为技术有限公司 一种编解码方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050078153A (ko) * 2004-01-31 2005-08-04 주식회사 손랩 병렬처리 부호화기 및 그 방법
JP2006319943A (ja) * 2005-04-15 2006-11-24 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びに、プログラム
KR20100052945A (ko) * 2008-11-11 2010-05-20 삼성전자주식회사 슬라이스 단위로 분할된 동영상을 처리하는 동영상 부호화/복호화장치 및 동영상 부호화/복호화방법
KR101038531B1 (ko) * 2009-06-25 2011-06-02 한양대학교 산학협력단 복호화시 병렬처리가 가능한 영상 부호화 장치 및 방법, 그리고 병렬처리가 가능한 영상 복호화 장치 및 방법
JP2011217082A (ja) * 2010-03-31 2011-10-27 Jvc Kenwood Corp 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212727B2 (en) * 2000-04-21 2007-05-01 Matsushita Electric Industrial Co., Ltd. Trick play method for digital storage medium
US20030093800A1 (en) * 2001-09-12 2003-05-15 Jason Demas Command packets for personal video recorder
US7433519B2 (en) * 2003-04-04 2008-10-07 Avid Technology, Inc. Bitstream format for compressed image data
US7839930B2 (en) * 2003-11-13 2010-11-23 Microsoft Corporation Signaling valid entry points in a video stream
CN1848942A (zh) 2005-04-15 2006-10-18 索尼株式会社 编码装置和方法以及解码装置和方法
US20080043832A1 (en) * 2006-08-16 2008-02-21 Microsoft Corporation Techniques for variable resolution encoding and decoding of digital video
JP2008048240A (ja) * 2006-08-18 2008-02-28 Nec Electronics Corp ビットプレーン復号装置およびビットプレーン復号方法
JP4915350B2 (ja) * 2008-01-16 2012-04-11 日本電気株式会社 エントロピ符号化器、映像符号化装置、映像符号化方法および映像符号化プログラム
US8311111B2 (en) 2008-09-11 2012-11-13 Google Inc. System and method for decoding using parallel processing
US9060174B2 (en) * 2010-12-28 2015-06-16 Fish Dive, Inc. Method and system for selectively breaking prediction in video coding
US9215473B2 (en) * 2011-01-26 2015-12-15 Qualcomm Incorporated Sub-slices in video coding
US9325999B2 (en) * 2011-03-10 2016-04-26 Sharp Kabushiki Kaisha Video decoder for slices
US9338465B2 (en) * 2011-06-30 2016-05-10 Sharp Kabushiki Kaisha Context initialization based on decoder picture buffer
US9124895B2 (en) * 2011-11-04 2015-09-01 Qualcomm Incorporated Video coding with network abstraction layer units that include multiple encoded picture partitions
US9077998B2 (en) * 2011-11-04 2015-07-07 Qualcomm Incorporated Padding of segments in coded slice NAL units
WO2013100694A1 (ko) * 2011-12-29 2013-07-04 엘지전자 주식회사 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
US9332259B2 (en) * 2012-01-18 2016-05-03 Qualcomm Incorporated Indication of use of wavefront parallel processing in video coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050078153A (ko) * 2004-01-31 2005-08-04 주식회사 손랩 병렬처리 부호화기 및 그 방법
JP2006319943A (ja) * 2005-04-15 2006-11-24 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びに、プログラム
KR20100052945A (ko) * 2008-11-11 2010-05-20 삼성전자주식회사 슬라이스 단위로 분할된 동영상을 처리하는 동영상 부호화/복호화장치 및 동영상 부호화/복호화방법
KR101038531B1 (ko) * 2009-06-25 2011-06-02 한양대학교 산학협력단 복호화시 병렬처리가 가능한 영상 부호화 장치 및 방법, 그리고 병렬처리가 가능한 영상 복호화 장치 및 방법
JP2011217082A (ja) * 2010-03-31 2011-10-27 Jvc Kenwood Corp 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム

Also Published As

Publication number Publication date
US11711549B2 (en) 2023-07-25
US10356414B2 (en) 2019-07-16
KR102072165B1 (ko) 2020-01-31
CN108600753A (zh) 2018-09-28
CN108322756B (zh) 2020-08-07
CN104041031A (zh) 2014-09-10
KR20140110876A (ko) 2014-09-17
US20140376643A1 (en) 2014-12-25
CN108322751A (zh) 2018-07-24
CN108322751B (zh) 2020-07-21
KR20200110472A (ko) 2020-09-23
US20190200018A1 (en) 2019-06-27
KR102417101B1 (ko) 2022-07-05
US20230319320A1 (en) 2023-10-05
KR102158629B1 (ko) 2020-09-22
KR102657113B1 (ko) 2024-04-15
KR20210144943A (ko) 2021-11-30
US20220191499A1 (en) 2022-06-16
US11240506B2 (en) 2022-02-01
US9883185B2 (en) 2018-01-30
US12028556B2 (en) 2024-07-02
CN108600753B (zh) 2020-10-27
KR102331361B1 (ko) 2021-12-01
KR20220095257A (ko) 2022-07-06
CN104041031B (zh) 2018-04-24
KR20230025037A (ko) 2023-02-21
KR102500639B1 (ko) 2023-02-16
KR20220038184A (ko) 2022-03-25
KR20210041102A (ko) 2021-04-14
US20200351523A1 (en) 2020-11-05
KR102238127B1 (ko) 2021-04-08
CN108337512B (zh) 2020-10-27
KR102375821B1 (ko) 2022-03-16
CN108322756A (zh) 2018-07-24
US20180131939A1 (en) 2018-05-10
CN108337512A (zh) 2018-07-27
US10742985B2 (en) 2020-08-11
KR20200013793A (ko) 2020-02-07

Similar Documents

Publication Publication Date Title
KR102072165B1 (ko) 비디오 인코딩 및 디코딩 방법과 이를 이용하는 장치
KR102545727B1 (ko) 비디오 인코딩 방법, 비디오 디코딩 방법 및 이를 이용하는 장치
KR102489001B1 (ko) 비디오 인코딩 방법, 비디오 디코딩 방법 및 이를 이용하는 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12864013

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20147017291

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14369063

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12864013

Country of ref document: EP

Kind code of ref document: A1