[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2014050971A1 - イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体 - Google Patents

イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2014050971A1
WO2014050971A1 PCT/JP2013/076073 JP2013076073W WO2014050971A1 WO 2014050971 A1 WO2014050971 A1 WO 2014050971A1 JP 2013076073 W JP2013076073 W JP 2013076073W WO 2014050971 A1 WO2014050971 A1 WO 2014050971A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
intra
signal
intra prediction
determination
Prior art date
Application number
PCT/JP2013/076073
Other languages
English (en)
French (fr)
Inventor
翔平 松尾
誠明 松村
藤井 寛
誠之 高村
清水 淳
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to CN201380050227.0A priority Critical patent/CN104838650B/zh
Priority to EP13842796.8A priority patent/EP2890130A4/en
Priority to KR1020157006343A priority patent/KR101650532B1/ko
Priority to JP2014538589A priority patent/JP5841670B2/ja
Priority to US14/430,851 priority patent/US9813709B2/en
Publication of WO2014050971A1 publication Critical patent/WO2014050971A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • the present invention relates to encoding and decoding of an image signal, and more particularly to a technique for encoding or decoding an image signal using intra prediction (intra prediction).
  • intra prediction intra prediction
  • Inter-frame predictive coding is a method for compressing information by using temporal correlation in a moving image.
  • a typical example is inter-frame prediction using motion compensation.
  • intra-frame prediction encoding is, for example, H.264.
  • H.264 / AVC is a technique for generating a prediction signal using decoded pixels around a block to be encoded, that is, a technique for compressing information using correlation within a frame.
  • JPEG which is an international standard compression system for still images
  • MPEG-2 which is an international standard compression system for moving images
  • DCT Discrete Cosine Transform
  • JPEG2000 which is a successor to JPEG
  • DWT Discrete Wavelet Transform
  • FIG. 20 is a diagram illustrating a prediction mode of 4 ⁇ 4 blocks.
  • M pixel values are used for prediction of the pixels N0, N1, N2, and N3.
  • a prediction signal is generated according to the prediction direction from the decoded pixels.
  • FIG. 21 is a diagram illustrating a prediction mode of 16 ⁇ 16 blocks. As shown in FIG. 20 and FIG.
  • H.264 / AVC intra prediction coding there are two types of prediction sizes, nine types of prediction modes (prediction mode 0 to prediction mode 8) in 4 ⁇ 4 blocks, and four types of prediction modes (prediction in 16 ⁇ 16 blocks). Mode 0 to prediction mode 3) are prepared.
  • FREXT which is an H.264 / AVC extended standard, adds an 8 ⁇ 8 prediction size, and has nine types of prediction modes with the same definition as 4 ⁇ 4.
  • FIG. 22, FIG. 23, and FIG. 24 are diagrams showing the relationship between the prediction mode and the prediction number. According to the prediction modes defined in FIGS. 22, 23, and 24, a prediction image is generated, and the residual signal is encoded through transformation and quantization. Similarly, in the case of decoding, a prediction signal is generated from a decoded pixel using the decoded prediction mode number, and is added to the decoded prediction residual signal to obtain a decoded signal.
  • HEVC HEVC
  • encoding is performed in units of blocks called coding units (Coding Units: CU) instead of MB units, and the largest unit is called Largest Coding Unit (LCU).
  • CU coding units
  • LCU Largest Coding Unit
  • HM HEVC reference software
  • a size of 64 ⁇ 64 is usually set.
  • the 64 ⁇ 64 LCU is divided into 8 ⁇ 8 CUs as a minimum unit on a quadtree basis.
  • Each CU is divided into a block that performs prediction called a prediction unit (Prediction Unit: PU) and a block that performs transformation called a transform unit (Transform Unit: TU).
  • PU and TU are defined independently in the CU.
  • PUs and TUs are basically divided on a quadtree basis like CUs, but there are tools that apply divisions other than squares.
  • a tool that allows non-square partitioning of PU is called Asymmetric ⁇ Motion Partition (AMP), and a tool that allows non-square partitioning of TU is called Non-Square Quadtree Transform (NSQT).
  • AMP Asymmetric ⁇ Motion Partition
  • NQT Non-Square Quadtree Transform
  • FIG. 25 is a diagram showing the definition of each processing unit in HEVC.
  • H. In H.264 / AVC encoding is performed in 16 ⁇ 16 blocks.
  • encoding is performed in units of larger blocks, such as 64 ⁇ 64 blocks. Encoding, prediction, and conversion processing at a larger size as described above greatly contributes to improvement of encoding efficiency particularly at high resolution.
  • FIG. 26 is a diagram illustrating a correspondence relationship between an intra prediction mode number and an intra prediction mode in an HEVC prediction unit (common to all block sizes). The correspondence between the prediction mode number and the prediction mode is as shown in FIG.
  • FIG. 27 and FIG. 28 are diagrams illustrating the correspondence relationship between the angular prediction mode and the angle. The difference in the prediction direction is as shown in FIGS. H. H.264 / AVC has 8 directions (FIG. 27), while HEVC has 33 directions (FIG. 28).
  • the angle (intraPredAngle) corresponding to the prediction mode number defined in FIG.
  • FIG. 29 is a diagram illustrating a correspondence relationship between the prediction mode and the angle.
  • FIG. 30 is a diagram illustrating the correspondence between prediction modes and parameters.
  • Reference pixel array ref [x] (x 0...
  • NT-1) An index (iIdx) and a multiplier parameter (iFact) are defined below.
  • iIdx ((y + 1) ⁇ intraPredAngle) >> 5
  • iFact ((y + 1) ⁇ intraPredAngle) & 31
  • the following processing is performed according to the value of iFact.
  • predSamples [x] [y] ((32 ⁇ iFact) ⁇ ref [x + iIdx + 1] + iFact ⁇ ref [x + iIdx + 2] +16) >> 5
  • predSamples [x] [y] ref [x + iIdx + 1] (C)
  • predSamples [x] [y] Clip1Y (p [x] [-1] + ((p [-1] [y] -p [-1] [-1]) >> 1))
  • predSamples [x] [y] ((32 ⁇ iFact) ⁇ ref [y + iIdx + 1] + iFact ⁇ ref [y + iIdx + 2] +16) >> 5
  • predSamples [x] [y] ref [y + iIdx + 1] (C)
  • predSamples [x] [y] Clip1Y (p [-1] [y] + ((p [x] [-1] -p [-1] [-1]) >> 1)
  • Non-Patent Document 1 Non-Patent Document 2
  • Non-Patent Document 3 Non-Patent Document 3.
  • Non-Patent Document 3 Since the number of prediction directions increases with respect to H.264 / AVC, the coding efficiency is improved. However, since the prediction block size is expanded in HEVC, particularly in a large block size, it is far from the decoded reference pixel. The method shown in Non-Patent Document 3 is not optimal for generating a certain prediction signal. In general, in the case of intra prediction, since the distance of the reference pixel is close and the number of usable pixels is large in the upper left of the block, the prediction residual energy tends to decrease. Conversely, as the block moves to the lower right, the distance of the reference pixel also increases. The predicted residual energy tends to increase due to the increasing relationship.
  • the present invention has been made in view of such circumstances, and an intra prediction encoding method capable of improving subjective image quality and encoding efficiency by using a decoded pixel closer in intra prediction processing,
  • An object is to provide an intra prediction decoding method, an intra prediction encoding device, an intra prediction decoding device, a program thereof, and a recording medium on which the program is recorded.
  • the present invention relates to intra prediction for generating a prediction signal within the same screen, a step of setting a reference pixel signal from a decoded pixel signal, a step of acquiring prediction mode identification information for identifying an intra prediction mode, and the reference pixel A reference pixel in which a distance between a pixel to be predicted and a reference pixel is closer in a step of generating a prediction signal based on the signal and the prediction mode identification information, and in the intra prediction mode specified by the prediction mode identification information And a step of making a determination for correcting the prediction signal, and a step of correcting the generated prediction signal according to the result of the determination.
  • predetermined correction information is read, and a correction range of a pixel to be predicted is determined based on the intra prediction mode.
  • predetermined correction information is read, and a weighting factor indicating a correction ratio of the prediction target pixel is determined based on the intra prediction mode.
  • a number for specifying the correction information is encoded and transmitted to the decoding side.
  • the correction range of the prediction target pixel is determined from a parameter indicating the shape of the function defined with the decoded pixel adjacent to the upper left of the prediction target block as the origin.
  • a parameter indicating the shape of the function is encoded and transmitted to the decoding side.
  • the present invention relates to intra prediction for generating a prediction signal within the same screen, a step of setting a reference pixel signal from a decoded pixel signal, a step of acquiring prediction mode identification information for identifying an intra prediction mode, and the reference pixel A reference pixel in which a distance between a pixel to be predicted and a reference pixel is closer in a step of generating a prediction signal based on the signal and the prediction mode identification information, and in the intra prediction mode specified by the prediction mode identification information And a step of making a determination for correcting the prediction signal, and a step of correcting the generated prediction signal according to the result of the determination.
  • predetermined correction information is read, and a correction range of a pixel to be predicted is determined based on the intra prediction mode.
  • predetermined correction information is read, and a weighting factor indicating a correction ratio of the prediction target pixel is determined based on the intra prediction mode.
  • a number for specifying the correction information is decoded and the correction information is restored.
  • the correction range of the prediction target pixel is determined from a parameter indicating the shape of the function defined with the decoded pixel adjacent to the upper left of the prediction target block as the origin.
  • the shape of the function is restored on the decoding side by decoding a parameter indicating the shape of the encoded function.
  • the present invention provides means for setting a reference pixel signal from a decoded pixel signal in intra prediction for generating a prediction signal within the same screen, means for acquiring prediction mode identification information for identifying an intra prediction mode, and the reference pixel A reference pixel having a closer distance between a pixel to be predicted and a reference pixel in the intra prediction mode specified by the prediction mode identification information and means for generating a prediction signal based on the signal and the prediction mode identification information And means for making a determination for correcting the prediction signal, and means for correcting the generated prediction signal according to the result of the determination.
  • the means for performing the determination reads predetermined correction information and determines a correction range of a pixel to be predicted based on the intra prediction mode.
  • the means for performing the determination reads predetermined correction information and determines a weighting factor indicating a correction ratio of the prediction target pixel based on the intra prediction mode.
  • the means for performing the determination encodes a number for specifying the correction information and transmits it to the decoding side.
  • the means for performing the determination determines a correction range of a prediction target pixel from a parameter indicating a shape of a function defined with a decoded pixel adjacent to the upper left of the prediction target block as an origin.
  • the means for performing the determination encodes a parameter indicating the shape of the function and transmits it to the decoding side.
  • the present invention provides means for setting a reference pixel signal from a decoded pixel signal in intra prediction for generating a prediction signal within the same screen, means for acquiring prediction mode identification information for identifying an intra prediction mode, and the reference pixel A reference pixel having a closer distance between a pixel to be predicted and a reference pixel in the intra prediction mode specified by the prediction mode identification information and means for generating a prediction signal based on the signal and the prediction mode identification information And means for making a determination for correcting the prediction signal, and means for correcting the generated prediction signal according to the result of the determination.
  • the means for performing the determination reads predetermined correction information and determines a correction range of a pixel to be predicted based on the intra prediction mode.
  • the means for performing the determination reads predetermined correction information and determines a weighting factor indicating a correction ratio of the prediction target pixel based on the intra prediction mode.
  • the means for performing the determination decodes a number for specifying the correction information and restores the correction information.
  • the means for performing the determination determines a correction range of a prediction target pixel from a parameter indicating a shape of a function defined with a decoded pixel adjacent to the upper left of the prediction target block as an origin.
  • the means for performing the determination restores the shape of the function on the decoding side by decoding the parameter indicating the shape of the encoded function.
  • the present invention is an intra prediction encoding program for causing a computer to execute the intra prediction encoding method.
  • the present invention is an intra prediction decoding program for causing a computer to execute the intra prediction decoding method.
  • the present invention is a computer-readable recording medium on which the intra prediction encoding program is recorded.
  • the present invention is a computer-readable recording medium on which the intra prediction decoding program is recorded.
  • the prediction residual energy can be reduced by using the decoded reference pixels closer to each other for the prediction signal generation in the intra prediction, and the subjective image quality and the encoding efficiency are improved. The effect that it can be obtained.
  • FIG. 3 is a block diagram illustrating a configuration example of an intra prediction processing unit 101 and an intra prediction processing unit 202 illustrated in FIGS. 1 and 2. It is a flowchart which shows the operation
  • FIG. 13 It is a block diagram which shows the structure of the intra estimated signal production
  • H. 2 is an explanatory diagram illustrating a relationship between a prediction mode of H.264 / AVC and a prediction number.
  • H. 2 is an explanatory diagram illustrating a relationship between a prediction mode of H.264 / AVC and a prediction number.
  • H. 2 is an explanatory diagram illustrating a relationship between a prediction mode of H.264 / AVC and a prediction number. It is a figure which shows the definition of each processing unit in HEVC. It is a figure which shows the correspondence of the intra prediction mode number and intra prediction mode in the prediction unit (all block sizes common) of HEVC.
  • FIG. 1 is a block diagram showing a configuration of an image encoding device according to the embodiment.
  • the image encoding device 100 receives an input video signal to be encoded, divides each frame of the input video signal into a plurality of blocks, encodes each block, and outputs a bit stream of the encoding result as an encoded stream To do.
  • the image includes a still image, a moving image, and a video.
  • the image encoding device 100 includes an intra prediction processing unit 101, an inter prediction processing unit 102, a prediction residual signal generation unit 103, a transform processing unit 104, a quantization processing unit 105, and an inverse quantization processing unit.
  • 106 an inverse transformation processing unit 107, a decoded signal generation unit 108, a frame memory 109, a deblocking filter processing unit 110, an inter prediction information storage unit 111, an intra prediction information storage unit 112, and an entropy encoding processing unit 113.
  • the intra prediction processing unit 101 has a characteristic configuration.
  • the other functional units are H.264. This is equivalent to a functional unit included in a general image encoding device used as an encoder such as H.264 / AVC.
  • an in-loop filter that removes coding noise called sample adaptive offset (Sample Adaptive Offset: SAO) or adaptive loop filter (Adaptive Loop Filter: ALF) is applied in addition to the deblocking filter.
  • SAO Sample Adaptive Offset
  • ALF adaptive Loop Filter
  • in-loop filter processing units other than the deblocking filter may be inserted before and after the deblocking filter processing unit 110.
  • the intra prediction processing unit 101 receives an input video signal and generates a prediction signal based on the input video signal. Also, the intra prediction processing unit 101 generates intra prediction information including a prediction mode based on the input video signal, and stores the generated intra prediction information in the intra prediction information storage unit 112 for storage.
  • the inter prediction processing unit 102 inputs the input video signal and the reference image output from the deblocking filter processing unit 110.
  • the inter prediction processing unit 102 generates a prediction signal based on the input video signal and the reference image. Further, the inter prediction processing unit 102 generates inter prediction information including a motion vector based on the input video signal and the reference signal, and stores the generated inter prediction information in the inter prediction information storage unit 111 for storage.
  • the prediction residual signal generation unit 103 calculates the difference between the input video signal and the prediction signal output from the intra prediction processing unit 101 or the inter prediction processing unit 102.
  • the prediction residual signal generation unit 103 outputs the calculated difference to the conversion processing unit 104 as a prediction residual signal.
  • the transformation processing unit 104 performs orthogonal transformation such as discrete cosine transformation (DCT) on the prediction residual signal input from the prediction residual signal generation unit 103.
  • the transform processing unit 104 outputs the transform coefficient obtained by the orthogonal transform to the quantization processing unit 105.
  • DCT discrete cosine transformation
  • the quantization processing unit 105 quantizes the transform coefficient input from the transform processing unit 104, and outputs the quantized transform coefficient to the inverse quantization processing unit 106 and the entropy coding processing unit 113.
  • the inverse quantization processing unit 106 performs inverse quantization on the transform coefficient input from the quantization processing unit 105 and outputs the result to the inverse transform processing unit 107.
  • the inverse transform processing unit 107 performs inverse orthogonal transform on the transform coefficient input from the inverse quantization processing unit 106.
  • the inverse transform processing unit 107 outputs the prediction residual decoded signal obtained by the inverse orthogonal transform to the decoded signal generating unit 108.
  • the decoded signal generation unit 108 adds the prediction residual decoded signal input from the inverse transform processing unit 107 and the prediction signal output from the intra prediction processing unit 101 or the inter prediction processing unit 102.
  • the decoded signal generation unit 108 stores the addition result in the frame memory 109 as a decoded signal of an encoding target block obtained by encoding the addition result. This decoded signal is used as a reference image in the intra prediction processing unit 101 or the inter prediction processing unit 102.
  • the frame memory 109 stores the decoded signal generated and output by the decoded signal generation unit 108.
  • the deblocking filter processing unit 110 reads the decoded signal stored in the frame memory 109 and performs deblocking filter processing on the read decoded signal.
  • the deblocking filter processing unit 110 outputs the image after the deblocking filter processing to the inter prediction processing unit 102 as a reference image.
  • the inter prediction information storage unit 111 stores the inter prediction information generated by the inter prediction processing unit 102.
  • the intra prediction information storage unit 112 stores the intra prediction information generated by the intra prediction processing unit 101.
  • the entropy encoding processing unit 113 includes the transform coefficient quantized by the quantization processing unit 105, the inter prediction information stored in the inter prediction information storage unit 111, and the intra stored in the intra prediction information storage unit 112.
  • the prediction information is entropy encoded and output as an encoded stream.
  • the image encoding apparatus 100 includes the above-described functional units, and is obtained by dividing each frame of the input video signal into a plurality of blocks, performing block-based predictive encoding, and encoding the input video signal. Output the encoded stream.
  • FIG. 2 is a block diagram showing a configuration of the image decoding apparatus 200 in the first embodiment.
  • the image decoding apparatus 200 receives an encoded stream that is encoded and output by the image encoding apparatus 100 shown in FIG. 1, and outputs a decoded video signal that is a decoded image by decoding the encoded stream. .
  • the image decoding apparatus 200 includes an entropy decoding processing unit 201, an intra prediction processing unit 202, an inter prediction processing unit 203, an inverse quantization processing unit 204, an inverse transformation processing unit 205, a decoded signal generation unit 206, A frame memory 207, a deblocking filter processing unit 208, an inter prediction information storage unit 209, and an intra prediction information storage unit 210 are provided.
  • the intra prediction processing unit 202 has a characteristic configuration.
  • the other functional units are H.264. This is equivalent to a functional unit included in a general image decoding device used as a decoder such as H.264 / AVC.
  • the entropy decoding processing unit 201 inputs an encoded stream, entropy-decodes the quantized transform coefficient of the decoding target block from the input encoded stream, and entropy-decodes intra prediction information related to intra prediction and inter prediction information related to inter prediction. To do.
  • the entropy decoding processing unit 201 outputs the quantized transform coefficient to the inverse quantization processing unit 204, stores the inter prediction information in the inter prediction information storage unit 209, and stores the intra prediction information in the intra prediction information storage unit. It memorize
  • the intra prediction processing unit 202 reads the decoded signal stored in the frame memory 207 as a reference image.
  • the intra prediction processing unit 202 reads the intra prediction information from the intra prediction information storage unit 210. Then, the intra prediction processing unit 202 generates a prediction signal based on the read reference image and the read intra prediction information.
  • the inter prediction processing unit 203 reads the inter prediction information from the inter prediction information storage unit 209. Then, the inter prediction processing unit 203 generates a prediction signal based on the inter prediction information and the reference image input from the deblocking filter processing unit 208.
  • the inverse quantization processing unit 204 inversely quantizes the quantized transform coefficient input from the entropy decoding processing unit 201 to calculate a decoded transform coefficient, and outputs the calculated decoded transform coefficient to the inverse transform processing unit 205.
  • the inverse transform processing unit 205 performs inverse orthogonal transform on the decoded transform coefficient input from the inverse quantization processing unit 204, calculates a predicted residual decoded signal, and outputs the calculated predicted residual decoded signal to the decoded signal generating unit 206. To do.
  • the decoded signal generation unit 206 adds the prediction residual decoded signal input from the inverse transform processing unit 205 and the prediction signal output from the intra prediction processing unit 202 or the inter prediction processing unit 203.
  • the decoded signal generation unit 206 stores the addition result in the frame memory 207 as a decoded signal of the decoding target block.
  • the frame memory 207 stores the decoded signal calculated by the decoded signal generation unit 206.
  • the deblocking filter processing unit 208 reads out the decoded signal from the frame memory 207, and performs filter processing for reducing the coding distortion on the image indicated by the read out decoded signal.
  • the deblocking filter processing unit 208 outputs the filtered image as a decoded video signal. Further, the deblocking filter processing unit 208 outputs the image after the filter processing to the inter prediction processing unit 203 as a reference image. Similar to the image coding apparatus 100, in-loop filter processing units such as a sample adaptive offset and an adaptive loop filter may be inserted before and after the deblocking filter processing unit 208.
  • the inter prediction information storage unit 209 stores the inter prediction information decoded by the entropy decoding processing unit 201.
  • the intra prediction information storage unit 210 stores the intra prediction information decoded by the entropy decoding processing unit 201.
  • the image decoding apparatus 200 includes the above-described functional units, thereby inputting an encoded stream of video encoded by block-based predictive encoding, decoding the video from the input encoded stream, and decoding video. Output a signal.
  • FIG. 3 is a block diagram illustrating a configuration example of the intra prediction processing unit 101 and the intra prediction processing unit 202 illustrated in FIGS. 1 and 2. Since the intra prediction processing unit 101 and the intra prediction processing unit 202 perform common processing and have the same configuration, the intra prediction processing unit 101 will be described below, and the description of the intra prediction processing unit 202 will be omitted.
  • the intra prediction processing unit 101 includes a block position identification unit 301, a reference pixel generation unit 302, and an intra prediction signal generation unit 303, as shown in FIG.
  • the block position identifying unit 301 identifies the position of a block to be intra-predicted as a processing target.
  • the block position identifying unit 301 receives block position information (spatial coordinates and LCU / CU / PU / TU position) as a position in a frame or a slice to identify a block position, and obtains a reference pixel. To output decoded pixel position information.
  • the reference pixel generation unit 302 inputs the decoded pixel position information output from the block position identification unit 301, the decoded pixel signal, and the intra prediction mode. Based on the decoded pixel position information, the reference pixel generation unit 302 performs storage of reference pixels necessary for prediction signal generation, necessary filter processing, and the like.
  • the reference pixel storage described here means, for example, preparation of the above-mentioned p [x] [y] and generation of the reference pixel array ref [x].
  • the necessary filter processing is a process of applying a smoothing filter of [1, 2, 1] / 4 called intra smoothing to a reference pixel and applying the filtered pixel value to the predicted value, and 2. Each of (A) and (B) above. The filtering process etc.
  • the reference pixel generation unit 302 outputs the decoded pixel signal after various filter processes to the intra prediction signal generation unit 303 as a reference pixel signal for copying to the array of prediction signals.
  • the intra prediction signal generation unit 303 generates and outputs an intra prediction signal based on the reference pixel signal, the decoded pixel signal, and the intra prediction mode input from the reference pixel generation unit 302.
  • the intra prediction processing unit 101 uses the block position identification unit 301, the reference pixel generation unit 302, and the intra prediction signal generation unit 303 based on the block position information, the decoded pixel signal, and the intra prediction mode that are input. Output a prediction signal.
  • FIG. 4 is a flowchart showing the operation of the intra prediction process performed by the intra prediction processing unit 101 shown in FIG.
  • the block position identification unit 301 identifies the position of the block to be intra-predicted as a processing target based on the input block position information according to the procedure described in Non-Patent Document 3 and the like, and is necessary for prediction Information indicating the position of the decoded pixel for pixel generation is output (step S1).
  • the reference pixel generation unit 302 performs a process of storing the decoded pixel signal as an array, a filter process applied to the decoded pixel, and the like (step S2). .
  • the intra prediction signal generation unit 303 generates and outputs an intra prediction signal based on the reference pixel signal output from the reference pixel generation unit 302 and the intra prediction mode and the decoded pixel signal that are separately input (step S3). ).
  • FIG. 5 is a block diagram illustrating a configuration of the intra prediction signal generation unit 303 illustrated in FIG. 3.
  • the intra prediction signal generation unit 303 includes a reference signal setting unit 401, an intra prediction mode storage unit 402, a prediction signal generation unit 403, a block size acquisition unit 404, a correction matrix information storage unit 405, and a prediction signal correction.
  • a determination unit 406 and a prediction signal correction unit 407 are provided.
  • the reference signal setting unit 401 stores all reference pixel values necessary for generating the prediction signal, and sets each value in the reference signal array to be used by the prediction signal generation unit 403.
  • the intra prediction mode storage unit 402 stores the prediction mode of the block, and provides mode information for the reference signal generation unit 403 to copy the reference pixel.
  • the prediction signal generation unit 403 generates a prediction signal in the intra prediction mode according to the reference signal used for generation of the prediction signal given from the reference signal setting unit 401 and the intra prediction mode given from the intra prediction mode storage unit 402. Generate.
  • the block size acquisition unit 404 acquires the size of the target block in the intra prediction.
  • the block size information is provided to the prediction signal correction determination unit 406.
  • the correction matrix information storage unit 405 stores a matrix indicating correction information corresponding to each prediction mode and each block size, and provides the correction matrix information to the prediction signal correction determination unit 406.
  • FIG. 6 is a diagram illustrating an example of the correction matrix information. As shown in FIG. 6, the correction matrix information is information in which pixel positions to be corrected are defined for each mode and block size. In FIG. 6, “1” indicates a correction target pixel, and “0” indicates a pixel that is not the correction target.
  • the prediction signal correction determination unit 406 receives the intra prediction mode information output from the intra prediction mode storage unit 402, the block size information output from the block size acquisition unit 404, and the correction matrix information output from the correction matrix information storage unit 405 as inputs. Correction matrix information corresponding to the prediction mode and the block size is selected for the prediction signal generated in the prediction mode. Then, the prediction signal correction determination unit 406 outputs the selected correction matrix information as correction determination result information.
  • the prediction signal correction unit 407 receives the prediction signal output from the prediction signal generation unit 403, the correction determination result information output from the prediction signal correction determination unit 406, and the decoded pixel signal.
  • the prediction signal correction unit 407 corrects the prediction signal based on the correction determination result information, and outputs the corrected intra prediction signal.
  • the correction determination result indicates that there is no correction, the input prediction signal is output as it is without being changed.
  • FIG. 7 and FIG. 8 are diagrams illustrating an example when the block size is 8 ⁇ 8 and the mode 34 (the mode predicting at 45 ° from the upper right to the lower left) is selected.
  • the conventional configuration employs a signal generation method for copying without changing the value of the reference signal along the prediction direction.
  • the correction determination result information obtained from the prediction signal correction determination unit 406 is the correction matrix information (correction determination result information) illustrated in FIG.
  • the left decoded signal the left reference signal in which the distance between the prediction target pixel and the reference signal is short is used.
  • the correction method in the prediction signal correction unit 407 includes, for example, p (i, j) for the prediction signal after correction, p1 (i, j) for the prediction signal in the prediction mode, and 180 ° opposite direction to the prediction mode.
  • the prediction signal in the prediction mode is p2 (i, j) (where i is the horizontal coordinate in the block and j is the vertical coordinate in the block)
  • the numerical value of each coordinate described in the matrix is It is regarded as a weighting factor w and is generated by the equation (2). Since the weighting coefficient changes for each position of the matrix (the position of the pixel in the block), w (i, j) is used.
  • p (i, j) (1 ⁇ w (i, j)) ⁇ p1 (i, j) + w (i, j) ⁇ p2 (i, j) (2)
  • p2 (i, j) is described as a prediction signal in the prediction mode indicating the direction opposite to the prediction mode by 180 °.
  • the prediction signal is not limited to the prediction mode in the opposite direction of 180 °. If various prediction signals in the Planar prediction mode, the DC prediction mode, and the Angular prediction mode in which the angle is slightly shifted from the opposite direction by 180 ° can be generated from the decoded pixels in a range that can be obtained in the vicinity, the prediction signals are expressed as p2 It can also be applied as (i, j).
  • FIG. 10 shows an example in which the correction matrix information indicates not the correction target pixel but the weight coefficient.
  • the weighting factor is 1024 and the weight is 100%. That is, the prediction signal is corrected using the following equation (2 ′).
  • the weighting coefficient changes for each position of the matrix (the position of the pixel in the block), so it is set to w (i, j).
  • p (i, j) ⁇ w (i, j) ⁇ p1 (i, j) + (1024 ⁇ w (i, j)) ⁇ p2 (i, j) ⁇ / 1024 (2 ′)
  • the correction matrix information is not limited to information indicating the correction range, and may be information for indicating a correction ratio such as a weighting coefficient.
  • correction matrix does not need to be transmitted if a common table is owned by the encoder and decoder in a memory or the like.
  • a plurality of correction matrices are prepared for each prediction mode or for each block size, and the number of the correction matrix that provides the best rate distortion characteristics is encoded and transmitted in frame units, slice units, and block units. You may do it.
  • overhead the amount of code for transmission
  • encoding is performed as compared with the case of not transmitting. Efficiency may improve.
  • the intra-prediction signal generation unit 303 in the present embodiment does not have a block size acquisition unit 404, a correction matrix information storage unit 405, a prediction signal correction determination unit 406, and a prediction signal correction unit 407 in the related art. It is a feature.
  • FIG. 11 is a block diagram showing a configuration of an intra prediction signal generation unit 303 ′ according to the conventional technique.
  • the reference signal setting unit 501, the intra prediction mode storage unit 502, and the prediction signal generation unit 503 have the same functions as the reference signal setting unit 401, the intra prediction mode storage unit 402, and the prediction signal generation unit 403 illustrated in FIG. Have. 11 does not have the block size acquisition unit 404, the correction matrix information storage unit 405, the prediction signal correction determination unit 406, and the prediction signal correction unit 407 in FIG. 5, and the intra prediction signal output from the prediction signal generation unit 503 is corrected. It is output as it is without any changes.
  • FIG. 12 is a flowchart showing an intra prediction signal generation processing operation performed by the intra prediction signal generation unit 303 shown in FIG. 5
  • the prediction signal generation unit 403 When intra prediction signal generation processing is started in the intra prediction signal generation unit 303, the prediction signal generation unit 403 reads the reference signal stored in the reference signal setting unit 401 and performs intra prediction from the intra prediction mode storage unit 402. The mode is read (step S11). Then, the prediction signal generation unit 403 generates a prediction signal corresponding to the intra prediction mode from the two types of read information (step S12).
  • the prediction signal correction determination unit 406 reads the block size input from the block size acquisition unit 404 and the correction matrix information input from the correction matrix information storage unit 405 (step S13), and reads from the intra prediction mode storage unit 402.
  • the correction matrix information necessary for correction is determined and selected together with the intra prediction mode (step S14).
  • the correction matrix information is output to the prediction signal correction unit 407 as correction determination result information.
  • the prediction signal correction unit 407 obtains an additional reference signal using the decoded pixel signal as necessary with respect to the result of the prediction signal correction determination unit 406, and predicts the prediction signal in the direction opposite to the intra prediction mode by 180 °. Is generated, the intra prediction mode prediction signal is corrected using the prediction signal (step S15), and a final prediction signal is output (step S16).
  • FIG. 13 is a block diagram illustrating a configuration of the intra prediction signal generation unit 303 ′′ according to the second embodiment.
  • a reference signal setting unit 601, an intra prediction mode storage unit 602, and a prediction signal generation unit 603 have the same configuration as the reference signal setting unit 401, intra prediction mode storage unit 402, and prediction signal generation unit 403 illustrated in FIG. 5. is there.
  • the correction parameter storage unit 604 holds parameters necessary for correction in a memory or the like.
  • 14 and 15 are diagrams illustrating an example of intra prediction signal correction processing. As shown in FIGS. 14 and 15, correction is performed in the prediction target block when the coordinate of the reference pixel located at the upper left of the prediction target block is the origin, the horizontal direction is positive on the right side, and the vertical direction is lower on the positive side.
  • the range to be determined is determined by the following definition. y ⁇ ⁇ x ... correction target pixel y ⁇ x ... pixel that is not correction target
  • the slope ⁇ at this time is defined as a correction parameter.
  • This correction parameter has a common value between the encoder and the decoder. Separately, it is possible to encode and transmit in sequence units or frame units, and decode and acquire these parameters on the decoding side.
  • the correction parameter storage unit 604 outputs the correction parameter ⁇ to the predicted signal correction determination unit 605.
  • the correction parameter ⁇ may be defined for each block size, or the same value may be used in common with the block size. It can be defined for each prediction mode, or the same value can be used for all prediction modes.
  • the prediction signal correction determination unit 605 receives the intra prediction mode output from the intra prediction mode storage unit 602 and the correction parameter ⁇ output from the correction parameter storage unit 604, and inputs the prediction signal generated in the intra prediction mode. Then, the correction range is determined and output to the prediction signal correction unit 606 as a correction determination result.
  • the prediction signal correction unit 606 receives the prediction signal output from the prediction signal generation unit 603, the correction determination result information output from the prediction signal correction determination unit 605, and the decoded pixel signal.
  • the prediction signal correction unit 606 corrects the prediction signal based on the correction determination result information, and outputs the corrected intra prediction signal.
  • the correction determination result indicates that there is no correction, the input prediction signal is output as it is without being changed.
  • the corrected prediction signal is p (i, j)
  • the prediction signal based on the prediction mode is p1 (i, j)
  • the prediction signal in the prediction mode is p2 (i, j) (i is the horizontal coordinate in the block and j is the vertical coordinate in the block)
  • the weighting factor w for each coordinate is y ⁇ ⁇ x.
  • p (i, j) (1-w) ⁇ p1 (i, j) + w ⁇ p2 (i, j) (3)
  • p2 (i, j) is described as a prediction signal in the prediction mode indicating the direction opposite to the prediction mode by 180 °.
  • the prediction signal is not limited to the prediction mode in the opposite direction of 180 °. If various prediction signals in the Planar prediction mode, the DC prediction mode, and the Angular prediction mode in which the angle is slightly shifted from the opposite direction by 180 ° can be generated from the decoded pixels in a range that can be obtained in the vicinity, the prediction signals are expressed as p2 It can also be applied as (i, j).
  • FIG. 16 is a diagram illustrating an example of preparing a plurality of correction parameters and correcting a prediction signal. For example, when preparing a plurality of correction parameters and correcting the prediction signal, the following (i) to (iv) are performed.
  • p (i, j) p1 (i, j)
  • W 0.05 is substituted in the equation (3).
  • p (i, j) 0.95 * p1 (i, j) + 0.05 * p2 (i, j) (Iii)
  • W 0.1 is substituted in equation (3).
  • p (i, j) 0.9 ⁇ p1 (i, j) + 0.1 ⁇ p2 (i, j) (Iv)
  • W 0.2 is substituted in equation (3).
  • p (i, j) 0.8 ⁇ p1 (i, j) + 0.2 ⁇ p2 (i, j)
  • the weighting coefficient is changed in four areas inside the block, so that a more flexible weighted prediction signal can be generated.
  • Various correction parameters and weighting factors may be defined in common by the encoder and the decoder.
  • the set can be encoded by an encoder, transmitted to a decoder, the set can be decoded and applied by the decoder.
  • the set can be encoded and not transmitted, overhead does not occur, but the same set is applied to all frames, so there is a limit to the improvement in encoding performance.
  • overhead occurs in the unit to be switched (for example, frame unit, slice unit, block unit), but since the prediction signal can be adaptively modified, the encoding performance is higher than when not transmitting Improvement can be expected.
  • FIG. 17 is a flowchart illustrating an intra prediction signal generation processing operation performed by the intra prediction signal generation unit 303 ′′ illustrated in FIG. 13.
  • the prediction signal generation unit 603 When intra prediction signal generation processing is started in the intra prediction signal generation unit 303 ′′, the prediction signal generation unit 603 reads the reference signal stored in the reference signal setting unit 601, and the intra prediction mode storage unit 602 reads the reference signal. The intra prediction mode is read (step S21). The prediction signal generation unit 603 generates a prediction signal corresponding to the intra prediction mode from the two types of read information (step S22).
  • the prediction signal correction determination unit 605 reads the correction parameter input from the correction parameter storage unit 604 (step S23), and is an area necessary for correction together with the intra prediction mode read from the intra prediction mode storage unit 602.
  • the weighting coefficient is determined and determined (step S24).
  • the information is output to the prediction signal correction unit 606 as correction determination result information, and the prediction signal correction unit 606 adds an additional reference signal to the result of the prediction signal correction determination unit 605 using a decoded pixel signal as necessary. Is generated, a prediction signal having a direction opposite to that of the intra prediction mode is generated by 180 °, the intra prediction mode prediction signal is corrected using the prediction signal (step S25), and a final prediction signal is output. (Step S26).
  • the intra prediction processing unit 101 uses an available reference signal that is closer to the generated prediction signal and intra prediction mode in consideration of the distance between the prediction target pixel and the reference signal. If possible, an intra prediction signal that can further reduce the prediction residual energy is generated by incorporating the component of the reference signal. For example, in the prediction mode for predicting from the upper right to the lower left, for the prediction signal generation at a position away from the reference pixel, that is, for the prediction signal generation of the lower left part of the prediction target block, the reference pixel to be used is not the upper right but the decoded pixel at the lower left By using the prediction residual energy can be reduced. As a result, it is possible to generate a flexible prediction signal for each prediction position that could not be handled by the conventional technology. As a result, it is possible to achieve an improvement in coding efficiency by reducing the prediction residual energy.
  • the intra prediction processing units 101 and 202 described in the first and second embodiments, the image encoding device 100 including the intra prediction processing unit 101, and the image decoding device 200 including the intra prediction processing unit 202 are computers. And a software program.
  • FIG. 18 is a diagram illustrating a hardware configuration example of a computer when the image encoding device 100 including the intra prediction processing unit 101 is configured by a computer and a software program.
  • the computer includes a CPU 900, a memory 901, a video signal input unit 902, a program storage device 903, and an encoded stream output unit 905.
  • the CPU 900 executes a program.
  • the memory 901 is a RAM or the like that temporarily stores programs and data accessed by the CPU 900.
  • the video signal input unit 902 inputs an input video signal to be encoded from a device such as a camera that generates a video signal.
  • the video signal input unit 902 may be a storage device that stores an input video signal from a hard disk device or the like.
  • the program storage device 903 stores an image encoding program 904 that is a software program that causes the CPU 900 to execute the encoding process described in the above embodiments.
  • the encoded stream output unit 905 outputs an encoded stream generated when the CPU 900 executes the image encoding program 904 loaded in the memory 901.
  • the encoded stream output unit 905 may output the encoded stream via a network.
  • the encoded stream output unit 905 may be a storage device that stores an encoded stream such as a hard disk device.
  • the CPU 900, the memory 901, the video signal input unit 902, the program storage device 903, and the encoded stream output unit 905 are connected to each other via a bus.
  • FIG. 19 is a diagram illustrating a hardware configuration example of a computer when the image decoding apparatus 200 including the intra prediction processing unit 202 is configured by a computer and a software program.
  • the computer includes a CPU 1000, a memory 1001, an encoded stream input unit 1002, a program storage device 1003, and a decoded video output unit 1005.
  • the CPU 1000 executes the program.
  • the memory 1001 is a RAM that temporarily stores programs and data accessed by the CPU 1000.
  • the encoded stream input unit 1002 inputs, for example, an encoded stream obtained by encoding the input video signal by the image encoding apparatus 100 through the above-described processing.
  • the encoded stream input unit 1002 may be a storage device that stores an encoded stream by a hard disk device or the like.
  • the program storage device 1003 stores an image decoding program 1004 that is a software program that causes the CPU 1000 to execute the decoding processing described in each of the above-described embodiments.
  • the decoded video output unit 1005 outputs the decoded video obtained by decoding the encoded stream to a playback device or the like by the CPU 1000 executing the image decoding program 1004 loaded in the memory 1001.
  • the decoded video output unit 1005 may be a storage device that stores a decoded video signal from a hard disk device or the like.
  • the CPU 1000, the memory 1001, the encoded stream input unit 1002, the program storage device 1003, and the decoded video output unit 1005 are connected to each other via a bus.
  • a program for realizing the function of the intra prediction processing unit in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. Prediction processing ”may be performed.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a WWW system having a homepage providing environment (or display environment).
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
  • RAM volatile memory
  • the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium.
  • the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
  • the program may be for realizing a part of the functions described above. Furthermore, what can implement
  • DESCRIPTION OF SYMBOLS 100 ... Image coding apparatus, 101 ... Intra prediction process part, 102 ... Inter prediction process part, 103 ... Prediction residual signal generation part, 104 ... Transformation process part, 105 ... Quantization process part, 106 ... Inverse quantization process part , 107 ... Inverse transformation processing unit, 108 ... Decoded signal generation unit, 109 ... Frame memory, 110 ... Deblocking filter processing unit, 111 ... Inter prediction information storage unit, 112 ... Intra prediction information storage unit, 113 ... Entropy encoding process , 200 ... image decoding apparatus, 201 ... entropy decoding processing part, 202 ... intra prediction processing part, 203 ... inter prediction processing part, 204 ...
  • Inter prediction information storage unit 210 A Tra prediction information storage unit, 301 ... block position identification unit, 302 ... reference pixel generation unit, 303 ... intra prediction signal generation unit, 401, 501, 601 ... reference signal setting unit, 402, 502, 602 ... intra prediction mode storage unit 403, 503, 603 ... predicted signal generation unit 404 ... block size acquisition unit 405 ... correction matrix information storage unit 406, 605 ... prediction signal correction determination unit 407, 606 ... prediction signal generation unit 604 ... correction parameter Storage unit, 900, 1000 ... CPU, 901, 1001 ...
  • Memory 902 ... Video signal input unit, 903, 1003 ...
  • Program storage device 904 ... Image encoding program, 905 ... Coded stream output unit, 1002 ... Coded stream Input unit, 1004 ... image decoding program, 1005 ... decoded video output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 イントラ予測の処理においてより近い復号済み画素を利用して主観画質、符号化効率を改善することができる画像符号化方法、画像復号方法を提供するために、同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定するステップと、イントラ予測モードを識別する予測モード識別情報を取得するステップと、参照画素信号と予測モード識別情報とに基づいて予測信号を生成するステップと、予測モード識別情報によって特定されるイントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行うステップと、判定の結果に応じて、生成した予測信号を修正するステップとを有する。

Description

イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
 本発明は、画像信号の符号化及び復号に関し、特に画面内予測(イントラ予測)を用いて画像信号を符号化または復号する技術に関する。
 本出願は、日本国への特許出願(特願2012-217888)に基づくものであり、当該日本出願の記載内容は本明細書の一部として取り込まれるものとする。
 動画像(映像)の国際標準圧縮方式H.264/AVCおよび現在策定中の次世代高能率映像符号化HEVC(High Efficiency Video Coding)では、膨大な動画像の情報を効率よく圧縮するために、予測と変換という2種類の処理が施される。予測に関しては、インター予測符号化(フレーム間予測符号化、画面間符号化とも呼ぶ)とイントラ予測符号化(フレーム内予測符号化、画面内符号化とも呼ぶ)の2種類に分けられる。フレーム間予測符号化は、動画像内の時間方向の相関を利用して情報圧縮を図る手法である。動き補償を用いたフレーム間予測がその代表例である。
 一方、フレーム内予測符号化は、例えばH.264/AVCに採用されているような、符号化対象ブロックの周辺にある復号済み画素を用いて予測信号を生成する手法、すなわちフレーム内の相関を用いて情報圧縮を図る手法である。変換に関しては、静止画の国際標準圧縮方式であるJPEG及び動画像の国際標準圧縮方式MPEG-2では、離散コサイン変換(Discrete Cosine Transform:DCT)と呼ばれる手法が採用されている。JPEGの後継規格であるJPEG2000では、離散ウェーブレット変換(Discrete Wavelet Transform:DWT)と呼ばれる手法が採用されている。フレーム間及びフレーム内で予測を行った後、その予測残差信号(予測誤差信号とも呼ぶ)は変換及び量子化を経て、最終的にエントロピー符号化によって2値信号(ビットストリーム)となる。
 H.264/AVCでは、符号化の処理の単位としてマクロブロック(Macroblock、以下、MBとする)が設定され、そのサイズは16×16となっている。図20は、4×4ブロックの予測モードを示す図である。予測モード0の例では、Mの画素値が、画素N0、N1、N2、N3の予測に用いられる。同様に、他のモードについても復号済みの画素から予測方向に従って予測信号が生成される。図21は、16×16ブロックの予測モードを示す図である。図20と図21にそれぞれ示す通り、H.264/AVCのイントラ予測符号化では2種類の予測サイズが存在し、4×4ブロックでは9種類の予測モード(予測モード0~予測モード8)、16×16ブロックでは4種類の予測モード(予測モード0~予測モード3)が用意されている。H.264/AVCの拡張規格であるFREXTでは、これらに加えて8×8の予測サイズが追加されており、その予測モードは4×4と同じ定義の9種類となっている。
 図22、図23、図24は、予測モードと予測番号の関係を示す図である。図22、図23、図24に定義された予測モードにしたがって、予測画像を生成し、その残差信号が変換、量子化を経て、符号化される。復号の場合も同様に、復号された予測モード番号を用いて、復号済みの画素から予測信号を生成し、復号された予測残差信号と足し合わせて、復号信号が得られる。
 一方、HEVCでは、符号化処理の単位はMB単位ではなく、符号化ユニット(Coding Unit:CU)と呼ばれるブロックの単位で符号化が行われ、その最大の単位はLargest Coding Unit(LCU)と呼ばれており、HEVCの参照ソフトウェア(HEVC test Model:HM)では通常64×64のサイズが設定されている。64×64のLCUは、四分木ベースで最小単位として8×8のCUまで分割される。各CUは予測ユニット(Prediction Unit:PU)と呼ばれる予測を実施するブロック、及び変換ユニット(Transform Unit:TU)と呼ばれる変換を実施するブロックに分割される。これらPUとTUは、CU内で独立に定義される。PUとTUは、CUと同様に基本的には四分木ベースで分割されるが、正方形以外の分割を適用するツールも存在する。PUの非正方形分割を許すツールをAsymmetric Motion Partition(AMP)と呼び、TUの非正方形分割を許すツールをNon-Square Quadtree Transform(NSQT)と呼ぶ。
 図25は、これらHEVCにおける各処理ユニットの定義を示す図である。H.264/AVCでは16×16ブロックで符号化が行われていたが、HEVCではそのサイズが例えば64×64ブロックのように、より大きいブロック単位で符号化が行われる特徴がある。前述のような、より大きいサイズでの符号化、予測、変換の処理は、特に高解像度での符号化効率改善に大きく寄与している。
 HEVCにおけるイントラ予測符号化では、H.264/AVCのイントラ予測符号化の性能を改善するため、新しい予測モードなどが追加されている。1つはPlanar予測と呼ばれる予測モードであり、もう1つはより細かい予測方向を実現する予測モード(Angular Prediction)である。図26は、HEVCの予測ユニット(全ブロックサイズ共通)におけるイントラ予測モード番号とイントラ予測モードの対応関係を示す図である。予測モード番号と予測モードの対応関係は図26に示される通りである。図27、図28は、Angular予測モードと角度の対応関係を示す図である。予測方向の差異は図27、図28に示される通りである。H.264/AVCが8方向(図27)であるのに対し、HEVCでは33方向(図28)用意されている。
 Planar予測は、予測信号をpredSmaples[x][y](x,yは予測対象ブロックの座標、一番左上の画素位置がx=0,y=0に相当)、ブロックサイズをnT、参照信号をp[x][y](x,yは参照画素の位置、予測対象ブロックの左上の画素位置がx=0,y=0に相当)とするとき、(1)式で定義される。
predSamples[x][y]=((nT-1-x)×p[-1][y]+(x+1)×p[nT][-1]+(nT-1-y)×p[x][-1]+(y+1)×p[-1][nT]+nT)>>(Log(nT)+1) ・・・(1)
 特に右上(p[nT][-1])と左下(p[-1][nT])に位置する画素を利用して柔軟に予測信号を生成することが可能であり、HEVCのイントラ予測符号化において、選択率が高いという特徴を有する。
 Angular予測は、以下のように予測信号predSmaples[x][y](x,yは予測対象ブロックの座標、一番左上の画素位置がx=0,y=0)を生成する。
(A)予測モード番号が18以上の場合
 1.参照画素の配列ref[x](x=-nT…2×nT、nTはブロックサイズ)
  ref[x]=p[-1+x][-1](x=0…nT)
 図29に定義される予測モード番号に対応する角度(intraPredAngle)が0より小さい場合、そしてかつ(nT×intraPredAngle)>>5が-1より小さい場合:
  ref[x]=p[-1][-1+((x×invAngle+128)>>8)](x=(nT×intraPredAngle)>>5…-1)
 ここでinvAngleの定義は図30に示す通りである。
 図29は、予測モードと角度の対応関係を示す図である。また、図30は、予測モードとパラメータの対応関係を示す図である。
 上記以外の場合:
  ref[x]=p[-1+x][-1](x=nT+1..2×nT)
 2.参照画素の配列ref[x](x=0…nT-1)
 (a)インデックス(iIdx)および乗数パラメータ(iFact)を以下に定義する。
  iIdx=((y+1)×intraPredAngle)>>5
  iFact=((y+1)×intraPredAngle)&31
 (b)iFactの値に応じて、以下の処理を実施する。
  iFactが0以外のとき:
  predSamples[x][y]=((32-iFact)×ref[x+iIdx+1]+iFact×ref[x+iIdx+2]+16)>>5
  iFactが0のとき:
  predSamples[x][y]=ref[x+iIdx+1]
 (c)予測モード番号が26(垂直予測)の場合:(x=0,y=0…nT-1について)
  predSamples[x][y]=Clip1Y(p[x][-1]+((p[-1][y]-p[-1][-1])>>1))
(B)予測モード番号が18未満の場合
 1.参照画素の配列ref[x](x=-nT..2×nT)
  ref[x]=p[-1][-1+x](x=0..nT)
 図29に定義されるintraPredAngleが0より小さい場合、かつ(nT×intraPredAngle)>>5が-1より小さい場合:
  ref[x]=p[-1+((x×invAngle+128)>>8)][-1](x=(nT×intraPredAngle)>>5…-1)
 上記以外の場合:
  ref[x]=p[-1][-1+x](x=nT+1…2×nT)
 2.参照画素の配列ref[x](x=0…nT-1)
 (a)インデックス(iIdx)および乗数パラメータ(iFact)を以下に定義する。
  iIdx=((x+1)×intraPredAngle)>>5
  iFact=((x+1)×intraPredAngle)&31
 (b)iFactの値に応じて、以下の処理を実施する。
 iFactが0以外のとき:
  predSamples[x][y]=((32-iFact)×ref[y+iIdx+1]+iFact×ref[y+iIdx+2]+16)>>5
 iFactが0のとき:
  predSamples[x][y]=ref[y+iIdx+1]
 (c)予測モード番号が10(水平予測)の場合:(x=0…nT-1,y=0について)
  predSamples[x][y]=Clip1Y(p[-1][y]+((p[x][-1]-p[-1][-1])>>1)
 これらの処理により、33方向の細かい予測信号の生成が可能となり、柔軟な予測信号を作成できるため、イントラ予測符号化の性能はH.264/AVCよりも向上している。以上説明した事項は、非特許文献1、非特許文献2及び非特許文献3に詳述されている。
大久保榮(監)、角野眞也、菊池義浩、鈴木輝彦(編)、「改訂三番H.264/AVC教科書」、株式会社インプレスR&D、pp.110-116、2009年 ITU-T Study Group 16-Questions 6/16:"Draft new Corrigendum 1 to H.264 Advanced video coding for generic audiovisual services", pp.116-135, 2005 Benjamin Bross, Woo-Jin Han, Jens-Rainer Ohm, Gary J. Sullivan, Thomas Wiegand, "High efficiency video coding (HEVC) text specification draft 8", JCTVC-J1003_d7.doc, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11, pp.149-162, July 2012
 非特許文献3に記載されているHEVCのイントラ予測では、H.264/AVCに対して予測方向数が増加するので符号化効率が向上しているが、HEVCでは予測ブロックサイズが拡張されているため、特に大きなブロックサイズにおいて、復号済みの参照画素から遠い位置にある予測信号の生成には、非特許文献3に示す方法は最適とはいえない。一般に、イントラ予測の場合、ブロック左上については参照画素の距離も近く利用できる画素数も多いため、予測残差エネルギーが小さくなる傾向があり、逆にブロック右下に移るにつれて、参照画素の距離も大きくなる関係で予測残差エネルギーが大きくなる傾向がある。
 本発明は、このような事情に鑑みてなされたもので、イントラ予測の処理においてより近い復号済み画素を利用して、主観画質と、符号化効率を改善することができるイントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体を提供することを目的とする。
 本発明は、同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定するステップと、イントラ予測モードを識別する予測モード識別情報を取得するステップと、前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成するステップと、前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行うステップと、前記判定の結果に応じて、前記生成した予測信号を修正するステップとを有する。
 本発明は、前記判定を行うステップでは、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行うステップでは、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する。
 本発明は、前記判定を行うステップでは、前記修正情報を特定するための番号を符号化して復号側に伝送する。
 本発明は、前記判定を行うステップでは、予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行うステップでは、前記関数の形状を示すパラメータを符号化して復号側に伝送する。
 本発明は、同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定するステップと、イントラ予測モードを識別する予測モード識別情報を取得するステップと、前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成するステップと、前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行うステップと、前記判定の結果に応じて、前記生成した予測信号を修正するステップとを有する。
 本発明は、前記判定を行うステップでは、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行うステップでは、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する。
 本発明は、前記判定を行うステップでは、前記修正情報を特定するための番号を復号し、前記修正情報を復元する。
 本発明は、前記判定を行うステップでは、予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行うステップでは、符号化された前記関数の形状を示すパラメータを復号することで前記関数の形状を復号側で復元する。
 本発明は、同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定する手段と、イントラ予測モードを識別する予測モード識別情報を取得する手段と、前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成する手段と、前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行う手段と、前記判定の結果に応じて、前記生成した予測信号を修正する手段とを備える。
 本発明は、前記判定を行う手段は、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行う手段は、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する。
 本発明は、前記判定を行う手段は、前記修正情報を特定するための番号を符号化して復号側に伝送する。
 本発明は、前記判定を行う手段は、予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行う手段は、前記関数の形状を示すパラメータを符号化して復号側に伝送する。
 本発明は、同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定する手段と、イントラ予測モードを識別する予測モード識別情報を取得する手段と、前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成する手段と、前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行う手段と、前記判定の結果に応じて、前記生成した予測信号を修正する手段とを備える。
 本発明は、前記判定を行う手段は、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行う手段は、予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する。
 本発明は、前記判定を行う手段は、前記修正情報を特定するための番号を復号し、前記修正情報を復元する。
 本発明は、前記判定を行う手段は、予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する。
 本発明は、前記判定を行う手段は、符号化された前記関数の形状を示すパラメータを復号することで前記関数の形状を復号側で復元する。
 本発明は、コンピュータに、前記イントラ予測符号化方法を実行させるためのイントラ予測符号化プログラムである。
 本発明は、コンピュータに、前記イントラ予測復号方法を実行させるためのイントラ予測復号プログラムである。
 本発明は、前記イントラ予測符号化プログラムを記録したコンピュータ読み取り可能な記録媒体である。
 本発明は、前記イントラ予測復号プログラムを記録したコンピュータ読み取り可能な記録媒体である。
 この発明によれば、イントラ予測において、より距離の近い復号済み参照画素を予測信号生成に利用することにより、予測残差エネルギーを低減させることができ、主観画質、符号化効率の改善を実現することができるという効果が得られる。
本発明の第1の実施形態における画像符号化装置の構成を示すブロック図である。 本発明の第1の実施形態における画像復号装置の構成を示すブロック図である。 図1、図2に示すイントラ予測処理部101及びイントラ予測処理部202の構成例を示すブロック図である。 図3に示すイントラ予測処理部101が行うイントラ予測処理の動作を示すフローチャートである。 図3に示すイントラ予測信号生成部303の構成を示すブロック図である。 修正マトリクス情報の一例を示す説明図である。 ブロックサイズが8×8でモード34(右上から左下に45°で予測するモード)が選択された場合の例を示す図である。 ブロックサイズが8×8でモード34(右上から左下に45°で予測するモード)が選択された場合の例を示す図である。 ブロックサイズが8×8でモード34(右上から左下に45°で予測するモード)が選択された場合の例を示す図である。 修正マトリクス情報の一例を示す説明図である。 従来技術によるイントラ予測信号生成部の構成を示すブロック図である。 図5に示すイントラ予測信号生成部303が行うイントラ予測信号生成処理動作を示すフローチャートである。 本発明の第2の実施形態におけるイントラ予測信号生成部の構成を示すブロック図である。 イントラ予測信号修正処理の一例を示す説明図である。 イントラ予測信号修正処理の一例を示す説明図である。 イントラ予測信号修正処理の一例を示す説明図である。 図13に示すイントラ予測信号生成部303’’が行うイントラ予測信号生成処理動作を示すフローチャートである。 コンピュータとソフトウエアプログラムとによって画像符号化装置を構成する場合のハードウェア構成を示す図である。 コンピュータとソフトウエアプログラムとによって画像復号装置を構成する場合のハードウェア構成を示す図である。 4×4ブロックの予測モードを示す説明図である。 16×16ブロックの予測モードを示す説明図である。 H.264/AVCの予測モードと予測番号の関係を示す説明図である。 H.264/AVCの予測モードと予測番号の関係を示す説明図である。 H.264/AVCの予測モードと予測番号の関係を示す説明図である。 HEVCにおける各処理ユニットの定義を示す図である。 HEVCの予測ユニット(全ブロックサイズ共通)におけるイントラ予測モード番号とイントラ予測モードの対応関係を示す図である。 イントラAngular予測の方向を示す図である。 イントラAngular予測の方向を示す図である。 イントラAngular予測モードと角度の対応関係を示す図である。 イントラAngular予測モードとパラメータinvAngleの対応関係を示す図である。
<第1の実施形態>
 以下、図面を参照して、本発明の第1の実施形態による画像符号化装置及び画像復号装置を説明する。図1は、同実施形態における画像符号化装置の構成を示すブロック図である。画像符号化装置100は、符号化対象の入力映像信号を入力し、入力映像信号の各フレームを複数のブロックに分割してブロックごとに符号化し、符号化結果のビットストリームを符号化ストリームとして出力する。なお、画像とは、静止画像、動画像、映像を含むものである。
 画像符号化装置100は、図1に示すように、イントラ予測処理部101、インター予測処理部102、予測残差信号生成部103、変換処理部104、量子化処理部105、逆量子化処理部106、逆変換処理部107、復号信号生成部108、フレームメモリ109、デブロッキングフィルタ処理部110、インター予測情報格納部111、イントラ予測情報格納部112及びエントロピー符号化処理部113を備えている。
 図1に示す画像符号化装置100においては、イントラ予測処理部101が特徴的な構成である。他の各機能部は、H.264/AVCなどのエンコーダとして用いられている一般的な画像符号化装置が備える機能部と同等である。なお、策定中のHEVCにおいては、デブロッキングフィルタの他にもサンプルアダプティブオフセット(Sample Adaptive Offset:SAO)やアダプティブループフィルタ(Adaptive Loop Filter:ALF)と呼ばれる符号化ノイズを除去するループ内フィルタが適用されているが、デブロッキングフィルタ処理部110の前後に、デブロッキングフィルタ以外のループ内フィルタ処理部を挿入してもよい。
 イントラ予測処理部101は、入力映像信号を入力し、入力映像信号に基づいて予測信号を生成する。また、イントラ予測処理部101は、入力映像信号に基づいて、予測モードなどを含むイントラ予測情報を生成し、生成したイントラ予測情報をイントラ予測情報格納部112に記憶させて格納する。
 インター予測処理部102は、入力映像信号と、デブロッキングフィルタ処理部110から出力する参照画像とを入力する。インター予測処理部102は、入力映像信号と参照画像とに基づいて、予測信号を生成する。また、インター予測処理部102は、入力映像信号と参照信号とに基づいて、動きベクトルを含むインター予測情報を生成し、生成したインター予測情報をインター予測情報格納部111に記憶させて格納する。
 予測残差信号生成部103は、入力映像信号と、イントラ予測処理部101あるいはインター予測処理部102から出力される予測信号との差分を算出する。予測残差信号生成部103は、算出した差分を予測残差信号として変換処理部104に出力する。
 変換処理部104は、予測残差信号生成部103から入力した予測残差信号に対して離散コサイン変換(Discrete Cosine Transform:DCT)等の直交変換を行う。変換処理部104は、直交変換により得られた変換係数を量子化処理部105に出力する。
 量子化処理部105は、変換処理部104から入力した変換係数を量子化し、その量子化された変換係数を逆量子化処理部106とエントロピー符号化処理部113とに出力する。
 逆量子化処理部106は、量子化処理部105から入力した変換係数を逆量子化して逆変換処理部107に出力する。逆変換処理部107は、逆量子化処理部106から入力した変換係数を逆直交変換する。逆変換処理部107は、逆直交変換により得られた予測残差復号信号を復号信号生成部108に出力する。
 復号信号生成部108は、逆変換処理部107から入力した予測残差復号信号と、イントラ予測処理部101あるいはインター予測処理部102が出力する予測信号とを加算する。復号信号生成部108は、加算結果を符号化した符号化対象ブロックの復号信号としてフレームメモリ109に記憶する。この復号信号は、イントラ予測処理部101あるいはインター予測処理部102において参照画像として用いる。
 フレームメモリ109は、復号信号生成部108が生成し出力した復号信号を記憶する。デブロッキングフィルタ処理部110は、フレームメモリ109に記憶されている復号信号を読み出し、読み出した復号信号に対してデブロッキングフィルタ処理を行う。デブロッキングフィルタ処理部110は、デブロッキングフィルタ処理後の画像を参照画像としてインター予測処理部102に出力する。
 インター予測情報格納部111は、インター予測処理部102が生成したインター予測情報を記憶する。イントラ予測情報格納部112は、イントラ予測処理部101が生成したイントラ予測情報を記憶する。
 エントロピー符号化処理部113は、量子化処理部105において量子化された変換係数と、インター予測情報格納部111に格納されているインター予測情報と、イントラ予測情報格納部112に格納されているイントラ予測情報とをエントロピー符号化し、符号化ストリームとして出力する。
 画像符号化装置100は、前述の各機能部を備えることにより、入力映像信号の各フレームを複数のブロックに分割してブロックベースの予測符号化を行い、入力映像信号を符号化して得られた符号化ストリームを出力する。
 図2は、第1の実施形態における画像復号装置200の構成を示すブロック図である。画像復号装置200は、図1に示した画像符号化装置100などにより符号化されて出力される符号化ストリームを入力し、符号化ストリームを復号することにより復号画像である復号映像信号を出力する。
 画像復号装置200は、図2に示すように、エントロピー復号処理部201、イントラ予測処理部202、インター予測処理部203、逆量子化処理部204、逆変換処理部205、復号信号生成部206、フレームメモリ207、デブロッキングフィルタ処理部208、インター予測情報格納部209及びイントラ予測情報格納部210を備えている。
 図2に示す画像復号装置200においては、イントラ予測処理部202が特徴的な構成である。他の各機能部は、H.264/AVCなどのデコーダとして用いられる一般的な画像復号装置が備える機能部と同等である。
 エントロピー復号処理部201は、符号化ストリームを入力し、入力した符号化ストリームから復号対象ブロックの量子化変換係数をエントロピー復号するとともに、イントラ予測に関するイントラ予測情報及びインター予測に関するインター予測情報をエントロピー復号する。また、エントロピー復号処理部201は、量子化変換係数を逆量子化処理部204に出力し、インター予測情報をインター予測情報格納部209に記憶させて格納し、イントラ予測情報をイントラ予測情報格納部210に記憶させて格納する。
 イントラ予測処理部202は、フレームメモリ207に記憶される復号信号を参照画像として読み出す。また、イントラ予測処理部202は、イントラ予測情報格納部210からイントラ予測情報を読み出す。そして、イントラ予測処理部202は、読み出した参照画像と、読み出したイントラ予測情報とに基づいて、予測信号を生成する。
 インター予測処理部203は、インター予測情報格納部209からインター予測情報を読み出す。そして、インター予測処理部203は、インター予測情報と、デブロッキングフィルタ処理部208から入力した参照画像とに基づいて、予測信号を生成する。
 逆量子化処理部204は、エントロピー復号処理部201から入力した量子化変換係数を逆量子化して復号変換係数を算出し、算出した復号変換係数を逆変換処理部205に出力する。
 逆変換処理部205は、逆量子化処理部204から入力した復号変換係数に逆直交変換を施し、予測残差復号信号を算出し、算出した予測残差復号信号を復号信号生成部206に出力する。
 復号信号生成部206は、逆変換処理部205から入力した予測残差復号信号と、イントラ予測処理部202あるいはインター予測処理部203が出力する予測信号とを加算する。そして、復号信号生成部206は、加算結果を復号対象ブロックの復号信号としてフレームメモリ207に記憶させて格納する。フレームメモリ207は、復号信号生成部206が算出した復号信号を記憶する。
 デブロッキングフィルタ処理部208は、フレームメモリ207から復号信号を読み出し、読み出した復号信号により示される画像に対して符号化歪みを低減するフィルタ処理を行う。デブロッキングフィルタ処理部208は、フィルタ処理後の画像を復号映像信号として出力する。また、デブロッキングフィルタ処理部208は、フィルタ処理後の画像を参照画像としてインター予測処理部203に出力する。なお、画像符号化装置100と同様に、サンプルアダプティブオフセットやアダプティブループフィルタなどのループ内フィルタ処理部をデブロッキングフィルタ処理部208の前後に挿入してもよい。
 インター予測情報格納部209は、エントロピー復号処理部201が復号したインター予測情報を格納する。イントラ予測情報格納部210は、エントロピー復号処理部201が復号したイントラ予測情報を格納する。
 画像復号装置200は、前述の各機能部を備えることにより、ブロックベースの予測符号化により符号化された映像の符号化ストリームを入力し、入力された符号化ストリームから映像を復号して復号映像信号を出力する。
 次に、図3を参照して、図1、図2に示すイントラ予測処理部101及びイントラ予測処理部202の構成を説明する。図3は、図1、図2に示すイントラ予測処理部101及びイントラ予測処理部202の構成例を示すブロック図である。イントラ予測処理部101とイントラ予測処理部202とは共通する処理を行い、同じ構成を備えているので、以下では、イントラ予測処理部101を説明し、イントラ予測処理部202の説明を省略する。
 イントラ予測処理部101は、図3に示すように、ブロック位置同定部301、参照画素生成部302及びイントラ予測信号生成部303を備えている。ブロック位置同定部301は、処理対象となるイントラ予測するブロックの位置を同定する。また、ブロック位置同定部301は、ブロックの位置を同定するために、フレームやスライスにおける位置となるブロック位置情報(空間座標やLCU/CU/PU/TUの位置)を入力とし、参照画素を取得するための復号画素位置情報を出力する。
 参照画素生成部302は、ブロック位置同定部301が出力する復号画素位置情報と、復号画素信号と、イントラ予測モードとを入力する。参照画素生成部302は、復号画素位置情報に基づいて、予測信号生成に必要となる参照画素の格納と必要なフィルタ処理などを施す。ここで述べている参照画素の格納は、例えば、前述のp[x][y]の準備や参照画素配列ref[x]の生成を意味する。また、必要なフィルタ処理とは、イントラスムージング(Intra Smoothing)と呼ばれる[1,2,1]/4の平滑化フィルタを参照画素にかけてそのフィルタ後の画素値を予測値に適用する処理、および、前述の(A)、(B)のそれぞれの2.(b)に示す32分割上の位置の比を取るフィルタ処理などを示す。すなわち、予測信号生成に必要とされる復号画素のフィルタ処理は全てこの参照画素生成部302で行う。参照画素生成部302は、各種フィルタ処理後の復号画素信号を予測信号の配列にコピーするための参照画素信号として、イントラ予測信号生成部303に出力する。
 イントラ予測信号生成部303は、参照画素生成部302から入力した参照画素信号、復号画素信号及びイントラ予測モードに基づいて、イントラ予測信号を生成して出力する。
 以上のように、イントラ予測処理部101は、ブロック位置同定部301、参照画素生成部302及びイントラ予測信号生成部303により、入力となるブロック位置情報、復号画素信号、イントラ予測モードに基づき、イントラ予測信号を出力する。
 次に、図4を参照して、図3に示すイントラ予測処理部101の処理動作を説明する。図4は、図3に示すイントラ予測処理部101が行うイントラ予測処理の動作を示すフローチャートである。ブロック位置同定部301は、非特許文献3等に記載されている手順に従い、入力されたブロック位置情報に基づいて、処理対象となるイントラ予測するブロックの位置を同定し、予測に必要となる参照画素の生成のための復号画素の位置を示す情報を出力する(ステップS1)。
 次に、参照画素生成部302は、ブロック位置同定部301が出力する復号画素位置情報に基づいて、復号画素信号を配列として格納する処理や復号画素に施すフィルタ処理などを実施する(ステップS2)。続いて、イントラ予測信号生成部303は、参照画素生成部302が出力する参照画素信号と、別途入力するイントラ予測モードと復号画素信号に基づいて、イントラ予測信号を生成して出力する(ステップS3)。
 次に、図5を参照して、図3に示すイントラ予測信号生成部303の構成を説明する。図5は、図3に示すイントラ予測信号生成部303の構成を示すブロック図である。イントラ予測信号生成部303は、図5に示すように、参照信号設定部401、イントラ予測モード保存部402、予測信号生成部403、ブロックサイズ取得部404、修正マトリクス情報記憶部405、予測信号修正判定部406及び予測信号修正部407を備えている。
 参照信号設定部401は、予測信号を生成する際に必要となる参照画素の値を全て記憶し、予測信号生成部403で利用するための参照信号の配列に各値を設定する。イントラ予測モード保存部402は、当該ブロックの予測モードを保存し、予測信号生成部403において参照画素のコピーを行うためのモード情報を提供する。
 予測信号生成部403は、参照信号設定部401から与えられる予測信号の生成に用いるための参照信号と、イントラ予測モード保存部402から与えられるイントラ予測モードに従い、当該イントラ予測モードでの予測信号を生成する。ブロックサイズ取得部404は、当該イントラ予測で対象となっているブロックのサイズを取得する。このブロックサイズの情報は、予測信号修正判定部406へ提供する。
 修正マトリクス情報記憶部405は、各予測モード、各ブロックサイズに対応する修正情報を示すマトリクスを記憶し、その修正マトリクス情報を予測信号修正判定部406へ提供する。図6は、修正マトリクス情報の一例を示す図である。図6に示すように、修正マトリクス情報は、モードとブロックサイズ毎に、修正する対象となる画素位置が定義された情報である。図6において、「1」は、修正対象画素を示し、「0」は、修正対象外の画素を示している。
 予測信号修正判定部406は、イントラ予測モード保存部402から出力するイントラ予測モード情報、ブロックサイズ取得部404から出力するブロックサイズ情報及び修正マトリクス情報記憶部405から出力する修正マトリクス情報を入力として、当該予測モードにて生成された予測信号に対して、当該予測モード及び当該ブロックサイズに対応する修正マトリクス情報を選択する。そして、予測信号修正判定部406は、選択した修正マトリクス情報を修正判定結果情報として出力する。
 予測信号修正部407は、予測信号生成部403が出力する予測信号と、予測信号修正判定部406が出力する修正判定結果情報と、復号画素信号とを入力する。予測信号修正部407は、修正判定結果情報に基づいて、予測信号を修正し、その修正済のイントラ予測信号を出力する。ここで、修正判定結果が修正なしとなっていれば、変更など加えずに入力された予測信号をそのまま出力する。
 図7および図8は、ブロックサイズが8×8でモード34(右上から左下に45°で予測するモード)が選択された場合の例を示す図である。図7に示すように、従来の構成では予測方向に沿って参照信号の値を変えずにコピーする信号生成方法となっている。これに対し、図8に示す本実施形態による予測では、予測信号修正判定部406から得られる修正判定結果情報が図9に示される修正マトリクス情報(修正判定結果情報)である場合、予測対象ブロックの左下の部分については、左側の復号済み画素、予測対象の画素と参照信号の距離が近い左側の参照信号を利用する。
 予測信号修正部407での修正方法は、例えば、修正後の予測信号をp(i,j)、当該予測モードによる予測信号をp1(i,j)、当該予測モードの180°反対方向を示す予測モードによる予測信号をp2(i,j)とするとき(以上、iはブロック内の水平方向座標、jはブロック内の垂直方向座標とする)、マトリクスに記載されている各座標の数値を重み係数wとみなして、(2)式で生成する。重み係数はマトリクスの位置(ブロック内の画素の位置)ごとに変わるため、w(i,j)とした。
 p(i,j)=(1-w(i,j))×p1(i,j)+w(i,j)×p2(i,j) ・・・(2)
 ここで、p2(i,j)は当該予測モードの180°反対方向を示す予測モードによる予測信号と記述したが、その180°反対方向の予測モードに限定されず、例えば、符号化対象ブロックの周辺で取得可能な範囲の復号済み画素から、Planar予測モード、DC予測モード、180°反対方向から少し角度をずらしたAngular予測モードの各種予測信号が生成可能であれば、それらの予測信号をp2(i,j)として適用することもできる。
 また、修正マトリクス情報について、修正対象画素ではなく、重み係数を示す場合の例を図10に示す。重み係数は1024で100%の重みとする場合の例である。すなわち、以下の(2’)式を用いて、予測信号の修正を実施する。(2)式同様、重み係数はマトリクスの位置(ブロック内の画素の位置)ごとに変わるため、w(i,j)とした。
 p(i,j)={w(i,j)×p1(i,j)+(1024-w(i,j))×p2(i,j)}/1024 ・・・(2’)
 (2)式の場合、修正した予測信号はブロック内部で性質が急激に変化するため、高周波が発生し、予測誤差エネルギーをうまく低減できない可能性がある。それに対し、(2’)式を用いる場合、なだらかに予測信号を修正することができるので、予測誤差エネルギーをうまく低減し、さらなる符号化効率の向上が見込める。このように、修正マトリクス情報は修正範囲を示すものに限らず、重み係数のように修正の割合を示すための情報としてもよい。
 なお、修正マトリクスは符号化器と復号器で共通のテーブルをメモリなどに所有しておけば、伝送する必要はない。各予測モードごと、ないしは各ブロックサイズ毎に修正マトリクスを複数用意しておき、その中でレート歪み特性を最良にする修正マトリクスの番号を、フレーム単位、スライス単位、ブロック単位で符号化して伝送するようにしてもよい。修正マトリクスを示す番号を伝送する場合、切り替える単位でオーバーヘッド(伝送するための符号量)が発生することになるが、最適な修正マトリクスを適応的に選択できるため、伝送しない場合に比べて符号化効率が改善する場合もある。
 本実施形態におけるイントラ予測信号生成部303は、ブロックサイズ取得部404、修正マトリクス情報記憶部405、予測信号修正判定部406と予測信号修正部407を有している点が、従来技術にはない特徴である。
 図11は、従来技術によるイントラ予測信号生成部303’の構成を示すブロック図である。参照信号設定部501と、イントラ予測モード保存部502と、予測信号生成部503はそれぞれ図5に示す参照信号設定部401と、イントラ予測モード保存部402と、予測信号生成部403と同じ機能を有する。図11では、図5におけるブロックサイズ取得部404、修正マトリクス情報記憶部405、予測信号修正判定部406と予測信号修正部407を持たず、予測信号生成部503から出力されるイントラ予測信号は修正など変更を加えず、そのまま出力される。
 次に、図12を参照して、図5に示すイントラ予測信号生成部303の動作を説明する。図12は、図5に示すイントラ予測信号生成部303が行うイントラ予測信号生成処理動作を示すフローチャートである。
 イントラ予測信号生成部303において、イントラ予測信号生成処理が開始されると、予測信号生成部403は、参照信号設定部401に記憶されている参照信号を読み出し、イントラ予測モード保存部402からイントラ予測モードを読み出す(ステップS11)。そして、予測信号生成部403は、この読み出した2種の情報から、当該イントラ予測モードに対応する予測信号を生成する(ステップS12)。
 次に、予測信号修正判定部406は、ブロックサイズ取得部404から入力したブロックサイズと、修正マトリクス情報記憶部405から入力した修正マトリクス情報を読み込み(ステップS13)、イントラ予測モード保存部402から読み込んだイントラ予測モードと合わせて修正に必要となる修正マトリクス情報を判定して選択する(ステップS14)。その修正マトリクス情報は修正判定結果情報として予測信号修正部407へ出力する。予測信号修正部407は、予測信号修正判定部406の結果に対して、必要に応じて復号画素信号を用いて追加の参照信号を取得して、当該イントラ予測モードと180°反対方向の予測信号を生成し、その予測信号を用いて、当該イントラ予測モード予測信号を修正して(ステップS15)、最終的な予測信号を出力する(ステップS16)。
 <第2の実施形態>
 次に、本発明の第2の実施形態による画像符号化装置及び画像復号装置を説明する。第2の実施形態は、イントラ予測信号生成部303のみが第1の実施形態と異なり、それ以外の部分については同じ構成と処理動作となるため、その説明を省略する。図13は、第2の実施形態におけるイントラ予測信号生成部303’’の構成を示すブロック図である。図13において、参照信号設定部601、イントラ予測モード保存部602及び予測信号生成部603は、図5に示す参照信号設定部401、イントラ予測モード保存部402及び予測信号生成部403と同じ構成である。
 修正パラメータ記憶部604は、修正に必要となるパラメータをメモリなどに保持する。図14、図15は、イントラ予測信号修正処理の例を示す図である。図14、図15に示すように、予測対象ブロックの左上に位置する参照画素の座標を原点として、水平方向は右側を正、垂直方向は下側を正とするとき、予測対象ブロック内で修正をする範囲を以下の定義で決定する。
 y≧αx ・・・ 修正対象画素
 y<αx ・・・ 修正対象でない画素
 このときの傾きαを修正パラメータと定義する。この修正パラメータは符号化器と復号器で共通の値を有しておく。別途、シーケンス単位やフレーム単位で符号化して伝送し、復号側でこのパラメータを復号して取得することも可能である。修正パラメータ記憶部604は、修正パラメータαを予測信号修正判定部605へ出力する。修正パラメータαはブロックサイズごとに定義してもよいし、ブロックサイズ共通で同一の値を用いてもよい。予測モードごとに定義することもできるし、同一の値を全予測モードに用いることもできる。
 予測信号修正判定部605は、イントラ予測モード保存部602から出力するイントラ予測モードと、修正パラメータ記憶部604から出力する修正パラメータαを入力として、当該イントラ予測モードにて生成された予測信号に対して、修正範囲を決定し、修正判定結果として予測信号修正部606へ出力する。
 予測信号修正部606は、予測信号生成部603が出力する予測信号と、予測信号修正判定部605が出力する修正判定結果情報と、復号画素信号とを入力する。予測信号修正部606は、修正判定結果情報に基づいて、予測信号を修正して、その修正済イントラ予測信号を出力する。ここで、修正判定結果が修正なしとなっていれば、変更など加えずに入力された予測信号をそのまま出力する。
 予測信号修正部606での修正方法は、例えば、修正後の予測信号をp(i,j)、当該予測モードによる予測信号をp1(i,j)、当該予測モードの180°反対方向を示す予測モードによる予測信号をp2(i,j)とするとき(以上、iはブロック内の水平方向座標、jはブロック内の垂直方向座標とする)、各座標に対する重み係数wを、y≧αxならばw=0、y<αxならばw=1のように定義して、(3)式で生成する。
 p(i,j)=(1-w)×p1(i,j)+w×p2(i,j) ・・・(3)
 ここで、p2(i,j)は当該予測モードの180°反対方向を示す予測モードによる予測信号と記述したが、その180°反対方向の予測モードに限定されず、例えば、符号化対象ブロックの周辺で取得可能な範囲の復号済み画素から、Planar予測モード、DC予測モード、180°反対方向から少し角度をずらしたAngular予測モードの各種予測信号が生成可能であれば、それらの予測信号をp2(i,j)として適用することもできる。
 修正パラメータを1つと仮定した場合の説明をしてきたが、修正パラメータをα1、α2、・・・、αn(n≧2)のように複数の修正パラメータを用意して、予測信号を修正することも可能である。図16は、複数の修正パラメータを用意して、予測信号を修正する例を示す図である。例えば、複数の修正パラメータを用意して、予測信号を修正する場合、以下の(i)~(iv)のように行う。
(i)y<xの場合は、(3)式においてW=0を代入する。
 p(i,j)=p1(i,j)
(ii)y≧xかつy<2xの場合は、(3)式においてW=0.05を代入する。
 p(i,j)=0.95×p1(i,j)+0.05×p2(i,j)
(iii)y≧2xかつy<4xの場合は、(3)式においてW=0.1を代入する。
 p(i,j)=0.9×p1(i,j)+0.1×p2(i,j)
(iv)y≧4の場合は、(3)式においてW=0.2を代入する。
 p(i,j)=0.8×p1(i,j)+0.2×p2(i,j)
 図16に示す例では、3種類の修正パラメータを導入し、ブロック内部で4つの領域で重み係数を変更し、より柔軟な重み付き予測信号を生成可能としている。各種修正パラメータと重み係数は、符号化器と復号器で共通に定義してもよい。ないしは、そのセットを符号化器で符号化し、復号器に伝送し、そのセットを復号して復号器で適用することもできる。符号化して伝送しない場合は、オーバーヘッドが発生しないものの、全フレームに対して同じセットを適用するため、符号化性能向上には限りがある。逆に符号化して伝送する場合、切り替える単位(例えば、フレーム単位、スライス単位、ブロック単位)でオーバーヘッドが発生するが、適応的に予測信号の修正ができるため、伝送しない場合よりも高い符号化性能向上が見込める。
 以上の説明では、修正する境界の線を1次関数(y=αx)としているが、2次関数(y=αx)、指数関数(y=αe)、対数関数(y=αlogx)を用いることも可能である。また、オフセット項βを定義して、y=αx+β、y=αx+β、y=αe+β、y=αlogxのように境界を設定して、オフセットβも修正パラメータに含めてよい。すなわち、境界線の形状を示すためのパラメータ群は全て修正パラメータとする。
 次に、図17を参照して、図13に示すイントラ予測信号生成部303’’の動作を説明する。図17は、図13に示すイントラ予測信号生成部303’’が行うイントラ予測信号生成処理動作を示すフローチャートである。
 イントラ予測信号生成部303’’において、イントラ予測信号生成処理が開始されると、予測信号生成部603は、参照信号設定部601に記憶されている参照信号を読み出し、イントラ予測モード保存部602からイントラ予測モードを読み出す(ステップS21)。予測信号生成部603は、この読み出した2種の情報から、当該イントラ予測モードに対応する予測信号を生成する(ステップS22)。
 次に、予測信号修正判定部605は、修正パラメータ記憶部604から入力した修正パラメータを読み込み(ステップS23)、イントラ予測モード保存部602から読み込んだイントラ予測モードと合わせて、修正に必要となる領域と重み係数を判定して決定する(ステップS24)。その情報は修正判定結果情報として予測信号修正部606へ出力し、予測信号修正部606は、予測信号修正判定部605の結果に対して、必要に応じて復号画素信号を用いて追加の参照信号を取得して、当該イントラ予測モードと180°反対方向の予測信号を生成し、その予測信号を用いて、当該イントラ予測モード予測信号を修正して(ステップS25)、最終的な予測信号を出力する(ステップS26)。
 以上説明したように、イントラ予測処理部101は、生成された予測信号とイントラ予測モードに対して、予測対象画素と参照信号の距離を考慮して、より距離の近い利用可能な参照信号を用いることが可能な場合、その参照信号の成分を取り入れることで、より予測残差エネルギーを低減できるイントラ予測信号を生成する。例えば、右上から左下を予測する予測モードにおいて、参照画素から離れた位置にある予測信号、すなわち予測対象ブロックの左下部分の予測信号生成について、利用する参照画素は右上でなく、左下の復号済み画素を用いることで、予測残差エネルギーを低減できる。これにより、従来技術では対応できなかった予測位置ごとに柔軟な予測信号の生成を行うことが可能となる。この結果、予測残差エネルギー低減による符号化効率向上を達成することができる。
 以上、第1及び第2の実施形態において説明したイントラ予測処理部101、202と、イントラ予測処理部101を備える画像符号化装置100と、イントラ予測処理部202を備える画像復号装置200は、コンピュータとソフトウエアプログラムとを用いて実現することができる。
 図18は、イントラ予測処理部101を備える画像符号化装置100をコンピュータとソフトウエアプログラムとによって構成する場合におけるコンピュータのハードウェア構成例を示す図である。コンピュータは、CPU900、メモリ901、映像信号入力部902、プログラム記憶装置903及び符号化ストリーム出力部905を備えている。
 CPU900はプログラムを実行する。メモリ901は、CPU900がアクセスするプログラムやデータを一時的に格納するRAMなどである。映像信号入力部902は、映像信号を生成するカメラなどの機器から符号化対象の入力映像信号を入力する。なお、映像信号入力部902は、ハードディスク装置等による入力映像信号を記憶する記憶装置であってもよい。プログラム記憶装置903は、前述の各実施形態において説明した符号化処理をCPU900に実行させるソフトウエアプログラムである画像符号化プログラム904を格納する。符号化ストリーム出力部905は、CPU900がメモリ901にロードされた画像符号化プログラム904を実行することにより生成された符号化ストリームを出力する。符号化ストリーム出力部905は、ネットワークを介して、符号化ストリームを出力するようにしてもよい。また、符号化ストリーム出力部905は、ハードディスク装置等による符号化ストリーム記憶する記憶装置であってもよい。CPU900、メモリ901、映像信号入力部902、プログラム記憶装置903、符号化ストリーム出力部905は、バスを介して互いに接続されている。
 図19は、イントラ予測処理部202を備える画像復号装置200をコンピュータとソフトウエアプログラムとによって構成する場合におけるコンピュータのハードウェア構成例を示す図である。コンピュータは、CPU1000、メモリ1001、符号化ストリーム入力部1002、プログラム記憶装置1003及び復号映像出力部1005を備えている。
 CPU1000はプログラムを実行する。メモリ1001は、CPU1000がアクセスするプログラムやデータを一時的に格納するRAMなどである。符号化ストリーム入力部1002は、例えば、画像符号化装置100が前述の処理により入力映像信号を符号化した符号化ストリームを入力する。なお、符号化ストリーム入力部1002は、ハードディスク装置等による符号化ストリームを記憶する記憶装置であってもよい。プログラム記憶装置1003は、前述の各実施形態において説明した復号処理をCPU1000に実行させるソフトウエアプログラムである画像復号プログラム1004を格納する。復号映像出力部1005は、CPU1000がメモリ1001にロードされた画像復号プログラム1004を実行することにより、符号化ストリームを復号して得られた復号映像を再生装置などに出力する。なお、復号映像出力部1005は、ハードディスク装置等による復号映像信号を記憶する記憶装置であってもよい。CPU1000、メモリ1001、符号化ストリーム入力部1002、プログラム記憶装置1003、復号映像出力部1005は、バスを介して互いに接続されている。
 なお、本発明におけるイントラ予測処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより「イントラ予測処理」を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。更に、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
 以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
 イントラ予測の処理においてより近い復号済み画素を利用して主観画質と、符号化効率を改善することが不可欠な用途に適用できる。
 100…画像符号化装置、101…イントラ予測処理部、102…インター予測処理部、103…予測残差信号生成部、104…変換処理部、105…量子化処理部、106…逆量子化処理部、107…逆変換処理部、108…復号信号生成部、109…フレームメモリ、110…デブロッキングフィルタ処理部、111…インター予測情報格納部、112…イントラ予測情報格納部、113…エントロピー符号化処理部、200…画像復号装置、201…エントロピー復号処理部、202…イントラ予測処理部、203…インター予測処理部、204…逆量子化処理部、205…逆変換処理部、206…復号信号生成部、207…フレームメモリ、208…デブロッキングフィルタ処理部、209…インター予測情報格納部、210…イントラ予測情報格納部、301…ブロック位置同定部、302…参照画素生成部、303…イントラ予測信号生成部、401、501、601…参照信号設定部、402、502、602…イントラ予測モード保存部、403、503、603…予測信号生成部、404…ブロックサイズ取得部、405…修正マトリクス情報記憶部、406、605…予測信号修正判定部、407、606…予測信号生成部、604…修正パラメータ記憶部、900、1000…CPU、901、1001…メモリ、902…映像信号入力部、903、1003…プログラム記憶装置、904…画像符号化プログラム、905…符号化ストリーム出力部、1002…符号化ストリーム入力部、1004…画像復号プログラム、1005…復号映像出力部

Claims (28)

  1.  同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定するステップと、
     イントラ予測モードを識別する予測モード識別情報を取得するステップと、
     前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成するステップと、
     前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行うステップと、
     前記判定の結果に応じて、前記生成した予測信号を修正するステップと
     を有するイントラ予測符号化方法。
  2.  前記判定を行うステップでは、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する請求項1に記載のイントラ予測符号化方法。
  3.  前記判定を行うステップでは、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する請求項1に記載のイントラ予測符号化方法。
  4.  前記判定を行うステップでは、
     前記修正情報を特定するための番号を符号化して復号側に伝送する請求項2または3に記載のイントラ予測符号化方法。
  5.  前記判定を行うステップでは、
     予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する請求項1に記載のイントラ予測符号化方法。
  6.  前記判定を行うステップでは、
     前記関数の形状を示すパラメータを符号化して復号側に伝送する請求項5に記載のイントラ予測符号化方法。
  7.  同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定するステップと、
     イントラ予測モードを識別する予測モード識別情報を取得するステップと、
     前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成するステップと、
     前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行うステップと、
     前記判定の結果に応じて、前記生成した予測信号を修正するステップと
     を有するイントラ予測復号方法。
  8.  前記判定を行うステップでは、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する請求項7に記載のイントラ予測復号方法。
  9.  前記判定を行うステップでは、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する請求項7に記載のイントラ予測復号方法。
  10.  前記判定を行うステップでは、
     前記修正情報を特定するための番号を復号し、前記修正情報を復元する請求項8または9に記載のイントラ予測復号方法。
  11.  前記判定を行うステップでは、
     予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する請求項7に記載のイントラ予測復号方法。
  12.  前記判定を行うステップでは、
     符号化された前記関数の形状を示すパラメータを復号することで前記関数の形状を復号側で復元する請求項11に記載のイントラ予測復号方法。
  13.  同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定する手段と、
     イントラ予測モードを識別する予測モード識別情報を取得する手段と、
     前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成する手段と、
     前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行う手段と、
     前記判定の結果に応じて、前記生成した予測信号を修正する手段と
     を備えるイントラ予測符号化装置。
  14.  前記判定を行う手段は、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する請求項13に記載のイントラ予測符号化装置。
  15.  前記判定を行う手段は、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する請求項13に記載のイントラ予測符号化装置。
  16.  前記判定を行う手段は、
     前記修正情報を特定するための番号を符号化して復号側に伝送する請求項14または15に記載のイントラ予測符号化装置。
  17.  前記判定を行う手段は、
     予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する請求項13に記載のイントラ予測符号化装置。
  18.  前記判定を行う手段は、
     前記関数の形状を示すパラメータを符号化して復号側に伝送する請求項17に記載のイントラ予測符号化装置。
  19.  同一の画面内で予測信号を生成するイントラ予測において、復号画素信号から参照画素信号を設定する手段と、
     イントラ予測モードを識別する予測モード識別情報を取得する手段と、
     前記参照画素信号と前記予測モード識別情報とに基づいて予測信号を生成する手段と、
     前記予測モード識別情報によって特定される前記イントラ予測モードにおいて、予測対象となる画素と参照画素との距離がより近い参照画素を利用して予測信号を修正するための判定を行う手段と、
     前記判定の結果に応じて、前記生成した予測信号を修正する手段と
     を備えるイントラ予測復号装置。
  20.  前記判定を行う手段は、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正範囲を決定する請求項19に記載のイントラ予測復号装置。
  21.  前記判定を行う手段は、
     予め定められた修正情報を読み込み、前記イントラ予測モードに基づき予測対象画素の修正する割合を示す重み係数を決定する請求項19に記載のイントラ予測復号装置。
  22.  前記判定を行う手段は、
     前記修正情報を特定するための番号を復号し、前記修正情報を復元する請求項20または21に記載のイントラ予測復号装置。
  23.  前記判定を行う手段は、
     予測対象のブロックの左上に隣接する復号画素を原点として定義される関数の形状を示すパラメータから予測対象画素の修正範囲を決定する請求項19に記載のイントラ予測復号装置。
  24.  前記判定を行う手段は、
     符号化された前記関数の形状を示すパラメータを復号することで前記関数の形状を復号側で復元する請求項23に記載のイントラ予測復号装置。
  25.  コンピュータに、請求項1から請求項6のいずれか一項に記載のイントラ予測符号化方法を実行させるためのイントラ予測符号化プログラム。
  26.  コンピュータに、請求項7から請求項12のいずれか一項に記載のイントラ予測復号方法を実行させるためのイントラ予測復号プログラム。
  27.  請求項25に記載のイントラ予測符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
  28.  請求項26に記載のイントラ予測復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2013/076073 2012-09-28 2013-09-26 イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体 WO2014050971A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201380050227.0A CN104838650B (zh) 2012-09-28 2013-09-26 帧内预测编码方法、帧内预测解码方法、帧内预测编码装置、帧内预测解码装置以及记录程序的记录介质
EP13842796.8A EP2890130A4 (en) 2012-09-28 2013-09-26 INTRA PREDICTION ENCODING DEVICE AND METHOD, INTRA PREDICTING DECODING DEVICE AND METHOD, ASSOCIATED PROGRAMS, AND RECORDING MEDIA CONTAINING RECORDED PROGRAMS
KR1020157006343A KR101650532B1 (ko) 2012-09-28 2013-09-26 인트라 예측 부호화 방법, 인트라 예측 복호 방법, 인트라 예측 부호화 장치, 인트라 예측 복호 장치, 이들의 프로그램 및 프로그램을 기록한 기록매체
JP2014538589A JP5841670B2 (ja) 2012-09-28 2013-09-26 イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
US14/430,851 US9813709B2 (en) 2012-09-28 2013-09-26 Intra-prediction encoding method, intra-prediction decoding method, intra-prediction encoding apparatus, intra-prediction decoding apparatus, program therefor and recording medium having program recorded thereon

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012217888 2012-09-28
JP2012-217888 2012-09-28

Publications (1)

Publication Number Publication Date
WO2014050971A1 true WO2014050971A1 (ja) 2014-04-03

Family

ID=50388366

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/076073 WO2014050971A1 (ja) 2012-09-28 2013-09-26 イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体

Country Status (6)

Country Link
US (1) US9813709B2 (ja)
EP (1) EP2890130A4 (ja)
JP (2) JP5841670B2 (ja)
KR (1) KR101650532B1 (ja)
CN (1) CN104838650B (ja)
WO (1) WO2014050971A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017068856A1 (ja) * 2015-10-21 2017-04-27 シャープ株式会社 予測画像生成装置、画像復号装置および画像符号化装置
JP2018530246A (ja) * 2015-09-29 2018-10-11 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
JP2018530968A (ja) * 2015-10-13 2018-10-18 ノキア テクノロジーズ オーユー 空間イントラ予測のためのヘルパーデータを用いたビデオ符号化
CN110024386A (zh) * 2016-11-29 2019-07-16 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备、用于存储比特流的记录介质
CN111434109A (zh) * 2017-11-28 2020-07-17 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
JP2020522180A (ja) * 2017-05-29 2020-07-27 オランジュ 少なくとも1つの画像を表すデータストリームを符号化及び復号する方法及びデバイス
JP2020526956A (ja) * 2017-06-30 2020-08-31 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコーディングにおける改善されたイントラ予測
US10834420B2 (en) 2016-04-29 2020-11-10 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding video signal
US12143598B2 (en) 2017-11-28 2024-11-12 Lx Semicon Co., Ltd. Image encoding/decoding, method for an inter-component prediction of a chroma block

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108028927A (zh) * 2015-08-20 2018-05-11 日本放送协会 图像编码装置、图像解码装置、和其程序
ES2677193B1 (es) 2015-08-28 2019-06-19 Kt Corp Procedimiento y dispositivo para procesar señales de vídeo
CN114697679B (zh) * 2015-09-11 2024-11-08 株式会社Kt 图像解码方法、图像编码方法和包括比特流的设备
WO2017065532A1 (ko) * 2015-10-13 2017-04-20 엘지전자(주) 비디오 신호의 인코딩, 디코딩 방법 및 장치
EP3393126A4 (en) * 2016-02-16 2019-04-17 Samsung Electronics Co., Ltd. INTRA PREDICTION METHOD FOR REDUCING INTRA PREDICTION ERRORS AND DEVICE THEREFOR
CN112055204B (zh) * 2016-02-17 2024-05-28 日本放送协会 编码装置、解码装置以及程序
EP4030754A1 (en) * 2016-05-02 2022-07-20 Industry-University Cooperation Foundation Hanyang University Image encoding/decoding method and computer-readable medium
US10645395B2 (en) * 2016-05-25 2020-05-05 Arris Enterprises Llc Weighted angular prediction coding for intra coding
US10944963B2 (en) 2016-05-25 2021-03-09 Arris Enterprises Llc Coding weighted angular prediction for intra coding
MX2018014487A (es) 2016-05-25 2019-08-12 Arris Entpr Llc Prediccion angular ponderada para intra codificacion.
CN109937571B (zh) * 2016-09-05 2022-01-18 Lg电子株式会社 图像编码/解码方法及其装置
WO2018047995A1 (ko) * 2016-09-08 2018-03-15 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US11218726B2 (en) 2016-10-04 2022-01-04 Kt Corporation Method and apparatus for processing video signal
CN110024385B (zh) * 2016-11-29 2023-06-30 成均馆大学校产学协力团 影像编码/解码方法、装置以及对比特流进行存储的记录介质
JP2018107588A (ja) * 2016-12-26 2018-07-05 ルネサスエレクトロニクス株式会社 画像処理装置および半導体装置
GB2584942B (en) * 2016-12-28 2021-09-29 Arris Entpr Llc Improved video bitstream coding
GB2573443B (en) 2016-12-28 2020-04-01 Arris Entpr Llc Adaptive unequal weight planar prediction
FI20175006A1 (en) * 2017-01-03 2019-02-15 Nokia Technologies Oy Video and image coding using wide-angle intra-prediction
US10542264B2 (en) 2017-04-04 2020-01-21 Arris Enterprises Llc Memory reduction implementation for weighted angular prediction
EP3399754A1 (en) * 2017-05-04 2018-11-07 Thomson Licensing Method and apparatus for most probable mode (mpm) reordering for intra prediction
WO2019010267A1 (en) 2017-07-05 2019-01-10 Arris Enterprises Llc POST-FILTERING FOR WEIGHTED ANGULAR PREDICTION
JP2019041165A (ja) 2017-08-23 2019-03-14 富士通株式会社 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム
CN111345042A (zh) 2017-10-09 2020-06-26 艾锐势有限责任公司 自适应不等权重平面预测
WO2019126163A1 (en) 2017-12-18 2019-06-27 Arris Enterprises, Inc. System and method for constructing a plane for planar prediction
CN109996066A (zh) * 2017-12-29 2019-07-09 富士通株式会社 图像编码装置,图像解码装置和电子设备
US10382772B1 (en) * 2018-07-02 2019-08-13 Tencent America LLC Method and apparatus for video coding
WO2020015841A1 (en) * 2018-07-20 2020-01-23 Huawei Technologies Co., Ltd. Method and apparatus of reference sample interpolation for bidirectional intra prediction
WO2020036130A1 (ja) * 2018-08-15 2020-02-20 日本放送協会 イントラ予測装置、画像符号化装置、画像復号装置、及びプログラム
JP7410033B2 (ja) * 2018-08-20 2024-01-09 日本放送協会 符号化装置、復号装置及びプログラム
BR112021003510A2 (pt) 2018-09-19 2021-05-18 Fujitsu Limited aparelho de codificação de vídeo, método de codificação de vídeo, programa de codificação de vídeo, aparelho de decodificação de vídeo, método de decodificação de vídeo e programa de decodificação de vídeo
CN109889852B (zh) * 2019-01-22 2021-11-05 四川大学 一种基于邻近值的hevc帧内编码优化方法
CN110072112B (zh) * 2019-03-12 2023-05-12 浙江大华技术股份有限公司 帧内预测方法、编码器及存储装置
CN109982075B (zh) * 2019-03-21 2022-11-08 南京威翔科技有限公司 一种基于fpga的帧内预测通用角度方法
JP7189854B2 (ja) * 2019-09-19 2022-12-14 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
JP6960969B2 (ja) * 2019-09-20 2021-11-05 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
CN112616057B (zh) 2019-10-04 2024-08-23 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007063808A1 (ja) * 2005-11-30 2007-06-07 Kabushiki Kaisha Toshiba 画像符号化/画像復号化方法及び画像符号化/画像復号化装置
WO2008102805A1 (ja) * 2007-02-23 2008-08-28 Nippon Telegraph And Telephone Corporation 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JP2009284275A (ja) * 2008-05-23 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラムおよびそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
WO2012090286A1 (ja) * 2010-12-27 2012-07-05 株式会社 東芝 動画像符号化方法及び動画像復号化方法
JP2012134869A (ja) * 2010-12-22 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、及び画像復号装置
JP2012217888A (ja) 2011-04-06 2012-11-12 Nippon Steel Materials Co Ltd 非着磁性粒子中の着磁性粒子の捕集方法および捕集装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4050754B2 (ja) * 2005-03-23 2008-02-20 株式会社東芝 ビデオエンコーダ及び動画像信号の符号化方法
WO2008016605A2 (en) 2006-08-02 2008-02-07 Thomson Licensing Adaptive geometric partitioning for video decoding
EP2136564A1 (en) * 2007-01-09 2009-12-23 Kabushiki Kaisha Toshiba Image encoding and decoding method and device
JPWO2009001793A1 (ja) * 2007-06-26 2010-08-26 株式会社東芝 画像符号化と画像復号化の方法及び装置
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
JP5686499B2 (ja) * 2009-01-22 2015-03-18 株式会社Nttドコモ 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
US9258573B2 (en) * 2010-12-07 2016-02-09 Panasonic Intellectual Property Corporation Of America Pixel adaptive intra smoothing
US9930366B2 (en) * 2011-01-28 2018-03-27 Qualcomm Incorporated Pixel level adaptive intra-smoothing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007063808A1 (ja) * 2005-11-30 2007-06-07 Kabushiki Kaisha Toshiba 画像符号化/画像復号化方法及び画像符号化/画像復号化装置
WO2008102805A1 (ja) * 2007-02-23 2008-08-28 Nippon Telegraph And Telephone Corporation 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JP2009284275A (ja) * 2008-05-23 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラムおよびそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012134869A (ja) * 2010-12-22 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、及び画像復号装置
WO2012090286A1 (ja) * 2010-12-27 2012-07-05 株式会社 東芝 動画像符号化方法及び動画像復号化方法
JP2012217888A (ja) 2011-04-06 2012-11-12 Nippon Steel Materials Co Ltd 非着磁性粒子中の着磁性粒子の捕集方法および捕集装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"Draft new Corrigendum 1 to H.264 Advanced video coding for generic audiovisual services", ITU-T STUDY GROUP 16-QUESTIONS 6/16, 2005, pages 116 - 135
BENJAMIN BROSS; WOO-JIN HAN; JENS-RAINER OHM; GARY J. SULLIVAN; THOMAS WIEGAND: "High efficiency video coding (HEVC) text specification draft 8", ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, July 2012 (2012-07-01), pages 149 - 162
SAKAE OKUBO: "Third revision H.264/AVC textbook", 2009, IMPRESS R&D CO. LTD., pages: 110 - 116
See also references of EP2890130A4 *
SHOHEI MATSUO ET AL.: "Intra angular prediction blending", JOINT COLLABORATIVE TEAM ON VIDEO CODING(JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 11TH MEETING, 1 October 2012 (2012-10-01), SHANGHAI, CN, pages 1 - 5, XP030054783 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018530246A (ja) * 2015-09-29 2018-10-11 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
JP2018530968A (ja) * 2015-10-13 2018-10-18 ノキア テクノロジーズ オーユー 空間イントラ予測のためのヘルパーデータを用いたビデオ符号化
WO2017068856A1 (ja) * 2015-10-21 2017-04-27 シャープ株式会社 予測画像生成装置、画像復号装置および画像符号化装置
US12028546B2 (en) 2016-04-29 2024-07-02 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding video signal
US11785244B2 (en) 2016-04-29 2023-10-10 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding video signal
US10834420B2 (en) 2016-04-29 2020-11-10 Intellectual Discovery Co., Ltd. Method and apparatus for encoding/decoding video signal
US11297343B2 (en) 2016-04-29 2022-04-05 Intellectual Discovery Co.. Ltd. Method and apparatus for encoding/decoding video signal
CN110024386A (zh) * 2016-11-29 2019-07-16 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备、用于存储比特流的记录介质
CN110024386B (zh) * 2016-11-29 2023-10-20 韩国电子通信研究院 用于对图像进行编码/解码的方法和设备、用于存储比特流的记录介质
JP7274427B2 (ja) 2017-05-29 2023-05-16 オランジュ 少なくとも1つの画像を表すデータストリームを符号化及び復号する方法及びデバイス
JP2020522180A (ja) * 2017-05-29 2020-07-27 オランジュ 少なくとも1つの画像を表すデータストリームを符号化及び復号する方法及びデバイス
JP7341901B2 (ja) 2017-06-30 2023-09-11 クゥアルコム・インコーポレイテッド ビデオコーディングにおける改善されたイントラ予測
JP2020526956A (ja) * 2017-06-30 2020-08-31 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコーディングにおける改善されたイントラ予測
CN111434109A (zh) * 2017-11-28 2020-07-17 韩国电子通信研究院 图像编码/解码方法和装置以及存储有比特流的记录介质
US12143598B2 (en) 2017-11-28 2024-11-12 Lx Semicon Co., Ltd. Image encoding/decoding, method for an inter-component prediction of a chroma block

Also Published As

Publication number Publication date
EP2890130A4 (en) 2016-04-20
CN104838650A (zh) 2015-08-12
JP5841670B2 (ja) 2016-01-13
CN104838650B (zh) 2018-03-30
KR20150042268A (ko) 2015-04-20
JP6053220B2 (ja) 2016-12-27
US20150245021A1 (en) 2015-08-27
JPWO2014050971A1 (ja) 2016-08-22
EP2890130A1 (en) 2015-07-01
KR101650532B1 (ko) 2016-08-23
US9813709B2 (en) 2017-11-07
JP2016027756A (ja) 2016-02-18

Similar Documents

Publication Publication Date Title
JP6053220B2 (ja) イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
KR102412271B1 (ko) 인루프 필터링을 적용한 예측 방법을 이용한 영상 부호화/복호화 방법 및 장치
JP7382951B2 (ja) 復元されたビデオデータにデブロッキングフィルタを適用するためのシステム及び方法
JP6158998B2 (ja) 映像復号化装置
EP2755388B1 (en) Method, device, and program for encoding and decoding image
JP6383327B2 (ja) イントラ予測処理装置、イントラ予測処理方法、イントラ予測処理プログラム、画像符号化装置及び画像復号装置
JP2015136172A (ja) 映像復号化装置
KR20130045151A (ko) 복원 블록을 생성하는 방법 및 장치
JP2014131162A (ja) イントラ予測符号化方法、イントラ予測復号方法、イントラ予測符号化装置、イントラ予測復号装置、それらのプログラム並びにプログラムを記録した記録媒体
JP6030989B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、それらのプログラム並びにプログラムを記録した記録媒体
JP5814191B2 (ja) デブロッキング処理方法、デブロッキング処理装置、プログラム、及び記録媒体
JP6357133B2 (ja) イントラ予測処理装置、イントラ予測処理方法、イントラ予測処理プログラム、画像符号化装置及び画像復号装置
JP6396782B2 (ja) デブロッキング処理方法、デブロッキング処理装置、コンピュータプログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13842796

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2014538589

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020157006343

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 14430851

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013842796

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013842796

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE