[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016154395A - Method and apparatus for encoding/decoding video using motion vector of previous block as motion vector for current block - Google Patents

Method and apparatus for encoding/decoding video using motion vector of previous block as motion vector for current block Download PDF

Info

Publication number
JP2016154395A
JP2016154395A JP2016111255A JP2016111255A JP2016154395A JP 2016154395 A JP2016154395 A JP 2016154395A JP 2016111255 A JP2016111255 A JP 2016111255A JP 2016111255 A JP2016111255 A JP 2016111255A JP 2016154395 A JP2016154395 A JP 2016154395A
Authority
JP
Japan
Prior art keywords
motion vector
prediction
current block
unit
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016111255A
Other languages
Japanese (ja)
Inventor
リ,テミー
Tammy Lee
ハン,ウ−ジン
Woo-Jin Han
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016154395A publication Critical patent/JP2016154395A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and an apparatus for decoding video.SOLUTION: An method and apparatus determines a motion vector of a current block on the basis of a motion vector of at least one block encoded/decoded before the current block, and performs predictive coding/decoding of the current block on the basis of one of predictions among a first direction, a second direction, and bi-directions, by the determined current block.SELECTED DRAWING: Figure 16

Description

本発明は、映像を符号化/復号化する方法及び装置に係り、さらに詳細には、インター予測に基づいて映像を符号化/復号化する方法及び装置に関する。   The present invention relates to a method and apparatus for encoding / decoding video, and more particularly, to a method and apparatus for encoding / decoding video based on inter prediction.

MPEG−1、MPEG−2、MPEG−4 H.264/MPEG−4 AVC(Advanced Video coding)などの映像圧縮方式では、映像を符号化するために所定サイズのブロックに分ける。次いで、インター予測またはイントラ予測を用いてそれぞれのブロックを予測符号化する。   MPEG-1, MPEG-2, MPEG-4 In a video compression method such as H.264 / MPEG-4 AVC (Advanced Video Coding), the video is divided into blocks of a predetermined size in order to encode the video. Next, each block is predictively encoded using inter prediction or intra prediction.

インター予測のために、現在ブロックと同一または類似したブロックを少なくとも一つの参照フレームで検索して動きを推正し、動き推定結果で生成された動きベクトルもピクセル値と共に符号化してビットストリームに挿入する。   For inter prediction, search for a block that is the same or similar to the current block using at least one reference frame to estimate the motion, and encode the motion vector generated by the motion estimation result together with the pixel value into the bitstream. To do.

本発明が解決しようとする技術的課題は、少なくとも一つの以前ブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、定められた動きベクトルに基づいて映像を符号化/復号化する方法及び装置を提供することであり、前記方法を行うためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することである。   A technical problem to be solved by the present invention is to determine a motion vector of a current block based on a motion vector of at least one previous block, and to encode / decode a video based on the determined motion vector. And a computer-readable recording medium on which a program for performing the method is recorded.

前記技術的課題を解決するための本発明の一実施形態による、現在ブロック以前に復号化された少なくとも一つのブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、前記定められた動きベクトルを用いて現在ブロックを復号化する方法は、第1方向、第2方向及び双方向のうち前記現在ブロックの復号化に用いられる予測方向についての情報、及び前記現在ブロックのピクセル値についての情報を復号化する段階;前記復号化された予測方向についての情報に基づいて前記現在ブロックの予測方向を定め、前記定められた予測方向の予測を行うための少なくても一つの動きベクトルを定める段階;前記定められた予測方向の予測のための少なくとも一つの動きベクトル、及び前記復号化されたピクセル値情報に基づいて前記現在ブロックを復元する段階;を含み、前記第1方向は、前記現在ピクチャーから先行ピクチャーへの方向であり、前記第2方向は、前記現在ピクチャーから後行ピクチャーへの方向であることを特徴とする。   According to an embodiment of the present invention for solving the technical problem, a motion vector of a current block is determined based on a motion vector of at least one block decoded before the current block, and the determined motion vector is The method of decoding the current block using the first direction, second direction, and bidirectional decoding information about a prediction direction used for decoding the current block and information about a pixel value of the current block Determining a prediction direction of the current block based on information about the decoded prediction direction, and determining at least one motion vector for performing prediction of the determined prediction direction; Based on at least one motion vector for prediction in a predetermined prediction direction and the decoded pixel value information Restoring the current block, wherein the first direction is a direction from the current picture to a preceding picture, and the second direction is a direction from the current picture to a subsequent picture. And

前記技術的課題を解決するための本発明の一実施形態による、現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、前記定められた動きベクトルを用いて現在ブロックを符号化する方法は、前記現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて、現在ブロックの第1方向の動きベクトル及び第2方向の動きベクトルを定める段階;前記第1方向の動きベクトル及び第2方向の動きベクトルに基づいた前記第1方向の予測、前記第2方向の予測及び双方向の予測のうち、前記現在ブロックの符号化に用いられる予測を定める段階;前記予測方向についての情報、及び前記定められた予測に基づいて生成された前記現在ブロックのピクセル値についての情報を符号化する段階;を含み、前記第1方向は、前記現在ピクチャーから先行ピクチャーへの方向であり、前記第2方向は、前記現在ピクチャーから後行ピクチャーへの方向であることを特徴とする。   According to an embodiment of the present invention for solving the technical problem, a motion vector of a current block is determined based on a motion vector of at least one block encoded before the current block, and the determined motion vector is The method of encoding a current block using the method includes: determining a motion vector in a first direction and a motion vector in a second direction of the current block based on a motion vector of at least one block encoded before the current block. A prediction used for encoding the current block among the prediction in the first direction, the prediction in the second direction, and the bidirectional prediction based on the motion vector in the first direction and the motion vector in the second direction; Determining; information about the prediction direction, and a pixel of the current block generated based on the determined prediction. Encoding information about values, wherein the first direction is a direction from the current picture to a preceding picture, and the second direction is a direction from the current picture to a succeeding picture. It is characterized by.

前記技術的課題を解決するための本発明の一実施形態による、現在ブロック以前に復号化された少なくとも一つのブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、前記定められた動きベクトルを用いて現在ブロックを復号化する装置は、第1方向、第2方向及び双方向のうち前記現在ブロックの復号化に用いられる予測方向についての情報、及び前記現在ブロックのピクセル値についての情報を復号化する復号化部;前記復号化された予測方向についての情報に基づいて前記現在ブロックの予測方向を定め、前記定められた予測方向の予測を行うための少なくても一つの動きベクトル決定部;前記定められた予測方向の予測のための少なくとも一つの動きベクトル、及び前記復号化されたピクセル値情報に基づいて前記現在ブロックを復元する復元部;を備え、前記第1方向は、前記現在ピクチャーから先行ピクチャーへの方向であり、前記第2方向は、前記現在ピクチャーから後行ピクチャーへの方向であることを特徴とする。   According to an embodiment of the present invention for solving the technical problem, a motion vector of a current block is determined based on a motion vector of at least one block decoded before the current block, and the determined motion vector is The apparatus for decoding the current block using the information decodes information about a prediction direction used for decoding the current block among the first direction, the second direction, and bidirectional, and information about a pixel value of the current block. A decoding unit configured to determine a prediction direction of the current block based on the information about the decoded prediction direction, and at least one motion vector determination unit for performing prediction of the determined prediction direction; Based on at least one motion vector for prediction in the defined prediction direction and the decoded pixel value information A restoration unit that restores a current block, wherein the first direction is a direction from the current picture to a preceding picture, and the second direction is a direction from the current picture to a subsequent picture. And

前記技術的課題を解決するための本発明の一実施形態による、現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、前記定められた動きベクトルを用いて現在ブロックを符号化する装置は、前記現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて、現在ブロックの第1方向の動きベクトル及び第2方向の動きベクトルを定める動きベクトル決定部;前記第1方向の動きベクトル及び第2方向の動きベクトルに基づいた前記第1方向の予測、前記第2方向の予測及び双方向の予測のうち前記現在ブロックの符号化に用いられる予測を定め、前記予測方向についての情報、及び前記定められた予測に基づいて生成された前記現在ブロックのピクセル値についての情報を符号化する符号化部;を備え、前記第1方向は、前記現在ピクチャーから先行ピクチャーへの方向であり、前記第2方向は、前記現在ピクチャーから前記後行ピクチャーへの方向であることを特徴とする。   According to an embodiment of the present invention for solving the technical problem, a motion vector of a current block is determined based on a motion vector of at least one block encoded before the current block, and the determined motion vector is The apparatus for encoding a current block using the motion determining a motion vector in a first direction and a motion vector in a second direction of the current block based on a motion vector of at least one block encoded before the current block. Vector determining unit; used for encoding the current block among the prediction in the first direction, the prediction in the second direction, and the bidirectional prediction based on the motion vector in the first direction and the motion vector in the second direction Define a prediction, information about the prediction direction, and the current block generated based on the determined prediction An encoding unit that encodes information about a csel value, wherein the first direction is a direction from the current picture to a preceding picture, and the second direction is from the current picture to the succeeding picture. It is a direction.

前記技術的課題を解決するために本発明は、前記映像符号化方法及び/または映像復号化方法を行うためのコンピュータで読み取り可能な記録媒体を提供する。   In order to solve the technical problem, the present invention provides a computer-readable recording medium for performing the video encoding method and / or video decoding method.

本発明によれば、少なくとも一つの以前ブロックの動きベクトルを現在ブロックの動きベクトルとして用いて符号化する符号化モードの発生確率が高くなり、予測の正確度も高くなって、さらに高い圧縮率で映像を符号化/復号化できる。   According to the present invention, the probability of occurrence of a coding mode for coding using the motion vector of at least one previous block as the motion vector of the current block is increased, the prediction accuracy is increased, and the compression rate is further increased. Video can be encoded / decoded.

本発明の一実施形態による映像符号化装置を示す図面である。1 is a diagram illustrating a video encoding apparatus according to an embodiment of the present invention. 本発明の一実施形態による映像復号化装置を示す図面である。1 is a diagram illustrating a video decoding apparatus according to an embodiment of the present invention. 本発明の一実施形態による階層的符号化単位を示す図面である。2 is a diagram illustrating a hierarchical coding unit according to an embodiment of the present invention. 本発明の一実施形態による符号化単位に基づいた映像符号化部を示す図面である。3 is a diagram illustrating a video encoding unit based on a coding unit according to an exemplary embodiment of the present invention. 本発明の一実施形態による符号化単位に基づいた映像復号化部を示す図面である。3 is a diagram illustrating a video decoding unit based on a coding unit according to an exemplary embodiment of the present invention. 本発明の一実施形態による最大符号化単位、サブ符号化単位及び予測単位を示す図面である。3 is a diagram illustrating a maximum coding unit, a sub-coding unit, and a prediction unit according to an embodiment of the present invention. 本発明の一実施形態による符号化単位及び変換単位を示す図面である。3 is a diagram illustrating a coding unit and a conversion unit according to an exemplary embodiment of the present invention. 本発明の一実施形態による符号化単位、予測単位及び周波数変換単位の分割形態を示す図面である。3 is a diagram illustrating a division form of a coding unit, a prediction unit, and a frequency conversion unit according to an embodiment of the present invention. 本発明の一実施形態による符号化単位、予測単位及び周波数変換単位の分割形態を示す図面である。3 is a diagram illustrating a division form of a coding unit, a prediction unit, and a frequency conversion unit according to an embodiment of the present invention. 本発明のさらに他の実施形態による映像符号化装置を示す図面である。6 is a diagram illustrating a video encoding apparatus according to another exemplary embodiment of the present invention. 本発明の一実施形態による双方向予測ピクチャーに含まれたブロックを予測する方法を示す図面である。3 is a diagram illustrating a method for predicting a block included in a bidirectional prediction picture according to an exemplary embodiment of the present invention. 本発明の一実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を示す図面である。6 is a diagram illustrating a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to an exemplary embodiment of the present invention. 本発明の一実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を示す図面である。6 is a diagram illustrating a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to an exemplary embodiment of the present invention. 本発明のさらに他の実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を示す図面である。6 is a diagram illustrating a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to another exemplary embodiment of the present invention. 本発明のさらに他の実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を示す図面である。6 is a diagram illustrating a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to another exemplary embodiment of the present invention. 本発明のさらに他の実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を示す図面である。6 is a diagram illustrating a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to another exemplary embodiment of the present invention. 本発明のさらに他の実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を示す図面である。6 is a diagram illustrating a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to another exemplary embodiment of the present invention. 本発明のさらに他の実施形態による映像復号化装置を示す図面である。6 is a diagram illustrating a video decoding apparatus according to another embodiment of the present invention. 本発明の一実施形態による映像符号化方法を説明するためのフローチャートである。5 is a flowchart for explaining a video encoding method according to an exemplary embodiment of the present invention. 本発明の一実施形態による映像復号化方法を説明するためのフローチャートである。5 is a flowchart for explaining a video decoding method according to an embodiment of the present invention;

以下では、図面を参照して本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態による映像符号化装置を示す図面である。図1を参照すれば、本発明の一実施形態による映像符号化装置100は、最大符号化単位分割部110、符号化深度決定部120、映像データ符号化部130及び符号化情報符号化部140を備える。   FIG. 1 is a diagram illustrating a video encoding apparatus according to an embodiment of the present invention. Referring to FIG. 1, a video encoding apparatus 100 according to an embodiment of the present invention includes a maximum encoding unit division unit 110, an encoding depth determination unit 120, a video data encoding unit 130, and an encoding information encoding unit 140. Is provided.

最大符号化単位分割部110は、最大サイズの符号化単位である最大符号化単位に基づいて現在フレームまたは現在スライスを分割できる。現在フレームまたは現在スライスを、少なくとも一つの最大符号化単位で分割できる。   The maximum coding unit dividing unit 110 can divide a current frame or a current slice based on a maximum coding unit that is a coding unit of the maximum size. The current frame or current slice can be divided by at least one maximum coding unit.

本発明の一実施形態によれば、最大符号化単位及び深度を用いて符号化単位が表現される。前述したように、最大符号化単位は、現在フレームの符号化単位のうちサイズの最も大きい符号化単位を示し、深度は、符号化単位が階層的に縮小した程度を示す。深度が大きくなりつつ、符号化単位は、最大符号化単位から最小符号化単位まで縮小し、最大符号化単位の深度は、最小深度と定義され、最小符号化単位の深度は、最大深度と定義される。最大符号化単位は、深度が大きくなるにつれて深度別符号化単位のサイズは減少するので、k深度のサブ符号化単位は、kより大きい深度の複数のサブ符号化単位を含む。   According to an embodiment of the present invention, a coding unit is represented using a maximum coding unit and a depth. As described above, the maximum coding unit indicates a coding unit having the largest size among the coding units of the current frame, and the depth indicates a degree to which the coding unit is hierarchically reduced. As the depth increases, the coding unit shrinks from the largest coding unit to the smallest coding unit, the depth of the largest coding unit is defined as the minimum depth, and the depth of the smallest coding unit is defined as the maximum depth. Is done. Since the maximum coding unit decreases in size as the depth increases, the sub-coding unit of k depth includes a plurality of sub-coding units having a depth larger than k.

符号化されるフレームのサイズが大きくなるにつれて、さらに大きい単位で映像を符号化すれば、さらに高い映像圧縮率で映像を符号化できる。しかし、符号化単位を大きくし、そのサイズを固定させてしまえば、変り続ける映像の特性を反映して效率的に映像を符号化できない。   If the video is encoded in a larger unit as the size of the frame to be encoded increases, the video can be encoded at a higher video compression rate. However, if the encoding unit is increased and the size is fixed, the video cannot be encoded efficiently reflecting the characteristics of the video that keeps changing.

例えば、海または空などの平坦な領域を符号化する時には、符号化単位を大きくするほど圧縮率が向上するが、人間またはビルなどの複雑な領域を符号化する時には、符号化単位を小さくするほど圧縮率が向上する。   For example, when encoding a flat area such as the sea or the sky, the compression rate improves as the encoding unit is increased. However, when encoding a complicated area such as a person or a building, the encoding unit is decreased. The compression rate is improved as the value increases.

このために本発明の一実施形態は、フレームまたはスライス毎に異なるサイズの最大映像符号化単位を設定し、最大深度を設定する。最大深度は、符号化単位が縮小されうる最大回数を意味するので、最大深度によって最大映像符号化単位に含まれた最小符号化単位サイズを可変的に設定可能になる。   To this end, according to an embodiment of the present invention, a maximum video coding unit having a different size is set for each frame or slice, and a maximum depth is set. Since the maximum depth means the maximum number of times that the encoding unit can be reduced, the minimum encoding unit size included in the maximum video encoding unit can be variably set according to the maximum depth.

符号化深度決定部120は、最大深度を定める。最大深度は、R−Dコスト(Rate−Distortion Cost)計算に基づいて定められる。最大深度は、フレームまたはスライス毎に異なって定められるか、またはそれぞれの最大符号化単位ごとに異なって定められる。定められた最大深度は、符号化情報符号化部140に出力され、最大符号化単位別映像データは、映像データ符号化部130に出力される。   The coding depth determination unit 120 determines the maximum depth. The maximum depth is determined based on an RD cost (Rate-Distortion Cost) calculation. The maximum depth is determined differently for each frame or slice, or is determined differently for each maximum coding unit. The determined maximum depth is output to the encoding information encoding unit 140, and the video data by maximum encoding unit is output to the video data encoding unit 130.

最大深度は、最大符号化単位に含まれうる最も小さなサイズの符号化単位、すなわち、最小符号化単位を意味する。言い換えれば、最大符号化単位は、相異なる深度によって相異なるサイズのサブ符号化単位に分割される。図8A及び図8Bを参照して詳細に後述する。また、最大符号化単位に含まれた相異なるサイズのサブ符号化単位は、相異なるサイズの処理単位に基づいて予測または変換される。変換は、空間ドメインのピクセル値を周波数ドメインの係数に変換することであり、離散コサイン変換またはKLT(Karhunen Loever Transform)である。   The maximum depth means the smallest size coding unit that can be included in the maximum coding unit, that is, the smallest coding unit. In other words, the maximum coding unit is divided into sub-coding units of different sizes according to different depths. This will be described in detail later with reference to FIGS. 8A and 8B. Further, sub-coding units having different sizes included in the maximum coding unit are predicted or converted based on processing units having different sizes. The transformation is to transform a spatial domain pixel value into a frequency domain coefficient, and is a discrete cosine transformation or KLT (Karhunen Loever Transform).

言い換えれば、映像符号化装置100は、映像符号化のための複数の処理段階を、多様なサイズ及び多様な形態の処理単位に基づいて行える。映像データの符号化のためには、予測、変換、エントロピー符号化などの処理段階を経るが、すべての段階にわたって同じサイズの処理単位が用いられてもよく、段階別に異なるサイズの処理単位を用いられる。   In other words, the video encoding apparatus 100 can perform a plurality of processing stages for video encoding based on processing units of various sizes and various forms. For video data encoding, processing steps such as prediction, conversion, and entropy encoding are performed, but the processing unit of the same size may be used in all steps, and processing units of different sizes are used for each step. It is done.

例えば、映像符号化装置100は、所定の符号化単位を予測するために、符号化単位と異なる処理単位を選択する。   For example, the video encoding apparatus 100 selects a processing unit different from the encoding unit in order to predict a predetermined encoding unit.

符号化単位のサイズが2N×2N(ただし、Nは正の整数)である場合、予測のための処理単位は、2N×2N、2N×N、N×2N、N×Nなどである。言い換えれば、符号化単位の高さまたは幅のうち少なくとも一つを半分にする形態の処理単位に基づいて動き予測が行われてもよい。以下、予測の基礎になる処理単位は、‘予測単位’という。   When the size of the coding unit is 2N × 2N (where N is a positive integer), the processing units for prediction are 2N × 2N, 2N × N, N × 2N, N × N, and the like. In other words, motion prediction may be performed based on a processing unit that halves at least one of the height or width of the coding unit. Hereinafter, the processing unit that is the basis of the prediction is referred to as 'prediction unit'.

予測モードは、イントラモード、インターモード及びスキップモードのうち少なくとも一つであり、特定予測モードは、特定サイズまたは形態の予測単位に対してのみ行われる。例えば、イントラモードは、正方形である2N×2N、N×Nサイズの予測単位に対してのみ行われる。また、スキップモードは、2N×2Nサイズの予測単位に対してのみ行われる。符号化単位の内部に複数の予測単位があるならば、それぞれの予測単位に対して予測を行って、符号化誤差の最も小さな予測モードが選択される。   The prediction mode is at least one of an intra mode, an inter mode, and a skip mode, and the specific prediction mode is performed only for a prediction unit of a specific size or form. For example, the intra mode is performed only on a 2N × 2N, N × N prediction unit that is a square. Further, the skip mode is performed only for the prediction unit of 2N × 2N size. If there are a plurality of prediction units within the coding unit, prediction is performed for each prediction unit, and the prediction mode with the smallest coding error is selected.

また、映像符号化装置100は、符号化単位と異なるサイズの処理単位に基づいて映像データを変換できる。符号化単位の変換のために、符号化単位より小さいか、または同じサイズのデータ単位に基づいて変換が行われる。以下、変換の基礎になる処理単位を‘変換単位’という。   The video encoding apparatus 100 can convert video data based on a processing unit having a size different from the encoding unit. For the conversion of the coding unit, the conversion is performed based on a data unit that is smaller than the coding unit or has the same size. Hereinafter, a processing unit that is the basis of conversion is referred to as a “conversion unit”.

符号化深度決定部120は、ラグランジュ乗数基盤の率−歪曲最適化技法を用いて、最大符号化単位に含まれたサブ符号化単位を定められる。言い換えれば、最大符号化単位がいかなる形態の複数のサブ符号化単位に分割されるかが定められるが、ここで、複数のサブ符号化単位は、深度によってサイズが異なる。次いで、映像データ符号化部130は、符号化深度決定部120で定められた分割形態に基づいて、最大符号化単位を符号化してビットストリームを出力する。   The coding depth determination unit 120 may determine a sub-coding unit included in the maximum coding unit using a Lagrange multiplier-based rate-distortion optimization technique. In other words, it is determined in what form the plurality of sub-coding units are divided into the maximum coding unit. Here, the plurality of sub-coding units have different sizes depending on the depth. Next, the video data encoding unit 130 encodes the maximum encoding unit based on the division form determined by the encoding depth determination unit 120 and outputs a bitstream.

符号化情報符号化部140は、符号化深度決定部120で定められた最大符号化単位の符号化モードについての情報を符号化する。最大符号化単位の分割形態についての情報、最大深度についての情報及び深度別サブ符号化単位の符号化モードについての情報を符号化して、ビットストリームを出力する。サブ符号化単位の符号化モードについての情報は、サブ符号化単位の予測単位についての情報、予測単位別予測モード情報、サブ符号化単位の変換単位についての情報などを含む。   The encoding information encoding unit 140 encodes information about the encoding mode of the maximum encoding unit determined by the encoding depth determination unit 120. The information about the division form of the maximum coding unit, the information about the maximum depth, and the information about the coding mode of the sub-coding unit by depth are encoded, and a bit stream is output. The information about the coding mode of the sub-coding unit includes information about the prediction unit of the sub-coding unit, prediction mode information for each prediction unit, information about the conversion unit of the sub-coding unit, and the like.

最大符号化単位の分割形態についての情報は、それぞれの符号化単位に対して分割如何を示す情報である。例えば、最大符号化単位を分割して符号化する場合、最大符号化単位に対して分割如何を示す情報を符号化し、最大符号化単位を分割して生成されたサブ符号化単位を再び分割して符号化する場合にも、それぞれのサブ符号化単位に対して分割如何を示す情報を符号化する。分割如何を示す情報は、分割如何を示すフラッグ情報でありうる。   The information about the division form of the maximum coding unit is information indicating how to divide each coding unit. For example, when encoding by dividing the maximum coding unit, information indicating whether the maximum coding unit is divided is encoded, and the sub-coding unit generated by dividing the maximum coding unit is divided again. Even when encoding is performed, information indicating whether each sub-coding unit is divided is encoded. The information indicating the division may be flag information indicating the division.

最大符号化単位ごとに異なるサイズのサブ符号化単位が存在し、それぞれのサブ符号化単位ごとに符号化モードに関する情報が定められねばならないので、一つの最大符号化単位に対しては、少なくとも一つの符号化モードに関する情報が定められる。   There are sub-coding units of different sizes for each maximum coding unit, and information about the coding mode must be determined for each sub-coding unit. Therefore, at least one sub-coding unit is required for one maximum coding unit. Information about one coding mode is defined.

映像符号化装置100は、深度が大きくなるにつれて、最大符号化単位の高さ及び幅を半分にしてサブ符号化単位を生成できる。すなわち、k深度の符号化単位のサイズが2N×2Nならば、k+1深度の符号化単位のサイズはN×Nである。   The video encoding apparatus 100 can generate a sub-encoding unit by halving the height and width of the maximum encoding unit as the depth increases. That is, if the size of the k-depth coding unit is 2N × 2N, the size of the k + 1-depth coding unit is N × N.

したがって、一実施形態による映像符号化装置100は、映像の特性を考慮した最大符号化単位のサイズ及び最大深度に基づいて、それぞれの最大符号化単位ごとに最適の分割形態を定められる。映像特性を考慮して可変的に最大符号化単位のサイズを調節し、相異なる深度のサブ符号化単位で最大符号化単位を分割して映像を符号化することで、多様な解像度の映像をさらに效率的に符号化できる。   Therefore, the video encoding apparatus 100 according to an embodiment can determine an optimal division form for each maximum coding unit based on the size and the maximum depth of the maximum coding unit in consideration of video characteristics. By adjusting the size of the maximum coding unit variably in consideration of the video characteristics, and dividing the maximum coding unit by sub-coding units of different depths, the video is encoded, thereby enabling the video of various resolutions to be encoded. It can be encoded more efficiently.

図2は、本発明の一実施形態による映像復号化装置を示す図面である。図2を参照すれば、本発明の一実施形態による映像復号化装置200は、映像データ獲得部210、符号化情報抽出部220及び映像データ復号化部230を備える。   FIG. 2 is a diagram illustrating a video decoding apparatus according to an embodiment of the present invention. Referring to FIG. 2, the video decoding apparatus 200 according to an embodiment of the present invention includes a video data acquisition unit 210, an encoded information extraction unit 220, and a video data decoding unit 230.

映像関連データ獲得部210は、映像復号化装置200が受信したビットストリームをパージングして、最大符号化単位別に映像データを獲得して映像データ復号化部230に出力する。映像データ獲得部210は、現在フレームまたはスライスに対するヘッダーから、現在フレームまたはスライスの最大符号化単位についての情報を抽出する。言い換えれば、ビットストリームを最大符号化単位で分割して、映像データ復号化部230をして最大符号化単位ごとに映像データを復号化させる。   The video related data acquisition unit 210 parses the bitstream received by the video decoding device 200, acquires video data for each maximum coding unit, and outputs the video data to the video data decoding unit 230. The video data acquisition unit 210 extracts information on the maximum coding unit of the current frame or slice from the header for the current frame or slice. In other words, the bit stream is divided by the maximum coding unit, and the video data decoding unit 230 decodes the video data for each maximum coding unit.

符号化情報抽出部220は、映像復号化装置200が受信したビット列をパージングして、現在フレームに対するヘッダーから、最大符号化単位、最大深度、最大符号化単位の分割形態、サブ符号化単位の符号化モードに関する情報を抽出する。分割形態及び符号化モードに関する情報は、映像データ復号化部230に出力される。   The encoding information extraction unit 220 parses the bit sequence received by the video decoding apparatus 200, and from the header for the current frame, the maximum encoding unit, the maximum depth, the division form of the maximum encoding unit, the code of the sub encoding unit Information about the conversion mode. Information regarding the division form and the encoding mode is output to the video data decoding unit 230.

最大符号化単位の分割形態についての情報は、最大符号化単位に含まれた深度によって異なるサイズのサブ符号化単位についての情報を含む。前述したように、分割形態についての情報は、それぞれの符号化単位に対して符号化された分割如何を示す情報(例えば、フラッグ情報)でありうる。符号化モードに関する情報は、サブ符号化単位別予測単位についての情報、予測モードについての情報及び変換単位についての情報などを含む。   The information on the division form of the maximum coding unit includes information on sub-coding units having different sizes depending on the depth included in the maximum coding unit. As described above, the information on the division form may be information (for example, flag information) indicating whether or not the division is performed with respect to each coding unit. The information related to the coding mode includes information about the prediction unit for each sub-coding unit, information about the prediction mode, information about the transform unit, and the like.

映像データ復号化部230は、符号化情報抽出部で抽出された情報に基づいて、それぞれの最大符号化単位の映像データを復号化して現在フレームを復元する。   Based on the information extracted by the encoding information extraction unit, the video data decoding unit 230 decodes the video data of each maximum encoding unit and restores the current frame.

最大符号化単位の分割形態についての情報に基づいて、映像データ復号化部230は、最大符号化単位に含まれたサブ符号化単位を復号化する。復号化過程は、イントラ予測及び動き補償を含むインター予測過程及び逆変換過程を含む。   Based on the information about the division format of the maximum coding unit, the video data decoding unit 230 decodes the sub-coding unit included in the maximum coding unit. The decoding process includes an inter prediction process including intra prediction and motion compensation, and an inverse conversion process.

映像データ復号化部230は、サブ符号化単位の予測のために、サブ符号化単位別予測単位についての情報及び予測モードについての情報に基づいて、イントラ予測またはインター予測を行える。また、映像データ復号化部230は、サブ符号化単位の変換単位についての情報に基づいてサブ符号化単位ごとに逆変換を行える。   The video data decoding unit 230 can perform intra prediction or inter prediction based on the information on the prediction unit for each sub-coding unit and the information on the prediction mode for prediction of the sub-coding unit. In addition, the video data decoding unit 230 can perform inverse conversion for each sub-coding unit based on information about the conversion unit of the sub-coding unit.

図3は、本発明の一実施形態による階層的符号化単位を示す図面である。図3を参照すれば、本発明による階層的符号化単位は、幅×高さが64×64である符号化単位から、32×32、16×16、8x8、4×4を含む。正方形の符号化単位以外にも、幅×高さが64×32、32×64、32×16、16×32、16×8、8×16、8×4、4×8である符号化単位が存在する。   FIG. 3 is a diagram illustrating a hierarchical coding unit according to an embodiment of the present invention. Referring to FIG. 3, the hierarchical coding unit according to the present invention includes 32 × 32, 16 × 16, 8 × 8, 4 × 4 from coding units having a width × height of 64 × 64. In addition to the square encoding unit, the encoding unit has a width × height of 64 × 32, 32 × 64, 32 × 16, 16 × 32, 16 × 8, 8 × 16, 8 × 4, 4 × 8 Exists.

図3を参照すれば、解像度が1920×1080である映像データ310に対して、最大符号化単位のサイズは64×64、最大深度が2に設定されている。   Referring to FIG. 3, for video data 310 with a resolution of 1920 × 1080, the maximum coding unit size is set to 64 × 64 and the maximum depth is set to 2.

さらに他の解像度が1920×1080である映像データ320に対して、最大符号化単位のサイズは64×64、最大深度が4に設定されている。解像度が352×288であるビデオデータ330に対して、最大符号化単位のサイズは16×16、最大深度は2に設定されている。   Furthermore, for video data 320 having a resolution of 1920 × 1080, the maximum coding unit size is set to 64 × 64 and the maximum depth is set to 4. For video data 330 having a resolution of 352 × 288, the size of the maximum coding unit is set to 16 × 16 and the maximum depth is set to 2.

解像度が高いか、またはデータ量が多い場合、圧縮率向上だけでなく映像特性を正確に反映するために、符号化サイズの最大サイズが相対的に大きいことが望ましい。したがって、映像データ330に比べて、解像度の高い映像データ310及び320は、最大符号化単位のサイズが64×64に選択される。   When the resolution is high or the amount of data is large, it is desirable that the maximum encoding size is relatively large in order to accurately reflect the video characteristics as well as the compression rate improvement. Accordingly, the video data 310 and 320 having higher resolution than the video data 330 is selected to have a maximum encoding unit size of 64 × 64.

最大深度は、階層的符号化単位で総階層数を示す。映像データ310の最大深度は2であるので、映像データ310の符号化単位315は、長軸サイズが64である最大符号化単位から、深度の増加につれて長軸サイズが32、16であるサブ符号化単位まで含む。   The maximum depth indicates the total number of layers in a hierarchical coding unit. Since the maximum depth of the video data 310 is 2, the coding unit 315 of the video data 310 is a sub-code whose major axis size is 32 or 16 as the depth increases from the largest coding unit whose major axis size is 64. Includes up to unit.

一方、映像データ330の最大深度は2であるので、映像データ330の符号化単位335は、長軸サイズが16である最大符号化単位から、深度の増加につれて長軸サイズが8、4である符号化単位まで含む。   On the other hand, since the maximum depth of the video data 330 is 2, the encoding unit 335 of the video data 330 has a long axis size of 8 or 4 as the depth increases from the maximum encoding unit whose long axis size is 16. Includes up to coding units.

映像データ320の最大深度は4であるので、ビデオデータ320の符号化単位325は、長軸サイズが64である最大符号化単位から、深度の増加につれて長軸サイズが32、16、8、4であるサブ符号化単位まで含む。深度が増加するほどさらに小さなサブ符号化単位に基づいて映像を符号化するので、さらに細密な場面を含んでいる映像の符号化に適している。   Since the maximum depth of the video data 320 is 4, the coding unit 325 of the video data 320 has a major axis size of 32, 16, 8, 4 as the depth increases from the largest coding unit having a major axis size of 64. Up to sub-coding units. Since the video is encoded on the basis of a smaller sub-encoding unit as the depth increases, it is suitable for encoding an image including a more detailed scene.

図4は、本発明の一実施形態による符号化単位に基づいた映像符号化部を図示する。イントラ予測部410は、現在フレーム405のうちイントラモードの予測単位に対してイントラ予測を行い、動き推定部420及び動き補償部425は、インターモードの予測単位に対して、現在フレーム405及び参照フレーム495を用いてインター予測及び動き補償を行う。   FIG. 4 illustrates a video encoding unit based on a coding unit according to an embodiment of the present invention. The intra prediction unit 410 performs intra prediction on the intra mode prediction unit in the current frame 405, and the motion estimation unit 420 and the motion compensation unit 425 perform the current frame 405 and the reference frame on the inter mode prediction unit. 495 is used to perform inter prediction and motion compensation.

イントラ予測部410、動き推定部420及び動き補償部425から出力された予測単位に基づいてレジデュアル値が生成され、生成されたレジデュアル値は、変換部430及び量子化部440を経て量子化された変換係数に出力される。   Residual values are generated based on the prediction units output from the intra prediction unit 410, the motion estimation unit 420, and the motion compensation unit 425, and the generated residual values are quantized through the transform unit 430 and the quantization unit 440. Is output to the converted conversion factor.

量子化された変換係数は、逆量子化部460、逆変換部470を通じて再びレジデュアル値に復元され、復元されたレジデュアル値は、デブロッキング部480及びループフィルタリング部490を経て後処理されて、参照フレーム495に出力される。量子化された変換係数は、エントロピー符号化部450を経てビットストリーム455に出力される。   The quantized transform coefficient is restored to the residual value again through the inverse quantization unit 460 and the inverse transform unit 470, and the restored residual value is post-processed through the deblocking unit 480 and the loop filtering unit 490. Are output to the reference frame 495. The quantized transform coefficient is output to the bit stream 455 through the entropy encoding unit 450.

本発明の一実施形態による映像符号化方法によって符号化するために、映像符号化部400の構成要素であるイントラ予測部410、動き推定部420、動き補償部425、変換部430、量子化部440、エントロピー符号化部450、逆量子化部460、逆変換部470、デブロッキング部480及びループフィルタリング部490は、いずれも最大符号化単位、深度によるサブ符号化単位、予測単位及び変換単位に基づいて映像符号化過程を処理する。   In order to perform encoding using the video encoding method according to an exemplary embodiment of the present invention, an intra prediction unit 410, a motion estimation unit 420, a motion compensation unit 425, a conversion unit 430, and a quantization unit, which are components of the video encoding unit 400. 440, entropy coding unit 450, inverse quantization unit 460, inverse transform unit 470, deblocking unit 480, and loop filtering unit 490 are all in the maximum coding unit, sub-coding unit by depth, prediction unit, and transform unit. Based on this, the video encoding process is processed.

図5は、本発明の一実施形態による符号化単位に基づいた映像復号化部を示す図面である。   FIG. 5 is a diagram illustrating a video decoding unit based on a coding unit according to an embodiment of the present invention.

ビットストリーム505がパージング部510を経て、復号化対象である符号化された映像データ及び復号化のために必要な符号化情報がパージングされる。符号化された映像データは、エントロピー復号化部520及び逆量子化部530を経て逆量子化されたデータに出力され、逆変換部540を経てレジデュアル値に復元される。レジデュアル値は、イントラ予測部550のイントラ予測の結果、または動き補償部560の動き補償結果と加算されて、符号化単位別に復元される。復元された符号化単位は、デブロッキング部570及びループフィルタリング部580を経て、次の符号化単位または次のフレームの予測に用いられる。   The bit stream 505 passes through the parsing unit 510, and the encoded video data to be decoded and the encoding information necessary for decoding are parsed. The encoded video data is output to the inversely quantized data through the entropy decoding unit 520 and the inverse quantization unit 530, and restored to the residual value through the inverse transform unit 540. The residual value is added to the result of intra prediction by the intra prediction unit 550 or the result of motion compensation from the motion compensation unit 560, and is restored for each coding unit. The restored coding unit is used for prediction of the next coding unit or the next frame through the deblocking unit 570 and the loop filtering unit 580.

本発明の一実施形態による映像復号化方法によって復号化するために、映像復号化部400の構成要素であるパージング部510、エントロピー復号化部520、逆量子化部530、逆変換部540、イントラ予測部550、動き補償部560、デブロッキング部570及びループフィルタリング部580が、いずれも最大符号化単位、深度によるサブ符号化単位、予測単位及び変換単位に基づいて映像復号化過程を処理する。   In order to perform decoding by a video decoding method according to an embodiment of the present invention, a parsing unit 510, an entropy decoding unit 520, an inverse quantization unit 530, an inverse transform unit 540, an intra unit, which are components of the video decoding unit 400, The prediction unit 550, the motion compensation unit 560, the deblocking unit 570, and the loop filtering unit 580 each process the video decoding process based on the maximum coding unit, the sub-coding unit based on the depth, the prediction unit, and the transform unit.

特に、イントラ予測部550、動き補償部560は、最大符号化単位及び深度を考慮してサブ符号化単位内の予測単位及び予測モードを定め、逆変換部540は、変換単位のサイズを考慮して逆変換を行う。   In particular, the intra prediction unit 550 and the motion compensation unit 560 determine the prediction unit and the prediction mode in the sub-coding unit in consideration of the maximum coding unit and the depth, and the inverse transform unit 540 considers the size of the transform unit. Reverse conversion.

図6は、本発明の一実施形態による最大符号化単位、サブ符号化単位及び予測単位を図示する。   FIG. 6 illustrates a maximum coding unit, a sub-coding unit, and a prediction unit according to an embodiment of the present invention.

本発明の一実施形態による映像符号化装置100及び映像復号化装置200は、映像特性を考慮して符号化/復号化を行うために階層的な符号化単位を用いる。最大符号化単位及び最大深度は映像の特性によって適応的に設定されるか、またはユーザのニーズによって多様に設定される。   The video encoding apparatus 100 and the video decoding apparatus 200 according to an embodiment of the present invention use hierarchical encoding units to perform encoding / decoding in consideration of video characteristics. The maximum coding unit and the maximum depth may be adaptively set according to video characteristics or variously set according to user needs.

本発明の一実施形態による符号化単位の階層構造600は、最大符号化単位610の高さ及び幅が64であり、最大深度が4である場合を図示する。符号化単位の階層構造600の縦軸に沿って深度が増加し、深度の増加につれてサブ符号化単位620ないし650の幅及び高さが縮小する。また、符号化単位の階層構造600の横軸に沿って、最大符号化単位610及びサブ符号化単位620ないし650の予測単位が図示されている。   The coding unit hierarchy 600 according to an embodiment of the present invention illustrates the case where the maximum coding unit 610 has a height and width of 64 and a maximum depth of 4. The depth increases along the vertical axis of the coding unit hierarchy 600, and the width and height of the sub-coding units 620 to 650 decrease as the depth increases. In addition, along the horizontal axis of the hierarchical structure 600 of coding units, prediction units of a maximum coding unit 610 and sub-coding units 620 to 650 are illustrated.

最大符号化単位610は、深度が0であり、符号化単位のサイズ、すなわち、幅及び高さが64×64である。縦軸に沿って深度が増加し、サイズ32×32である深度1のサブ符号化単位620、サイズ16×16である深度2のサブ符号化単位630、サイズ8×8である深度3のサブ符号化単位640、サイズ4×4である深度4のサブ符号化単位650が存在する。サイズ4×4である深度4のサブ符号化単位650は、最小符号化単位である。   The maximum coding unit 610 has a depth of 0, and the size of the coding unit, that is, the width and the height are 64 × 64. The depth increases along the vertical axis, the depth 1 sub-encoding unit 620 of size 32 × 32, the depth 2 sub-encoding unit 630 of size 16 × 16, and the depth 3 sub-unit of size 8 × 8. There is a coding unit 640, a depth 4 sub-coding unit 650 of size 4x4. A depth 4 sub-encoding unit 650 having a size of 4 × 4 is a minimum encoding unit.

図6を参照すれば、それぞれの深度別に横軸に沿って予測単位の例示が図示されている。すなわち、深度0の最大符号化単位610の予測単位は、サイズ64×64の符号化単位610と同じか、または小さなサイズであるサイズ64×64の予測単位610、サイズ64×32の予測単位612、サイズ32×64の予測単位614、サイズ32×32の予測単位616である。   Referring to FIG. 6, an example of a prediction unit is illustrated along the horizontal axis for each depth. That is, the prediction unit of the maximum coding unit 610 of depth 0 is the same as or smaller than the size 64 × 64 coding unit 610, the size 64 × 64 prediction unit 610, and the size 64 × 32 prediction unit 612. , A prediction unit 614 having a size of 32 × 64 and a prediction unit 616 having a size of 32 × 32.

深度1のサイズ32×32の符号化単位620の予測単位は、サイズ32×32の符号化単位620と同じか、または小さなサイズであるサイズ32×32の予測単位620、サイズ32×16の予測単位622、サイズ16×32の予測単位624、サイズ16×16の予測単位626である。   The prediction unit of the coding unit 620 with the depth 32 and the size 32 × 32 is the same as or smaller than the coding unit 620 with the size 32 × 32, and the prediction unit 620 with the size 32 × 32 and the prediction with the size 32 × 16. A unit 622, a prediction unit 624 of size 16 × 32, and a prediction unit 626 of size 16 × 16.

深度2のサイズ16×16の符号化単位630の予測単位は、サイズ16×16の符号化単位630と同じか、または小さなサイズであるサイズ16×16の予測単位630、サイズ16×8の予測単位632、サイズ8×16の予測単位634、サイズ8×8の予測単位636である。   The prediction unit of the coding unit 630 of the size 16 × 16 of the depth 2 is the same as or smaller than the coding unit 630 of the size 16 × 16, and the prediction unit 630 of the size 16 × 16 and the prediction of the size 16 × 8. A unit 632, a prediction unit 634 having a size of 8 × 16, and a prediction unit 636 having a size of 8 × 8.

深度3のサイズ8×8の符号化単位640の予測単位は、サイズ8×8の符号化単位640と同じか、または小さなサイズであるサイズ8×8の予測単位640、サイズ8×4の予測単位642、サイズ4×8の予測単位644、サイズ4×4の予測単位646である。   The prediction unit of the size 8 × 8 coding unit 640 at the depth 3 is the same as or smaller than the size 8 × 8 coding unit 640, the size 8 × 8 prediction unit 640, and the size 8 × 4 prediction. A unit 642, a prediction unit 644 of size 4 × 8, and a prediction unit 646 of size 4 × 4.

最後に、深度4のサイズ4×4の符号化単位650は最大深度の符号化単位であり、予測単位は、サイズ4×4の予測単位650である。しかし、最大深度の符号化単位といっても、必ずしも符号化単位と予測単位とのサイズが同じである必要はなく、他の符号化単位610ないし650と同じく、符号化単位より小さなサイズの予測単位に分割して予測を行ってもよい。   Finally, the depth 4 size 4 × 4 coding unit 650 is the maximum depth coding unit, and the prediction unit is the size 4 × 4 prediction unit 650. However, even if the coding unit has the maximum depth, the size of the coding unit and the prediction unit do not necessarily have to be the same. Like the other coding units 610 to 650, the prediction of a size smaller than the coding unit is required. The prediction may be performed by dividing into units.

図7は、本発明の一実施形態による、符号化単位及び変換単位を示す図面である。本発明の一実施形態による映像符号化装置100及び映像復号化装置200は、最大符号化単位そのまま符号化するか、または最大符号化単位より小さいか、または同じサブ符号化単位に最大符号化単位を分割して符号化する。符号化過程中に変換のための変換単位のサイズも、符号化単位及び予測単位と関係なく最も高い圧縮率のためのサイズに選択される。例えば、現在符号化単位710が64×64サイズである時、32×32サイズの変換単位720を用いて変換が行われてもよい。   FIG. 7 is a diagram illustrating a coding unit and a conversion unit according to an embodiment of the present invention. The video encoding apparatus 100 and the video decoding apparatus 200 according to an embodiment of the present invention may encode the maximum coding unit as it is, or may be smaller than the maximum coding unit, or may be the maximum sub-coding unit. Are divided and encoded. During the encoding process, the size of the transform unit for transform is also selected as the size for the highest compression rate regardless of the encoding unit and the prediction unit. For example, when the current encoding unit 710 is 64 × 64 size, conversion may be performed using a 32 × 32 size conversion unit 720.

図8A及び図8Bは、本発明の一実施形態による、符号化単位、予測単位及び変換単位の分割形態を示す図面である。   FIG. 8A and FIG. 8B are diagrams illustrating division forms of a coding unit, a prediction unit, and a transform unit according to an embodiment of the present invention.

図8Aは、本発明の一実施形態による符号化単位及び予測単位を図示する。図8Aの左側は、最大符号化単位810を符号化するために、本発明の一実施形態による映像符号化装置100が選択した分割形態を図示する。映像符号化装置100は、多様な形態に最大符号化単位810を分割して符号化した後、多様な分割形態の符号化結果をR−Dコストに基づいて比べて、最適の分割形態を選択する。最大符号化単位810をそのまま符号化するのが最適である場合には、図8A及び図8Bのように、最大符号化単位810を分割せずに最大符号化単位800を符号化してもよい。   FIG. 8A illustrates a coding unit and a prediction unit according to an embodiment of the present invention. The left side of FIG. 8A illustrates a division form selected by the video encoding apparatus 100 according to an embodiment of the present invention to encode the maximum coding unit 810. The video encoding apparatus 100 divides and encodes the maximum encoding unit 810 into various forms, compares the encoding results of various divided forms based on the RD cost, and selects an optimal division form. To do. When it is optimal to encode the maximum encoding unit 810 as it is, the maximum encoding unit 800 may be encoded without dividing the maximum encoding unit 810 as shown in FIGS. 8A and 8B.

図8Aの左側を参照すれば、深度0である最大符号化単位810を、深度1以上のサブ符号化単位に分割して符号化する。最大符号化単位810を4つの深度1のサブ符号化単位に分割した後、全部または一部の深度1のサブ符号化単位を、再び深度2のサブ符号化単位に分割する。   Referring to the left side of FIG. 8A, the maximum coding unit 810 having a depth of 0 is divided into sub-coding units having a depth of 1 or more and encoded. After dividing the maximum coding unit 810 into four depth 1 sub-coding units, all or some of the depth 1 sub-coding units are again divided into depth 2 sub-coding units.

深度1のサブ符号化単位のうち右側上部に位置しているサブ符号化単位、及び左側下部に位置しているサブ符号化単位が、深度2以上のサブ符号化単位に分割された。深度2以上のサブ符号化単位のうち一部は、再び深度3以上のサブ符号化単位に分割される。   Of the sub-coding units of depth 1, the sub-coding unit positioned at the upper right side and the sub-coding unit positioned at the lower left side are divided into sub-coding units of depth 2 or more. Some of the sub-coding units having a depth of 2 or more are again divided into sub-coding units having a depth of 3 or more.

図8Bの右側は、最大符号化単位810に対する予測単位の分割形態を図示する。   The right side of FIG. 8B illustrates the division form of the prediction unit for the maximum coding unit 810.

図8Aの右側を参照すれば、最大符号化単位に対する予測単位860は、最大符号化単位810と異なって分割される。言い換えれば、サブ符号化単位それぞれに対する予測単位はサブ符号化単位より小さい。   Referring to the right side of FIG. 8A, the prediction unit 860 for the maximum coding unit is divided differently from the maximum coding unit 810. In other words, the prediction unit for each sub-coding unit is smaller than the sub-coding unit.

例えば、深度1のサブ符号化単位のうち右側下部に位置しているサブ符号化単位854に対する予測単位は、サブ符号化単位854より小さい。深度2のサブ符号化単位814、816、818、828、850、852のうち一部のサブ符号化単位815、816、850、852に対する予測単位は、サブ符号化単位より小さい。   For example, the prediction unit for the sub-coding unit 854 located at the lower right side among the sub-coding units of depth 1 is smaller than the sub-coding unit 854. Of the sub-coding units 814, 816, 818, 828, 850, and 852 of depth 2, the prediction units for some sub-coding units 815, 816, 850, and 852 are smaller than the sub-coding units.

また、深度3のサブ符号化単位822、832、848に対する予測単位は、サブ符号化単位より小さい。予測単位は、それぞれのサブ符号化単位を高さまたは幅方向に半分にした形態であっても、高さ及び幅方向に4分した形態であってもよい。   Also, the prediction units for sub-coding units 822, 832, and 848 of depth 3 are smaller than the sub-coding units. The prediction unit may be in a form in which each sub-coding unit is halved in the height or width direction, or may be in a form in which it is divided into four in the height and width directions.

図8Bは、本発明の一実施形態による予測単位及び変換単位を示す図面である。図8Bの左側は、図8Aの右側に図示された最大符号化単位810に対する予測単位の分割形態を図示し、図8Bの右側は、最大符号化単位810の変換単位の分割形態を図示する。   FIG. 8B is a diagram illustrating a prediction unit and a conversion unit according to an embodiment of the present invention. The left side of FIG. 8B illustrates a partition form of the prediction unit for the maximum coding unit 810 illustrated on the right side of FIG. 8A, and the right side of FIG. 8B illustrates a partition form of the transform unit of the maximum coding unit 810.

図8Bの右側を参照すれば、変換単位870の分割形態は、予測単位860と異なって設定される。   Referring to the right side of FIG. 8B, the division form of the conversion unit 870 is set differently from the prediction unit 860.

例えば、深度1の符号化単位854に対する予測単位が、高さを半分にした形態に選択されても、変換単位は、深度1の符号化単位854のサイズと同じサイズに選択されうる。同様に、深度2の符号化単位814、850に対する予測単位が、深度2の符号化単位814、850の高さを半分にした形態に選択されても、変換単位は、深度2の符号化単位814、850の元のサイズと同じサイズに選択されうる。   For example, even if the prediction unit for the coding unit 854 with depth 1 is selected to have a half height, the transform unit may be selected to have the same size as the coding unit 854 with depth 1. Similarly, even if the prediction unit for the depth 2 coding units 814 and 850 is selected to be half the height of the depth 2 coding units 814 and 850, the transform unit is the depth 2 coding unit. The same size as the original size of 814, 850 can be selected.

予測単位よりさらに小さなサイズに変換単位が選択されてもよい。例えば、深度2の符号化単位852に対する予測単位が、幅を半分にした形態に選択された場合に、変換単位は、予測単位よりさらに小さなサイズである高さ及び幅を半分にした形態に選択される。   The conversion unit may be selected to have a size smaller than the prediction unit. For example, when the prediction unit for the coding unit 852 at the depth 2 is selected to have a half width, the transform unit is selected to have a half height and width that are smaller than the prediction unit. Is done.

図9は、本発明のさらに他の実施形態による映像符号化装置を示す図面である。図9の映像符号化装置900は、図1の映像符号化装置100及び図4の映像符号化装置400に備えられ、インター予測に基づいて現在ブロックを符号化する装置である。   FIG. 9 illustrates a video encoding apparatus according to another embodiment of the present invention. A video encoding device 900 of FIG. 9 is a device that is provided in the video encoding device 100 of FIG. 1 and the video encoding device 400 of FIG. 4 and encodes the current block based on inter prediction.

図9を参照すれば、映像符号化装置900は、動きベクトル決定部910及び符号化部920を備える。   Referring to FIG. 9, the video encoding apparatus 900 includes a motion vector determination unit 910 and an encoding unit 920.

一部符号化モードは、現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、定められた動きベクトルに基づいて現在ブロックを符号化する。直接予測モードとスキップモードとが、かかるモードの例示である。直接予測モード及びスキップモードはいずれも、現在ブロックの動きベクトルが以前に符号化された情報に基づいて定められるため、現在ブロックについての情報として動きベクトルを別途に符号化しない符号化モードである。   In the partial encoding mode, a motion vector of the current block is determined based on a motion vector of at least one block encoded before the current block, and the current block is encoded based on the determined motion vector. The direct prediction mode and the skip mode are examples of such a mode. Both the direct prediction mode and the skip mode are encoding modes in which the motion vector of the current block is determined based on previously encoded information, and thus the motion vector is not separately encoded as information about the current block.

但し、直接予測モードは、現在ブロックから動きベクトルによって生成された予測ブロックを減算して生成されたレジデュアルブロックを、ピクセル値についての情報として符号化するのに対し、スキップモードは、予測ブロックが現在ブロックと同一であると見なして、スキップモードで符号化されたことを示すフラッグ情報のみピクセル値についての情報として符号化するのが相違である。   However, in the direct prediction mode, the residual block generated by subtracting the prediction block generated by the motion vector from the current block is encoded as information about the pixel value, whereas in the skip mode, the prediction block is The difference is that only the flag information indicating that it is encoded in the skip mode is encoded as information about the pixel value, assuming that it is the same as the current block.

直接予測モード及びスキップモードはいずれも、インター予測に基づいた符号化であるにもかかわらず、動きベクトルを別途に符号化しないので、圧縮率向上に大きく影響を及ぼす。ところが、かかる直接予測モード及びスキップモードは、特定予測方向の予測のみ行って現在ブロックを符号化するため、発生確率が低く、かつ予測が不正確な可能性が高いという短所がある。したがって、本発明の一実施形態による映像符号化装置900は、双方向予測ピクチャーに含まれた現在ブロックを直接予測モードまたはスキップモードで符号化する時、多様な予測方向に予測して符号化するところ、以下で図面を参照して詳細に説明する。   Although both the direct prediction mode and the skip mode are encoding based on inter prediction, a motion vector is not separately encoded, and thus greatly improves the compression ratio. However, since the direct prediction mode and the skip mode encode only the current block by performing prediction in a specific prediction direction, there are disadvantages in that the occurrence probability is low and the prediction is likely to be inaccurate. Accordingly, the image encoding apparatus 900 according to an embodiment of the present invention predicts and encodes in various prediction directions when encoding the current block included in the bi-predictive picture in the direct prediction mode or the skip mode. A detailed description will be given below with reference to the drawings.

図10は、本発明の一実施形態による双方向予測ピクチャーに含まれたブロックを予測する方法を示す図面である。図10を参照すれば、双方向予測ピクチャーである現在ピクチャー1000に含まれた現在ブロック1010を符号化する時、現在ブロックは、現在ピクチャー以前時間のピクチャー1020、及び現在ピクチャー以後時間のピクチャー1030のうち少なくとも一つを参照して予測符号化される。以前時間のピクチャー1020及び以後時間のピクチャー1030のうち少なくとも一つから、現在ブロック1010に対応する少なくとも一つのブロック1022及び1032を検索し、検索されたブロックに基づいて現在ブロックを予測符号化する。   FIG. 10 is a diagram illustrating a method for predicting a block included in a bidirectional prediction picture according to an embodiment of the present invention. Referring to FIG. 10, when the current block 1010 included in the current picture 1000 which is a bi-predictive picture is encoded, the current block includes a picture 1020 at a time before the current picture and a picture 1030 at a time after the current picture. Predictive coding is performed with reference to at least one of them. At least one block 1022 and 1032 corresponding to the current block 1010 is searched from at least one of the previous time picture 1020 and the subsequent time picture 1030, and the current block is predictively encoded based on the searched block.

言い換えれば、現在ピクチャー1000から以前ピクチャー1020への方向を第1方向(すなわち、L0方向)という時、現在ブロック1010は、第1方向のピクチャーで検索された対応ブロック1022に基づいて予測される(以下、‘第1方向予測’という。)。同様に、現在ピクチャー1000から以後ピクチャー1030への方向を第2方向(すなわち、L1方向)という時、現在ブロック1010は、第2方向のピクチャーで検索された対応ブロック1032に基づいて予測される(以下、‘第2方向予測’という。)。また、現在ブロック1010は、第1方向予測及び第2方向予測いずれも、すなわち、双方向予測に基づいて予測されてもよい。   In other words, when the direction from the current picture 1000 to the previous picture 1020 is the first direction (ie, the L0 direction), the current block 1010 is predicted based on the corresponding block 1022 searched for the picture in the first direction ( Hereinafter, it is referred to as “first direction prediction”). Similarly, when the direction from the current picture 1000 to the picture 1030 is referred to as the second direction (ie, the L1 direction), the current block 1010 is predicted based on the corresponding block 1032 searched for the picture in the second direction ( Hereinafter, it is referred to as “second direction prediction”). The current block 1010 may be predicted based on both the first direction prediction and the second direction prediction, that is, bidirectional prediction.

ところが、従来技術による直接予測モードは、現在ブロック1010に対して双方向予測を行う場合にのみ適用される。言い換えれば、第1方向予測のみを行って現在ブロックが予測符号化される場合には、直接予測モードによって符号化できず、第2方向予測のみを行って現在ブロックが予測符号化される場合にも、直接予測モードによって符号化できない。従来技術によるスキップモードも同様である。従来技術によるスキップモードによれば、現在ブロック1010に隣接している、以前に符号化されたブロックの動きベクトルによって定められた現在ブロック1010の動きベクトルは、第1方向の動きベクトルmv_L0でなければならず、第1方向予測に基づいて生成された予測ブロックを現在ブロック1010と同じものと見なして、スキップモードで符号化されたことを示すフラッグ情報を符号化する。   However, the direct prediction mode according to the conventional technique is applied only when bi-directional prediction is performed on the current block 1010. In other words, when only the first direction prediction is performed and the current block is predictively encoded, the direct prediction mode cannot be encoded, and only the second direction prediction is performed and the current block is predictively encoded. Cannot be encoded by the direct prediction mode. The same applies to the skip mode according to the prior art. According to the skip mode according to the prior art, the motion vector of the current block 1010 defined by the motion vector of the previously encoded block adjacent to the current block 1010 is not a motion vector mv_L0 in the first direction. Instead, the prediction block generated based on the first direction prediction is regarded as the same as the current block 1010, and flag information indicating that the encoding is performed in the skip mode is encoded.

要するに、従来技術によれば、双方向予測ピクチャーに含まれたブロックに対して行われうる予測は、第1方向予測、第2方向予測及び双方向予測であるにもかかわらず、直接予測モード及びスキップモードは、特定方向に予測を行う場合にのみ適用されるので、圧縮率に大きい影響を及ぼす直接予測モード及びスキップモードが制限的に適用されるという短所がある。   In short, according to the prior art, the predictions that can be performed on the blocks included in the bi-predictive picture are the first directional prediction, the second directional prediction, and the bi-directional prediction. Since the skip mode is applied only when prediction is performed in a specific direction, there is a disadvantage in that the direct prediction mode and the skip mode that have a large effect on the compression rate are limitedly applied.

かかる短所を解決するために、本発明による映像符号化装置900は、現在ブロック1010の動きベクトルを、以前に符号化された情報に基づいて定めて、動きベクトルは符号化せずに、予測はすべての方向に対して行える映像符号化方法によって符号化を行う。   In order to solve this disadvantage, the video encoding apparatus 900 according to the present invention determines the motion vector of the current block 1010 based on previously encoded information, and does not encode the motion vector, so that the prediction is performed. Encoding is performed by a video encoding method that can be performed in all directions.

動きベクトル決定部910は、第1方向予測、第2方向予測及び双方向予測を行うために、現在ブロック1010の第1方向動きベクトル及び第2方向動きベクトルを定める。第1方向動きベクトル及び第2方向動きベクトルは、現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて定める。   The motion vector determination unit 910 determines the first direction motion vector and the second direction motion vector of the current block 1010 in order to perform the first direction prediction, the second direction prediction, and the bidirectional prediction. The first direction motion vector and the second direction motion vector are determined based on the motion vector of at least one block encoded before the current block.

第1方向動きベクトル及び第2方向動きベクトルは、従来技術による動きベクトル決定方法によって定められる。例えば、現在ブロック1010を直接予測モード、すなわち、動きベクトルについての情報を符号化せずに、レジデュアルブロックについての情報のみ符号化するモードによって符号化する場合には、H.264/AVC直接予測モードの動きベクトルを定める方法によって動きベクトルを定められる。現在ブロック1010をスキップモード、すなわち、動きベクトルについての情報及びレジデュアルブロックについての情報をいずれも符号化しないモードによって符号化する場合には、H.264/AVCスキップモードの動きベクトルを定める方法によって動きベクトルを定められる。   The first direction motion vector and the second direction motion vector are determined by a motion vector determination method according to the prior art. For example, when the current block 1010 is encoded in the direct prediction mode, that is, in the mode in which only the information about the residual block is encoded without encoding the information about the motion vector, the H. The motion vector can be determined by the method of determining the motion vector in the H.264 / AVC direct prediction mode. When the current block 1010 is encoded in a skip mode, that is, a mode in which neither information about motion vectors nor information about residual blocks is encoded. The motion vector can be determined by the method of determining the motion vector in the H.264 / AVC skip mode.

H.264/AVC直接予測モードには、時間直接予測モードと空間直接予測モードとがある。したがって、H.264/AVCの時間直接予測モードで現在ブロックの動きベクトルを定める方法、及び空間直接予測モードで現在ブロックの動きベクトルを定める方法が、動きベクトル決定部910が第1方向動きベクトル及び第2方向動きベクトルを定めるのに用いられる。図11A及び図11Bを参照して詳細に説明する。   H. The H.264 / AVC direct prediction mode includes a temporal direct prediction mode and a spatial direct prediction mode. Therefore, H.H. H.264 / AVC temporal direct prediction mode for determining the motion vector of the current block and spatial direct prediction mode for determining the current block motion vector, the motion vector determining unit 910 uses the first direction motion vector and the second direction motion vector. Used to define a vector. This will be described in detail with reference to FIGS. 11A and 11B.

図11Aは、本発明の一実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を図示する。図11Aを参照すれば、現在ブロック1010を時間直接予測モードで符号化する場合には、現在ピクチャー1110の現在ブロック1010の動きベクトルは、時間的に後行するピクチャー1114の同じ位置のブロック1120の動きベクトルを用いて生成される。   FIG. 11A illustrates a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to an embodiment of the present invention. Referring to FIG. 11A, when the current block 1010 is encoded in the temporal direct prediction mode, the motion vector of the current block 1010 of the current picture 1110 is the same as that of the block 1120 at the same position of the picture 1114 that is temporally following. Generated using motion vectors.

言い換えれば、時間的に後行するピクチャー1114をアンカーピクチャーという時、アンカーピクチャー1114で、現在ブロックの同じ位置のブロック1120の動きベクトルに基づいて、現在ブロックの第1方向動きベクトル及び第2方向動きベクトルを定められる。同じ位置のブロック1120の動きベクトルを、現在ピクチャー1110と先行ピクチャー1112との間の時間距離(temporal distance)、及びアンカーピクチャー1114と先行ピクチャー1112との間の時間距離に基づいてブロック1120の動きベクトルをスケーリングし、現在ブロック1010の第1方向動きベクトル及び第2方向動きベクトルを定められる。   In other words, when the picture 1114 that follows temporally is called an anchor picture, the anchor picture 1114 is based on the motion vector of the block 1120 at the same position of the current block, and the first direction motion vector and the second direction motion of the current block. A vector can be defined. The motion vector of block 1120 at the same position is determined based on the temporal distance between the current picture 1110 and the preceding picture 1112 and the temporal distance between the anchor picture 1114 and the preceding picture 1112. , And the first direction motion vector and the second direction motion vector of the current block 1010 are determined.

例えば、現在ブロック1010と同じ位置のブロック1120の動きベクトルmv_colAが、現在ピクチャー1010以前時間のピクチャー1112の検索されたブロック1122に対して生成されれば、現在ブロック1110の第1方向動きベクトル及び第2方向動きベクトルであるmv_L0A及びmv_L1Aは、次のように生成される。   For example, if the motion vector mv_colA of the block 1120 at the same position as the current block 1010 is generated for the retrieved block 1122 of the picture 1112 before the current picture 1010, the first direction motion vector of the current block 1110 and the first motion vector The two-direction motion vectors mv_L0A and mv_L1A are generated as follows.

mv_L0A=(t1/t2)*mv_colA
mv_L1A=mv_L0A−mv_colA
ここで、mv_L0Aは、現在ブロック1010の第1方向動きベクトルを意味し、mv_L1Aは、現在ブロック1010の第2方向動きベクトルを意味する。
mv_L0A = (t1 / t2) * mv_colA
mv_L1A = mv_L0A-mv_colA
Here, mv_L0A means the first direction motion vector of the current block 1010, and mv_L1A means the second direction motion vector of the current block 1010.

図11Bは、本発明の一実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を図示する。図11Bを参照すれば、現在ブロック1010の第1方向動きベクトル及び第2方向動きベクトルは、現在ブロック1100に隣接しているブロック1130ないし1134の動きベクトルであるmv_A、mv_B及びmv_Cに基づいて定められる。現在ブロック1010の左側上部及び右側上部に位置しているブロックの動きベクトルに基づいて、第1方向動きベクトル及び第2方向動きベクトルを定める。   FIG. 11B illustrates a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to an embodiment of the present invention. Referring to FIG. 11B, the first direction motion vector and the second direction motion vector of the current block 1010 are determined based on the motion vectors mv_A, mv_B, and mv_C of the blocks 1130 to 1134 adjacent to the current block 1100. It is done. A first direction motion vector and a second direction motion vector are determined based on the motion vectors of the blocks currently located at the upper left portion and the upper right portion of the block 1010.

現在ブロックを空間直接予測モードで符号化する場合には、mv_A、mv_B及びmv_Cのうち第1方向の動きベクトルの中央値を、現在ブロック1010の第1方向動きベクトルとして定め、mv_A、mv_B及びmv_Cのうち第2方向の動きベクトルの中央値(median)を、現在ブロック1010の第2方向動きベクトルとして定める。第1方向動きベクトルを定める時、mv_A、mv_B及びmv_Cのうち第2方向である動きベクトルは‘0’と設定して中央値を計算し、第2方向動きベクトルを定める時、mv_A、mv_B及びmv_Cのうち第1方向である動きベクトルは‘0’と設定して中央値を計算する。   When encoding the current block in the spatial direct prediction mode, the median value of the motion vector in the first direction among mv_A, mv_B, and mv_C is determined as the first direction motion vector of the current block 1010, and mv_A, mv_B, and mv_C. The median value of the motion vector in the second direction is determined as the second direction motion vector of the current block 1010. When determining the first direction motion vector, the motion vector in the second direction among mv_A, mv_B and mv_C is set to '0' to calculate the median value. When determining the second direction motion vector, mv_A, mv_B and The motion vector in the first direction in mv_C is set to “0” and the median value is calculated.

mv_A、mv_B及びmv_Cによる第1方向参照番号のうち最も小さな番号に対応するピクチャーを、第1方向参照ピクチャーと定め、mv_A、mv_B及びmv_Cによる第2方向参照番号のうち最も小さな番号に対応するピクチャーを、第2方向参照ピクチャーと定める。   The picture corresponding to the smallest number among the first direction reference numbers by mv_A, mv_B and mv_C is defined as the first direction reference picture, and the picture corresponding to the smallest number among the second direction reference numbers by mv_A, mv_B and mv_C. Is defined as the second direction reference picture.

現在ブロック1010をスキップモードで符号化する場合には、図11Bに示したように、現在ブロック1010に隣接しているブロック1130ないし1134の動きベクトルmv_A、mv_B及びmv_Cのうち第1方向動きベクトルの中央値を、現在ブロックの動きベクトルとして定められる。   When encoding the current block 1010 in the skip mode, as shown in FIG. 11B, the first direction motion vector of the motion vectors mv_A, mv_B, and mv_C of the blocks 1130 to 1134 adjacent to the current block 1010 is used. The median is defined as the motion vector for the current block.

図11A及び図11Bによって映像符号化装置900が動きベクトルを定め、現在ブロックを符号化すれば、復号化する側では、図11A及び図11Bと同じ方法を用いて現在ブロックの動きベクトルを定め、復元する。言い換えれば、映像を符号化する側と復号化する側とは、同じ動きベクトル決定方法を暗黙的に共有し、共有された動きベクトル決定方法によって現在ブロックの動きベクトルを定められる。   If the video encoding apparatus 900 determines a motion vector according to FIGS. 11A and 11B and encodes the current block, on the decoding side, the motion vector of the current block is determined using the same method as in FIGS. 11A and 11B. Restore. In other words, the video encoding side and the decoding side implicitly share the same motion vector determination method, and the motion vector of the current block can be determined by the shared motion vector determination method.

しかし、本発明のさらに他の実施形態によれば、符号化する側が、現在ブロック以前に符号化された複数のブロックの動きベクトルに基づいて複数の動きベクトル候補を生成し、生成された複数の動きベクトル候補で、現在ブロックの動きベクトルを特定するための情報を明示的に符号化してビーストストリームに挿入し、復号化する側は、明示的に符号化されて挿入された情報に基づいて現在ブロックの動きベクトルを定められる。   However, according to still another embodiment of the present invention, the encoding side generates a plurality of motion vector candidates based on the motion vectors of a plurality of blocks encoded before the current block, Information for specifying the motion vector of the current block in the motion vector candidate is explicitly encoded and inserted into the beast stream, and the decoding side is based on the information that has been explicitly encoded and inserted. The motion vector of the block can be determined.

以下、図12A及び図12Bを参照して詳細に説明する。図12A及び図12Bは、本発明のさらに他の実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を図示する。   Hereinafter, this will be described in detail with reference to FIGS. 12A and 12B. 12A and 12B illustrate a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to still another embodiment of the present invention.

図12Aを参照すれば、動きベクトル決定部910は、現在ブロックに隣接している、以前に符号化されたブロックの動きベクトルに基づいて複数の動きベクトル候補を生成する。現在ブロックの上部に隣接しているブロックのうち最左側のa0ブロック、左側に隣接している最上部のb0ブロック、右側上部に隣接しているcブロック、左側上部に隣接しているdブロック及び右側下部に隣接しているeブロックの動きベクトルが、複数の動きベクトル候補である。   Referring to FIG. 12A, the motion vector determination unit 910 generates a plurality of motion vector candidates based on a motion vector of a previously encoded block adjacent to the current block. Of the blocks adjacent to the upper part of the current block, the leftmost a0 block, the uppermost b0 block adjacent to the left side, the c block adjacent to the upper right side, the d block adjacent to the upper left side, and The motion vector of the e block adjacent to the lower right side is a plurality of motion vector candidates.

a0ブロック、b0ブロック、cブロック及びdブロックの動きベクトルのうち第1方向の動きベクトルのうち一つが、現在ブロックの第1方向の動きベクトルと定められ、a0ブロック、b0ブロック、cブロック及びdブロックの動きベクトルのうち第2方向の動きベクトルのうち一つが、現在ブロックの第2方向の動きベクトルと定められる。例えば、a0ブロック、b0ブロック、cブロック及びdブロックの動きベクトルのうちa0ブロック及びb0ブロックの動きベクトルが、第1方向の動きベクトルならば、a0ブロックの動きベクトル及びb0ブロックの動きベクトルのうち一つを、現在ブロックの第1方向動きベクトルとして定められ、残りのcブロック及びdブロックの動きベクトルのうち一つを、現在ブロックの第2方向動きベクトルとして定められる。   Among the motion vectors of the a0 block, b0 block, c block, and d block, one of the motion vectors in the first direction is determined as the motion vector in the first direction of the current block, and the a0 block, the b0 block, the c block, and d. One of the motion vectors in the second direction among the motion vectors of the block is determined as the motion vector in the second direction of the current block. For example, if the motion vectors of the a0 block and the b0 block among the motion vectors of the a0 block, the b0 block, the c block, and the d block are motion vectors in the first direction, the motion vector of the a0 block and the motion vector of the b0 block One is defined as the first direction motion vector of the current block, and one of the remaining c block and d block motion vectors is defined as the second direction motion vector of the current block.

複数の動きベクトル候補のうち一つを現在ブロックの動きベクトルとして定める方法には制限がないが、一般的に、現在ブロックをさらに正確に予測できる動きベクトルが選択できる。前述した例で、第1方向の動きベクトルであるa0ブロックの動きベクトル及びb0ブロックの動きベクトルのうち、a0ブロックの動きベクトルによって予測を行った時、現在ブロックがさらに正確に予測されるならば、a0ブロックの動きベクトルを、現在ブロックの第1方向動きベクトルとして定められる。それぞれの動きベクトルによって予測した結果で生成された予測ブロックを現在ブロックから減算して生成されたレジデュアルブロックのSAD(sum of absolute difference)を計算し、SADの小さな動きベクトルを、現在ブロックの動きベクトルとして定められる。   There is no limitation on a method for determining one of a plurality of motion vector candidates as a motion vector of the current block, but in general, a motion vector that can predict the current block more accurately can be selected. In the above-described example, if the current block is predicted more accurately when prediction is performed using the motion vector of the a0 block out of the motion vector of the a0 block and the motion vector of the b0 block which are motion vectors in the first direction. , The motion vector of the a0 block is defined as the first direction motion vector of the current block. The SAD (sum of absolute difference) of the residual block generated by subtracting the prediction block generated by the prediction result of each motion vector from the current block is calculated, and the small motion vector of the SAD is calculated as the motion of the current block. It is defined as a vector.

図12Bを参照すれば、現在ブロックの隣接しているすべてのブロックの動きベクトルを、動きベクトル候補として用いられる。言い換えれば、上部に隣接しているブロックのうち最左側のa0ブロックだけでなく、上部に隣接しているすべてのブロックの動きベクトルが動きベクトル候補として用いられ、左側に隣接しているブルロックドルのうち最上部のb0ブロックだけでなく、左側に隣接しているすべてのブロックの動きベクトルが動きベクトル候補として用いられる。   Referring to FIG. 12B, motion vectors of all blocks adjacent to the current block are used as motion vector candidates. In other words, not only the leftmost a0 block among the blocks adjacent to the upper part but also the motion vectors of all the blocks adjacent to the upper part are used as motion vector candidates, and the bulllock dollars adjacent to the left side are used. Among them, not only the uppermost b0 block but also the motion vectors of all the blocks adjacent on the left side are used as motion vector candidates.

図12Aに関して前述したように、すべてのブロックの動きベクトル候補で、第1方向の動きベクトルのうち一つが現在ブロックの第1方向動きベクトルとして定められ、第2方向の動きベクトルのうち一つが現在ブロックの第2方向動きベクトルとして定められる。   As described above with reference to FIG. 12A, among the motion vector candidates of all blocks, one of the motion vectors in the first direction is defined as the first direction motion vector of the current block, and one of the motion vectors in the second direction is the current motion vector. It is defined as the second direction motion vector of the block.

まとめれば、図11A及び図11B、図12A及び図12Bによって、動きベクトル決定部910は、次のような複数の動きベクトル候補のうち一つを、現在ブロックの動きベクトルとして定められる。   In summary, according to FIGS. 11A and 11B, and FIGS. 12A and 12B, the motion vector determination unit 910 determines one of the following motion vector candidates as the motion vector of the current block.

C={median(mv_a0,mv_b0,mv_c),mv_a0,mv_a1,…,mv_aN,mv_b0,mv_b1,…,mv_bN,mv_c,mv_d,mv_e,mv_L0A,mv_L1A}
mv_L0A及びmv_L1Aは、図11Aによる動きベクトルであり、median(mv_a0,mv_b0,mv_c)は、図11Bによる動きベクトルである。残りの動きベクトルは、図12A及び図12Bに関して前述した。
C = {median (mv_a0, mv_b0, mv_c), mv_a0, mv_a1, ..., mv_aN, mv_b0, mv_b1, ..., mv_bN, mv_c, mv_d, mv_e, mv_L0A, mv_L1A}
mv_L0A and mv_L1A are motion vectors according to FIG. 11A, and median (mv_a0, mv_b0, mv_c) is a motion vector according to FIG. 11B. The remaining motion vectors were described above with respect to FIGS. 12A and 12B.

C集合に含まれた第1方向の動きベクトルのうち現在ブロックの第1方向動きベクトルが定められ、C集合に含まれた第2方向の動きベクトルのうち現在ブロックの第2方向動きベクトルが定められる。   Among the motion vectors in the first direction included in the C set, the first direction motion vector of the current block is determined, and among the motion vectors in the second direction included in the C set, the second direction motion vector of the current block is determined. It is done.

また、本発明のさらに他の実施形態によれば、候補の数を低減させ、そのうちで現在ブロックの動きベクトルを定めてもよい。   In addition, according to another embodiment of the present invention, the number of candidates may be reduced, and the motion vector of the current block may be determined.

C={median(mv_a’,mv_b’,mv_c’),mv_a’,mv_b’,mv_c’,mv_L0A,mv_L1A}
ここで、mv_xは、xブロックの動きベクトルを意味し、median()は、中央値を意味し、mv_a’は、mv_a0,mv_a1,…,mv_aNのうち有効な最初の動きベクトルを意味する。例えば、a0ブロックがイントラ予測を用いて符号化された場合、a0の動きベクトルであるmv_a0は有効でないので、mv_a’=mv_a1になり、a1ブロックの動きベクトルも有効でない場合には、mv_a’=mv_a2である。
C = {median (mv_a ′, mv_b ′, mv_c ′), mv_a ′, mv_b ′, mv_c ′, mv_L0A, mv_L1A}
Here, mv_x means a motion vector of the x block, median () means a median value, and mv_a ′ means a valid first motion vector among mv_a0, mv_a1,..., Mv_aN. For example, when the a0 block is encoded using intra prediction, the motion vector mv_a0 of a0 is not valid, so mv_a ′ = mv_a1, and when the motion vector of the a1 block is not valid, mv_a ′ = mv_a2.

同様に、mv_b’は、mv_b0,mv_b1,…,mv_bNのうち有効な最初の動きベクトルを意味し、mv_c’は、mv_c,mv_d,mv_eのうち有効な最初の動きベクトルを意味する。   Similarly, mv_b ′ means a valid first motion vector among mv_b0, mv_b1,..., Mv_bN, and mv_c ′ means a valid first motion vector among mv_c, mv_d, and mv_e.

mv_L0A及びmv_L1Aは、図11Aによる動きベクトルである。また、本発明のさらに他の実施形態によれば、mv_L0A及びmvL1Aの代わりに、隣接しているピクチャー間の時間距離を用いて生成された他の動きベクトルが候補に含まれる。図13A及び図13Bを参照して詳細に説明する。   mv_L0A and mv_L1A are motion vectors according to FIG. 11A. Further, according to another embodiment of the present invention, instead of mv_L0A and mvL1A, another motion vector generated using a time distance between adjacent pictures is included in the candidates. This will be described in detail with reference to FIGS. 13A and 13B.

図13A及び図13Bは、本発明のさらに他の実施形態による現在ブロックの動きベクトルを、以前に符号化されたブロックの動きベクトルに基づいて定める方法を図示する。   13A and 13B illustrate a method for determining a motion vector of a current block based on a motion vector of a previously encoded block according to still another embodiment of the present invention.

図13Aを参照すれば、時間距離に基づいて定められた動きベクトル候補は、従来技術による時間直接予測モードと異なる方法で定められる。   Referring to FIG. 13A, a motion vector candidate determined based on a temporal distance is determined by a method different from the temporal direct prediction mode according to the prior art.

現在ピクチャー1110の現在ブロック1010の動きベクトル候補は、先行ピクチャー1112の同じ位置のブロック1320の動きベクトルを用いて生成される。例えば、現在ブロック1010と同じ位置のブロック1320の動きベクトルmv_colBが、後行ピクチャー1114の検索されたブロック1322に対して生成されれば、現在ブロック1010の動きベクトル候補であるmv_L0B及びmv_L1Bは、以下のように生成される。   The motion vector candidate of the current block 1010 of the current picture 1110 is generated using the motion vector of the block 1320 at the same position of the preceding picture 1112. For example, if the motion vector mv_colB of the block 1320 at the same position as the current block 1010 is generated for the searched block 1322 of the subsequent picture 1114, the motion vector candidates mv_L0B and mv_L1B of the current block 1010 are as follows: Is generated as follows.

mv_L1B=(t3/t4)*mv_colB
mv_L0B=mv_L1B−mv_colB
ここで、mv_L0Bは、現在ブロック1010の第1方向動きベクトル候補を意味し、mv_L1Bは、現在ブロック1010の第2方向動きベクトル候補を意味する。
mv_L1B = (t3 / t4) * mv_colB
mv_L0B = mv_L1B-mv_colB
Here, mv_L0B means a first direction motion vector candidate of the current block 1010, and mv_L1B means a second direction motion vector candidate of the current block 1010.

図13Bを参照すれば、現在ピクチャー1110の現在ブロック1010の動きベクトル候補は、先行ピクチャー1112の同じ位置のブロック1330の動きベクトルを用いて定められる。例えば、現在ブロック1010と同じ位置のブロック1330の動きベクトルmv_colCが、さらに他の先行ピクチャー1116の検索されたブロック1332に対して生成されれば、現在ブロック1010の動きベクトル候補であるmv_L0Cは、次のように生成される。   Referring to FIG. 13B, the motion vector candidate of the current block 1010 of the current picture 1110 is determined using the motion vector of the block 1330 at the same position of the preceding picture 1112. For example, if the motion vector mv_colC of the block 1330 at the same position as the current block 1010 is generated for the retrieved block 1332 of the other preceding picture 1116, the motion vector candidate mv_L0C of the current block 1010 is Is generated as follows.

mv_L0C=(t6/t5)xmv_colC
図13A及び図13Bに関して前述したmv_L0B、mv_L1B及びmv_L0Bは、前述した現在ブロック1010の動きベクトルの候補であるC集合に含まれる。mv_L0A、mv_L1Aの代わりにC集合に含まれても、追加でC集合に含まれてもよい。
mv_L0C = (t6 / t5) xmv_colC
The mv_L0B, mv_L1B, and mv_L0B described above with reference to FIGS. 13A and 13B are included in the C set that is the motion vector candidate of the current block 1010 described above. Instead of mv_L0A and mv_L1A, they may be included in the C set or additionally included in the C set.

再び図9を参照すれば、動きベクトル決定部910が、現在ブロック以前に符号化されたブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定めれば、符号化部920は、現在ブロックについての情報を符号化する。   Referring to FIG. 9 again, if the motion vector determination unit 910 determines the motion vector of the current block based on the motion vector of the block encoded before the current block, the encoding unit 920 Encode information.

現在ブロックの第1方向動きベクトル及び第2方向動きベクトルが定められれば、符号化部920は、定められた第1方向動きベクトル及び第2方向動きベクトルに基づいて、第1方向の予測、第2方向の予測及び双方向予測を行う。次いで、現在ブロックを最も正確に予測する予測方向を定める。第1方向の予測結果、第2方向の予測結果及び双方向予測結果を現在ブロックと比べて、レジデュアルブロックのSADが最も少ない予測方向を定められる。第1方向の予測、第2方向の予測及び双方向予測をいずれも行い、符号化した結果をRDコスト(rate distortion cost)に基づいて比べて予測方向を定めてもよい。   If the first direction motion vector and the second direction motion vector of the current block are determined, the encoding unit 920 may predict the first direction based on the determined first direction motion vector and the second direction motion vector. Perform bi-directional prediction and bi-directional prediction. Next, a prediction direction for predicting the current block most accurately is determined. By comparing the prediction result in the first direction, the prediction result in the second direction, and the bidirectional prediction result with the current block, a prediction direction with the least SAD of the residual block can be determined. The prediction direction may be determined by performing prediction in the first direction, prediction in the second direction, and bidirectional prediction, and comparing the encoded result based on the RD cost (rate distortion cost).

予測方向が定められれば、定められた予測方向についての情報及びピクセル値についての情報を符号化する。予測方向についての情報が、シーケンスパラメータ、スライスパラメータまたはブロックパラメータとして符号化される。第1方向、第2方向及び双方向に所定の二進数を割り当て、現在ブロックの符号化に用いられる予測方向に対応する二進数を、エントロピー符号化してビットストリームに挿入できる。   If the prediction direction is determined, information about the determined prediction direction and information about the pixel value are encoded. Information about the prediction direction is encoded as a sequence parameter, slice parameter or block parameter. A predetermined binary number is assigned to the first direction, the second direction, and both directions, and a binary number corresponding to the prediction direction used for encoding the current block can be entropy-coded and inserted into the bitstream.

ピクセル値についての情報として、直接予測モードなどのレジデュアルブロックについての情報を別途に符号化する。定められた予測方向による予測結果で生成された予測ブロックを、現在ブロックから減算してレジデュアルブロックを生成し、レジデュアルブロックを変換して周波数領域の係数を生成し、生成された係数を量子化、エントロピー符号化する。変換は、離散コサイン変換またはKLT変換である。   As information about the pixel value, information about the residual block such as the direct prediction mode is separately encoded. A prediction block generated based on a prediction result in a predetermined prediction direction is subtracted from the current block to generate a residual block, the residual block is converted to generate a frequency domain coefficient, and the generated coefficient is quantized. Entropy coding. The transformation is a discrete cosine transformation or a KLT transformation.

また、ピクセル値についての情報として、従来技術によるスキップモードと、予測ブロックと現在ブロックとが同一であることを示すフラッグ情報のみ符号化する。定められた予測方向による予測結果で生成された予測ブロックを現在ブロックと同一なものと見なして、現在ブロックと予測ブロックとが同一であることを示すフラッグ情報のみ符号化する。   In addition, as information about the pixel value, only the flag information indicating that the skip mode according to the prior art and the prediction block and the current block are the same are encoded. A prediction block generated by a prediction result in a predetermined prediction direction is regarded as the same as the current block, and only flag information indicating that the current block and the prediction block are the same is encoded.

予測のために参照するピクチャーは、以前に符号化されたブロックの参照番号(reference index)に基づいて類推される。図11Bについて前述したように、以前に符号化されたブロックの参照番号に基づいて現在ブロックの参照番号を定め、ここに対応する参照ピクチャーが定められてもよい。また、動きベクトル決定部910で定められた動きベクトルに対応する参照ピクチャーが、現在ブロックの参照ピクチャーとして定められる。例えば、図11Aに関して前述したように、mv_L0Aが現在ブロックの第1方向動きベクトルと定められれば、mv_L0Aによる先行ピクチャー1112が現在ブロックの参照ピクチャーとして自動的に定められる。   A picture to be referred to for prediction is inferred based on a reference index of a previously encoded block. As described above with reference to FIG. 11B, the reference number of the current block may be determined based on the reference number of the previously encoded block, and the corresponding reference picture may be determined. Also, the reference picture corresponding to the motion vector determined by the motion vector determination unit 910 is determined as the reference picture of the current block. For example, as described above with reference to FIG. 11A, if mv_L0A is determined as the first direction motion vector of the current block, the preceding picture 1112 by mv_L0A is automatically determined as the reference picture of the current block.

動きベクトル決定部910が、図12A及び図12B、図13A及び図13Bのように、複数の動きベクトル候補から第1方向動きベクトル及び第2方向動きベクトルを明示的に定めた場合に、符号化部920は、複数の動きベクトル候補のうち、現在ブロックの第1方向動きベクトル及び第2方向動きベクトルのうち少なくとも一つを指示(signalling)する情報を符号化することもできる。   When the motion vector determination unit 910 explicitly determines the first direction motion vector and the second direction motion vector from a plurality of motion vector candidates as shown in FIGS. 12A and 12B, FIGS. 13A and 13B, encoding is performed. The unit 920 may encode information that indicates at least one of the first direction motion vector and the second direction motion vector of the current block among the plurality of motion vector candidates.

予測方向を定めた結果、第1方向のみに予測を行うと定められた場合には、複数の動きベクトル候補から第1方向動きベクトルを指示する情報のみ符号化する。第2方向のみに予測を行う場合にも、第2方向動きベクトルを指示する情報のみ符号化できる。しかし、双方向予測を行う場合には、複数の動きベクトル候補から第1方向動きベクトル及び第2方向動きベクトルを指示する情報を符号化できる。   As a result of determining the prediction direction, when it is determined that the prediction is performed only in the first direction, only the information indicating the first direction motion vector is encoded from the plurality of motion vector candidates. Even when prediction is performed only in the second direction, only information indicating the second direction motion vector can be encoded. However, when bi-directional prediction is performed, information indicating the first direction motion vector and the second direction motion vector can be encoded from a plurality of motion vector candidates.

前述したC集合に含まれたすべての動きベクトルそれぞれに二進数を割り当て、そのうち、現在ブロックの動きベクトルとして定められた第1方向動きベクトル及び/または第2方向動きベクトルに割り当てられた二進数を符号化できる。しかし、前述したように、現在ブロックの第1方向動きベクトルは、C集合に含まれた第1方向の動きベクトルのうち一つとして定められるところ、C集合に含まれた第1方向の動きベクトルに順に割り当てられた二進数のうち、現在ブロックの第1方向動きベクトルとして定められた動きベクトルに割り当てられた二進数を、第1方向動きベクトルを指示する情報として符号化する。第2方向動きベクトルも同じく、C集合に含まれた第2方向の動きベクトルに順に割り当てられた二進数のうち、現在ブロックの第2方向動きベクトルとして定められた動きベクトルに割り当てられた二進数を、第2方向動きベクトルを指示する情報として符号化する。   A binary number is assigned to each of all the motion vectors included in the set C described above, and a binary number assigned to the first direction motion vector and / or the second direction motion vector defined as the motion vector of the current block. Can be encoded. However, as described above, the first direction motion vector of the current block is determined as one of the first direction motion vectors included in the C set, and thus the first direction motion vector included in the C set. Among the binary numbers assigned in order, the binary number assigned to the motion vector defined as the first direction motion vector of the current block is encoded as information indicating the first direction motion vector. Similarly, the second direction motion vector is the binary number assigned to the motion vector defined as the second direction motion vector of the current block among the binary numbers sequentially assigned to the second direction motion vectors included in the C set. Are encoded as information indicating the second direction motion vector.

図14は、本発明のさらに他の実施形態による映像復号化装置を示す図面である。図14の映像復号化装置1400は、図2の映像復号化装置200及び図5の映像符号化装置500に備えられてインター予測を行い、現在ブロックを復号化する装置である。   FIG. 14 is a view illustrating a video decoding apparatus according to another embodiment of the present invention. A video decoding apparatus 1400 in FIG. 14 is an apparatus that is provided in the video decoding apparatus 200 in FIG. 2 and the video encoding apparatus 500 in FIG. 5 to perform inter prediction and decode the current block.

図14を参照すれば、本発明の一実施形態による映像復号化装置1400は、復号化部1410、動きベクトル決定部1420及び復元部1430を備える。   Referring to FIG. 14, a video decoding apparatus 1400 according to an embodiment of the present invention includes a decoding unit 1410, a motion vector determination unit 1420, and a restoration unit 1430.

復号化部1410は、現在ブロックに対するデータを含むビットストリームを受信し、予測方向についての情報を復号化する。映像復号化装置1400は、現在ブロック以前に復号化された、少なくとも一つのブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定め、定められた動きベクトルに基づいて現在ブロックを復元する復号化モードによって復号化を行うところ、現在ブロックの動きベクトルを定める前に現在ブロックの予測方向についての情報を復号化する。シーケンスパラメータ、スライスパラメータまたはブロックパラメータとして、ビットストリームに含まれている予測方向についての情報を復号化する。   The decoding unit 1410 receives a bitstream including data for the current block, and decodes information about the prediction direction. The video decoding apparatus 1400 determines a motion vector of the current block based on the motion vector of at least one block decoded before the current block, and restores the current block based on the determined motion vector In this case, the information about the prediction direction of the current block is decoded before the motion vector of the current block is determined. Information about the prediction direction included in the bitstream is decoded as a sequence parameter, a slice parameter, or a block parameter.

直接予測モードやスキップモードのように、以前に符号化されたブロックの動きベクトルに基づいて現在ブロックの動きベクトルを定める符号化/復号化モードは、特定方向の予測のみを用いて現在ブロックを符号化/復号化したが、本発明による符号化/復号化方法は、第1方向の予測、第2方向の予測及び双方向予測すべてに基づいて、直接予測モードやスキップモードで現在ブロックを符号化/復号化する。このために、前述した映像符号化装置900は、予測方向についての情報を符号化してビットストリームに挿入する。復号化部1410は、映像符号化装置900でビーストストリームに挿入した予測方向についての情報を復号化する。   The encoding / decoding mode that determines the motion vector of the current block based on the motion vector of the previously encoded block, such as the direct prediction mode and the skip mode, encodes the current block using only prediction in a specific direction. Although the encoding / decoding method according to the present invention encodes the current block in the direct prediction mode or the skip mode based on all of the prediction in the first direction, the prediction in the second direction, and the bidirectional prediction. / Decrypt. For this purpose, the video encoding apparatus 900 described above encodes information about the prediction direction and inserts it into the bitstream. The decoding unit 1410 decodes information about the prediction direction inserted into the beast stream by the video encoding device 900.

復号化部1410は、予測方向についての情報と共に、複数の動きベクトル候補から現在ブロックの動きベクトルを指示する情報を復号化する。現在ブロックの動きベクトルが、前述したように、符号化側と復号化側との間に共有された動きベクトル決定方法によって暗示的に定められる場合には、現在ブロックの動きベクトルは既に定められた方法によって一つに定められるので、動きベクトルを指示する情報を復号化する必要がない。しかし、前述したように、以前に符号化された複数のブロックの動きベクトルに基づいて複数の動きベクトル候補を生成し、そのうち現在ブロックの動きベクトルが定められた場合には、複数の動きベクトル候補から現在ブロックの動きベクトルを特定するための情報を復号化する。   The decoding unit 1410 decodes information indicating the motion vector of the current block from a plurality of motion vector candidates together with information on the prediction direction. If the motion vector of the current block is implicitly determined by the motion vector determination method shared between the encoding side and the decoding side, as described above, the motion vector of the current block is already determined. Since it is determined as one by the method, it is not necessary to decode the information indicating the motion vector. However, as described above, a plurality of motion vector candidates are generated based on previously encoded motion vectors of a plurality of blocks, and when a motion vector of a current block is determined, a plurality of motion vector candidates From this, the information for specifying the motion vector of the current block is decoded.

また、復号化部1410は、現在ブロックのピクセル値についての情報を復号化する。現在ブロックのレジデュアルブロックについての情報を復号化するか、または現在ブロックが予測ブロックと同一であることを示すフラッグ情報を復号化する。復号化部1410は、レジデュアルブロックについての情報をエントロピー復号化、逆量子化、逆変換して、レジデュアルブロックを復元する。   Also, the decoding unit 1410 decodes information about the pixel value of the current block. The information about the residual block of the current block is decoded, or the flag information indicating that the current block is the same as the prediction block is decoded. The decoding unit 1410 restores the residual block by entropy decoding, inverse quantization, and inverse transformation of the information about the residual block.

動きベクトル決定部1420は、復号化部1410で復号化された予測方向についての情報に基づいて所定方向の予測を行うための現在ブロックの動きベクトルを定める。復号化された予測方向についての情報を参照した結果、第1方向の予測を行うと判断されれば、第1方向動きベクトルを定め、第2方向の予測を行うと判断されれば、第2方向動きベクトルを定める。双方向予測を行うと判断されれば、第1方向動きベクトル及び第2方向動きベクトルを定める。   The motion vector determination unit 1420 determines a motion vector of the current block for performing prediction in a predetermined direction based on the information about the prediction direction decoded by the decoding unit 1410. As a result of referring to the information about the decoded prediction direction, if it is determined that the prediction in the first direction is performed, the first direction motion vector is determined, and if it is determined that the prediction in the second direction is performed, the second Determine the direction motion vector. If it is determined that bidirectional prediction is to be performed, a first direction motion vector and a second direction motion vector are determined.

符号化側と復号化側との間の共有された動きベクトル決定方法によって暗黙的に現在ブロックの動きベクトルが定められる場合には、共有された動きベクトル決定方法によって現在ブロックの動きベクトルを定める。暗黙的に現在ブロックの動きベクトルを定める方法は、図11A及び図11Bに関して前述した。   When the motion vector of the current block is implicitly determined by the shared motion vector determination method between the encoding side and the decoding side, the motion vector of the current block is determined by the shared motion vector determination method. The method for implicitly determining the motion vector of the current block has been described above with respect to FIGS. 11A and 11B.

しかし、複数の動きベクトル候補から現在ブロックの動きベクトルを定める場合には、復号化部1410で復号化された複数の動きベクトル候補から、現在ブロックを指示する情報に基づいて現在ブロックの動きベクトルを定める。現在ブロック以前に復号化された少なくとも一つのブロックの動きベクトルを用いて複数の動きベクトル候補を生成し、生成された複数の動きベクトル候補から現在ブロックの動きベクトルを定める。   However, when determining the motion vector of the current block from a plurality of motion vector candidates, the motion vector of the current block is determined from the plurality of motion vector candidates decoded by the decoding unit 1410 based on the information indicating the current block. Determine. A plurality of motion vector candidates are generated using the motion vector of at least one block decoded before the current block, and a motion vector of the current block is determined from the generated plurality of motion vector candidates.

現在ブロックが第1方向の予測のみ用いる場合には、復号化部1410で復号化された第1方向動きベクトルを指示する情報を参照して、複数の動きベクトル候補から第1方向動きベクトルを定め、現在ブロックが第2方向の予測のみ用いる場合には、復号化部1410で復号化された第2方向動きベクトルを指示する情報を参照して、複数の動きベクトル候補から第2方向動きベクトルを定める。現在ブロックが双方向予測を用いる場合には、復号化部1410で復号化された第1方向動きベクトルを指示する情報及び第2方向動きベクトルを指示する情報を参照して、複数の動きベクトル候補から第1方向動きベクトル及び第2方向動きベクトルを定められる。   When the current block uses only prediction in the first direction, the first direction motion vector is determined from a plurality of motion vector candidates with reference to the information indicating the first direction motion vector decoded by the decoding unit 1410. When the current block uses only the prediction in the second direction, the second direction motion vector is determined from a plurality of motion vector candidates by referring to the information indicating the second direction motion vector decoded by the decoding unit 1410. Determine. When the current block uses bi-directional prediction, a plurality of motion vector candidates are referenced with reference to information indicating the first direction motion vector and information indicating the second direction motion vector decoded by the decoding unit 1410. From the first direction motion vector and the second direction motion vector.

復元部1430は、復号化部1410で復号化されたピクセル値についての情報、及び動きベクトル決定部1420で定められた現在ブロックの動きベクトルに基づいて現在ブロックを復元する。   The restoration unit 1430 restores the current block based on the information about the pixel value decoded by the decoding unit 1410 and the motion vector of the current block determined by the motion vector determination unit 1420.

動きベクトル決定部1410で定められた動きベクトルによって第1方向の予測、第2方向の予測または双方向の予測を行って、現在ブロックの予測ブロックを生成する。復号化部1410でピクセル値についての情報を復号化した結果、レジデュアルブロックが復元された場合には、復元されたレジデュアルブロックと予測ブロックとを加算して現在ブロックを復元する。復号化部1410で、予測ブロックが現在ブロックと同一であるとを示すフラッグ情報が復号化された場合には、予測ブロックをそのまま復元された現在ブロックで用いる。   The prediction in the first direction, the prediction in the second direction, or the bidirectional prediction is performed using the motion vector determined by the motion vector determination unit 1410 to generate a prediction block of the current block. When the residual block is restored as a result of decoding the information about the pixel value by the decoding unit 1410, the restored block and the prediction block are added to restore the current block. When the decoding unit 1410 decodes the flag information indicating that the prediction block is the same as the current block, the prediction block is used as it is in the restored current block.

予測のために参照するピクチャーは、以前に復号化されたブロックの参照番号に基づいて類推される。図11Bに関して前述したように、以前に復号化されたブロックの参照番号に基づいて現在ブロックの参照番号を定め、これに対応する参照ピクチャーが定められてもよい。また、動きベクトル決定部1410で定められた動きベクトルに対応する参照ピクチャーが、現在ブロックの参照ピクチャーとして定められる。例えば、図11Aに関して前述したように、mv_L0Aが現在ブロックの第1方向動きベクトルと定められれば、mv_L0Aによる先行ピクチャー1112が現在ブロックの参照ピクチャーとして自動的に定められる。   The picture to be referred for prediction is inferred based on the reference number of the previously decoded block. As described above with reference to FIG. 11B, a reference number of a current block may be determined based on a reference number of a previously decoded block, and a corresponding reference picture may be determined. Also, the reference picture corresponding to the motion vector determined by the motion vector determination unit 1410 is determined as the reference picture of the current block. For example, as described above with reference to FIG. 11A, if mv_L0A is determined as the first direction motion vector of the current block, the preceding picture 1112 by mv_L0A is automatically determined as the reference picture of the current block.

図15は、本発明の一実施形態による映像符号化方法を説明するためのフローチャートである。図15を参照すれば、段階1510で映像符号化装置は、現在ブロックの動きベクトルを定める。双方向予測ピクチャーである現在ピクチャーに含まれた現在ブロックの第1方向動きベクトル及び第2方向動きベクトルを定める。現在ブロックの動きベクトルは、図11A及び図11Bを参照して前述したように、符号化する側と復号化する側との間に共有された動きベクトル決定方法によって暗黙的に定められても、図12A及び図12B、図13A及び図13Bを参照して前述したように、複数の動きベクトル候補を生成し、生成された複数の動きベクトル候補から第1方向動きベクトル及び第2方向動きベクトルを定めてもよい。   FIG. 15 is a flowchart for explaining a video encoding method according to an embodiment of the present invention. Referring to FIG. 15, in step 1510, the video encoding apparatus determines a motion vector of the current block. A first direction motion vector and a second direction motion vector of a current block included in a current picture that is a bi-predictive picture are defined. As described above with reference to FIGS. 11A and 11B, the motion vector of the current block may be implicitly determined by a motion vector determination method shared between the encoding side and the decoding side, As described above with reference to FIGS. 12A and 12B, and FIGS. 13A and 13B, a plurality of motion vector candidates are generated, and a first direction motion vector and a second direction motion vector are generated from the generated plurality of motion vector candidates. It may be determined.

段階1520で、映像符号化装置は、第1方向予測、第2方向予測及び双方向予測のうち、現在ブロックの符号化に用いられる予測を定める。第1方向動きベクトルによる第1方向予測、第2方向動きベクトルによる第2方向予測、第1方向動きベクトル及び第2方向動きベクトルによる双方向予測のうち、現在ブロックの符号化に用いられる予測を定める。   In operation 1520, the video encoding apparatus determines a prediction used for encoding the current block among the first direction prediction, the second direction prediction, and the bidirectional prediction. Of the first direction prediction based on the first direction motion vector, the second direction prediction based on the second direction motion vector, and the bidirectional prediction based on the first direction motion vector and the second direction motion vector, prediction used for encoding the current block is performed. Determine.

第1方向予測、第2方向予測及び双方向予測ののうち、現在ブロックを最も正確に予測できる予測を、現在ブロックの符号化に用いられる予測と定める。前述したように、予測ブロックと現在ブロックとのSADが最も小さい予測が、現在ブロックの符号化に用いられる予測と定められる。   Of the first directional prediction, the second directional prediction, and the bidirectional prediction, a prediction that can predict the current block most accurately is defined as a prediction used for encoding the current block. As described above, the prediction with the smallest SAD between the prediction block and the current block is determined as the prediction used for encoding the current block.

段階1530で、映像符号化装置は、段階1530で定められた予測の予測方向についての情報を符号化する。第1方向、第2方向及び双方向にそれぞれ二進数を割り当て、現在ブロックの符号化に用いられる予測方向に対応する二進数を符号化する。符号化された二進数を所定のエントロピー符号化方法によってエントロピー符号化する。予測方向についての情報が、シーケンスパラメータ、スライスパラメータまたはブロックパラメータとして符号化される。   In operation 1530, the video encoding apparatus encodes information about the prediction direction of the prediction determined in operation 1530. A binary number is assigned to each of the first direction, the second direction, and the bidirectional direction, and a binary number corresponding to the prediction direction used for encoding the current block is encoded. The encoded binary number is entropy encoded by a predetermined entropy encoding method. Information about the prediction direction is encoded as a sequence parameter, slice parameter or block parameter.

現在ブロックのピクセル値についての情報も符号化されるが、現在ブロックから予測ブロックを減算して生成されたレジデュアルブロックのレジデュアル値についての情報を符号化する。レジデュアルブロックを変換、量子化及びエントロピー符号化する。また、前述したように、予測ブロックが現在ブロックと同一であることを示すフラッグ情報のみ符号化してもよい。   Information about the pixel value of the current block is also encoded, but information about the residual value of the residual block generated by subtracting the prediction block from the current block is encoded. Residual blocks are transformed, quantized and entropy coded. As described above, only flag information indicating that the prediction block is the same as the current block may be encoded.

複数の動きベクトル候補から、現在ブロックの符号化に用いられた動きベクトルを特定するための情報も符号化する。現在ブロック以前に符号化された少なくとも一つのブロックの動きベクトルに基づいて複数の動きベクトル候補を生成し、そのうち一つを選択して現在ブロックの動きベクトルとして用いた場合に、複数の動きベクトル候補から選択された動きベクトルを指示する情報を符号化する。段階1520で、現在ブロックの予測方向として第1方向が定められたならば、第1方向動きベクトルについての情報のみ符号化され、段階1520で、現在ブロックの予測方向として第2方向が定められたならば、第2方向動きベクトルについての情報のみ符号化される。段階1520で、現在ブロックの予測方向に双方向予測が定められたならば、第1方向動きベクトルについての情報及び第2方向動きベクトルについての情報がいずれも符号化される。   Information for specifying a motion vector used for encoding the current block is also encoded from a plurality of motion vector candidates. When a plurality of motion vector candidates are generated based on the motion vector of at least one block encoded before the current block, and one of them is selected and used as the motion vector of the current block, the plurality of motion vector candidates The information indicating the motion vector selected from is encoded. If the first direction is determined as the prediction direction of the current block in step 1520, only information about the first direction motion vector is encoded. In step 1520, the second direction is determined as the prediction direction of the current block. Then, only the information about the second direction motion vector is encoded. If bi-directional prediction is determined in the prediction direction of the current block in step 1520, the information about the first direction motion vector and the information about the second direction motion vector are both encoded.

図16は、本発明の一実施形態による映像復号化方法を説明するためのフローチャートである。図16を参照すれば、段階1610で、映像復号化装置は、第1方向、第2方向及び双方向のうち、現在ブロックの復号化に用いられる予測方向についての情報を復号化する。ビットストリームに含まれている予測方向についての情報を復号化する。第1方向、第2方向及び双方向それぞれに割り当てられている二進数は、現在ブロックの復号化に用いられる予測方向に対応する二進数を復号化する。シーケンスパラメータ、スライスパラメータまたはブロックパラメータとして、ビットストリームに含まれている予測方向についての情報を復号化する。   FIG. 16 is a flowchart for explaining a video decoding method according to an embodiment of the present invention. Referring to FIG. 16, in step 1610, the video decoding apparatus decodes information about a prediction direction used for decoding a current block among a first direction, a second direction, and a bidirectional direction. Decode information about the prediction direction included in the bitstream. The binary numbers assigned to the first direction, the second direction, and the bidirectional direction respectively decode the binary numbers corresponding to the prediction direction used for decoding the current block. Information about the prediction direction included in the bitstream is decoded as a sequence parameter, a slice parameter, or a block parameter.

また、映像復号化装置は、段階1610で現在ブロックのピクセル値についての情報を復号化する。現在ブロックのレジデュアルブロックに含まれたレジデュアル値についての情報を復号化する。レジデュアルブロックに対するデータをエントロピー復号化、逆量子化、逆変換して、レジデュアルブロックを復元する。現在ブロックが予測ブロックと同一であることを示す情報を復号化してもよい。   In step 1610, the video decoding apparatus decodes information about the pixel value of the current block. The information about the residual value included in the residual block of the current block is decoded. The residual block is restored by entropy decoding, inverse quantization, and inverse transform of the data for the residual block. Information indicating that the current block is the same as the prediction block may be decoded.

現在ブロックの動きベクトルが、前述した複数の動きベクトル候補から定められる場合には、複数の動きベクトル候補から、現在ブロックの復号化に用いられる動きベクトルを特定するための情報が復号化される。予測方向についての情報を復号化した結果、現在ブロックの予測方向が第1方向ならば、複数の動きベクトル候補から、現在ブロックの第1方向動きベクトルを指示する情報が復号化され、現在ブロックの予測方向が第2方向ならば、複数の動きベクトル候補から、現在ブロックの第2方向動きベクトルを指示する情報が復号化される。現在ブロックの予測方向が双方向ならば、複数の動きベクトル候補から、第1方向動きベクトル及び第2方向動きベクトルを指示する情報が復号化される。   When the motion vector of the current block is determined from the plurality of motion vector candidates described above, information for specifying the motion vector used for decoding the current block is decoded from the plurality of motion vector candidates. As a result of decoding the information on the prediction direction, if the prediction direction of the current block is the first direction, information indicating the first direction motion vector of the current block is decoded from a plurality of motion vector candidates, If the prediction direction is the second direction, information indicating the second direction motion vector of the current block is decoded from a plurality of motion vector candidates. If the prediction direction of the current block is bidirectional, information indicating the first direction motion vector and the second direction motion vector is decoded from a plurality of motion vector candidates.

段階1620で、映像復号化装置は、段階1610で復号化された予測方向についての情報に基づいて現在ブロックの予測方向を定める。段階1610で復号化された予測方向に対応する二進数に基づいて現在ブロックの予測方向を定める。予測方向が定められれば、定められた予測方向の予測を行うための少なくても一つの動きベクトルを定める。   In operation 1620, the video decoding apparatus determines a prediction direction of the current block based on the information on the prediction direction decoded in operation 1610. The prediction direction of the current block is determined based on the binary number corresponding to the prediction direction decoded in step 1610. If the prediction direction is determined, at least one motion vector for performing prediction in the determined prediction direction is determined.

前述したように、符号化する側と復号化する側との間に共有された動きベクトル決定方法によって、暗示的に現在ブロックの動きベクトルが定められる。また、複数の動きベクトル候補から、現在ブロックの動きベクトルを明示的に選択した場合には、現在ブロック以前に復号化された少なくとも一つのブロックの動きベクトルに基づいて複数の動きベクトル候補を生成し、生成された複数の動きベクトル候補から、現在ブロックの動きベクトルを定める。段階1610で復号化された複数の動きベクトル候補から、現在ブロックの動きベクトルを指示する情報に基づいて現在ブロックの動きベクトルを定める。段階1610で復号化された情報に基づいて、第1方向動きベクトル、第2方向動きベクトルのうち少なくとも一つが定められる。   As described above, the motion vector of the current block is implicitly determined by the motion vector determination method shared between the encoding side and the decoding side. In addition, when a motion vector of the current block is explicitly selected from a plurality of motion vector candidates, a plurality of motion vector candidates are generated based on the motion vector of at least one block decoded before the current block. The motion vector of the current block is determined from the generated motion vector candidates. A motion vector of the current block is determined from a plurality of motion vector candidates decoded in step 1610 based on information indicating the motion vector of the current block. At least one of the first direction motion vector and the second direction motion vector is determined based on the information decoded in step 1610.

段階1630で、映像復号化装置は現在ブロックを復元する。段階1620で定められた現在ブロックの動きベクトルに基づいて予測ブロックを生成し、生成された予測ブロックに基づいて現在ブロックを復元する。   In operation 1630, the video decoding apparatus restores the current block. A prediction block is generated based on the motion vector of the current block determined in step 1620, and the current block is restored based on the generated prediction block.

段階1620で定められた現在ブロックの第1方向動きベクトル及び/または第2方向動きベクトルに基づいて、第1方向予測、第2方向予測及び双方向予測のうち一つを行って、現在ブロックの予測ブロックを生成する。   Based on the first direction motion vector and / or the second direction motion vector of the current block determined in step 1620, one of the first direction prediction, the second direction prediction, and the bidirectional prediction is performed, and Generate a prediction block.

段階1610で、レジデュアルブロックが復元された場合には、生成された予測ブロックと復元されたレジデュアルブロックとを加算して現在ブロックを復元する。段階1610で、予測ブロックと現在ブロックとが同一であることを示す情報が復号化された場合には、予測ブロックが現在ブロックになる。   If the residual block is restored in operation 1610, the current block is restored by adding the generated prediction block and the restored residual block. If the information indicating that the prediction block is the same as the current block is decoded in step 1610, the prediction block becomes the current block.

以上、本発明が、たとえ限定された実施形態及び図面によって説明されたとしても、本発明は前記の実施形態に限定されるものではなく、当業者ならば、これらの記載から多様な修正及び変形が可能である。したがって、本発明の思想は、特許請求の範囲のみによって把握されねばならず、これと均等または等価的な変形はいずれも本発明の思想の範疇に属するといえる。また、本発明によるシステムは、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現できる。   As mentioned above, even if this invention is demonstrated with limited embodiment and drawing, this invention is not limited to the said embodiment, Those skilled in the art can perform various correction and deformation | transformation from these description. Is possible. Therefore, the idea of the present invention should be understood only from the scope of the claims, and any equivalent or equivalent modifications can be said to belong to the category of the idea of the present invention. In addition, the system according to the present invention can be embodied as a computer readable code on a computer readable recording medium.

例えば、本発明の例示的な実施形態による映像符号化装置、映像復号化装置、動きベクトル符号化装置及び動きベクトル復号化装置は、図1、2、4、5、9及び14に示したような装置のそれぞれのユニットにカップリングされたバス、前記バスに結合された少なくとも一つのプロセッサーを含む。また、命令、受信されたメッセージまたは生成されたメッセージを保存するために前記バスに結合されて、前述したような命令を行うための少なくても一つのプロセッサーにカップリングされたメモリを含む。   For example, the video encoding device, the video decoding device, the motion vector encoding device, and the motion vector decoding device according to exemplary embodiments of the present invention are as shown in FIGS. A bus coupled to each unit of the device, and at least one processor coupled to the bus. It also includes a memory coupled to the bus for storing instructions, received messages or generated messages and coupled to at least one processor for executing instructions as described above.

また、コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取られるデータが保存されるすべての記録装置を含む。記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などを含む。またコンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散して、分散方式でコンピュータで読み取り可能なコードが保存されて行われる。   The computer-readable recording medium includes all recording devices in which data to be read by a computer system is stored. Examples of the recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy (registered trademark) disk, optical data storage device, and the like. The computer-readable recording medium is distributed to computer systems connected to a network, and computer-readable codes are stored in a distributed manner.

1400 映像復号化装置
1410 復号化部
1420 動きベクトル決定部
1430 復元部
1400 Video decoding device 1410 Decoding unit 1420 Motion vector determining unit 1430 Restoring unit

Claims (3)

ビデオ復号化方法において、
ビットストリームからL0方向、L1方向、及び双方向のうち一方向を示す現在ブロックの予測方向についての情報を獲得する段階と、
前記現在ブロック以前に復号化された少なくとも一つのブロックの動きベクトルに基づいて前記現在ブロックの動きベクトル候補を生成する段階と、
前記現在ブロックの予測方向についての情報によって、前記生成された動きベクトル候補のうち、少なくとも一つの候補を示す情報を前記ビットストリームから獲得する段階と、
前記少なくとも一つの候補を示す情報に基づいて、前記動きベクトル候補に含まれた前記L0方向の動きベクトル候補及び前記L1方向の動きベクトル候補のうち、少なくとも一つの動きベクトル候補を用いて前記現在ブロックの少なくとも一つの動きベクトルを決定する段階と、を含む方法。
In the video decoding method,
Obtaining information about the prediction direction of the current block indicating one of L0 direction, L1 direction, and bidirectional from the bitstream;
Generating motion vector candidates for the current block based on motion vectors of at least one block decoded before the current block;
Acquiring information indicating at least one of the generated motion vector candidates from the bitstream according to information on a prediction direction of the current block;
Based on the information indicating the at least one candidate, the current block using at least one motion vector candidate among the motion vector candidates in the L0 direction and the motion vector candidates in the L1 direction included in the motion vector candidates. Determining at least one motion vector.
前記生成された動きベクトル候補のうち、少なくとも一つの候補を示す情報を前記ビットストリームから獲得する段階は、
前記現在ブロックの予測方向についての情報が前記L0方向を示す場合、前記動きベクトル候補に含まれた前記L0方向の動きベクトル候補のうち、一つを示す情報を獲得する段階と、
前記現在ブロックの予測方向についての情報が前記L1方向を示す場合、前記動きベクトル候補に含まれた前記L1方向の動きベクトル候補のうち、一つを示す情報を獲得する段階と、
前記現在ブロックの予測方向についての情報が前記両方向を示す場合、前記動きベクトル候補に含まれた前記L0方向の動きベクトル候補のうち、一つを示す情報及び前記動きベクトル候補に含まれた前記L1方向の動きベクトル候補のうち、一つを示す情報を獲得する段階と、を含む請求項1に記載の方法。
The step of acquiring information indicating at least one candidate among the generated motion vector candidates from the bitstream includes:
If the information about the prediction direction of the current block indicates the L0 direction, obtaining information indicating one of the motion vector candidates in the L0 direction included in the motion vector candidates;
When the information about the prediction direction of the current block indicates the L1 direction, obtaining information indicating one of the motion vector candidates in the L1 direction included in the motion vector candidates;
When the information about the prediction direction of the current block indicates both directions, information indicating one of the motion vector candidates in the L0 direction included in the motion vector candidates and the L1 included in the motion vector candidates The method according to claim 1, further comprising: obtaining information indicating one of directional motion vector candidates.
ビデオ復号化装置において、
ビットストリームからL0方向、L1方向、及び双方向のうち一つを示す現在ブロックの予測方向についての情報を復号化する復号化部と、
前記現在ブロック以前に復号化された少なくとも一つのブロックの動きベクトルに基づいて前記現在ブロックの動きベクトル候補を生成する動きベクトル決定部と、を含み、
前記復号化部は、
前記現在ブロックの予測方向によって、前記生成された動きベクトル候補のうち、少なくとも一つの候補を示す情報を前記ビットストリームから獲得し、
前記動きベクトル決定部は、
前記少なくとも一つの候補を示す情報に基づいて、前記動きベクトル候補に含まれた前記L0方向の動きベクトル候補及び前記L1方向の動きベクトル候補のうち、少なくとも一つの動きベクトル候補を用いて、前記現在ブロックの少なくとも一つの動きベクトルを決定することを特徴とするビデオ復号化装置。
In a video decoding device,
A decoding unit that decodes information about the prediction direction of the current block indicating one of L0 direction, L1 direction, and bidirectional from the bitstream;
A motion vector determining unit that generates a motion vector candidate of the current block based on a motion vector of at least one block decoded before the current block;
The decoding unit
According to the prediction direction of the current block, information indicating at least one candidate among the generated motion vector candidates is acquired from the bitstream;
The motion vector determination unit
Based on the information indicating the at least one candidate, using the at least one motion vector candidate among the motion vector candidates in the L0 direction and the motion vector candidates in the L1 direction included in the motion vector candidates, A video decoding device, wherein at least one motion vector of a block is determined.
JP2016111255A 2010-01-19 2016-06-02 Method and apparatus for encoding/decoding video using motion vector of previous block as motion vector for current block Pending JP2016154395A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US29614110P 2010-01-19 2010-01-19
US61/296,141 2010-01-19
KR1020110005377A KR101607308B1 (en) 2010-01-19 2011-01-19 Method and apparatus for encoding/decoding image by using motion vector of previous block as motion vector of current block
KR10-2011-0005377 2011-01-19

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012549942A Division JP2013517733A (en) 2010-01-19 2011-01-19 Video encoding / decoding method and apparatus using previous block motion vector as current block motion vector

Publications (1)

Publication Number Publication Date
JP2016154395A true JP2016154395A (en) 2016-08-25

Family

ID=44922600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016111255A Pending JP2016154395A (en) 2010-01-19 2016-06-02 Method and apparatus for encoding/decoding video using motion vector of previous block as motion vector for current block

Country Status (4)

Country Link
JP (1) JP2016154395A (en)
KR (5) KR101607308B1 (en)
CN (1) CN105025298B (en)
PH (4) PH12016501595A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101293200B1 (en) * 2011-09-23 2013-08-05 세종대학교산학협력단 Method and apparatus for hevc image encoding
KR102070431B1 (en) * 2012-01-19 2020-01-28 삼성전자주식회사 Method and apparatus for encoding video with restricting bi-directional prediction and block merging, method and apparatus for decoding video
KR101510585B1 (en) * 2013-01-29 2015-04-08 세종대학교산학협력단 Device and method for encoding/decoding motion information
US10958931B2 (en) 2016-05-11 2021-03-23 Lg Electronics Inc. Inter prediction method and apparatus in video coding system
CN116567263A (en) 2016-05-24 2023-08-08 韩国电子通信研究院 Image encoding/decoding method and recording medium therefor
US11647228B2 (en) 2016-07-15 2023-05-09 Lg Electronics Inc. Method and apparatus for encoding and decoding video signal using transform domain prediction for prediction unit partition
JP7108784B2 (en) 2018-08-21 2022-07-28 華為技術有限公司 DATA STORAGE METHOD, DATA ACQUISITION METHOD, AND DEVICE

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004208258A (en) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd Motion vector calculating method
JP2007532036A (en) * 2003-09-07 2007-11-08 マイクロソフト コーポレーション Advanced bi-directional predictive coding of interlaced video
JP2009201112A (en) * 2008-02-20 2009-09-03 Samsung Electronics Co Ltd Coding and decoding methods for direct mode
WO2010002214A2 (en) * 2008-07-02 2010-01-07 삼성전자 주식회사 Image encoding method and device, and decoding method and device therefor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101042623B1 (en) * 2004-11-17 2011-06-20 삼성전자주식회사 Method for deinterlacing in use of field variable partition type and apparatus thereof
KR101330630B1 (en) * 2006-03-13 2013-11-22 삼성전자주식회사 Method and apparatus for encoding moving picture, method and apparatus for decoding moving picture, applying adaptively an optimal prediction mode

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004208258A (en) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd Motion vector calculating method
JP2007532036A (en) * 2003-09-07 2007-11-08 マイクロソフト コーポレーション Advanced bi-directional predictive coding of interlaced video
JP2009201112A (en) * 2008-02-20 2009-09-03 Samsung Electronics Co Ltd Coding and decoding methods for direct mode
WO2010002214A2 (en) * 2008-07-02 2010-01-07 삼성전자 주식회사 Image encoding method and device, and decoding method and device therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
THOMAS WIEGAND ET AL.: "WD1: Working Draft 1 of High-Efficiency Video Coding", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-C403, JPN6016048950, 6 January 2011 (2011-01-06), pages 37 - 57, ISSN: 0003465713 *

Also Published As

Publication number Publication date
KR20110085925A (en) 2011-07-27
PH12016501593A1 (en) 2017-07-10
PH12016501594B1 (en) 2017-07-10
KR101607308B1 (en) 2016-03-29
KR101752763B1 (en) 2017-06-30
KR102027474B1 (en) 2019-10-01
CN105025298B (en) 2019-04-16
KR20160046319A (en) 2016-04-28
CN105025298A (en) 2015-11-04
PH12016501592B1 (en) 2017-07-10
KR20170094096A (en) 2017-08-17
KR101859451B1 (en) 2018-05-21
KR102114421B1 (en) 2020-05-22
PH12016501593B1 (en) 2017-07-10
KR20180067472A (en) 2018-06-20
KR20190108539A (en) 2019-09-24
PH12016501594A1 (en) 2017-07-10
PH12016501595B1 (en) 2017-07-10
PH12016501595A1 (en) 2017-07-10
PH12016501592A1 (en) 2017-07-10

Similar Documents

Publication Publication Date Title
US10110902B2 (en) Method and apparatus for encoding/decoding motion vector
JP5937717B2 (en) Video decoding method and apparatus
KR102114421B1 (en) Method and apparatus for encoding/decoding image by using motion vector of previous block as motion vector of current block
JP2013517733A (en) Video encoding / decoding method and apparatus using previous block motion vector as current block motion vector
JP6935553B2 (en) Methods and Devices for Coding / Decoding Motion Vectors Based on Reduced Predicted Motion Vector Candidates

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170711