JP2010010950A - Image coding/decoding method and apparatus - Google Patents
Image coding/decoding method and apparatus Download PDFInfo
- Publication number
- JP2010010950A JP2010010950A JP2008166348A JP2008166348A JP2010010950A JP 2010010950 A JP2010010950 A JP 2010010950A JP 2008166348 A JP2008166348 A JP 2008166348A JP 2008166348 A JP2008166348 A JP 2008166348A JP 2010010950 A JP2010010950 A JP 2010010950A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- image
- block
- inter
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、動画像や静止画像の符号化/復号化方法及び装置に関する。 The present invention relates to a method and apparatus for encoding / decoding moving images and still images.
ITU-T及びISO/IECより、動画像符号化方式の共同勧告(標準)としてITU-T Rec. H. 264及びISO/IEC 14496-10(以下、単にH.264と称する)が策定されている。H.264では、符号化対象の矩形ブロック(符号化対象ブロック)毎に予測処理、変換処理及びエントロピー符号化処理が行われる。上記予測処理では、例えば、既に符号化済みのフレーム(参照フレーム)が参照され、符号化対象ブロックに対して時間方向の予測(動き補償)が行われる。上記動き補償では、一般に、符号化対象ブロックと参照フレーム内において参照されるブロックとの間の空間的シフト情報である動きベクトルを符号化する必要がある。また、上記参照フレームを複数用いる場合には、個々の参照フレームを識別するために参照フレーム番号も符号化する必要がある。 ITU-T Rec. H. 264 and ISO / IEC 14496-10 (hereinafter simply referred to as H.264) have been formulated by ITU-T and ISO / IEC as joint recommendations (standards) for video coding systems. Yes. In H.264, prediction processing, conversion processing, and entropy coding processing are performed for each rectangular block to be coded (coding target block). In the prediction process, for example, a frame (reference frame) that has already been encoded is referred to, and temporal prediction (motion compensation) is performed on the encoding target block. In the motion compensation, it is generally necessary to encode a motion vector that is spatial shift information between a block to be encoded and a block referenced in a reference frame. When a plurality of reference frames are used, it is necessary to encode a reference frame number in order to identify each reference frame.
非特許文献1記載の動画像符号化方式(即ち、H.264)は、符号化対象ブロックの隣接ブロックの動きベクトルが既に符号化済みである場合に、当該隣接ブロックの動きベクトルに基づき予測動きベクトル(例えば、隣接ブロックの動きベクトルのメディアン値)を導出する。非特許文献1記載の動画像符号化方式は、上記予測動きベクトルと符号化対象ブロックに対し実際に導出した動きベクトルとの間の差分を符号化している。
In the moving picture coding method described in Non-Patent Document 1 (ie, H.264), when a motion vector of an adjacent block of an encoding target block has already been encoded, a predicted motion is based on the motion vector of the adjacent block. A vector (for example, a median value of a motion vector of an adjacent block) is derived. The moving picture encoding method described in Non-Patent
非特許文献2記載の動画像符号化方式は、上記予測動きベクトルのバリエーションを複数用意し、符号化対象ブロック毎に利用する予測動きベクトルを切り替え、選択された予測動きベクトルと符号化対象ブロックに対し実際に導出した動きベクトルとの間の差分を符号化している。従って、非特許文献2記載の動画像符号化方式によれば、符号量が小さくなるように予測動きベクトルを選択的に利用することができる。
The moving picture coding method described in Non-Patent
特許文献1記載の動画像符号化方法は、既に符号化済みの動きベクトルをフレーム単位で保存しておき、当該フレーム内において符号化対象ブロックと同位置(Collocate位置)のブロックの動きベクトルを、当該符号化対象ブロックの動きベクトルをして取得している。従って、特許文献1記載の動画像符号化方法によれば、動きベクトルの符号化を省略することができる。
非特許文献1記載の動画像符号化方式は、予測動きベクトルと、符号化対象ブロックに関し実際に導出した動きベクトルとの間の差分を符号化しているが、当該差分に関する符号量が上記実際に導出した動きベクトルに関する符号量を下回るとは限らない。
The moving image encoding method described in Non-Patent
非特許文献2記載の動画像符号化方式は、符号化対象ブロック毎にいずれの予測動きベクトルが選択されたかを復号化側に通知するために切り替え情報を符号化する必要がある。即ち、非特許文献2記載の動画像符号化方式は、上記切り替え情報の符号量により却って符号量が増大するおそれがある。
In the moving picture encoding method described in Non-Patent
特許文献1記載の動画像符号化方法によれば、動きベクトルの符号化を省略することは可能であるが、Collocate位置のブロックに関する動きベクトルは符号化対象ブロックの動きベクトルとして必ずしも適切でない。
According to the moving picture encoding method described in
従って、本発明は符号化効率の高い画像符号化/復号化装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an image encoding / decoding device with high encoding efficiency.
本発明の一態様に係る画像符号化方法は、既に符号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶することと、前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、前記第2のインター予測画像と原画像との間の予測誤差を符号化することとを具備する。 An image encoding method according to an aspect of the present invention sequentially stores a first motion vector corresponding to an already encoded first pixel region, and a motion including at least one of the first motion vectors. Deriving a vector group; deriving a second motion vector corresponding to each of the third pixel areas obtained by dividing the second pixel area before encoding based on the motion vector group; The first inter-predicted image of each of the third pixel regions using the two motion vectors, and the first inter-predicted image is integrated to generate the second pixel before the encoding Generating a second inter prediction image corresponding to the region, and encoding a prediction error between the second inter prediction image and the original image.
本発明の他の態様に係る画像符号化方法は、既に符号化済みの第1の画素領域を分割した第2の画素領域に対応する第1の動きベクトルを逐次記憶することと、空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、前記動きベクトルブロックを構成する第1の動きベクトルの各々を、符号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記符号化前の第1の画素領域に対応する第2のインター予測画像を生成することと、前記第2のインター予測画像と原画像との間の予測誤差を符号化することとを具備する。 An image encoding method according to another aspect of the present invention includes: sequentially storing a first motion vector corresponding to a second pixel region obtained by dividing a first pixel region that has already been encoded; Summarizing the continuous first motion vectors, deriving a motion vector block having the same size as the first pixel region, and each of the first motion vectors constituting the motion vector block before encoding As the second motion vector corresponding to each of the third pixel regions obtained by dividing the first pixel region, substituting the second motion vector so as to correspond spatially, and using the second motion vector, Generating a first inter prediction image of each pixel region and integrating the first inter prediction image to generate a second inter prediction image corresponding to the first pixel region before encoding And said first Comprising and encoding the prediction error between the inter prediction image and the original image.
本発明の一態様に係る画像復号化方法は、符号化された予測誤差を復号化することと、既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶することと、前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することとを具備する。 An image decoding method according to an aspect of the present invention includes decoding an encoded prediction error, sequentially storing a first motion vector corresponding to an already decoded first pixel region, and Deriving a motion vector group including at least one of the first motion vectors, and corresponding to each of the third pixel regions obtained by dividing the second pixel region before decoding based on the motion vector group Deriving a second motion vector; generating a first inter-predicted image for each of the third pixel regions using the second motion vector; and The second inter prediction image corresponding to the second pixel region before decoding is integrated, and the second inter prediction image and the prediction error are added to generate a decoded image. It comprises.
本発明の他の態様に係る画像復号化方法は、符号化された予測誤差を復号化することと、既に復号化済みの第1の画素領域を分割した第2の画素領域に対応する第1の動きベクトルを逐次記憶することと、空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、前記動きベクトルブロックを構成する第1の動きベクトルの各々を、復号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、前記第1のインター予測画像を統合して、前記復号化前の第1の画素領域に対応する第2のインター予測画像を生成することと、前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することとを具備する。 An image decoding method according to another aspect of the present invention includes decoding a coded prediction error and a first pixel area corresponding to a second pixel area obtained by dividing the already decoded first pixel area. Sequentially storing the first motion vectors, deriving a first motion vector block having the same size as the first pixel area, and configuring the first motion vector block Substituting each of the first motion vectors as a second motion vector corresponding to each of the third pixel regions obtained by dividing the first pixel region before decoding, corresponding to each other, Using the second motion vector, the first inter prediction image of each of the third pixel regions is generated, and the first inter prediction image is integrated to generate the first inter-prediction image before decoding. A second corresponding to the pixel region Comprising generating a centers prediction image, and generating a decoded image by adding said prediction error and said second inter prediction image.
本発明によれば、符号化効率の高い画像符号化/復号化装置を提供できる。 According to the present invention, an image encoding / decoding device with high encoding efficiency can be provided.
以下、図面を参照して、本発明の実施形態について説明する。
(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る画像符号化装置は、画像符号化部1000、符号化制御部130及び出力バッファ112を有する。図1の画像符号化装置は、LSIチップなどのハードウエアにより実現されてよいし、コンピュータに画像符号化プログラムを実行させることにより実現されてもよい。画像符号化部1000は、インター予測部101、減算部102、変換・量子化部103、エントロピー符号化部104、逆変換・逆量子化部105、加算部106、参照画像メモリ107及び動きベクトル導出部124を有する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
As shown in FIG. 1, the image coding apparatus according to the first embodiment of the present invention includes an
符号化制御部130は、発生符号量のフィードバック制御、量子化制御、予測モード制御及びエントロピー符号化制御といった画像符号化部1000による符号化処理全般を制御する。具体的には、符号化制御部130は、画像符号化部1000の各部に符号化制御情報30を設定し、また、画像符号化部1000の各部からフィードバック情報31を適宜取得する。符号化制御情報30には、予測情報22(予測モード情報及びブロックサイズ切り替え情報を含む)、動きベクトル情報18、動きベクトルブロック情報21及び量子化パラメータ(量子化幅(量子化ステップサイズ)及び量子化マトリクスなどを含む)等が含まれる。フィードバック情報31は、画像符号化部1000による発生符号量を含み、例えば上記量子化パラメータの決定に用いられる。
The
画像符号化部1000には、動画像または静止画像である原画像10が、所定の処理単位(例えば、マクロブロック、サブブロックまたは1画素などの小画素ブロック)に分割されたうえで入力される。尚、上記処理単位はフレームまたはフィールドでもよい。以下の説明では、特に断りのない限り上記処理単位をマクロブロックとし、処理対象であるマクロブロック単位の原画像10を特に符号化対象ブロックと称する。
An
符号化対象ブロックのサイズは、図6Aに示すような16×16画素、図6Bに示すような8×8画素、或いは図6Cに示すような4×4画素であってもよいし、図示しないその他のサイズ(例えば32×32画素)でもよい。また、マクロブロックの形状は、正方形状に限らず任意形状でよいが、以下の説明では、マクロブロックの形状は正方形状であるものとする。 The size of the encoding target block may be 16 × 16 pixels as shown in FIG. 6A, 8 × 8 pixels as shown in FIG. 6B, or 4 × 4 pixels as shown in FIG. 6C. Other sizes (for example, 32 × 32 pixels) may be used. Further, the shape of the macroblock is not limited to a square shape, but may be an arbitrary shape. However, in the following description, the shape of the macroblock is assumed to be a square shape.
また、原画像10の符号化対象フレームを構成する各符号化対象ブロックに対する符号化処理順序は任意であるが、以下の説明では、図5に示すように左上から右下に至るまで、いわゆるラスタ・スキャン順に処理が行われるものとする。
In addition, although the encoding processing order for each encoding target block constituting the encoding target frame of the
インター予測部101は、後述する参照画像メモリ107から取得した参照画像(参照画像信号)17と、後述する動きベクトル導出部124から入力される複数の動きベクトル情報18と、符号化制御部130から通知される予測情報22とに基づきインター予測を行って、符号化対象ブロックの予測画像(予測画像信号)11を生成する。インター予測部101は、予測画像11を減算部102及び加算部106に入力する。尚、インター予測部101による予測処理は、図1の画像符号化装置が行う特徴的な予測処理に過ぎず、図1の画像符号化装置は、いわゆる通常のインター予測処理及びイントラ予測処理を選択的に行って予測画像11を生成してもよい。インター予測部101による予測処理の詳細は後述する。
The
減算部102は、符号化対象ブロックより予測画像11を減算し、予測誤差(予測誤差信号)12を変換・量子化部103に入力する。
The
変換・量子化部103は、減算部102からの予測誤差12に対して変換処理・量子化処理を行って、量子化された変換係数(以下、単に量子化変換係数と称する)13をエントロピー符号化部104及び逆変換・逆量子化部105に入力する。上記変換処理は、例えば離散コサイン変換(DCT;Discrete Cosine Transform)、ウェーブレット変換または独立成分解析などである。上記量子化処理は、符号化制御部130によって設定される量子化パラメータに従って行われる。
The transform /
エントロピー符号化部104は、変換・量子化部103からの量子化変換係数13、符号化制御部130からの動きベクトルブロック情報21、予測情報22及び量子化パラメータ等を含む符号化パラメータに対しエントロピー符号化を行って、符号化データ14を出力バッファ112に入力する。上記エントロピー符号化処理は、例えば等長符号化、ハフマン符号化または算術符号化等である。尚、従来の画像符号化装置は、インター予測を行った場合には動きベクトル情報18を符号化する必要があるが、図1の画像符号化装置は、上記動きベクトル情報18の符号化を行わず、動きベクトルブロック情報21を符号化する。符号化データ14は、多重化された状態で出力バッファ112に一時的に蓄積され、符号化制御部130によって管理される出力タイミングに応じ、図1の画像符号化装置の外部に出力される。ここで、図1の画像符号化装置の外部とは、図示しない蓄積系(蓄積メディア)または伝送系(通信回線)である。
The
逆変換・逆量子化部105は、変換・量子化部103からの量子化変換係数13に対して、逆量子化・逆変換を行って予測誤差12を復号化し、復号予測誤差15として加算部106に入力する。上記逆量子化処理は、符号化制御部130によって設定される量子化パラメータに従って行われる。また、上記逆変換処理は、前述した変換処理の逆変換処理であって、例えば逆離散コサイン変換(IDCT;Inverse Discrete Cosine Transform)または逆ウェーブレット変換などである。
The inverse transform /
加算部106は、逆変換・逆量子化部105からの復号予測誤差15と、インター予測部101からの予測画像11とを加算し、符号化対象ブロックの局所復号画像16を生成する。加算部106は、局所復号画像(局所復号画像信号)16を参照画像メモリ107に参照画像(参照画像信号)17として記憶させる。
The adding
参照画像メモリ107には、例えばフレーム単位で参照画像17が記憶され、インター予測部101によって必要に応じて読み出される。
The
動きベクトル導出部124は、符号化制御部130からの動きベクトルブロック情報21及び予測情報22に基づき、複数の動きベクトル情報18を導出する。具体的には、図2に示すように、動きベクトル処理部108及び参照動きベクトルメモリ109を有する。
The motion
動きベクトル処理部108は、符号化制御部130からの動きベクトルブロック情報21及び予測情報22に基づき、参照動きベクトルメモリ109から参照動きベクトル情報19を取得し、複数の動きベクトル情報18を導出する。尚、動きベクトル処理部108による動きベクトル導出処理の詳細は後述する。
The motion
参照動きベクトルメモリ109には、既に符号化済みの動きベクトル情報18が、参照動きベクトル情報19として一時的に保存される。より詳細には、図11に示すように、参照動きベクトルメモリ109には、参照動きベクトル情報19がフレーム単位で保存され、参照動きベクトルフレーム114を形成している。参照動きベクトルメモリ109には、符号化済みの動きベクトル情報18が順次入力され、時間的位置に応じた参照動きベクトルフレーム114を構成する参照動きベクトル情報19として保存される。図11において、参照動きベクトルフレーム114を構成する参照動きベクトル情報19の動き補償ブロックサイズは4×4画素であるが、2×2画素や1画素単位でもよく、また、矩形状に限らず任意形状でもよい。また、図10に示すように、動きベクトルブロック28は4×4の16個の参照動きベクトル情報19の集合であるが、動きベクトルブロック28の具体的態様はこれに限られない。
In the reference
以下、図3を用いて動きベクトルブロック処理部108による動きベクトル導出処理を説明する。図3に示すように、動きベクトルブロック処理部108は、動きベクトルブロック生成部110及び動きベクトル生成部111を有する。
Hereinafter, the motion vector deriving process by the motion vector
動きベクトルブロック生成部110は、動きベクトルブロック情報21を取得し、当該動きベクトルブロック情報21に応じた参照動きベクトル情報19の集合である動きベクトルブロック28を生成する。動きベクトルブロック生成部110は、動きベクトルブロック28を動きベクトル生成部111に入力する。
The motion vector
動きベクトルブロック情報21は、図12に示すように、参照動きベクトルフレーム114内における動きベクトルブロック28の空間的位置を示す情報である。以下の説明では、参照動きベクトルフレーム114内において、符号化対象ブロックの左上頂点と同一位置を基準点とし、当該基準点から上記動きベクトルブロック28の左上頂点までの空間的シフト量を動きベクトルブロック情報21とする。本実施形態において、輝度信号に関し、参照動きベクトル情報19の動き補償ブロックサイズは4×4画素なので、動きベクトルブロック情報21は、次の数式(1)に示すような4×4画素精度の情報である。
数式(1)において、(blk_x, blk_y)は符号化対象ブロックの左頂点位置のフレーム内における垂直方向及び水平方向のインデクス(座標)を示し、(mvblk_x_pos, mvblk_y_pos)は動き補償ブロック28の左頂点位置の参照動きベクトルフレーム114内における垂直方向及び水平方向のインデクスを示し、(mvblk_x, mvblk_y)は動きベクトルブロック情報21の垂直方向及び水平方向成分を示している。動きベクトルブロック28のサイズと、当該動きベクトルブロック28内に含まれる参照動きベクトル情報19の数との関係は、図13に示す通りである。尚、動きベクトルブロック情報21は、既に符号化済みの他の動きベクトルブロックベクトル情報21に対する差分によって表現されてもよい。
In Equation (1), (blk_x, blk_y) indicates the vertical and horizontal indexes (coordinates) in the frame at the left vertex position of the encoding target block, and (mvblk_x_pos, mvblk_y_pos) indicates the left vertex of the
尚、動きベクトルブロック28のサイズは、符号化対象ブロックと同サイズであってもよいし、符号化対象ブロックを分割したサイズでもよい。例えば、符号化対象ブロックが16×16画素ブロックであれば、動きベクトルブロック28は16×16画素ブロック、16×8画素ブロック、8×16画素ブロック、8×8画素ブロック、8×4画素ブロック、4×8画素ブロックまたは4×4画素ブロックのいずれでもよい。動きベクトルブロック28のサイズを、符号化対象ブロックを分割したサイズとする場合、当該分割数に応じた数の動きベクトルブロック情報21が取得されることが望ましい。
The size of the
ここで、動きベクトルブロックベクトル情報21を利用することの技術的意義を説明する。
動きベクトルブロック28には、例えば図10に示すように4×4の計16個の参照動きベクトル情報19が含まれており、後述するインター予測部101は当該16個の参照動きベクトル情報19を符号化対象ブロックに適用することができる。例えば符号化対象ブロックのサイズが16×16画素であれば、インター予測部101はこれを更に分割した4×4画素ブロック単位での動き補償を行うことが可能となり、インター予測処理の精度向上が期待できる。また、H.264では個々の動きベクトル情報18を符号化する必要があるが、前述したようにエントロピー符号化部104は上記動きベクトルブロック28に含まれる個々の参照動きベクトル情報19を動きベクトル情報18として符号化する必要は無く、動きベクトルブロック情報21のみを符号化すればよい。従って、本実施形態に係る画像符号化装置によれば、動きベクトル情報に関する符号量(オーバーヘッド)を削減することができる。また、H.264における動きベクトル情報は、1/4画素精度の情報であるのに対し、動きベクトルブロック情報21は4画素精度の情報であるので、情報量は1/16程度に抑えられる。
Here, the technical significance of using the motion vector
For example, as shown in FIG. 10, the
また、動きベクトルブロック情報21は、外部から与えられてもよいし、いわゆる動き探索処理を利用して動きベクトルブロック28を参照動きベクトルフレーム114から実際に探索することにより導出されてもよい。上記動き探索処理において、後述する数式(5)または(6)に示すコストを利用してもよい。参照動きベクトルフレーム114において符号化対象ブロックと同一位置から、上記動き探索処理の結果得られた最適な動きベクトルブロック28までの空間的シフト量が動きベクトルブロック情報21として利用される。
Further, the motion
動きベクトル生成部111は、動きベクトルブロック生成部110からの動きベクトルブロック28に含まれる参照動きベクトル情報19に基づき、符号化対象ブロックを分割した複数の小画素ブロック(小画素ブロック信号)23の各々に関する動きベクトル情報18を生成し、出力する。具体的には、動きベクトル生成部111は、小画素ブロック23に関する動きベクトル情報18として、適切な参照動きベクトル情報19を代入する。例えば、小画素ブロック23のブロックサイズと、参照動きベクトル情報19の動き補償ブロックサイズが一致しているならば、各小画素ブロック23と各参照動きベクトル情報19とが位置的に一対一に対応するので、動きベクトル生成部111は小画素ブロック23に対応する動きベクトル情報18として当該小画素ブロック23に位置的に対応する参照動きベクトル情報19を逐次代入すればよい。小画素ブロック23のブロックサイズと、参照動きベクトル情報19の動き補償ブロックサイズとが異なる場合には、動きベクトル生成部111は例えば小画素ブロック23と空間的位置が重複する動き補償ブロックに対応する参照動きベクトル情報19を代入すればよい。
Based on the reference
また、動きベクトル生成部111は、小画素ブロック23に対応する動きベクトル情報18として参照動きベクトル情報19をそのまま代入するのでなく、以下のような変形を加えてよい。
In addition, the motion
(A)参照動きベクトル情報19の反転ベクトル(マイナス値)を代入
(B)参照動きベクトル情報19と、当該参照動きベクトル情報19に隣接する参照動きベクトル情報との加重平均値、メディアン値、最大値または最小値を代入
(C)参照フレーム番号または動きベクトルブロックの時間的位置に応じ、参照動きベクトルを正規化した値を代入
ここで、正規化は、参照動きベクトル情報19が参照するフレームの時間的距離と、符号化対象ブロックが参照するフレームの時間的距離とが異なる場合に行われることが望ましい。具体的には、参照動きベクトル情報19が属する参照動きベクトルフレーム114と、当該参照動きベクトル情報19が参照する参照画像17との間の時間的距離をTR、符号化対象ブロックの属するフレームと、当該符号化対象ブロックの参照画像17との間の時間的距離をTCとすると、参照動きベクトル情報19をTC/TR倍した値を動きベクトル情報18として代入すればよい。
(A) Inverted vector (negative value) of reference
尚、符号化対象ブロックをどのように複数の小画素ブロック23に分割するかは、予測情報22によって指定される。例えば、符号化対象ブロックが16×16画素のマクロブロックであれば、4×4画素ブロックや1画素等が小画素ブロック23の例として挙げられる。前述したように参照動きベクトル情報19に基づいて、小画素ブロック23に関する動きベクトル18が生成されるため、参照動きベクトル情報19の動き補償ブロックサイズは、小画素ブロック23のブロックサイズ以下であることが望ましい。例えば、小画素ブロック23のブロックサイズが4×4画素であれば、参照動きベクトル情報19の動き補償ブロックサイズは4×4画素であってもよいし、2×2画素であってもよいし、1画素であってもよい。
Note that the
以下、インター予測部101によるインター予測処理を説明する。
まず、インター予測部101によるインター予測処理が理解しやすいように、図1の画像符号化装置が利用可能なその他の予測処理を説明する。図1の画像符号化装置は、複数の予測モードが利用可能であり、各予測モードは予測画像11を生成するための予測処理や動き補償ブロックサイズが互いに異なる。尚、予測モードは予測情報22によって指定される。上記予測処理は、空間方向の予測処理及び時間方向の予測処理に大別され、夫々イントラ予測(フレーム内予測)及びインター予測(フレーム間予測)と称される。イントラ予測は、符号化対象ブロックと同一のフレームまたはフィールドの参照画像17を用いて予測画像11を生成する。インター予測は、符号化対象ブロックと時間的位置の異なるフレームまたはフィールドの参照画像17用いて予測画像11を生成する。
Hereinafter, the inter prediction process by the
First, other prediction processes that can be used by the image coding apparatus in FIG. 1 will be described so that the inter prediction process by the
通常のインター予測に関して更に詳細に説明すると、例えば図7Aに示すように、参照画像17において符号化対象ブロックと同一位置から、動きベクトル情報18に応じて空間的にシフトした位置の画素ブロックを予測画像11として生成する。尚、上記インター予測では、小数画素精度の動き補償が可能であり、例えばH.264では輝度信号に関して1/2画素精度及び1/4画素精度の動き補償が可能である。1/4画素精度の動き補償を行う場合、動きベクトル情報18の情報量は整数画素精度の動き補償を行う場合の16(=4×4)倍となる。
In more detail regarding normal inter prediction, for example, as shown in FIG. 7A, a pixel block at a position spatially shifted according to the
また、インター予測処理において、参照可能なフレーム数は1つに限られず、例えば図7Bに示すように、時間的位置が異なる複数の参照画像17を利用してもよい。複数の参照画像17を利用する場合、いずれの参照画像17が参照されたかは参照フレーム番号によって識別される。参照フレーム番号は、各画素領域単位(ピクチャまたはブロック単位など)で変更されてもよい。参照フレーム番号は、例えば符号化対象ブロックの属するフレームの1つ前のフレームに対して「0」、2つ前のフレームに対して「1」などが与えられる。また、参照フレーム数が1である場合には、当該参照フレームの参照フレーム番号は「0」などで固定される。
In the inter prediction process, the number of frames that can be referred to is not limited to one. For example, as illustrated in FIG. 7B, a plurality of
また、インター予測処理において、複数の動き補償ブロックサイズの中から符号化対象ブロックに適したものを選択することができる。具体的には、マクロブロックに関し、図8Aに示す16×16画素、図8Bに示す16×8画素、図8Cに示す8×16画素及び図8Dに示す8×8画素等が選択可能であり、サブマクロブロックに関し、図9Aに示す8×8画素、図9Bに示す8×4画素、図9Cに示す4×8画素及び図9Dに示す4×4画素等が選択可能である。上記動き補償ブロック毎に個別に動きベクトルを導出することが可能なので、符号化対象ブロックの局所的な性質に従って、最適な動き補償ブロックの形状(サイズ)及び動きベクトルが選択される。 Also, in the inter prediction process, it is possible to select a suitable one for the encoding target block from a plurality of motion compensation block sizes. Specifically, for the macroblock, 16 × 16 pixels shown in FIG. 8A, 16 × 8 pixels shown in FIG. 8B, 8 × 16 pixels shown in FIG. 8C, 8 × 8 pixels shown in FIG. For the sub-macroblock, 8 × 8 pixels shown in FIG. 9A, 8 × 4 pixels shown in FIG. 9B, 4 × 8 pixels shown in FIG. 9C, 4 × 4 pixels shown in FIG. 9D, and the like can be selected. Since a motion vector can be derived individually for each motion compensation block, an optimal motion compensation block shape (size) and motion vector are selected according to the local nature of the block to be encoded.
図4に示すように、インター予測部101は、予測画像信号統合部115及び複数の動き補償部113を有する。
複数の動き補償部113の各々は、符号化対象ブロックを分割した複数の小画素ブロック23の各々に対して小予測画像24を生成する。動き補償部113は、小予測画像24を予測画像信号統合部115に入力する。
As illustrated in FIG. 4, the
Each of the plurality of
動き補償部113は、図14に示すように、参照画像17において小画素ブロック23と同一位置から、当該小画素ブロック23に関する動きベクトル情報18に応じて空間シフトした位置の画素ブロックを小予測画像(小予測画像信号)24として生成する。動き補償部113が小画素ブロック23に対して行う動き補償処理は、H.264における動き補償処理と同様に実現できる。具体的には、1/2画素精度や1/4画素精度の動き補償処理が利用可能である。1/4画素精度までの動き補償を行う場合、小予測画像24の位置は以下の数式(2)によって定められる。
数式(2)におて、(x, y)は小画素ブロック23の左上頂点を示す水平方向のインデクス及び垂直方向のインデクス、(mv_x, mv_y)は動きベクトル情報18の水平方向成分及び垂直方向成分、(x_pos, y_pos)は小予測画像24の左上頂点を示す水平方向のインデクス及び垂直方向のインデクスを夫々示す。小予測画像24の左上頂点(x_pos, y_pos)は、動きベクトル情報18の水平方向成分mv_x及び垂直方向成分mv_yが4の倍数であれば整数画素位置、4の倍数でない2の倍数であれば1/2画素位置、奇数であれば1/4画素位置である。小予測画像24の左上頂点(x_pos, y_pos)が1/2画素位置または1/4画素位置であれば、画素値の補間処理が必要である。具体的には、図15において、左下斜線のみが付されたブロックは整数画素位置に対応する画素、左下斜線及び右下斜線が付されたブロックは1/2画素位置に対応する画素、その他のブロックは1/4画素位置に対応する画素を夫々示す。
In Equation (2), (x, y) is the horizontal index and vertical index indicating the upper left vertex of the
1/2画素位置に対応する画素の画素値b及びhは、以下の補間式(3)によって導出される。
数式(3)において>>は右シフト演算を示し、>>5は32で除算することに相当する。即ち、1/2画素位置に対応する画素の画素値は、6タップFIR(Finite Impulse Response)フィルタ(タップ係数:(1,−5,20,20、−5,1)/32)を用いて生成される。 In Equation (3), >> indicates a right shift operation, and >> 5 corresponds to division by 32. That is, the pixel value of the pixel corresponding to the 1/2 pixel position is determined using a 6-tap FIR (Finite Impulse Response) filter (tap coefficient: (1, -5, 20, 20, -5, 1) / 32). Generated.
また、1/4画素位置に対応する画素の画素値a及びdは、以下の補間式(4)によって導出される。
即ち、1/4画素位置に対応する画素の画素値は、2タップの平均値フィルタ(タップ係数:(1/2,1/2))を用いて生成される。尚、4つの整数画素位置の中間に存在する画素の画素値jは、垂直方向6タップFIRフィルタ及び水平方向6タップFIRフィルタを適宜組み合わせて生成される。例えば、垂直方向6タップFIRフィルタを用いて画素値cc、dd、h、m、ee、及びffを生成し、これらに水平方向6タップFIRフィルタを適用することにより画素値jが生成される。また、水平方向6タップFIRフィルタを用いて画素値aa、bb、b、s、gg及びhhを生成し、これらに垂直方向6タップFIRフィルタを適用することにより画素値jが生成される。その他の位置に対応する画素の画素値も同様の補間ルールに従って生成できる。 That is, the pixel value of the pixel corresponding to the 1/4 pixel position is generated using a 2-tap average value filter (tap coefficient: (1/2, 1/2)). The pixel value j of the pixel existing in the middle of the four integer pixel positions is generated by appropriately combining a vertical 6-tap FIR filter and a horizontal 6-tap FIR filter. For example, pixel values cc, dd, h, m, ee, and ff are generated using a vertical 6-tap FIR filter, and a pixel value j is generated by applying a horizontal 6-tap FIR filter thereto. Also, pixel values aa, bb, b, s, gg and hh are generated using a horizontal 6-tap FIR filter, and a pixel value j is generated by applying a vertical 6-tap FIR filter to these. Pixel values of pixels corresponding to other positions can be generated according to the same interpolation rule.
尚、数式(3)及び(4)とは異なる補間処理を行って、小数精度画素位置に対応する画素の画素値を生成してもよい。また、補間係数は、前述したものに限らず、符号化制御部130によって固定値または可変値が設定されてもよい。更に、補間係数を可変とする場合、後述する符号化コストの観点からフレーム毎に補間係数が最適化されてもよい。
In addition, the pixel value of the pixel corresponding to the decimal precision pixel position may be generated by performing an interpolation process different from Expressions (3) and (4). In addition, the interpolation coefficient is not limited to that described above, and a fixed value or a variable value may be set by the
予測画像信号統合部115は、複数の動き補償部113からの小予測画像24を統合し、符号化対象ブロックに対応する予測画像11を生成する。即ち、個々の小画素ブロック23に対応する小予測画像24を統合することにより、当該小画素ブロック23に分割する前の符号化対象ブロックに対応する予測画像11が得られる。ここで、統合とは、小予測画像24をつなぎ合わせて、予測画像11を生成することを意味する。
The prediction image
以上説明したように、インター予測部101によるインター予測処理は、通常のインター予測処理とは異なり、動きベクトルブロック28を利用する点が特徴的である。以降、動きベクトルブロックを利用したインター予測処理を、動きベクトルブロック予測処理と称する。
As described above, the inter prediction process performed by the
以下、図16を用いてインター予測部101による動きベクトルブロック予測処理の流れを説明する。尚、図16において符号化対象ブロックは16×16画素のマクロブロックとし、一連の処理が終了すると次の符号化対象ブロックに対する処理を行うものとする。
まず、動きベクトルブロック生成部110は、動きベクトルブロック情報21に基づき符号化対象ブロックに対応する動きベクトルブロック28を生成する(ステップS401)。具体的には、動きベクトルブロック生成部110は、参照動きベクトルメモリ109に保存されている参照動きベクトルフレーム114において符号化対象ブロックと同一位置から上記動きベクトルブロック情報21に応じて空間的にシフトした位置における、参照動きベクトル情報19の集合を動きベクトルブロック28として生成する。本例では、参照動きベクトル情報19の各々の動き補償ブロックサイズは4×4画素とし、動きベクトルブロック28には4×4の計16個の参照動きベクトル情報19が含まれる。
Hereinafter, the flow of motion vector block prediction processing by the
First, the motion vector
次に、動きベクトル生成部111は、予測情報22に従って符号化対象ブロックを4×4画素の小画素ブロック23に分割する(ステップS402)。尚、小画素ブロック23の各々は、図17に示すような「0」から「15」までのインデクスが付与され、識別される。
Next, the motion
次に、動きベクトル生成部111は、現在処理対象としている小画素ブロック23を特定するための変数BlkIdxに初期値として「0」代入し(ステップS403)、処理はステップS404に進む。
Next, the motion
ステップS404では、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)として、適切な参照動きベクトル情報19を代入する。本例では、小画素ブロック23のブロックサイズ(4×4画素)と、参照動きベクトル情報19の動き補償ブロックサイズ(4×4画素)とが一致しているため、図18に示すように、動きベクトル情報Vc(BlkIdx)には同一位置の参照動きベクトル情報Vr(BlkIdx)を代入することが望ましい。
In step S404, appropriate reference
次に、複数の動き補償部113のいずれか1つが、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)を用いて動き補償を行って、当該小画素ブロック23に対応する小予測画像24を生成する(ステップS405)。
Next, any one of the plurality of
次に、動きベクトル生成部111は、変数BlkIdxに対応する小画素ブロック23に関する動きベクトル情報Vc(BlkIdx)を参照動きベクトルメモリ109に保存させる(ステップS406)。動きベクトル生成部111は、変数BlkIdxを1インクリメントし(ステップS407)、変数BlkIdxと定数BLK_MAXとの大小比較を行う(ステップS408)。ここで、定数BLK_MAXは変数BlkIdxの最大値であり、本例では「15」が設定される。
Next, the motion
変数BlkIdxが定数BLK_MAXを超えれば(ステップS408)、処理はステップS409に進み、変数BlkIdxが定数BLK_MAX以下であれば(ステップS408)、処理はステップS404に戻る。 If the variable BlkIdx exceeds the constant BLK_MAX (step S408), the process proceeds to step S409. If the variable BlkIdx is equal to or less than the constant BLK_MAX (step S408), the process returns to step S404.
ステップS409では、予測画像信号統合部115が、ステップS404乃至ステップS408の処理ループにより得られた全ての小予測画像24を統合し、符号化対象ブロックに対応する予測画像11を生成し(ステップS409)、当該符号化対象ブロックに対する動きベクトルブロック予測処理が終了する。
In step S409, the prediction image
以下、動きベクトルブロック予測処理の適用例を、図19を用いて概念的に説明する。
図19において、横軸が時間方向、縦軸が空間方向のうち垂直方向のみを夫々表す。より具体的には、時間tのフレームにおけるC0、C2、C8及びC10は、夫々符号化対象ブロックのインデクス0、2、8及び10に対応する小画素ブロック23を示している。符号化対象ブロックに対応する動きベクトルブロック情報21に基づき、小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)が夫々代入される。小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)が生成されると、小予測画像P0、P2、P8及びP10が夫々生成される。このように、動きベクトルブロック予測処理が適用される場合、動きベクトルブロック情報21さえ符号化すれば、各小画素ブロック23に対する小予測画像24の生成において個別の動きベクトル情報18を利用することが可能となる。一方、通常のインター予測処理では、小予測画像24の生成において個別の動きベクトル情報18を利用するためには、当該個別の動きベクトル情報18を符号化する必要がある。この点において、動きベクトルブロック予測処理は、インター予測処理に比べて動きベクトル情報に関する符号量を削減できる。
Hereinafter, an application example of the motion vector block prediction process will be conceptually described with reference to FIG.
In FIG. 19, the horizontal axis represents the time direction, and the vertical axis represents only the vertical direction of the spatial direction. More specifically, C0, C2, C8, and C10 in the frame at time t indicate the small pixel blocks 23 corresponding to the
以下、動きベクトルブロック予測処理の図19とは異なる例を、図20を用いて概念的に説明する。
図19の例では、参照フレームが固定されていたが、前述したように参照フレームは任意に選択されてもよい。図20に示す例では、いずれの参照フレームが参照されているかが参照フレーム番号によって識別されるものとし、当該参照フレーム番号には符号化対象ブロックの属するフレームから参照フレームまでの時間的シフト量に応じた値が設定されるものとする。例えば、符号化対象ブロックの属するフレームの1つ前の参照フレームには「0」、2つ前の参照フレームには「1」が夫々参照フレーム番号として設定されるものとする。
Hereinafter, an example different from FIG. 19 of the motion vector block prediction process will be conceptually described with reference to FIG.
In the example of FIG. 19, the reference frame is fixed. However, as described above, the reference frame may be arbitrarily selected. In the example shown in FIG. 20, it is assumed that which reference frame is referenced is identified by a reference frame number, and the reference frame number includes a temporal shift amount from the frame to which the encoding target block belongs to the reference frame. The corresponding value shall be set. For example, it is assumed that “0” is set as the reference frame number for the reference frame immediately before the frame to which the block to be encoded belongs, and “1” is set as the reference frame number for the reference frame two times before.
図20において、横軸が時間方向、縦軸が空間方向のうち垂直方向のみを夫々表す。より具体的には、時間tのフレームにおけるC0、C2、C8及びC10は、夫々符号化対象ブロックのインデクス0、2、8及び10に対応する小画素ブロック23を示している。符号化対象ブロックに対応する動きベクトルブロック情報21に基づき、小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)が夫々代入される。ここで、参照動きベクトル情報Vr(0)、Vr(2)、Vr(8)及びVr(10)には、参照フレーム内における空間的シフト量である参照動きベクトルのみならず、時間的シフト量である参照フレーム番号も含まれているものとし、当該参照フレーム番号も動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)として代入されるものとする。小画素ブロックC0、C2、C8及びC10に対応する動きベクトル情報Vc(0)、Vc(2)、Vc(8)及びVc(10)が生成されると、小予測画像P0、P2、P8及びP10が夫々生成される。このように、動きベクトルブロック予測処理において、参照動きベクトルのみならず、参照フレーム番号をも小画素ブロック23に対応する動きベクトル情報18として代入することにより、小予測画像24の生成において参照フレームの異なる個別の動きベクトル情報18を利用できる。
In FIG. 20, the horizontal axis represents the time direction, and the vertical axis represents only the vertical direction of the spatial direction. More specifically, C0, C2, C8, and C10 in the frame at time t indicate the small pixel blocks 23 corresponding to the
以下、動きベクトルブロック予測処理におけるSKIPモードを説明する。
まず、動きベクトルブロック予測処理におけるSKIPモードが理解しやすいように、いわゆるH.264における空間SKIPモードを説明する。空間SKIPモードでは、符号化対象ブロックに関する動きベクトル情報18及び量子化変換係数13等の符号化が行われない。具体的には、図21に示すように、符号化対象ブロックに隣接する符号化済みマクロブロックA、B及びCの動きベクトル情報18のメディアン値によって参照される参照画像(符号化対象ブロックと同サイズ)がそのまま復号画像及び局所復号画像16として使用される。従って、空間SKIPモードによれば、符号化対象ブロックの動きベクトル情報18及び量子化変換係数13等を符号化する必要がない。
Hereinafter, the SKIP mode in the motion vector block prediction process will be described.
First, the spatial SKIP mode in H.264 will be described so that the SKIP mode in the motion vector block prediction process can be easily understood. In the spatial SKIP mode, the
一方、動きベクトルブロック予測処理におけるSKIPモードは次の通りである。尚、以降の説明において、上記SKIPモードを動きベクトルブロックSKIPモードと称する。 On the other hand, the SKIP mode in the motion vector block prediction process is as follows. In the following description, the SKIP mode is referred to as a motion vector block SKIP mode.
動きベクトルブロックSKIPモードでは、符号化対象ブロックに対応する動きベクトルブロック情報21を符号化しない。具体的には、既に符号化済であって、かつ、1つ前の参照動きベクトルフレーム114において空間的に同位置の動きベクトルブロック28が、符号化対象ブロックに対応する動きベクトルブロック28として用いられる。即ち、動きベクトルブロック情報21は、「0(同位置)」となる。また、動きベクトルブロックSKIPモードにおいても、符号化対象ブロックに対応する量子化変換係数13を符号化する必要はなく、動きベクトルブロック28に含まれる参照動きベクトル情報18によって参照される個々の参照画像(小画素ブロック23と同サイズ)が統合され、そのまま復号画像及び局所復号画像16として利用される。
In the motion vector block SKIP mode, the motion
動きベクトルブロックSKIPモードの他のバリエーションとして、既に符号化済みの隣接ブロックにおける動きベクトル情報18または動きベクトルブロック情報21を利用して、符号化対象ブロックに対応する動きベクトルブロック情報21を導出してもよい。具体的には、複数の隣接ブロックに対応する動きベクトルブロック情報21のメディアン値、平均値、最大値または最小値などが、符号化対象ブロックに対応する動きベクトルブロック情報21として導出されてもよい。
As another variation of the motion vector block SKIP mode, the motion
以下、動きベクトルブロック予測処理の双方向予測処理への適用例を説明する。H.264におけるBスライスでは、符号化対象ブロックに対して2つの動きベクトル情報18を導出し、当該2つの動きベクトル情報18に基づく予測画像の画素単位の加重平均によって最終的な予測画像11を生成する双方向予測処理が行われる。動きベクトルブロック予測処理を双方向予測処理に適用すると、1つの符号化対象ブロックに対し2つの動きベクトルブロック28が生成され、当該符号化対象ブロックを構成する小画素ブロック23の各々に対し2つの動きベクトル情報18が与えられる。動き補償部113は、2つの動きベクトル情報18に基づき、各小画素ブロック23に対し既存の双方向予測処理と同様の予測処理を行って、小予測画像24を生成する。
Hereinafter, an application example of the motion vector block prediction process to the bidirectional prediction process will be described. In the B slice in H.264, two pieces of
例えば、図24Aに示すように、過去方向の2フレームから2つの動きベクトルブロックを生成する場合であれば、時間的距離の近い動きベクトルブロック情報及び動きベクトルブロックをリスト0動きベクトルブロック情報及びリスト0動きベクトルブロックとし、時間的距離の遠い動きベクトルブロック情報及び動きベクトルブロックをリスト1動きベクトルブロック情報及びリスト1動きベクトルブロックとして夫々識別することができる。尚、リスト0及びリスト1を逆にしてもよい。
For example, as shown in FIG. 24A, when two motion vector blocks are generated from two frames in the past direction, motion vector block information and motion vector blocks having a short temporal distance are represented as
また、図24Bに示すように、過去方向の1フレーム及び未来方向の1フレームから1つずつ動きベクトルブロックを生成する場合であれば、過去方向のフレームに関する動きベクトルブロック情報及び動きベクトルブロックをリスト0動きベクトルブロック情報及びリスト0動きベクトルブロックとし、未来方向のフレームに関する動きベクトルブロック情報及び動きベクトルブロックをリスト1動きベクトルブロック情報及びリスト1動きベクトルブロックとして夫々識別することができる。尚、リスト0及びリスト1を逆にしてもよい。
In addition, as shown in FIG. 24B, if one motion vector block is generated from one frame in the past direction and one frame in the future direction, a list of motion vector block information and motion vector blocks related to the frame in the past direction is listed. The motion vector block information and the motion vector block regarding the frame in the future direction can be identified as the
その他、次の場合にも動きベクトルブロック予測処理を同様に適用可能である。
(A)2つの動きベクトルブロックが同一フレームに存在する場合
(B)1つの符号化対象ブロックに対して3つ以上の動きベクトルブロックが生成される場合
以下、図1の画像符号化装置が使用するシンタクス構造を説明する。
図25に示すように、図1の画像符号化装置が使用するシンタクス構造は、ハイレベルシンタクス901、スライスレベルシンタクス904及びマクロブロックレベルシンタクス907の3つのパートで構成される。ハイレベルシンタクス901には、スライスよりも上位のレイヤ(シーケンスまたはピクチャ等)に関するシンタクス情報が記述され、シーケンスパラメータセットシンタクス902及びピクチャパラメータセットシンタクス903が含まれる。スライスレベルシンタクス904には、スライスに関するシンタクス情報が記述され、スライスヘッダシンタクス905及びスライスデータシンタクス906が含まれる。マクロブロックレベルシンタクス907には、マクロブロックに関するシンタクス情報が記述され、マクロブロックレイヤーシンタクス908及びマクロブロックプレディクションシンタクス909が含まれる。
In addition, the motion vector block prediction process can be similarly applied to the following cases.
(A) When two motion vector blocks exist in the same frame (B) When three or more motion vector blocks are generated for one encoding target block Hereinafter, the image encoding device of FIG. 1 uses A syntax structure to be described will be described.
As shown in FIG. 25, the syntax structure used by the image encoding apparatus of FIG. 1 is composed of three parts: a
図26に示すように、マクロブロックレイヤーシンタクス908には、マクロブロックタイプ情報mb_typeが記述される。マクロブロックタイプ情報mb_typeには、当該マクロブロックに対して行われた予測処理(イントラ予測またはインター予測等)や、ブロック形状等の情報が含まれる。
As shown in FIG. 26, the
図27に示すように、マクロブロックプレディクションシンタクス909には、マクロブロック内の小画素ブロック単位(8×8画素ブロックや16×16画素ブロック等)の予測モード及び当該マクロブロックに対応する動きベクトルブロック情報21が記述される。図27において、前述したリスト0動きベクトルブロック情報(参照動きベクトルフレーム114内における空間的シフト量)がmvblk_l0、リスト1動きベクトルブロック情報がmvblk_l1で表現される。尚、1つの符号化対象ブロックに対し、1つの動きベクトルブロック28のみが用いられる場合にはリスト1動きベクトルブロック情報mvblk_1は記述されず、3つ以上の動きベクトルブロック28が用いられる場合にはリスト2動きベクトルブロック情報mvblk_2等が記述される。
As shown in FIG. 27, the
また、マクロブロックプレディクションシンタクス909には、リスト0動きベクトルブロックが属する参照動きベクトルフレームを表す参照フレーム番号ref_mvblk_idx_l0及びリスト1動きベクトルブロックが属する参照動きベクトルフレームを表す参照フレーム番号ref_mvblk_idx_l1が記述される。
In the
尚、リスト0動きベクトルブロック及びリスト1動きベクトルブロックが属する参照動きベクトルフレームが、既に符号化済みの1つ前の参照動きベクトルフレーム等に固定されている場合には、参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1を符号化する必要はない。参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1を符号化しない場合には、例えば「0」等の固定値が参照フレーム番号ref_mvblk_idx_l0及びref_mvblk_idx_l1として自動的に代入される。
If the reference motion vector frame to which the
図27に示すマクロブロックプレディクションシンタクス909は、サブマクロブロック(8×8画素ブロック以下)に関しても同様に記述することが可能であり、一例を図28に示す。
The
尚、図26乃至28は、本実施形態に係る画像符号化装置が使用するシンタクス構造を例示しているに過ぎず、適宜変形を加えてもよい。具体的には、図26乃至28において、その他のシンタクスエレメントが挿入されたり、その他の条件分岐に関する記述が含まれたりしてもよい。また、図26乃至28において、シンタクステーブルを複数のテーブルに分割または統合したりしてもよい。また、図26乃至28において、記述されている用語を変更してもよい。更に、図26に示すマクロブロックレイヤーシンタクス908に記述されるシンタクスエレメントは、後述するマクロブロックデータシンタクスに記述されてもよい。
26 to 28 merely illustrate the syntax structure used by the image coding apparatus according to the present embodiment, and modifications may be made as appropriate. Specifically, in FIGS. 26 to 28, other syntax elements may be inserted, or other conditional branch descriptions may be included. 26 to 28, the syntax table may be divided or integrated into a plurality of tables. In addition, the terms described in FIGS. 26 to 28 may be changed. Furthermore, the syntax element described in the
以上説明したように、本実施形態に係る画像符号化装置は、符号化対象ブロックを更に細分化した小画素ブロックの各々に対応する動きベクトル情報を纏めた動きベクトルブロックを用いて予測処理を行い、上記動きベクトル情報の個々の符号化は行わず動きベクトルブロック情報を符号化している。従って、本実施形態に係る画像符号化装置によれば、動きベクトル情報に関する符号量を削減しつつ、符号化対象ブロックよりも更に細かな小画素ブロック単位での動き補償予測を行えるため、高い符号化効率を実現できる。 As described above, the image coding apparatus according to the present embodiment performs prediction processing using motion vector blocks in which motion vector information corresponding to each of small pixel blocks obtained by further subdividing the block to be coded is collected. The motion vector block information is encoded without individual encoding of the motion vector information. Therefore, the image coding apparatus according to the present embodiment can perform motion compensation prediction in units of small pixel blocks that are finer than the current block while reducing the amount of code related to motion vector information. Efficiency can be realized.
(第2の実施形態)
図22に示すように、本発明の第2の実施形態に係る画像符号化装置は、上記図1に示す画像符号化装置において、インター予測部101を予測部116に置き換えている。以下の説明では、図22において図1と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Second Embodiment)
As shown in FIG. 22, the image coding apparatus according to the second embodiment of the present invention replaces the
予測部116は、図23に示すように、インター予測部101、イントラ予測部117、モード判定部118及びモード選択スイッチ119を有する。
インター予測部101は、第1の実施形態において説明した動きベクトルブロック予測を行って、予測画像11をモード選択スイッチ119に入力する。
As illustrated in FIG. 23, the
The
イントラ予測部117は、いわゆるH.264におけるイントラ予測処理を行う。H.264において図6Aに示す16×16画素ブロック単位のイントラ予測処理、図6Bに示す8×8画素ブロック単位のイントラ予測処理及び図6Cに示す4×4画素ブロック単位のイントラ予測処理が夫々規定されている。いずれのイントラ予測処理においても、符号化対象ブロックと同一フレーム内の既に符号化済みのブロックの画素値をコピーすることによって予測画像11が生成される。イントラ予測部117は、予測画像11をモード選択スイッチ119に入力する。
The
モード判定部118は、符号化対象ブロック(またはスライス)に関する予測情報22に基づき、モード選択スイッチ119が選択すべき予測モードを判定し、判定結果を予測モード判定情報26としてモード選択スイッチ119に入力する。
The
モード判定部118は、符号化対象スライスがいわゆるIスライスであれば、モード選択スイッチ119をイントラ予測部117に接続させる。一方、モード判定部118は、符号化対象スライスがいわゆるPスライスまたはBスライスであれば、コストに基づく予測モード判定を行う。
If the encoding target slice is a so-called I slice, the
モード判定部118は、例えば次の数式(5)に従ってコストを算出する。
数式(5)において、Kは符号化コスト、SADは符号化対象ブロックと予測画像11との間の差分絶対値和(即ち、予測誤差12の絶対値和)、OHは予測情報22に関する符号量(例えば、動きベクトルブロック情報21の符号量及びブロック形状の符号量等)を夫々表す。また、λは量子化幅等によって定められるラグランジュ未定定数である。モード判定部118は、コストKの最も小さな予測モードを最適な予測モードとして選択し、予測モード判定情報26をモード選択スイッチ119に入力する。
In Equation (5), K is the coding cost, SAD is the sum of absolute differences between the encoding target block and the predicted image 11 (that is, the sum of absolute values of the prediction error 12), and OH is the amount of code related to the
また、モード判定部118が利用可能なコストは、数式(5)におけるコストKに限られず、予測画像11のみに基づき算出された値や、SADのみに基づき算出された値や、予測画像11及びSADにアダマール変換を施した値及びこれに近似した値等であってもよい。また、モード判定部118は、符号化対象ブロックの画素値のアクティビティ(分散)に基づき算出された値や、量子化幅または量子化パラメータに基づき算出された値をコストとして利用してもよい。
In addition, the cost that can be used by the
更に、モード判定部118は、インター予測部101からの予測画像11に対応する予測誤差12及びイントラ予測部117からの予測画像11に対応する予測誤差12を夫々仮符号化ユニットによって仮符号化した場合の発生符号量と、符号化対象ブロックと局所復号画像16との間の二乗誤差和とを用いて符号化コストを算出し、予測モード判定に利用してもよい。具体的な符号化コストの算出式は次の数式(6)である。
数式(6)において、Jは符号化コスト、Dは符号化対象ブロックと局所復号画像16との間の二乗誤差和を表す符号化歪み、Rは仮符号化による発生符号量を夫々表す。λは数式(5)と同様である。モード判定部118は、符号化コストJの最も小さな予測モードを最適な予測モードとして選択し、予測モード判定情報26をモード選択スイッチ119に入力する。
In Equation (6), J represents the coding cost, D represents the coding distortion representing the sum of square errors between the block to be coded and the locally decoded
数式(6)における符号化コストJを利用する場合、予測モード毎に仮符号化処理及び局所復号化処理が必要であるので、前述したその他のコストを利用する場合に比べて画像符号化装置の回路規模及び演算量は増大する。しかしながら、符号化コストJは、前述したその他のコストに比べて予測モード判定の信頼度が高く、符号化効率の向上を期待できる。また、モード判定部118は、数式(6)における符号化コストJをそのまま利用せずに、R及びDのいずれか一方のみに基づき算出されたコストを利用してもよいし、RまたはDの近似値に基づき算出されたコストを利用してもよい。
When the encoding cost J in Equation (6) is used, provisional encoding processing and local decoding processing are required for each prediction mode. Therefore, the image encoding apparatus can be compared with the case where other costs described above are used. The circuit scale and the amount of calculation increase. However, the encoding cost J has higher reliability of prediction mode determination than the other costs described above, and an improvement in encoding efficiency can be expected. Further, the
モード選択スイッチ119は、予測モード判定情報26に従ってインター予測部101及びイントラ予測部117のいずれか一方から予測画像11を取得する。モード選択スイッチ119によって取得された予測画像11は、減算部102及び加算部106に入力される。
The
以上説明したように、本実施形態に係る画像符号化装置は、前述した第1の実施形態に係る動きベクトルブロック予測処理と、いわゆるイントラ予測処理とをマクロブロック毎、小画素ブロック毎またはフレーム毎に選択的に利用している。従って、本実施形態に係る画像符号化装置によれば、より符号化効率の高い予測処理が選択されるため、符号化効率の向上が期待できる。 As described above, the image coding apparatus according to the present embodiment performs the motion vector block prediction process and the so-called intra prediction process according to the first embodiment described above for each macroblock, each small pixel block, or each frame. Selective use. Therefore, according to the image coding apparatus according to the present embodiment, since a prediction process with higher coding efficiency is selected, an improvement in coding efficiency can be expected.
(第3の実施形態)
図29に示すように、本発明の第3の実施形態に係る画像符号化装置は、上記図22に示す画像符号化装置において、予測部116を予測部125に置き換え、動きベクトル推定部120を更に設けている。以下の説明では、図29において図22と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Third embodiment)
As shown in FIG. 29, the image coding apparatus according to the third embodiment of the present invention replaces the
予測部125は、図30に示すように、第1インター予測部101、イントラ予測部117、第2インター予測部121、モード判定部122及びモード選択スイッチ123を有する。
As illustrated in FIG. 30, the
第1インター予測部101及びイントラ予測部117は、前述した動きベクトルブロック予測処理及びイントラ予測処理を夫々行って予測画像11を生成し、モード選択スイッチ123に入力する。尚、後述する第2インター予測部121と区別するために、図22におけるインター予測部101の名称を図29において第1インター予測部101へと便宜的に改めている。
The first
第2インター予測部121は、いわゆるH.264におけるインター予測処理を行う。第2インター予測部121は、後述する動きベクトル推定部120からの動きベクトル情報25と、参照画像メモリ107からの参照画像17とに基づき予測画像11を生成する。第2インター予測部121は、図31に示すように1つの動き補償部126を有する。
The second
動き補償部126は、動きベクトル情報25を用いて参照画像17の動き補償を行う。即ち、動き補償部126は、参照画像17において動きベクトル情報25が指し示す画素ブロックを予測画像11として出力する。
The
モード判定部122及びモード選択スイッチ123の基本的機能は、図23におけるモード判定部118及びモード選択スイッチ119と同様であるが、第2インター予測部121からの予測画像11を選択可能な点が異なる。尚、モード選択スイッチ119によって第2インター予測部121からの予測画像11が選択された場合、エントロピー符号化部104は動きベクトルブロック情報21ではなく動きベクトル情報25に対してエントロピー符号化処理を行う。
The basic functions of the
以下、通常のインター予測処理と、動きベクトルブロック予測処理とを選択的に利用することの技術的意義を説明する。
通常のインター予測処理は、後述するように符号化対象ブロックに対するマッチングによって推定した動きベクトル情報25を利用するため、予測精度が高い。しかしながら、符号化対象ブロックを分割するほど(即ち、動き補償対象ブロックを多く設けるほど)、符号化の必要な動きベクトル情報25も追随して増加するため符号量が増大する。
Hereinafter, the technical significance of selectively using normal inter prediction processing and motion vector block prediction processing will be described.
Since the normal inter prediction process uses the
一方、動きベクトルブロック予測処理は、個々の動きベクトル情報18を符号化する必要は無いが、参照動きベクトル情報19の集合を動きベクトルブロック28として利用するため、第2インター予測処理に比べて動きベクトル情報18の選択の自由度が低い。
On the other hand, the motion vector block prediction process does not need to encode the individual
換言すれば、第2インター予測処理は予測誤差を抑える観点において、動きベクトル予測処理は符号量を抑える観点において夫々他方に比べて優れる。従って、両者を選択的に利用することにより、符号化効率を更に高めることが可能となる。 In other words, the second inter prediction process is superior to the other in terms of suppressing the prediction error, and the motion vector prediction process is superior in terms of suppressing the code amount. Therefore, it is possible to further increase the encoding efficiency by selectively using both.
動きベクトル推定部120は、符号化対象ブロックと、参照画像17とに基づき動きベクトル情報25を推定する。具体的には、動きベクトル推定部120は、符号化対象ブロックと参照画像17の補間画像との間でブロックマッチングを行う。動きベクトル推定部120は、上記ブロックマッチングにおいて例えば両者の間の誤差を画素毎に累積した値を算出し、当該累積値の最も小さくなる動きベクトル情報を動きベクトル情報25として推定する。また、動きベクトル推定部120は、上記累積値に何らかの変換を行って得られる値を評価値としてもよい。更に、動きベクトル推定部120は、動きベクトル情報25の大きさや符号量、数式(5)または(6)を推定に利用してもよい。また、動きベクトル推定部120は、符号化装置の外部から指定される探索範囲情報に基づいて探索範囲内を全探索してもよいし、画素精度に応じて階層的に探索してもよい。また、動きベクトル推定部120は、探索処理を行わず、符号化制御部130から入力される動きベクトル情報25を出力してもよい。
The motion
前述した第1の実施形態に係る画像符号化装置は、図27に示すマクロブロックプレディクションシンタクス909を使用していたが、本実施形態に係る画像符号化装置は、図36に示すマクロブロックプレディクションシンタクス909を使用する。
The image coding apparatus according to the first embodiment described above uses the
図36において、mv_block_in_mb_flagは、マクロブロックに対して動きベクトルブロック予測処理が適用されるか否かを示すフラグである。mv_block_in_mb_flagが「1(TRUE)」であればマクロブロックに対して動きベクトルブロック予測処理が適用され、「0(FALSE)」であればマクロブロックに対して動きベクトルブロック予測処理が適用されない。mv_block_in_mb_flagが「1(TRUE)」の場合には、図27に示すマクロブロックプレディクションシンタクス909と同様に、リスト0動きベクトルブロック情報mvblk_l0、リスト1動きベクトルブロック情報がmvblk_l1、リスト0動きベクトルブロックの参照フレーム番号ref_mvblk_idx_l0及びリスト1動きベクトルブロックの参照フレーム番号ref_mvblk_idx_l1等が記述される。図36に示すマクロブロックプレディクションシンタクス909は、サブマクロブロック(8×8画素ブロック以下)に関しても同様に記述することが可能であり、一例を図37に示す。
In FIG. 36, mv_block_in_mb_flag is a flag indicating whether or not motion vector block prediction processing is applied to a macroblock. If mv_block_in_mb_flag is “1 (TRUE)”, the motion vector block prediction process is applied to the macroblock, and if “0 (FALSE)”, the motion vector block prediction process is not applied to the macroblock. When mv_block_in_mb_flag is “1 (TRUE)”, the
本実施形態に係る画像符号化装置は、図32に示すシーケンスパラメータセットシンタクス902を使用する。図32において、mv_block_in_seq_flagは、シーケンス内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグである。mv_block_in_seq_flagが「1(TRUE)」であればシーケンス内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればシーケンス内で動きベクトルブロック予測処理の適用が不可能である。
The image encoding apparatus according to the present embodiment uses a sequence parameter set
本実施形態に係る画像符号化装置は、図33に示すピクチャパラメータセットシンタクス903を使用する。図33において、mv_block_in_pic_flagは、ピクチャ内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグであり、前述したmv_block_in_seq_flagが「1(TRUE)」の場合に記述される。mv_block_in_pic_flagが「1(TRUE)」であればピクチャ内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればピクチャ内で動きベクトルブロック予測処理の適用が不可能である。
The image encoding apparatus according to the present embodiment uses a picture parameter set
本実施形態に係る画像符号化装置は、図34に示すスライダヘッダシンタクス905を使用する。図34において、mv_block_in_slice_flagは、スライス内で動きベクトルブロック予測処理が適用可能であるか否かを示すフラグであり、前述したmv_block_in_pic_flagが「1(TRUE)」の場合に記述される。mv_block_in_slice_flagが「1(TRUE)」であればスライス内で動きベクトルブロック予測処理の適用が可能であり、「0(FALSE)」であればスライス内で動きベクトルブロック予測処理の適用が不可能である。
The image encoding apparatus according to the present embodiment uses a
本実施形態に係る画像符号化装置は、図35に示すマクロブロックレイヤーシンタクス908を使用する。図35において、mv_block_in_mb_flagは、前述したmv_block_in_slice_flagが「1(TRUE)」の場合に記述される。
The image encoding apparatus according to the present embodiment uses a
尚、前述したフラグ(シンタクスエレメント)mv_block_in_seq_flag、mv_block_in_pic_flag、mv_block_in_slice_flag及びmv_block_in_mb_flagの初期値は「0(FALSE)」とする。 The initial values of the aforementioned flags (syntax elements) mv_block_in_seq_flag, mv_block_in_pic_flag, mv_block_in_slice_flag, and mv_block_in_mb_flag are set to “0 (FALSE)”.
また、上記シンタクスが示す情報はそれぞれ符号化して復号側に伝送しても良いし、上記シンタクスが示す情報は符号化して復号側に伝送せずに符号化済みの隣接ブロックにおける画素の相関関係や分散などのアクティビティ情報に応じて切り替えても良い。 The information indicated by the syntax may be encoded and transmitted to the decoding side, or the information indicated by the syntax may be encoded and transmitted to the decoding side without being transmitted to the decoding side. Switching may be performed according to activity information such as distribution.
また、本実施形態に係る画像符号化装置も、前述した動きベクトルブロックSKIPモードを使用可能である。動きベクトルブロックSKIPモードを適用する場合において、特定の条件下で前述したmv_block_in_mb_flag等のシンタクスエレメントの符号化が省略されてもよい。上記特定の条件下とは、動きベクトルブロックSKIPモードを適用して得られる動きベクトルブロックを構成する全ての動きベクトル情報と、いわゆる空間SKIPモードを適用して得られる動きベクトル情報とが一致する場合である。 Also, the image coding apparatus according to the present embodiment can use the above-described motion vector block SKIP mode. When the motion vector block SKIP mode is applied, encoding of syntax elements such as mv_block_in_mb_flag described above may be omitted under specific conditions. The specific condition is that all motion vector information constituting a motion vector block obtained by applying the motion vector block SKIP mode matches motion vector information obtained by applying the so-called spatial SKIP mode. It is.
以下、図38のフローチャートを用いて、mv_block_in_mb_flagの符号化省略処理を説明する。
まず、動きベクトル生成部111は、動きベクトルブロックSKIPモードを適用した場合の動きベクトルブロック28に含まれる動きベクトル情報MVblk1、MVblk2、MVblk3、・・・、MVblk16を生成する(ステップS501)。本例では、動きベクトルブロックのサイズは16×16画素とし、動きベクトル情報18の動き補償ブロックサイズは4×4画素としている。
Hereinafter, the process of omitting the encoding of mv_block_in_mb_flag will be described using the flowchart of FIG.
First, the motion
ステップS501において生成された動きベクトル情報MVblk1、MVblk2、MVblk3、・・・、MVblk16が全て等しければ処理はステップS503に進み、そうでなければ処理はステップS507に進む(ステップS502)。 If the motion vector information MVblk1, MVblk2, MVblk3,..., MVblk16 generated in step S501 are all equal, the process proceeds to step S503, and if not, the process proceeds to step S507 (step S502).
ステップS503において、動きベクトル生成部111は空間SKIPモードを適用した場合の動きベクトル情報MVspaを符号化対象ブロックの隣接ブロックから導出する。動きベクトル情報MVspaと、動きベクトル情報MVblk1(=MVblk2=MVblk3=・・・=MVblk16)とが等しければ処理はステップS505に進み、そうでなければ処理はステップS507に進む(ステップS507)。
In step S503, the motion
ステップS505において、mv_block_in_mb_flagには「0(FALSE)」が設定され、当該mv_block_in_mb_flagの符号化が省略され(ステップS506)、処理は終了する。また、ステップS507において、mv_block_in_mb_flagは符号化され、処理が終了する。 In step S505, “0 (FALSE)” is set in mv_block_in_mb_flag, encoding of the mv_block_in_mb_flag is omitted (step S506), and the process ends. In step S507, mv_block_in_mb_flag is encoded, and the process ends.
以上のように、mv_block_in_mb_flagの符号化省略処理を行うことにより、mv_block_in_mb_flagの不要な符号化を回避し、符号量を削減することが可能となる。尚、mv_block_in_mb_flag以外にも、前述したmv_block_in_seq_flag、mv_block_in_pic_flag、mv_block_in_slice_flag及びマクロブロックを分割した小画素ブロックに関する動きベクトルブロック予測処理の適用の可否を示すシンタクスエレメントに対しても同様の符号化省略処理を行うことが可能である。即ち、上記説明において符号化対象ブロックのサイズをシーケンス、ピクチャ、スライス小画素ブロックに夫々置き換えればよい。また、動きベクトルブロックSKIPモード以外の、動きベクトルブロック予測処理が適用される場合には、リスト0及びリスト1動きベクトルブロック情報を予め符号化し、参照動きベクトルフレーム内における参照位置を特定すれば、同様の処理を行うことができる。
As described above, by performing the encoding omission processing of mv_block_in_mb_flag, unnecessary encoding of mv_block_in_mb_flag can be avoided and the code amount can be reduced. In addition to mv_block_in_mb_flag, the same encoding omission processing is also performed for the syntax elements indicating whether or not to apply the motion vector block prediction processing for the small pixel block obtained by dividing the macro block, and mv_block_in_seq_flag, mv_block_in_pic_flag, mv_block_in_slice_flag described above. Is possible. That is, in the above description, the size of the encoding target block may be replaced with a sequence, a picture, and a slice small pixel block, respectively. In addition, when motion vector block prediction processing other than the motion vector block SKIP mode is applied, if the
以上説明したように、本実施形態に係る画像符号化装置は、前述した第1の実施形態における動きベクトルブロック予測処理と、いわゆるイントラ予測処理及びインター予測処理をマクロブロック毎、小画素ブロック毎またはフレーム毎に選択的に利用している。従って、本実施形態に係る画像符号化装置によれば、より符号化効率の高い予測処理が選択されるため、符号化効率の向上が期待できる。 As described above, the image coding apparatus according to the present embodiment performs the motion vector block prediction process and the so-called intra prediction process and inter prediction process in the first embodiment described above for each macroblock, each small pixel block, or each pixel block. It is selectively used for each frame. Therefore, according to the image coding apparatus according to the present embodiment, since a prediction process with higher coding efficiency is selected, an improvement in coding efficiency can be expected.
(第4の実施形態)
図40に示すように、本発明の第4の実施形態に係る画像復号化装置は前述した第1の実施形態に係る画像符号化装置に対応する画像復号化装置であって、入力バッファ200、画像復号化部2000、復号化制御部230及び出力バッファ208を有する。図40の画像復号化装置は、LSIチップなどのハードウエアにより実現されてもよいし、コンピュータに画像復号化プログラムを実行させることにより実現されてもよい。画像復号化部2000は、エントロピー復号化部201、逆変換・逆量子化部202、加算部203、参照画像メモリ204、インター予測部205及び動きベクトル導出部218を有する。
(Fourth embodiment)
As shown in FIG. 40, an image decoding apparatus according to the fourth embodiment of the present invention is an image decoding apparatus corresponding to the image encoding apparatus according to the first embodiment described above, and includes an
図示しない伝送系または蓄積系から入力される符号化データ300は、入力バッファ200に一度蓄積され、多重化された状態で画像復号化部2000に入力される。
Encoded
エントロピー復号化部201は、フレーム毎またはフィールド毎にシンタクスに基づく構文解析を行って、各種データを復号化する。具体的には、エントロピー復号化部201は、復号化対象ブロックに対応する量子化変換係数301、予測情報304及び動きベクトルブロック情報309を復号化する。エントロピー復号化部201は、量子化変換係数を逆変換・逆量子化部202、予測情報304を動きベクトル導出部218及びインター予測部205、動きベクトルブロック情報309を動きベクトル導出部218に夫々入力する。その他、エントロピー復号化部201は、量子化パラメータ等の画像復号化に必要な情報も復号化し、フィードバック情報331として復号化制御部230に入力する。
The
逆変換・逆量子化部202は、エントロピー復号化部201からの量子化変換係数301に対して、逆量子化・逆変換を行って予測誤差を復号化し、復号予測誤差302として加算部203に入力する。上記逆量子化処理は、復号化制御部230によって設定される量子化パラメータに従って行われる。また、上記逆変換処理は、符号化側で行われた変換処理の逆変換処理であって、例えばIDCTまたは逆ウェーブレット変換等である。
The inverse transform /
加算部203は、逆変換・逆量子化部202からの復号予測誤差302と、インター予測部205からの予測画像305とを加算し、復号化対象ブロックの復号画像(復号画像信号)303を生成する。加算部203は、復号画像303を参照画像メモリ204に参照画像(参照画像信号)306として記憶させる。また、復号画像303は、出力バッファ208に一時的に蓄積され、復号化制御部230によって管理される出力タイミングに応じ、図40の画像符号化装置の外部に出力される
参照画像メモリ204には、例えばフレーム単位で参照画像306が記憶され、インター予測部205によって必要に応じて読み出される。
The adding
インター予測部205は、図1におけるインター予測部101と同様の機能を有する。具体的には図42に示すように、インター予測部205は、予測画像信号統合部115に対応する予測画像信号統合部213と、複数の動き補償部113に対応する複数の動き補償部212とを有する。
The
動き補償部212の各々は、復号化対象ブロックを分割した複数の小画素ブロックの各々に対して小予測画像312を生成する。動き補償部212は、小予測画像312を予測画像信号統合部213に入力する。
Each of the
動き補償部212は、参照画像306において小画素ブロックと同一位置から、当該小画素ブロックに関する動きベクトル情報307に応じて空間シフトした位置の画素ブロックを小予測画像312として生成する。動き補償部212が小画素ブロックに対して行う動き補償処理は、H.264における動き補償処理と同様に実現できる。
The
予測画像信号統合部213は、複数の動き補償部212からの小予測画像を統合し、復号化対象ブロックに対応する予測画像305を生成する。即ち、個々の小画素ブロックに対応する小予測画像312を統合することにより、当該小画素ブロックに分割する前の復号化対象ブロックに対応する予測画像305が得られる。
The prediction image
動きベクトル導出部218は、図1における動きベクトル導出部124と同様の機能を有する。具体的には図39に示すように、動きベクトル導出部218は、参照動きベクトルメモリ109に対応する参照動きベクトルメモリ207と、動きベクトルブロック処理部108に対応する動きベクトルブロック処理部206とを有する。
The motion
参照動きベクトルメモリ207には、既に復号化済みの動きベクトル情報307が、参照動きベクトル情報308として一時的に保存される。
In the reference
動きベクトル処理部206は、エントロピー復号化部201からの動きベクトルブロック情報309及び予測情報304に基づき、参照動きベクトルメモリ207から参照動きベクトル情報308を取得し、複数の動きベクトル情報307を導出する。より詳細には、動きベクトル処理部206は、図41に示すように、動きベクトルブロック生成部110に対応する動きベクトルブロック生成部210と、動きベクトル生成部111に対応する動きベクトル生成部211とを有する。
The motion
動きベクトルブロック生成部210は、動きベクトルブロック情報309をエントロピー復号化部201から取得し、当該動きベクトルブロック情報309に応じた参照動きベクトル情報308の集合である動きベクトルブロック311を生成する。動きベクトルブロック生成部210は、動きベクトルブロック311を動きベクトル生成部211に入力する。
The motion vector
動きベクトル生成部211は、動きベクトルブロック生成部210からの動きベクトルブロック311に含まれる参照動きベクトル情報308に基づき、復号化対象ブロックを分割した複数の小画素ブロックの各々に関する動きベクトル情報307を生成し、出力する。具体的には、動きベクトル生成部211は、小画素ブロックに関する動きベクトル情報307として、適切な参照動きベクトル情報308を代入する。
Based on the reference
以上説明したように、本実施形態に係る画像復号化装置は、前述した第1の実施形態に係る画像符号化装置によって符号化された画像を復号化している。従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。 As described above, the image decoding apparatus according to the present embodiment decodes the image encoded by the image encoding apparatus according to the first embodiment described above. Therefore, according to the image decoding apparatus according to the present embodiment, it is possible to reproduce a high-quality decoded image from relatively small encoded data.
(第5の実施形態)
図43に示すように、本発明の第5の実施形態に係る画像復号化装置は前述した第2の実施形態に係る画像符号化装置に対応する画像復号化装置であって、上記図40に示す画像復号化装置において、インター予測部205を予測部214に置き換えている。以下の説明では、図43において図40と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Fifth embodiment)
As shown in FIG. 43, an image decoding apparatus according to the fifth embodiment of the present invention is an image decoding apparatus corresponding to the image encoding apparatus according to the second embodiment described above. In the illustrated image decoding apparatus, the
予測部214は図44に示すように、インター予測部205、イントラ予測部220及びモード選択スイッチ221を有する。
インター予測部205は、第1の実施形態において説明した動きベクトルブロック予測を行って、予測画像305をモード選択スイッチ221に入力する。イントラ予測部220は、図23におけるイントラ予測部117と同様の機能を有する。イントラ予測部220は、予測画像305をモード選択スイッチ221に入力する。
As shown in FIG. 44, the
The
モード選択スイッチ221は、エントロピー復号化部201からの予測情報304に従って、インター予測部205及びイントラ予測部220のいずれか一方から予測画像305を取得する。モード選択スイッチ221によって取得された予測画像305は、加算部203に入力される。
The
以上説明したように、本実施形態に係る画像復号化装置は、前述した第2の実施形態に係る画像符号化装置によって符号化された画像を復号化している。従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。 As described above, the image decoding apparatus according to the present embodiment decodes the image encoded by the above-described image encoding apparatus according to the second embodiment. Therefore, according to the image decoding apparatus according to the present embodiment, it is possible to reproduce a high-quality decoded image from relatively small encoded data.
(第6の実施形態)
図45に示すように、本発明の第6の実施形態に係る画像復号化装置は前述した第3の実施形態に係る画像符号化装置に対応する画像復号化装置であって、上記図43に示す画像復号化装置において、予測部214を予測部223に置き換えている。以下の説明では、図43において図40と同一部分には同一符号を付して示し、異なる部分を中心に述べる。
(Sixth embodiment)
As shown in FIG. 45, an image decoding apparatus according to the sixth embodiment of the present invention is an image decoding apparatus corresponding to the image encoding apparatus according to the third embodiment described above. In the illustrated image decoding apparatus, the
予測部223は、図46に示すように、第1インター予測部205、イントラ予測部220、第2インター予測部217及びモード選択スイッチ216を有する。
第1インター予測部205は、図44における第1インター予測部205と同様の機能を有し、動きベクトルブロック予測処理を行って予測画像305を生成し、モード選択スイッチ216に入力する。イントラ予測部220は、図44におけるイントラ予測部220と同様の機能を有し、イントラ予測処理を行って予測画像305を生成し、モード選択スイッチ216に入力する。尚、後述する第2インター予測部217と区別するために、図44におけるインター予測部205の名称を図44において第1インター予測部205へと便宜的に改めている。
As illustrated in FIG. 46, the
The first
第2インター予測部217は、いわゆるH.264におけるインター予測処理を行う。第2インター予測部217は、エントロピー復号化部201によって復号化された動きベクトル情報313と、参照画像メモリ204からの参照画像306とに基づき予測画像305を生成する。第2インター予測部217は、図47に示すように1つの動き補償部222を有する。
The second
動き補償部222は、動きベクトル情報313を用いて参照画像306の動き補償を行う。即ち、動き補償部222は、参照画像306において動きベクトル情報313が指し示す画素ブロックを予測画像305として出力する。
The
モード選択スイッチ216の基本的機能は、図44におけるモード選択スイッチ221と同様であるが、第2インター予測部217からの予測画像305を選択可能な点が異なる。
The basic function of the
また、第3の実施形態において、mv_block_in_mb_flagの符号化省略処理を説明したが、本実施形態に係る画像復号化装置においても同様の復号化省略処理を行うことができる。上記復号化省略処理を行うことにより、符号化側において不要なmv_block_in_mb_flagが符号化されていた場合であっても、図45の画像復号化装置は必要なmv_block_in_mb_flagのみを選択的に復号化できるため演算量を削減できる。 Moreover, although the encoding omission process of mv_block_in_mb_flag has been described in the third embodiment, the same decoding omission process can be performed also in the image decoding apparatus according to the present embodiment. By performing the above-described decoding omitting process, even if unnecessary mv_block_in_mb_flag is encoded on the encoding side, the image decoding apparatus in FIG. 45 can selectively decode only necessary mv_block_in_mb_flag. The amount can be reduced.
以上説明したように、本実施形態に係る画像復号化装置は、前述した第3の実施形態に係る画像符号化装置によって符号化された画像を復号化している。従って、本実施形態に係る画像復号化装置によれば、比較的小さな符号化データから高画質な復号画像を再生することが可能となる。 As described above, the image decoding apparatus according to the present embodiment decodes the image encoded by the image encoding apparatus according to the third embodiment described above. Therefore, according to the image decoding apparatus according to the present embodiment, it is possible to reproduce a high-quality decoded image from relatively small encoded data.
なお、本発明は上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また上記各実施形態に開示されている複数の構成要素を適宜組み合わせることによって種々の発明を形成できる。また例えば、各実施形態に示される全構成要素からいくつかの構成要素を削除した構成も考えられる。さらに、異なる実施形態に記載した構成要素を適宜組み合わせてもよい。 Note that the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. Further, for example, a configuration in which some components are deleted from all the components shown in each embodiment is also conceivable. Furthermore, you may combine suitably the component described in different embodiment.
その一例として例えば、上記第1乃至第6の実施形態を次のように変形しても同様の効果が得られる。
(1)図5に示す符号化/復号化順序は一例に過ぎず、例えば、画面右下から左上に向かう処理順序でもよいし、右上から左下に向かう処理順序でもよい。また、渦巻き状に中心部から周辺部に向かう処理順序でもよいし、周辺部から中心部に向かう処理順序でもよい。
For example, the same effect can be obtained by modifying the first to sixth embodiments as follows.
(1) The encoding / decoding order shown in FIG. 5 is merely an example, and may be, for example, a processing order from the lower right to the upper left of the screen or a processing order from the upper right to the lower left. Further, the processing order from the central part to the peripheral part may be a spiral, or the processing order from the peripheral part to the central part may be used.
(2)図6A乃至図6Cに示したブロックサイズは全て正方形状であるが、符号化対象ブロックのサイズはこれらに限られず、例えば16×8画素、8×16画素、8×4画素または4×8画素などの長方形状でもよい。また、異なるサイズの符号化対象ブロックが選択的に利用されてもよい。この場合、サイズの切り替え情報に関する符号化が必要になるが、前述したコスト等を利用して符号化歪みと符号量とのバランスの取れた符号化が実現されることが望ましい。 (2) Although the block sizes shown in FIGS. 6A to 6C are all square, the size of the block to be encoded is not limited to these. For example, 16 × 8 pixels, 8 × 16 pixels, 8 × 4 pixels, or 4 A rectangular shape such as × 8 pixels may be used. Also, different size encoding target blocks may be selectively used. In this case, encoding related to the size switching information is required, but it is desirable to realize encoding that balances encoding distortion and code amount by using the above-described cost or the like.
(3)第1乃至第6の実施形態において、輝度信号と色差信号とを分割せず、一方の色信号成分に限定した例を説明した。しかしながら、予測処理が輝度信号と色差信号とを分割し、個別に予測処理を適用してもよい。 (3) In the first to sixth embodiments, the example in which the luminance signal and the color difference signal are not divided and is limited to one color signal component has been described. However, the prediction process may divide the luminance signal and the color difference signal and apply the prediction process individually.
その他、本発明の要旨を逸脱しない範囲で種々の変形を施しても同様に実施可能であることはいうまでもない。 In addition, it goes without saying that the present invention can be similarly implemented even if various modifications are made without departing from the gist of the present invention.
10・・・原画像
11・・・予測画像
12・・・予測誤差
13・・・量子化変換係数
14・・・符号化データ
15・・・復号予測誤差
16・・・局所復号画像
17・・・参照画像
18・・・動きベクトル情報
19・・・参照動きベクトル情報
21・・・動きベクトルブロック情報
22・・・予測情報
23・・・小画素ブロック
24・・・小予測画像
25・・・動きベクトル情報
26・・・予測モード判定情報
28・・・動きベクトルブロック
30・・・符号化制御情報
31・・・フィードバック情報
101・・・インター予測部
102・・・減算部
103・・・変換・量子化部
104・・・エントロピー符号化部
105・・・逆変換・逆量子化部
106・・・加算部
107・・・参照画像メモリ
108・・・動きベクトルブロック処理部
109・・・参照動きベクトルメモリ
110・・・動きベクトルブロック生成部
111・・・動きベクトル生成部
112・・・出力バッファ
113・・・動き補償部
114・・・参照動きベクトルフレーム
115・・・予測画像信号統合部
116・・・予測部
117・・・イントラ予測部
118・・・モード判定部
119・・・モード選択スイッチ
120・・・動きベクトル推定部
121・・・第2インター予測部
122・・・モード選択スイッチ
124・・・動きベクトル導出部
125・・・予測部
126・・・動き補償部
130・・・符号化制御部
200・・・入力バッファ
201・・・エントロピー復号化部
202・・・逆変換・逆量子化部
203・・・加算部
204・・・参照画像メモリ
205・・・インター予測部
206・・・動きベクトルブロック処理部
207・・・参照動きベクトルメモリ
208・・・出力バッファ
210・・・動きベクトルブロック生成部
211・・・動きベクトル生成部
212・・・動き補償部
213・・・予測画像信号統合部
214・・・予測部
217・・・第2インター予測部
218・・・動きベクトル導出部
220・・・イントラ予測部
221・・・モード選択スイッチ
222・・・動き補償部
223・・・予測部
230・・・復号化制御部
300・・・符号化データ
301・・・量子化変換係数
302・・・復号予測残差
303・・・復号画像
304・・・予測情報
305・・・予測画像
306・・・参照画像
307・・・動きベクトル情報
308・・・参照動きベクトル情報
309・・・動きベクトルブロック情報
311・・・動きベクトルブロック
312・・・小予測画像
313・・・動きベクトル情報
330・・・復号化制御情報
331・・・フィードバック情報
901・・・ハイレベルシンタクス
902・・・シーケンスパラメータセットシンタクス
903・・・ピクチャパラメータセットシンタクス
904・・・スライスレベルシンタクス
905・・・スライスヘッダシンタクス
906・・・スライスデータシンタクス
907・・・マクロブロックレベルシンタクス
908・・・マクロブロックレイヤーシンタクス
909・・・マクロブロックプレディクションシンタクス
1000、1100、1200・・・画像符号化部
2000、2100、2200・・・画像復号化部
DESCRIPTION OF
Claims (28)
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、
前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、
前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、
前記第2のインター予測画像と原画像との間の予測誤差を符号化することと
を具備することを特徴とする画像符号化方法。 Sequentially storing a first motion vector corresponding to an already encoded first pixel region;
Deriving a group of motion vectors including at least one of the first motion vectors;
Deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before encoding based on the motion vector group;
Generating a first inter-predicted image for each of the third pixel regions using the second motion vector;
Integrating the first inter-predicted image to generate a second inter-predicted image corresponding to the second pixel region before encoding;
An image encoding method comprising: encoding a prediction error between the second inter predicted image and the original image.
空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、
前記動きベクトルブロックを構成する第1の動きベクトルの各々を、符号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、
前記第1のインター予測画像を統合して、前記符号化前の第1の画素領域に対応する第2のインター予測画像を生成することと、
前記第2のインター予測画像と原画像との間の予測誤差を符号化することと
を具備することを特徴とする画像符号化方法。 Sequentially storing a first motion vector corresponding to a second pixel region obtained by dividing the first pixel region that has already been encoded;
Bundling the first motion vectors that are spatially continuous to derive a motion vector block of the same size as the first pixel region;
Each of the first motion vectors constituting the motion vector block is spatially associated as a second motion vector corresponding to each of the third pixel areas obtained by dividing the first pixel area before encoding. Substituting and
Generating a first inter-predicted image for each of the third pixel regions using the second motion vector;
Integrating the first inter-predicted image to generate a second inter-predicted image corresponding to the first pixel region before encoding;
An image encoding method comprising: encoding a prediction error between the second inter predicted image and the original image.
前記動きベクトルフレームにおいて前記符号化前の第1の画素領域と同位置の第1の動きベクトルが、前記動きベクトルブロックとして導出されることを特徴とする請求項3記載の画像符号化方法。 The first motion vector is sequentially stored in units of frames as a motion vector frame,
4. The image encoding method according to claim 3, wherein a first motion vector at the same position as the first pixel area before encoding in the motion vector frame is derived as the motion vector block.
前記参照フレーム番号は、当該参照フレーム番号に対応する第1の動きベクトルと共に前記第2の動きベクトルとして代入されること
を特徴とする請求項4乃至6のいずれか1項記載の画像符号化方法。 The first motion vector is sequentially stored together with a reference frame number indicating a temporal position of a reference image frame that is compensated for motion by the first motion vector,
The image coding method according to any one of claims 4 to 6, wherein the reference frame number is substituted as the second motion vector together with the first motion vector corresponding to the reference frame number. .
前記第3の動きベクトルを用いて、前記符号化前の第1の画素領域の第3のインター予測画像を生成することと、
前記第2のインター予測画像及び前記第3のインター予測画像のいずれか一方を最適予測画像として選択することとを更に具備し、
前記最適予測画像と前記原画像との間の予測誤差が符号化されることを特徴とする請求項4乃至7のいずれか1項記載の画像符号化方法。 Estimating a third motion vector corresponding to the first pixel region before encoding;
Using the third motion vector to generate a third inter prediction image of the first pixel region before the encoding;
Selecting either one of the second inter prediction image and the third inter prediction image as an optimal prediction image,
The image encoding method according to claim 4, wherein a prediction error between the optimal prediction image and the original image is encoded.
既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶することと、
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出することと、
前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出することと、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、
前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成することと、
前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することと
を具備することを特徴とする画像復号化方法。 Decoding the encoded prediction error;
Sequentially storing a first motion vector corresponding to a first pixel region that has already been decoded;
Deriving a group of motion vectors including at least one of the first motion vectors;
Deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before decoding based on the motion vector group;
Generating a first inter-predicted image for each of the third pixel regions using the second motion vector;
Integrating the first inter-predicted image to generate a second inter-predicted image corresponding to the second pixel region before decoding;
An image decoding method comprising: adding the second inter prediction image and the prediction error to generate a decoded image.
既に復号化済みの第1の画素領域を分割した第2の画素領域に対応する第1の動きベクトルを逐次記憶することと、
空間的に連続する前記第1の動きベクトルを纏め、前記第1の画素領域と同一サイズの動きベクトルブロックを導出することと、
前記動きベクトルブロックを構成する第1の動きベクトルの各々を、復号化前の第1の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルとして、空間的に対応させて代入することと、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成することと、
前記第1のインター予測画像を統合して、前記復号化前の第1の画素領域に対応する第2のインター予測画像を生成することと、
前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成することと
を具備することを特徴とする画像復号化方法。 Decoding the encoded prediction error;
Sequentially storing a first motion vector corresponding to a second pixel region obtained by dividing the first pixel region that has already been decoded;
Bundling the first motion vectors that are spatially continuous to derive a motion vector block of the same size as the first pixel region;
Each of the first motion vectors constituting the motion vector block is spatially associated as a second motion vector corresponding to each of the third pixel areas obtained by dividing the first pixel area before decoding. Substituting and
Generating a first inter-predicted image for each of the third pixel regions using the second motion vector;
Integrating the first inter-predicted image to generate a second inter-predicted image corresponding to the first pixel region before decoding;
An image decoding method comprising: adding the second inter prediction image and the prediction error to generate a decoded image.
前記動きベクトルフレームにおいて前記復号化前の第1の画素領域と同位置の第1の動きベクトルが、前記動きベクトルブロックとして導出されることを特徴とする請求項15記載の画像復号化方法。 The first motion vector is sequentially stored in units of frames as a motion vector frame,
16. The image decoding method according to claim 15, wherein a first motion vector at the same position as the first pixel area before decoding in the motion vector frame is derived as the motion vector block.
前記参照フレーム番号は、当該参照フレーム番号に対応する第1の動きベクトルと共に前記第2の動きベクトルとして代入されること
を特徴とする請求項16乃至18のいずれか1項記載の画像復号化方法。 The first motion vector is sequentially stored together with a reference frame number indicating a temporal position of a reference image frame that is compensated for motion by the first motion vector,
19. The image decoding method according to claim 16, wherein the reference frame number is substituted as the second motion vector together with the first motion vector corresponding to the reference frame number. .
前記第3の動きベクトルを用いて、前記復号化前の第1の画素領域の第3のインター予測画像を生成することと、
前記第2のインター予測画像及び前記第3のインター予測画像のいずれか一方を最適予測画像として選択することとを更に具備し、
前記最適予測画像と前記予測誤差とを加算して前記復号画像が生成されることを特徴とする請求項16乃至19のいずれか1項記載の画像復号化方法。 Estimating a third motion vector corresponding to the first pixel region before decoding;
Using the third motion vector to generate a third inter prediction image of the first pixel region before decoding;
Selecting either one of the second inter prediction image and the third inter prediction image as an optimal prediction image,
20. The image decoding method according to claim 16, wherein the decoded image is generated by adding the optimal prediction image and the prediction error.
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する第1の導出部と、
前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する第2の導出部と、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する予測部と、
前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成する統合部と、
前記第2のインター予測画像と原画像との間の予測誤差を符号化する符号化部と
を具備することを特徴とする画像符号化装置。 A storage unit for sequentially storing a first motion vector corresponding to a first pixel region that has already been encoded;
A first derivation unit for deriving a motion vector group including at least one of the first motion vectors;
A second deriving unit for deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before encoding based on the motion vector group;
A prediction unit that generates a first inter prediction image of each of the third pixel regions using the second motion vector;
An integration unit that integrates the first inter prediction image and generates a second inter prediction image corresponding to the second pixel region before encoding;
An image encoding apparatus comprising: an encoding unit that encodes a prediction error between the second inter predicted image and the original image.
既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶する記憶部と、
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する第1の導出部と、
前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する第2の導出部と、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する予測部と、
前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成する統合部と、
前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成する加算部と
を具備することを特徴とする画像復号化装置。 A decoding unit for decoding the encoded prediction error;
A storage unit for sequentially storing a first motion vector corresponding to a first pixel area that has already been decoded;
A first derivation unit for deriving a motion vector group including at least one of the first motion vectors;
A second deriving unit for deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before decoding based on the motion vector group;
A prediction unit that generates a first inter prediction image of each of the third pixel regions using the second motion vector;
An integration unit that integrates the first inter prediction image and generates a second inter prediction image corresponding to the second pixel region before decoding;
An image decoding apparatus comprising: an adder configured to add the second inter prediction image and the prediction error to generate a decoded image.
既に符号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶する手段、
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する手段、
前記動きベクトル群に基づき、符号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する手段、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する手段、
前記第1のインター予測画像を統合して、前記符号化前の第2の画素領域に対応する第2のインター予測画像を生成する手段、
前記第2のインター予測画像と原画像との間の予測誤差を符号化する手段
として機能させるための画像符号化プログラム。 Means for sequentially storing a first motion vector corresponding to a first pixel region that has already been encoded;
Means for deriving a group of motion vectors including at least one of the first motion vectors;
Means for deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before encoding based on the motion vector group;
Means for generating a first inter prediction image for each of the third pixel regions using the second motion vector;
Means for integrating the first inter-predicted image to generate a second inter-predicted image corresponding to the second pixel region before encoding;
An image encoding program for functioning as a means for encoding a prediction error between the second inter predicted image and the original image.
符号化された予測誤差を復号化する手段、
既に復号化済みの第1の画素領域に対応する第1の動きベクトルを逐次記憶する手段、
前記第1の動きベクトルを少なくとも1つ含む動きベクトル群を導出する手段、
前記動きベクトル群に基づき、復号化前の第2の画素領域を分割した第3の画素領域の各々に対応する第2の動きベクトルを導出する手段、
前記第2の動きベクトルを用いて、前記第3の画素領域の各々の第1のインター予測画像を生成する手段、
前記第1のインター予測画像を統合して、前記復号化前の第2の画素領域に対応する第2のインター予測画像を生成する手段、
前記第2のインター予測画像と前記予測誤差とを加算して復号画像を生成する手段
として機能させるための画像復号化プログラム。 Means for decoding a computer encoded prediction error;
Means for sequentially storing a first motion vector corresponding to a first pixel region that has already been decoded;
Means for deriving a group of motion vectors including at least one of the first motion vectors;
Means for deriving a second motion vector corresponding to each of the third pixel regions obtained by dividing the second pixel region before decoding based on the motion vector group;
Means for generating a first inter prediction image for each of the third pixel regions using the second motion vector;
Means for integrating the first inter-predicted image to generate a second inter-predicted image corresponding to the second pixel region before decoding;
An image decoding program for causing the second inter-predicted image and the prediction error to function as means for generating a decoded image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008166348A JP4977094B2 (en) | 2008-06-25 | 2008-06-25 | Image coding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008166348A JP4977094B2 (en) | 2008-06-25 | 2008-06-25 | Image coding method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012090706A Division JP5197864B2 (en) | 2012-04-12 | 2012-04-12 | Image decoding method and apparatus |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010010950A true JP2010010950A (en) | 2010-01-14 |
JP2010010950A5 JP2010010950A5 (en) | 2011-05-12 |
JP4977094B2 JP4977094B2 (en) | 2012-07-18 |
Family
ID=41590933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008166348A Expired - Fee Related JP4977094B2 (en) | 2008-06-25 | 2008-06-25 | Image coding method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4977094B2 (en) |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011125256A1 (en) * | 2010-04-08 | 2011-10-13 | 株式会社 東芝 | Image encoding method and image decoding method |
WO2012005194A1 (en) * | 2010-07-09 | 2012-01-12 | ソニー株式会社 | Image processing device and method |
WO2012172668A1 (en) * | 2011-06-15 | 2012-12-20 | 株式会社 東芝 | Video encoding method and device, and video decoding method and device |
WO2013014693A1 (en) * | 2011-07-22 | 2013-01-31 | 株式会社日立製作所 | Video decoding method and image encoding method |
JP2013520124A (en) * | 2010-02-17 | 2013-05-30 | ユニバーシティ−インダストリ コーポレーション グループ オブ キュン ヘ ユニバーシティ | Coding structure |
JP2013524731A (en) * | 2010-04-12 | 2013-06-17 | クゥアルコム・インコーポレイテッド | Mixed tap filter |
JP2013132046A (en) * | 2011-11-21 | 2013-07-04 | Jvc Kenwood Corp | Video decoder, video decoding method, video decoding program, receiver, receiving method, and receiving program |
JP2013132047A (en) * | 2011-11-21 | 2013-07-04 | Jvc Kenwood Corp | Video encoder, video encoding method, video encoding program, transmitter, transmission method, and transmission program |
JPWO2011125256A1 (en) * | 2010-04-08 | 2013-07-08 | 株式会社東芝 | Image encoding method and image decoding method |
JP2013529877A (en) * | 2010-07-12 | 2013-07-22 | 聯發科技股▲ふん▼有限公司 | Method and apparatus for temporal motion vector prediction |
CN103227922A (en) * | 2010-04-08 | 2013-07-31 | 株式会社东芝 | Image decoding method and image decoding device |
JP5303683B2 (en) * | 2010-09-24 | 2013-10-02 | パナソニック株式会社 | Image encoding method and image encoding apparatus |
JP2013219805A (en) * | 2013-06-03 | 2013-10-24 | Toshiba Corp | Image encoding method and image decoding method |
JP2014017853A (en) * | 2013-09-11 | 2014-01-30 | Toshiba Corp | Image encoding method and image decoding method |
JP2014017848A (en) * | 2010-04-08 | 2014-01-30 | Toshiba Corp | Image decoding method, device, and program |
JP2014090459A (en) * | 2013-12-10 | 2014-05-15 | Toshiba Corp | Image encoding method and image decoding method |
JP5509398B1 (en) * | 2014-01-23 | 2014-06-04 | 株式会社東芝 | Image encoding method and image decoding method |
JP2014103698A (en) * | 2010-04-22 | 2014-06-05 | Mediatek Inc | Motion vector prediction method |
JP2014131293A (en) * | 2014-01-23 | 2014-07-10 | Toshiba Corp | Image encoding method and image decoding method |
JP2014131295A (en) * | 2014-01-23 | 2014-07-10 | Toshiba Corp | Image encoding method and image decoding method |
JP2014131294A (en) * | 2014-01-23 | 2014-07-10 | Toshiba Corp | Image encoding method and image decoding method |
WO2014107074A1 (en) * | 2013-01-04 | 2014-07-10 | 삼성전자 주식회사 | Motion compensation method and device for encoding and decoding scalable video |
JP2015019426A (en) * | 2014-10-01 | 2015-01-29 | 株式会社東芝 | Image encoding method and image decoding method |
JPWO2012172668A1 (en) * | 2011-06-15 | 2015-02-23 | 株式会社東芝 | Moving picture encoding method and apparatus, and moving picture decoding method and apparatus |
JP2015053729A (en) * | 2014-11-17 | 2015-03-19 | 株式会社東芝 | Image encoding method, and image decoding method |
JP2015092705A (en) * | 2014-12-16 | 2015-05-14 | 株式会社日立製作所 | Dynamic image decoding method and image coding method |
JP2016007065A (en) * | 2010-01-19 | 2016-01-14 | サムスン エレクトロニクス カンパニー リミテッド | Method and device for encoding/decoding motion vector based upon candidate for reduced prediction motion vector |
KR20160058824A (en) * | 2013-09-26 | 2016-05-25 | 퀄컴 인코포레이티드 | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
JP2016129387A (en) * | 2016-02-17 | 2016-07-14 | 株式会社東芝 | Image encoding method and image decoding method |
JP2017076980A (en) * | 2016-10-24 | 2017-04-20 | 株式会社Jvcケンウッド | Image encoding device |
JP2017085616A (en) * | 2016-12-16 | 2017-05-18 | 株式会社東芝 | Image encoding method and image decoding method |
JP2018023126A (en) * | 2017-08-31 | 2018-02-08 | 株式会社東芝 | Image encoding method and image decoding method |
JP2018033187A (en) * | 2012-02-07 | 2018-03-01 | パナソニックIpマネジメント株式会社 | Image processor and image processing method |
JP2018057016A (en) * | 2017-11-13 | 2018-04-05 | 株式会社東芝 | Image encoding method and image decoding method |
JP2018093504A (en) * | 2010-01-19 | 2018-06-14 | サムスン エレクトロニクス カンパニー リミテッド | Method and device for coding/decoding motion vector, based on candidate of reduced prediction motion vector |
JP2018186536A (en) * | 2018-07-02 | 2018-11-22 | 株式会社東芝 | Image encoding method and image decoding method |
JP2019016896A (en) * | 2017-07-05 | 2019-01-31 | キヤノン株式会社 | Image processing system, and image processing method |
CN110234013A (en) * | 2019-06-20 | 2019-09-13 | 电子科技大学 | A kind of optimization method of frame level motion vector accuracy bit distribution |
JP2019205189A (en) * | 2010-10-06 | 2019-11-28 | 株式会社Nttドコモ | Image prediction decoding method |
CN110710216A (en) * | 2017-09-08 | 2020-01-17 | 株式会社Kt | Video signal processing method and device |
JP2020025308A (en) * | 2019-10-21 | 2020-02-13 | 株式会社東芝 | Image encoding method and image decoding method |
JP2021036704A (en) * | 2019-10-21 | 2021-03-04 | 株式会社東芝 | Image encoding method and image decoding method |
JP2021036703A (en) * | 2019-10-21 | 2021-03-04 | 株式会社東芝 | Image encoding method and image decoding method |
JP2023056019A (en) * | 2019-10-21 | 2023-04-18 | 株式会社東芝 | Image encoding method and image decoding method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10304383A (en) * | 1997-04-25 | 1998-11-13 | Victor Co Of Japan Ltd | Movement compensated encoding device/method and encoding recording medium |
JP2004032355A (en) * | 2002-06-26 | 2004-01-29 | Nippon Telegr & Teleph Corp <Ntt> | Motion picture encoding method, motion picture decoding method, and apparatus for the both method |
JP2005244503A (en) * | 2004-02-25 | 2005-09-08 | Sony Corp | Apparatus and method for coding image information |
JP2007243784A (en) * | 2006-03-10 | 2007-09-20 | Victor Co Of Japan Ltd | Moving image decoding device and moving image decoding method |
-
2008
- 2008-06-25 JP JP2008166348A patent/JP4977094B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10304383A (en) * | 1997-04-25 | 1998-11-13 | Victor Co Of Japan Ltd | Movement compensated encoding device/method and encoding recording medium |
JP2004032355A (en) * | 2002-06-26 | 2004-01-29 | Nippon Telegr & Teleph Corp <Ntt> | Motion picture encoding method, motion picture decoding method, and apparatus for the both method |
JP2005244503A (en) * | 2004-02-25 | 2005-09-08 | Sony Corp | Apparatus and method for coding image information |
JP2007243784A (en) * | 2006-03-10 | 2007-09-20 | Victor Co Of Japan Ltd | Moving image decoding device and moving image decoding method |
Cited By (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10057597B2 (en) | 2010-01-19 | 2018-08-21 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates |
JP2016007065A (en) * | 2010-01-19 | 2016-01-14 | サムスン エレクトロニクス カンパニー リミテッド | Method and device for encoding/decoding motion vector based upon candidate for reduced prediction motion vector |
JP2018093504A (en) * | 2010-01-19 | 2018-06-14 | サムスン エレクトロニクス カンパニー リミテッド | Method and device for coding/decoding motion vector, based on candidate of reduced prediction motion vector |
US9571853B2 (en) | 2010-01-19 | 2017-02-14 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates |
US9565447B2 (en) | 2010-01-19 | 2017-02-07 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates |
US10708616B2 (en) | 2010-01-19 | 2020-07-07 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates |
JP2017108423A (en) * | 2010-01-19 | 2017-06-15 | サムスン エレクトロニクス カンパニー リミテッド | Method and device for encoding/decoding motion vector on the basis of reduced predicted motion vector candidate |
US10484709B2 (en) | 2010-01-19 | 2019-11-19 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidates |
JP2019146252A (en) * | 2010-01-19 | 2019-08-29 | サムスン エレクトロニクス カンパニー リミテッド | Method and device for encoding/decoding motion vector based on reduced prediction motion vector candidate |
JP2020182236A (en) * | 2010-01-19 | 2020-11-05 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for encoding and decoding motion vector based on reduced motion vector predictor candidate |
US10051272B2 (en) | 2010-02-17 | 2018-08-14 | University-Industry Cooperation Group Of Kyung Hee University | Coding structure |
JP2013520124A (en) * | 2010-02-17 | 2013-05-30 | ユニバーシティ−インダストリ コーポレーション グループ オブ キュン ヘ ユニバーシティ | Coding structure |
US8891891B2 (en) | 2010-02-17 | 2014-11-18 | University-Industry Cooperation Group of Kyung Hee Universirty | Coding structure |
US10051271B2 (en) | 2010-02-17 | 2018-08-14 | University-Industry Cooperation Group Of Kyung Hee University | Coding structure |
US9924170B2 (en) | 2010-02-17 | 2018-03-20 | University-Industry Cooperation Group Of Kyung Hee University | Coding structure |
US10715828B2 (en) | 2010-04-08 | 2020-07-14 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US11265574B2 (en) | 2010-04-08 | 2022-03-01 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US9906812B2 (en) | 2010-04-08 | 2018-02-27 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US9794587B2 (en) | 2010-04-08 | 2017-10-17 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
JP5367161B2 (en) * | 2010-04-08 | 2013-12-11 | 株式会社東芝 | Image encoding method, apparatus, and program |
JP5368631B2 (en) * | 2010-04-08 | 2013-12-18 | 株式会社東芝 | Image encoding method, apparatus, and program |
US10999597B2 (en) | 2010-04-08 | 2021-05-04 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
JP2014017848A (en) * | 2010-04-08 | 2014-01-30 | Toshiba Corp | Image decoding method, device, and program |
WO2011125211A1 (en) * | 2010-04-08 | 2011-10-13 | 株式会社 東芝 | Image encoding method and image decoding method |
CN102823248A (en) * | 2010-04-08 | 2012-12-12 | 株式会社东芝 | Image encoding method and image decoding method |
CN102835109A (en) * | 2010-04-08 | 2012-12-19 | 株式会社东芝 | Image encoding method and image decoding method |
US10779001B2 (en) | 2010-04-08 | 2020-09-15 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
CN103227922A (en) * | 2010-04-08 | 2013-07-31 | 株式会社东芝 | Image decoding method and image decoding device |
US9538181B2 (en) | 2010-04-08 | 2017-01-03 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US10560717B2 (en) | 2010-04-08 | 2020-02-11 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US10542281B2 (en) | 2010-04-08 | 2020-01-21 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US10009623B2 (en) | 2010-04-08 | 2018-06-26 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US12132927B2 (en) | 2010-04-08 | 2024-10-29 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
JPWO2011125256A1 (en) * | 2010-04-08 | 2013-07-08 | 株式会社東芝 | Image encoding method and image decoding method |
WO2011125256A1 (en) * | 2010-04-08 | 2011-10-13 | 株式会社 東芝 | Image encoding method and image decoding method |
JPWO2011125211A1 (en) * | 2010-04-08 | 2013-07-08 | 株式会社東芝 | Image encoding method and image decoding method |
CN103227922B (en) * | 2010-04-08 | 2016-06-01 | 株式会社东芝 | Picture decoding method and picture decoding apparatus |
CN102823248B (en) * | 2010-04-08 | 2015-06-24 | 株式会社东芝 | Image encoding method and image decoding method |
US10091525B2 (en) | 2010-04-08 | 2018-10-02 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US11889107B2 (en) | 2010-04-08 | 2024-01-30 | Kabushiki Kaisha Toshiba | Image encoding method and image decoding method |
US9219921B2 (en) | 2010-04-12 | 2015-12-22 | Qualcomm Incorporated | Mixed tap filters |
JP2013524731A (en) * | 2010-04-12 | 2013-06-17 | クゥアルコム・インコーポレイテッド | Mixed tap filter |
JP2014103698A (en) * | 2010-04-22 | 2014-06-05 | Mediatek Inc | Motion vector prediction method |
WO2012005194A1 (en) * | 2010-07-09 | 2012-01-12 | ソニー株式会社 | Image processing device and method |
JP2013529877A (en) * | 2010-07-12 | 2013-07-22 | 聯發科技股▲ふん▼有限公司 | Method and apparatus for temporal motion vector prediction |
US9961364B2 (en) | 2010-07-12 | 2018-05-01 | Hfi Innovation Inc. | Method and apparatus of temporal motion vector prediction |
US9621915B2 (en) | 2010-09-24 | 2017-04-11 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
US8848805B2 (en) | 2010-09-24 | 2014-09-30 | Panasonic Intellectual Property Corporation Of America | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
US10298926B2 (en) | 2010-09-24 | 2019-05-21 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
JP2013211920A (en) * | 2010-09-24 | 2013-10-10 | Panasonic Corp | Image decoding method and image decoding device |
US10798381B2 (en) | 2010-09-24 | 2020-10-06 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
US9392298B2 (en) | 2010-09-24 | 2016-07-12 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
US11895293B2 (en) | 2010-09-24 | 2024-02-06 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
US8861592B2 (en) | 2010-09-24 | 2014-10-14 | Panasonic Intellectual Property Corporation Of America | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
JP5303683B2 (en) * | 2010-09-24 | 2013-10-02 | パナソニック株式会社 | Image encoding method and image encoding apparatus |
JP2013225898A (en) * | 2010-09-24 | 2013-10-31 | Panasonic Corp | Image encoding/decoding apparatus |
US9930334B2 (en) | 2010-09-24 | 2018-03-27 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
US11166018B2 (en) | 2010-09-24 | 2021-11-02 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
JP2019205189A (en) * | 2010-10-06 | 2019-11-28 | 株式会社Nttドコモ | Image prediction decoding method |
JP7085044B2 (en) | 2010-10-06 | 2022-06-15 | 株式会社Nttドコモ | Image prediction decoding method |
JP2021122148A (en) * | 2010-10-06 | 2021-08-26 | 株式会社Nttドコモ | Image prediction decoding method |
JP2020162174A (en) * | 2010-10-06 | 2020-10-01 | 株式会社Nttドコモ | Image prediction decoding method |
WO2012172668A1 (en) * | 2011-06-15 | 2012-12-20 | 株式会社 東芝 | Video encoding method and device, and video decoding method and device |
JPWO2012172668A1 (en) * | 2011-06-15 | 2015-02-23 | 株式会社東芝 | Moving picture encoding method and apparatus, and moving picture decoding method and apparatus |
JP5677576B2 (en) * | 2011-07-22 | 2015-02-25 | 株式会社日立製作所 | Video decoding method and video encoding method |
WO2013014693A1 (en) * | 2011-07-22 | 2013-01-31 | 株式会社日立製作所 | Video decoding method and image encoding method |
JPWO2013014693A1 (en) * | 2011-07-22 | 2015-02-23 | 株式会社日立製作所 | Video decoding method and video encoding method |
JP2013132046A (en) * | 2011-11-21 | 2013-07-04 | Jvc Kenwood Corp | Video decoder, video decoding method, video decoding program, receiver, receiving method, and receiving program |
JP2013132047A (en) * | 2011-11-21 | 2013-07-04 | Jvc Kenwood Corp | Video encoder, video encoding method, video encoding program, transmitter, transmission method, and transmission program |
JP2018033187A (en) * | 2012-02-07 | 2018-03-01 | パナソニックIpマネジメント株式会社 | Image processor and image processing method |
WO2014107074A1 (en) * | 2013-01-04 | 2014-07-10 | 삼성전자 주식회사 | Motion compensation method and device for encoding and decoding scalable video |
JP2013219805A (en) * | 2013-06-03 | 2013-10-24 | Toshiba Corp | Image encoding method and image decoding method |
JP2014017853A (en) * | 2013-09-11 | 2014-01-30 | Toshiba Corp | Image encoding method and image decoding method |
KR101967967B1 (en) * | 2013-09-26 | 2019-04-10 | 퀄컴 인코포레이티드 | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
KR20160058824A (en) * | 2013-09-26 | 2016-05-25 | 퀄컴 인코포레이티드 | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
JP2016537839A (en) * | 2013-09-26 | 2016-12-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Sub prediction unit (PU) based temporal motion vector prediction in HEVC and sub PU design in 3D-HEVC |
JP2014090459A (en) * | 2013-12-10 | 2014-05-15 | Toshiba Corp | Image encoding method and image decoding method |
JP2014131296A (en) * | 2014-01-23 | 2014-07-10 | Toshiba Corp | Image encoding method and image decoding method |
JP2014131294A (en) * | 2014-01-23 | 2014-07-10 | Toshiba Corp | Image encoding method and image decoding method |
JP2014131295A (en) * | 2014-01-23 | 2014-07-10 | Toshiba Corp | Image encoding method and image decoding method |
JP2014131293A (en) * | 2014-01-23 | 2014-07-10 | Toshiba Corp | Image encoding method and image decoding method |
JP5509398B1 (en) * | 2014-01-23 | 2014-06-04 | 株式会社東芝 | Image encoding method and image decoding method |
JP2015019426A (en) * | 2014-10-01 | 2015-01-29 | 株式会社東芝 | Image encoding method and image decoding method |
JP2015053729A (en) * | 2014-11-17 | 2015-03-19 | 株式会社東芝 | Image encoding method, and image decoding method |
JP2015092705A (en) * | 2014-12-16 | 2015-05-14 | 株式会社日立製作所 | Dynamic image decoding method and image coding method |
JP2016129387A (en) * | 2016-02-17 | 2016-07-14 | 株式会社東芝 | Image encoding method and image decoding method |
JP2017076980A (en) * | 2016-10-24 | 2017-04-20 | 株式会社Jvcケンウッド | Image encoding device |
JP2017085616A (en) * | 2016-12-16 | 2017-05-18 | 株式会社東芝 | Image encoding method and image decoding method |
JP2019016896A (en) * | 2017-07-05 | 2019-01-31 | キヤノン株式会社 | Image processing system, and image processing method |
JP2018023126A (en) * | 2017-08-31 | 2018-02-08 | 株式会社東芝 | Image encoding method and image decoding method |
CN110710216B (en) * | 2017-09-08 | 2023-07-21 | 株式会社Kt | Video signal processing method and device |
CN110710216A (en) * | 2017-09-08 | 2020-01-17 | 株式会社Kt | Video signal processing method and device |
US11743455B2 (en) | 2017-09-08 | 2023-08-29 | Kt Corporation | Method and device for processing video signal |
JP2018057016A (en) * | 2017-11-13 | 2018-04-05 | 株式会社東芝 | Image encoding method and image decoding method |
JP2018186536A (en) * | 2018-07-02 | 2018-11-22 | 株式会社東芝 | Image encoding method and image decoding method |
CN110234013B (en) * | 2019-06-20 | 2022-04-26 | 电子科技大学 | Optimization method for frame-level motion vector precision bit allocation |
CN110234013A (en) * | 2019-06-20 | 2019-09-13 | 电子科技大学 | A kind of optimization method of frame level motion vector accuracy bit distribution |
JP2021036703A (en) * | 2019-10-21 | 2021-03-04 | 株式会社東芝 | Image encoding method and image decoding method |
JP2021036704A (en) * | 2019-10-21 | 2021-03-04 | 株式会社東芝 | Image encoding method and image decoding method |
JP2023056019A (en) * | 2019-10-21 | 2023-04-18 | 株式会社東芝 | Image encoding method and image decoding method |
JP7399332B2 (en) | 2019-10-21 | 2023-12-15 | 株式会社東芝 | Image encoding method and image decoding method |
JP7547598B2 (en) | 2019-10-21 | 2024-09-09 | 株式会社東芝 | Image encoding method and image decoding method |
JP2020025308A (en) * | 2019-10-21 | 2020-02-13 | 株式会社東芝 | Image encoding method and image decoding method |
Also Published As
Publication number | Publication date |
---|---|
JP4977094B2 (en) | 2012-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4977094B2 (en) | Image coding method | |
KR102549223B1 (en) | A method and an apparatus for processing a video signal | |
JP5368631B2 (en) | Image encoding method, apparatus, and program | |
KR100924850B1 (en) | Moving picture signal coding method and decoding method | |
KR101923527B1 (en) | Video prediction encoding device, video prediction encoding method, video prediction encoding program, video prediction decoding device, video prediction decoding method, and video prediction decoding program | |
KR102006443B1 (en) | Method and apparatus for video encoding/decoding using error compensation | |
JP2010135864A (en) | Image encoding method, device, image decoding method, and device | |
JP2019071661A (en) | Method and device for motion compensation prediction | |
JP2010011075A (en) | Method and apparatus for encoding and decoding moving image | |
JP5197864B2 (en) | Image decoding method and apparatus | |
JP5479648B1 (en) | Image encoding method and image decoding method | |
JP5444497B2 (en) | Image encoding method and image decoding method | |
JP5513333B2 (en) | Moving picture coding apparatus, moving picture coding method, and program | |
JP7399332B2 (en) | Image encoding method and image decoding method | |
JP5571262B2 (en) | Image encoding method and image decoding method | |
JP6609004B2 (en) | Image encoding method and image decoding method | |
JP6367452B2 (en) | Image encoding method and image decoding method | |
JP6370977B2 (en) | Image encoding method and image decoding method | |
JP6271694B2 (en) | Image encoding method and image decoding method | |
JP6196341B2 (en) | Image encoding method and image decoding method | |
JP5659314B1 (en) | Image encoding method and image decoding method | |
JP5571229B2 (en) | Image encoding method and image decoding method | |
JP5509398B1 (en) | Image encoding method and image decoding method | |
JP2020025308A (en) | Image encoding method and image decoding method | |
JP2014131293A (en) | Image encoding method and image decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120321 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120413 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |