[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019535202A - インター予測モードベースの画像処理方法及びそのための装置 - Google Patents

インター予測モードベースの画像処理方法及びそのための装置 Download PDF

Info

Publication number
JP2019535202A
JP2019535202A JP2019519004A JP2019519004A JP2019535202A JP 2019535202 A JP2019535202 A JP 2019535202A JP 2019519004 A JP2019519004 A JP 2019519004A JP 2019519004 A JP2019519004 A JP 2019519004A JP 2019535202 A JP2019535202 A JP 2019535202A
Authority
JP
Japan
Prior art keywords
block
merge candidate
motion information
current
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019519004A
Other languages
English (en)
Inventor
ヒョンムン チャン
ヒョンムン チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2019535202A publication Critical patent/JP2019535202A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本発明においては、インター予測モードベースの画像処理方法及びそのための装置が開示される。具体的に、インター予測(inter prediction)に基づいて画像を処理する方法において、現在ピクチャー(current picture)の参照ピクチャー(reference picture)内のブロックの動き情報を利用して、現在ブロック(current block)の逆方向動き情報を導出するステップ、前記逆方向動き情報を前記現在ブロックの動き情報候補リストに追加するステップ、前記動き情報候補リストに追加された動き情報候補のうち選択された動き情報から前記現在ブロックの動き情報を導出するステップ、及び前記現在ブロックの動き情報を利用して前記現在ブロックの予測ブロックを生成するステップを含み、前記逆方向動き情報により前記参照ピクチャー内のブロックを特定することができる。【選択図】図23

Description

本発明は、静止画又は動画の処理方法に関し、より詳細には、インター予測モード(inter prediction mode)ベースに静止画又は動画をエンコード/デコードする方法及びそれを支援する装置に関する。
圧縮符号化とは、デジタル化した情報を通信回線を介して送信したり、格納媒体に適した形態で格納するための一連の信号処理技術を意味する。画像、イメージ、音声等のメディアが圧縮符号化の対象になることができ、特に、画像を対象として圧縮符号化を行う技術をビデオ画像圧縮と称する。
次世代ビデオコンテンツは、高解像度(high spatial resolution)、高フレーム率(high frame rate)、及び画像表現の高次元化(high dimensionality of scene representation)という特徴を有するようになるであろう。そのようなコンテンツを処理するためには、メモリ格納(memory storage)、メモリアクセス率(memory access rate)、及び処理電力(processing power)の側面で莫大な増加を有してくるであろう。
従って、次世代ビデオコンテンツをより効率的に処理するためのコーディングツールをデザインする必要がある。
本発明の目的は、インター予測(画面間の予測)において、バイナリツリー構造(binary tree structure)分割による周辺動き情報の類似性を考慮してマージ候補を決定する方法を提案することにある。
また、本発明の目的は、バイナリツリー構造(binary tree structure)に分割されたブロックにおいてクアッドツリー構造(quad tree structure)に分割されたブロックの隣り合うブロックをマージ候補として用いる方法を提案することにある。
本発明においてなそうとする技術的課題は、以上で言及した技術的課題に制限されず、言及していないさらに他の技術的課題は、下記の記載から本発明の属する技術分野における通常の知識を有する者に明確に理解され得るであろう。
本発明の一様態は、インター予測(inter prediction)モードベースに画像を処理する方法において、現在ブロックの空間マージ候補(spatial merge candidate)及び時間マージ候補(temporal merge candidate)を用いてマージ候補リストを生成するステップと、前記マージ候補リスト内で特定マージ候補を示すマージインデックス(merge index)を復号するステップと、前記マージインデックスにより示されるマージ候補の動き情報を用いて前記現在ブロックの予測ブロックを生成するステップと、を含み、前記現在ブロックがクアッドツリー構造(quad tree structure)のリーフノードブロック(leaf node block)を示すクアッドツリーブロックからバイナリツリー構造(binary tree structure)に分割されたブロックである場合、前記空間マージ候補は、前記クアッドツリーブロック境界に隣接するブロックに決定されることができる。
好ましくは、前記空間マージ候補は、前記クアッドツリーブロックの左下側境界に隣接するブロック、左上側境界に隣接するブロック、右上側境界に隣接するブロック、上側境界に隣接するブロック、又は左側境界に隣接するブロックの少なくとも1つに決定されることができる。
好ましくは、前記上側境界に隣接するブロックは、前記現在ブロックの左上側境界に隣接するピクセルと垂直方向に隣接するピクセルを含むブロック又は前記現在ブロックの右上側ピクセルと垂直方向に隣接するピクセルを含むブロックであり得る。
好ましくは、前記左側境界に隣接するブロックは、前記現在ブロックの左下側ピクセルと水平方向に隣接するピクセルを含むブロックであり得る。
好ましくは、前記マージ候補リストを生成するステップは、時間候補ピクチャー内で前記空間マージ候補の動き情報により特定されるブロックを示す第1の向上した時間マージ候補を前記マージ候補リストに追加するステップを含み、前記マージインデックスが前記第1の向上した時間マージ候補を示す場合、前記現在ブロックの予測ブロックは、前記第1の向上した時間マージ候補の動き情報をサブブロック(sub-block)単位で用いて生成されることができる。
好ましくは、前記マージ候補リストを生成するステップは、第2の向上した時間マージ候補を前記マージ候補リストに追加するステップを含み、前記第2の向上した時間マージ候補の動き情報は、現在ピクチャー内で前記現在ブロックの境界に隣接するブロックの動き情報及び時間候補ピクチャー内で前記現在ブロックと同一位置の(collocated)ブロックの動き情報を用いてサブブロック(sub-block)単位で決定されることができる。
好ましくは、前記現在ブロックの現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向及び垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの下側及び右側位置のブロックの動き情報を用いて決定されることができる。
好ましくは、前記現在サブブロックとの距離に基づいて前記現在サブブロックの水平方向又は垂直方向に隣接するブロックの動き情報に加重値が適用されることができる。
好ましくは、前記現在サブブロックが前記現在ブロックの垂直境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの上側、下側、及び右側位置のブロックの動き情報を用いて決定されることができる。
好ましくは、前記現在サブブロックが前記現在ブロックの水平境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの左側、下側、及び右側位置のブロックの動き情報を用いて決定されることができる。
本発明の他の一様態は、インター予測(inter prediction)モードベースに画像を処理する装置において、現在ブロックの空間マージ候補(spatial merge candidate)及び時間マージ候補(temporal merge candidate)を用いてマージ候補リストを生成するマージ候補リスト生成部と、前記マージ候補リスト内で特定マージ候補を示すマージインデックス(merge index)を復号するマージインデックス復号部と、前記マージインデックスにより示されるマージ候補の動き情報を用いて前記現在ブロックの予測ブロックを生成する予測ブロック生成部と、を含み、前記現在ブロックがクアッドツリー構造(quad tree structure)のリーフノードブロック(leaf node block)を示すクアッドツリーブロックからバイナリツリー構造(binary tree structure)に分割されたブロックである場合、前記空間マージ候補は、前記クアッドツリーブロック境界に隣接するブロックに決定されることができる。
本発明の実施形態によれば、ブロック分割構造によって相対的に選択確率がより高いマージ候補を利用してマージ候補リストを生成することにより、予測性能を向上させ、画像の圧縮効率を向上させることができる。
また、本発明の実施形態によれば、バイナリツリー構造に分割されたブロックにおいてクアッドツリー構造に分割されたブロックの隣り合うブロックをマージ候補として利用することにより、クアッドツリー構造に分割されたブロック単位で並列化を行うことができる。
本発明において得ることができる効果は、以上で言及した効果に制限されず、言及していないさらに他の効果は、下記の記載から本発明の属する技術分野における通常の知識を有する者に明確に理解され得るであろう。
本発明に関する理解を助けるために、詳細な説明の一部として含まれる添付図面は、本発明に対する実施形態を提供し、詳細な説明とともに本発明の技術的特徴を説明する。
本発明が適用される実施形態であって、静止画または動画信号のエンコードが行われるエンコーダの概略的なブロック図を示す。 本発明が適用される実施形態であって、静止画または動画信号のエンコードが行われるデコーダの概略的なブロック図を示す。 本発明に適用できるコーディングユニットの分割構造を説明するための図である。 本発明に適用できる予測ユニットを説明するための図である。 本発明が適用できる実施形態であって、インター予測の方向を例示する図である。 本発明が適用できる実施形態であって、1/4サンプル補間のための整数及び分数サンプル位置を例示する。 本発明が適用できる実施形態であって、空間的候補の位置を例示する。 本発明が適用される実施形態であって、インター予測方法を例示する図である。 本発明が適用できる実施形態であって、動き補償過程を例示する図である。 本発明が適用される実施形態であって、空間マージ候補の位置を説明するための図である。 本発明が適用される実施形態であって、時間マージ候補の位置を説明するための図である。 本発明が適用される実施形態であって、向上した時間動きベクトル予測子(Advanced Temporal Motion Vector Predictor)を利用して動き情報を誘導する方法を説明するための図である。 本発明が適用される実施形態であって、向上した時間動きベクトル予測子拡張(Advanced Temporal Motion Vector Predictor-extension)を利用して動き情報を誘導する方法を説明するための図である。 本発明が適用される実施形態であって、向上した時間動きベクトル予測子拡張(Advanced Temporal Motion Vector Predictor-extension)を利用して動き情報を誘導する方法を説明するための図である。 QTBT構造において、既存の空間マージ候補位置を利用してマージ候補を構成する場合に発生する問題を説明するための図である。 QTBT構造において、既存の空間マージ候補位置を利用してマージ候補を構成する場合に発生する問題を説明するための図である。 QTBT構造において、既存の空間マージ候補位置を利用してマージ候補を構成する場合に発生する問題を説明するための図である。 QTBT構造において、既存の空間マージ候補位置を利用してマージ候補を構成する場合に発生する問題を説明するための図である。 本発明が適用される実施形態であって、クアッドツリーのリーフノードブロック境界に隣接するブロックを利用して空間マージ候補を構成する方法を説明するための図である。 を参照すると、クアッドツリーブロックからバイナリツリー構造に深さ(depth)3まで分割されたと仮定する。 本発明が適用される実施形態であって、向上した時間動きベクトル予測子拡張(Advanced Temporal Motion Vector Predictor-extension)を利用して動き情報を誘導する方法を説明するための図である。 本発明が適用される実施形態であって、向上した時間動きベクトル予測子拡張(Advanced Temporal Motion Vector Predictor-extension)を利用して動き情報を誘導する方法を説明するための図である。 本発明の一実施形態によるインター予測方法を説明するための図である。 本発明の一実施形態によるインター予測部をより具体的に例示する図である。
以下、本発明に係る好ましい実施形態を添付された図面を参照して詳細に説明する。添付された図面とともに以下に開示される詳細な説明は、本発明の例示的な実施形態を説明しようとするものであり、本発明が実施できる唯一の実施形態を表そうとするものではない。以下の詳細な説明は、本発明の完全な理解を提供するために具体的な細部事項を含む。しかしながら、当業者は、本発明がこのような具体的な細部事項がなくとも実施できることが分かる。
いくつかの場合、本発明の概念が曖昧になることを避けるために、公知の構造及び装置は省略されるか、各構造及び装置の核心機能を中心としたブロック図形式で図示されることができる。
合わせて、本発明で使用される用語は、なるべく現在広く使用される一般的な用語を選択したが、特定の場合は、出願人が任意に選定した用語を使用して説明する。そのような場合には、当該部分の詳細説明でその意味を明確に記載するので、本発明の説明で使用された用語の名称だけで単純解釈されてはならず、その当該用語の意味まで把握して解釈されなければならないことを明かしておく。
以下の説明で使用される特定用語等は、本発明の理解を助けるために提供されたものであって、このような特定用語の使用は、本発明の技術的思想を逸脱しない範囲で他の形態に変更されることができる。例えば、信号、データ、サンプル、ピクチャー、フレーム、ブロックなどの場合、各コーディング過程で適宜代替されて解釈され得るであろう。
以下、本明細書において「処理ユニット」は、予測、変換、及び/又は量子化などのエンコード/デコードの処理過程が行われる単位を意味する。以下、説明の便宜のために、処理ユニットは「処理ブロック」又は「ブロック」と呼ばれることもできる。
処理ユニットは、輝度(luma)成分に対する単位と色差(chroma)成分に対する単位とを含む意味として解釈することができる。例えば、処理ユニットは、コーディングツリーユニット(CTU:Coding Tree Unit)、コーディングユニット(CU:Coding Unit)、予測ユニット(PU:Prediction Unit)、又は変換ユニット(TU:Transform Unit)に該当する。
また、処理ユニットは、輝度成分に対する単位又は色差成分に対する単位として解釈されることができる。例えば、処理ユニットは、輝度成分に対するコーディングツリーブロック(CTB:Coding Tree Block)、コーディングブロック(CB:Coding Block)、予測ブロック(PU:Prediction Block)、又は変換ブロック(TB: Transform Block)に該当する。または、色差成分に対するコーディングツリーブロック(CTB)、コーディングブロック(CB)、予測ブロック(PU)、又は変換ブロック(TB)に該当する。また、これに限定されるものではなく、処理ユニットは、輝度成分に対する単位と色差成分に対する単位を含む意味として解釈されることもできる。
さらに、処理ユニットは、必ず正方形のブロックに限定されるものではなく、3つ以上の頂点を有する多角形状で構成されることもできる。
図1は、本発明が適用される実施形態であって、静止画または動画信号のエンコードが行われるエンコーダの概略的なブロック図を示す。
図1に示すように、エンコーダ100は、画像分割部110、減算器115、変換部120、量子化部130、逆量子化部140、逆変換部150、フィルタリング部160、復号ピクチャーバッファ(DPB:Decoded Picture Buffer)170、予測部180、及びエントロピーエンコード部190を備えて構成されることができる。そして、予測部180は、インター予測部181、イントラ予測部182を備えて構成されることができる。
画像分割部110は、エンコーダ100に入力された入力画像信号(Input video signal)(又は、ピクチャー、フレーム)を1つ以上の処理ユニットに分割する。
減算器115は、入力画像信号から予測部180(すなわち、インター予測部181又はイントラ予測部182)から出力された予測信号(prediction signal)(又は、予測ブロック)を減算して差分信号(residual signal)(又は、差分ブロック)を生成する。生成された差分信号(又は、差分ブロック)は変換部120に送信される。
変換部120は、差分信号(または、差分ブロック)に変換技法(例えば、DCT(Discrete Cosine Transform)、DST(Discrete Sine Transform)、GBT(Graph-Based Transform)、KLT(Karhunen-Loeve transform)等)を適用して変換係数(transform coefficient)を生成する。このとき、変換部120は、差分ブロックに適用された予測モードと差分ブロックのサイズに応じて決定された変換技法を利用して変換を行うことにより、変換係数を生成することができる。
量子化部130は、変換係数を量子化してエントロピーエンコード部190に送信し、エントロピーエンコード部190は、量子化された信号(quantized signal)をエントロピーコーディングしてビットストリームに出力する。
一方、量子化部130から出力された量子化された信号(quantized signal)は予測信号を生成するために用いられることができる。例えば、量子化された信号(quantized signal)は、ループ内の逆量子化部140及び逆変換部150により逆量子化及び逆変換を適用することにより差分信号を復元することができる。復元された差分信号をインター予測部181又はイントラ予測部182から出力された予測信号(prediction signal)に加算することにより復元信号(reconstructed signal)が生成される。
一方、上記のような圧縮過程で隣接したブロックが互いに異なる量子化パラメータにより量子化されることで、ブロック境界が見える劣化が発生し得る。このような現象をブロッキング劣化(blocking artifacts)といい、これは、画質を評価する重要な要素のうちの1つである。このような劣化を減らすために、フィルタリング過程を行うことができる。このようなフィルタリング過程を介してブロッキング劣化を除去するとともに、現在ピクチャーに対する誤差を減らすことにより、画質を向上させることができるようになる。
フィルタリング部160は、復元信号にフィルタリングを適用して、これを再生装置に出力するか、復号ピクチャーバッファ170に送信する。復号ピクチャーバッファ170に送信されたフィルタリングされた信号は、インター予測部181で参照ピクチャーとして使用されることができる。このように、フィルタリングされたピクチャーを画面間予測モードで参照ピクチャーとして用いることにより、画質だけでなく、符号化効率も向上させることができる。
復号ピクチャーバッファ170は、フィルタリングされたピクチャーをインター予測部181での参照ピクチャーとして使用するために格納することができる。
インター予測部181は、復元ピクチャー(reconstructed picture)を参照して時間的重複性及び/又は空間的重複性を除去するために、時間的予測及び/又は空間的予測を行う。
特に、本発明によるインター予測部181は、逆方向動き情報をインター予測(又は、ピクチャー間予測) 過程で用いることができる。これに関する詳細な説明は後述する。
ここで、予測を行うために用いられる参照ピクチャーは、以前の時間に符号化/復号の際、ブロック単位に量子化と逆量子化を経て変換された信号であるから、ブロッキングアーティファクト(blocking artifact)やリンギングアーティファクト(ringing artifact)が存在し得る。
従って、インター予測部181は、このような信号の不連続や量子化による性能低下を解決するために、ローパスフィルタ(lowpass filter)を適用することにより、ピクセル間の信号をサブピクセル単位に補間することができる。ここで、サブピクセルは、補間フィルタを適用して生成された仮想の画素を意味し、整数ピクセルは、復元されたピクチャーに存在する実際画素を意味する。補間方法では、線形補間、双線形補間(bi-linear interpolation)、ウィーナフィルタ(wiener filter)などが適用され得る。
補間フィルタは、復元ピクチャー(reconstructed picture)に適用されて予測の精密度を向上させることができる。例えば、インター予測部181は、整数ピクセルに補間フィルタを適用して補間ピクセル(interpolated pixels)を生成し、補間ピクセルで構成された補間ブロック(interpolated block)を予測ブロック(prediction block)として用いて予測を行うことができる。
イントラ予測部182は、現在符号化を行おうとするブロックの周辺にあるサンプルを参照して現在ブロックを予測する。イントラ予測部182は、イントラ予測を行うために次の過程を行うことができる。まず、予測信号を生成するために必要な参照サンプルを準備する。また、準備した参照サンプルを用いて予測信号を生成する。その後、予測モードを符号化する。ここで、参照サンプルは、参照サンプルパディング及び/又は参照サンプルフィルタリングにより準備される。参照サンプルは、予測及び復元過程を経たので、量子化エラーが存在することがある。従って、このようなエラーを減らすためにイントラ予測に用いられる各予測モードに対して参照サンプルフィルタリング過程が行われる。
インター予測部181又はイントラ予測部182により生成された予測信号(prediction signal)(又は、予測ブロック)は、復元信号(又は、復元ブロック)を生成するために利用されるか、差分信号(又は、差分ブロック)を生成するために利用されることができる。
図2は、本発明が適用される実施形態であって、静止画または動画信号のエンコードが行われるデコーダの概略的なブロック図を示す。
図2に示すように、デコーダ200は、エントロピーデコード部210、逆量子化部220、逆変換部230、加算器235、フィルタリング部240、復号ピクチャーバッファ(DPB:Decoded Picture Buffer Unit)250、予測部260を備えて構成されることができる。そして、予測部260は、インター予測部261及びイントラ予測部262を備えて構成されることができる。
そして、デコーダ200を介して出力された復元画像信号(reconstructed video signal)は、再生装置を介して再生されることができる。
デコーダ200は、図1のエンコーダ100から出力された信号(すなわち、ビットストリーム)を受信し、受信された信号は、エントロピーデコード部210を介してエントロピーデコードされる。
逆量子化部220では、量子化ステップサイズ情報を利用してエントロピーデコードされた信号から変換係数(transform coefficient)を取得する。
逆変換部230では、逆変換技法を適用して変換係数を逆変換して差分信号(residual signal)(または、差分ブロック)を取得するようになる。
加算器235は、取得された差分信号(または、差分ブロック)を予測部260(すなわち、インター予測部261またはイントラ予測部262)から出力された予測された信号(predicted signal)(または、予測されたブロック)に足すことにより、復元信号(reconstructed signal)(または、復元ブロック)が生成される。
フィルタリング部240は、復元信号(reconstructed signal)(または、復元ブロック)にフィルタリングを適用して、これを再生装置に出力するか、復号ピクチャーバッファ部250に送信する。復号ピクチャーバッファ部250に送信されたフィルタリングされた信号は、インター予測部261で参照ピクチャーとして使用されることができる。
本明細書において、エンコーダ100のフィルタリング部160、インター予測部181、及びイントラ予測部182で説明された実施形態は、各々デコーダのフィルタリング部240、インター予測部261、及びイントラ予測部262にも同様に適用されることができる。
特に、本発明によるインター予測部261は、逆方向動き情報をインター予測(又は、ピクチャー間予測)過程で用いることができる。これに関する詳細な説明は後述する。
処理ユニット分割構造
一般に、静止画または動画圧縮技術(例えば、HEVC)では、ブロック基盤の画像圧縮方法を利用する。ブロック基盤の画像圧縮方法は、画像を特定ブロック単位に分けて処理する方法であって、メモリ使用と演算量を減少させることができる。
図3は、本発明に適用できるコーディングユニットの分割構造を説明するための図である。
エンコーダは、1つの画像(または、ピクチャー)を四角形の形態のコーディングツリーユニット(CTU:Coding Tree Unit)単位に分割する。そして、ラスタースキャン順序(raster scan order)にしたがって1つのCTUずつ順次エンコードする。
HEVCでCTUのサイズは、64×64、32×32、16×16のうち、いずれか1つに決められることができる。エンコーダは、入力された画像の解像度または入力された画像の特性などによってCTUのサイズを選択して使用することができる。CTUは、輝度(luma)成分に対するコーディングツリーブロック(CTB:Coding Tree Block)と、これに対応する2つの色差(chroma)成分に対するCTBを含む。
1つのCTUは、クアッドツリー(Quad-tree)構造に分割されることができる。すなわち、1つのCTUは、正方形の形態を有しながら半分の水平サイズ(half horizontal size)及び半分の垂直サイズ(half vertical size)を有する4個のユニットに分割されて、コーディングユニット(CU:Coding Unit)が生成され得る。このようなクアッドツリー構造の分割は、再帰的に行われることができる。すなわち、CUは、1つのCTUからクアッドツリー構造で階層的に分割される。
CUは、入力画像の処理過程、例えば、イントラ(intra)/インター(inter)予測が行われるコーディングの基本単位を意味する。CUは、輝度(luma)成分に対するコーディングブロック(CB:Coding Block)と、これに対応する2つの色差(chroma)成分に対するCBを含む。HEVCでCUのサイズは、64×64、32×32、16×16、8×8のうち、いずれか1つに決められることができる。
図3に示すように、クアッドツリーのルートノード(root node)は、CTUと関連する。クアッドツリーは、リーフノード(leaf node)に到達するまで分割され、リーフノードは、CUに該当する。
より具体的に説明すれば、CTUは、ルートノード(root node)に該当し、最も小さい深さ(depth)(すなわち、depth=0)値を有する。入力画像の特性に応じてCTUが分割されないことがあり、この場合、CTUは、CUに該当する。
CTUは、クアッドツリー形態に分割されることができ、その結果、深さ1(depth=1)である下位ノードが生成される。そして、1の深さを有する下位ノードでそれ以上分割されないノード(すなわち、リーフノード)は、CUに該当する。例えば、図3(b)においてノードa、b及びjに対応するCU(a)、CU(b)、CU(j)は、CTUで1回分割され、1の深さを有する。
1の深さを有するノードのうち、少なくともいずれか1つは、再度クアッドツリー形態に分割されることができ、その結果、深さ2(すなわち、depth=2)である下位ノードが生成される。そして、2の深さを有する下位ノードでそれ以上分割されないノード(すなわち、リーフノード)は、CUに該当する。例えば、図3(b)においてノードc、h、及びiに対応するCU(c)、CU(h)、CU(i)は、CTUで2回分割され、2の深さを有する。
また、2の深さを有するノードのうち、少なくともいずれか1つは、再度クアッドツリー形態に分割されることができ、その結果、深さ3(すなわち、depth=3)である下位ノードが生成される。そして、3の深さを有する下位ノードでそれ以上分割されないノード(すなわち、リーフノード)は、CUに該当する。例えば、図3(b)においてノードd、e、f、gに対応するCU(d)、CU(e)、CU(f)、CU(g)は、CTUで3回分割され、3の深さを有する。
エンコーダでは、ビデオ画像の特性(例えば、解像度)に応じて、あるいは符号化の効率を考慮してCUの最大サイズまたは最小サイズを決定できる。そして、これに関する情報またはこれを導くことができる情報がビットストリームに含まれ得る。最大サイズを有するCUを最大コーディングユニット(LCU:Largest Coding Unit)と呼び、最小サイズを有するCUを最小コーディングユニット(SCU:Smallest Coding Unit)と呼ぶことができる。
また、ツリー構造を有するCUは、予め決められた最大深さ情報(または、最大レベル情報)を有して階層的に分割されることができる。そして、それぞれの分割されたCUは、深さ情報を有することができる。深さ情報は、CUの分割された回数及び/又は程度を表すので、CUのサイズに関する情報を含むこともできる。
LCUがクアッドツリー形態に分割されるので、LCUのサイズ及び最大深さ情報を利用すれば、SCUのサイズを求めることができる。または逆に、SCUのサイズ及びツリーの最大深さ情報を利用すれば、LCUのサイズを求めることができる。
1つのCUに対して、当該CUが分割されるか否かを表す情報(例えば、分割CUフラグ(split_cu_flag))がデコーダに伝達され得る。この分割モードは、SCUを除いた全てのCUに含まれている。例えば、分割可否を表すフラグの値が「1」であれば、当該CUはさらに4個のCUに分けられ、分割可否を表すフラグの値が「0」であれば、当該CUはそれ以上分けられず、当該CUに対する処理過程が行われ得る。
上述のように、CUは、イントラ予測またはインター予測が行われるコーディングの基本単位である。HEVCは、入力画像をより効果的にコーディングするために、CUを予測ユニット(PU:Prediction Unit)単位に分割する。
PUは、予測ブロックを生成する基本単位であって、1つのCU内でもPU単位に互いに異なるように予測ブロックを生成できる。ただし、1つのCU内に属したPUなどは、イントラ予測とインター予測とが混合されて使用されず、1つのCU内に属したPUなどは、同じ予測方法(すなわち、イントラ予測あるいはインター予測)によりコーディングされる。
PUは、クアッドツリー構造に分割されず、1つのCUで予め決められた形態で1回分割される。これについて、下記の図面を参照して説明する。
図4は、本発明に適用できる予測ユニットを説明するための図である。
PUは、PUが属するCUのコーディングモードとしてイントラ予測モードが使用されるか、インター予測モードが使用されるかによって相違して分割される。
図4(a)は、イントラ予測モードが使用される場合のPUを例示し、図4(b)は、インター予測モードが使用される場合のPUを例示する。
図4(a)に示すように、1つのCUのサイズが2N×2N(N=4、8、16、32)である場合を仮定すれば、1つのCUは、2つのタイプ(すなわち、2N×2NまたはN×N)に分割されることができる。
ここで、2N×2N形態のPUに分割される場合、1つのCU内に1つのPUだけが存在することを意味する。
それに対し、N×N形態のPUに分割される場合、1つのCUは、4個のPUに分割され、各PU単位別に互いに異なる予測ブロックが生成される。ただし、このようなPUの分割は、CUの輝度成分に対するCBのサイズが最小サイズである場合(すなわち、CUがSCUである場合)にのみ行われることができる。
図4(b)に示すように、1つのCUのサイズが2N×2N(N=4、8、16、32)である場合を仮定すれば、1つのCUは、8つのPUタイプ(すなわち、2N×2N、N×N、2N×N、N×2N、nL×2N、nR×2N、2N×nU、2N×nD)に分割されることができる。
イントラ予測と同様に、N×N形態のPU分割は、CUの輝度成分に対するCBのサイズが最小サイズである場合(すなわち、CUがSCUである場合)にのみ行われることができる。
インター予測では、横方向に分割される2N×N形態及び縦方向に分割されるN×2N形態のPU分割を支援する。
また、非対称動き分割(AMP:Asymmetric Motion Partition)形態であるnL×2N、nR×2N、2N×nU、2N×nD形態のPU分割を支援する。ここで、「n」は、2Nの1/4の値を意味する。ただし、AMPは、PUが属したCUが最小サイズのCUである場合、使用されることができない。
1つのCTU内の入力画像を効率的に符号化するために、コーディングユニットCU、予測ユニットPU、変換ユニットTUの最適の分割構造は、下記のような実行過程を経て最小レート歪み(Rate-Distortion)値に基づいて決定されることができる。例えば、64×64CTU内の最適のCU分割過程を説明すれば、64×64サイズのCUから8×8サイズのCUまでの分割過程を経ながら、レート歪みコストを計算できる。具体的な過程は、次のとおりである。
1)64×64サイズのCUに対してインター/イントラ予測、変換/量子化、逆量子化/逆変換、及びエントロピーエンコード実行を介して最小のレート歪み値を発生させる最適のPUとTUの分割構造を決定する。
2)64×64CUを32×32サイズのCU4個に分割し、各32×32CUに対して最小のレート歪み値を発生させる最適のPUとTUの分割構造を決定する。
3)32×32CUを16×16サイズのCU4個に再度分割し、各16×16CUに対して最小のレート歪み値を発生させる最適のPUとTUの分割構造を決定する。
4)16×16CUを8×8サイズのCU4個に再度分割し、各8×8CUに対して最小のレート歪み値を発生させる最適のPUとTUの分割構造を決定する。
5)上記の3)の過程で算出した16×16CUのレート歪み値と、上記の4)の過程で算出した4個8×8CUのレート歪み値との合計を比較して、16×16ブロック内で最適のCUの分割構造を決定する。この過程を残りの3個の16×16CUなどに対しても同様に行う。
6)上記の2)の過程で計算された32×32CUのレート歪み値と、上記の5)の過程で取得した4個の16×16CUのレート歪み値との合計を比較して、32×32ブロック内で最適のCUの分割構造を決定する。この過程を残りの3個の32×32CUなどに対しても同様に行う。
7)最後に、上記の1)の過程で計算された64×64CUのレート歪み値と、上記の6)の過程で取得した4個の32×32CUのレート歪み値との合計を比較して、64×64ブロック内で最適のCUの分割構造を決定する。
イントラ予測モードにおいて、PU単位に予測モードが選択され、選択された予測モードに対して実際TU単位に予測と再構成が行われる。
TUは、実際予測と再構成が行われる基本単位を意味する。TUは、輝度(luma)成分に対する変換ブロック(TB:Transform Block)と、これに対応する2つの色差(chroma)成分に対するTBを含む。
前述した図3の例示において1つのCTUがクアッドツリー構造に分割されてCUが生成されるように、TUは、コーディングしようとする1つのCUからクアッドツリー構造に階層的に分割される。
TUは、クアッドツリー構造に分割されるので、CUから分割されたTUは再度より小さい下位TUに分割されることができる。HEVCでは、TUのサイズは、32×32、16×16、8×8、4×4のうち、いずれか1つに決められることができる。
さらに、図3に示すように、クアッドツリーのルートノード(root node)は、CUと関連すると仮定する。クアッドツリーは、リーフノード(leaf node)に到達するまで分割され、リーフノードは、TUに該当する。
より具体的に説明すれば、CUは、ルートノード(root node)に該当し、最も小さい深さ(depth)(すなわち、depth=0)値を有する。入力画像の特性に応じてCUが分割されないこともあり、この場合、CUは、TUに該当する。
CUは、クアッドツリー形態に分割されることができ、その結果、深さ1(depth=1)である下位ノードが生成される。そして、1の深さを有する下位ノードでそれ以上分割されなかったノード(すなわち、リーフノード)は、TUに該当する。例えば、図3(b)においてノードa、b、及びjに対応するTU(a)、TU(b)、TU(j)は、CUで1回分割され、1の深さを有する。
1の深さを有するノードのうち、少なくともいずれか1つは、再度クアッドツリー形態に分割されることができ、その結果、深さ2(すなわち、depth=2)である下位ノードが生成される。そして、2の深さを有する下位ノードでそれ以上分割されなかったノード(すなわち、リーフノード)は、TUに該当する。例えば、図3(b)においてノードc、h、及びiに対応するTU(c)、TU(h)、TU(i)は、CUで2回分割され、2の深さを有する。
また、2の深さを有するノードのうち、少なくともいずれか1つは、再度クアッドツリー形態に分割されることができ、その結果、深さ3(すなわち、depth=3)である下位ノードが生成される。そして、3の深さを有する下位ノードでそれ以上分割されなかったノード(すなわち、リーフノード)は、CUに該当する。例えば、図3(b)においてノードd、e、f、gに対応するTU(d)、TU(e)、TU(f)、TU(g)は、CUで3回分割され、3の深さを有する。
ツリー構造を有するTUは、予め決められた最大深さ情報(または、最大レベル情報)を有して階層的に分割されることができる。そして、それぞれの分割されたTUは、深さ情報を有することができる。深さ情報は、TUの分割された回数及び/又は程度を表すので、TUのサイズに関する情報を含むこともできる。
1つのTUに対して、当該TUが分割されるか否かを表す情報(例えば、分割TUフラグ(split_transform_flag))がデコーダに伝達され得る。この分割情報は、最小サイズのTUを除いた全てのTUに含まれている。例えば、分割可否を表すフラグの値が「1」であれば、当該TUは、さらに4個のTUに分けられ、分割可否を表すフラグの値が「0」であれば、当該TUは、それ以上分けられない。
予測(prediction)
デコーディングが行われる現在処理ユニットを復元するために現在処理ユニットが含まれた現在ピクチャー又は他のピクチャーのデコードされた部分を用いることができる。
復元に現在ピクチャーのみを用いる、すなわち、画面内予測のみを行うピクチャー(スライス)をイントラピクチャーまたはIピクチャー(スライス)、各ブロックを予測するために、最大1つの動きベクトル及びレファレンスインデックスを用いるピクチャー(スライス)を予測ピクチャー(predictive picture)またはPピクチャー(スライス)、最大2つの動きベクトル及びレファレンスインデックスを用いるピクチャー(スライス)を双予測ピクチャー(Bi-predictive picture)またはBピクチャー(スライス)と呼ぶことができる
イントラ予測とは、同一のデコードされたピクチャー(又は、スライス)のデータ要素(例えば、サンプル値など)から現在処理ブロックを導出する予測方法を意味する。すなわち、現在ピクチャー内の復元された領域を参照して現在処理ブロックのピクセル値を予測する方法を意味する。
以下、インター予測についてより詳細に説明する。
インター予測(Inter prediction)(又は、画面間予測)
インター予測とは、現在ピクチャー以外のピクチャーのデータ要素(例えば、サンプル値又は動きベクトルなど)に基づいて現在処理ブロックを導出する予測方法を意味する。すなわち、現在ピクチャー以外の復元された他のピクチャー内の復元された領域を参照して現在処理ブロックのピクセル値を予測する方法を意味する。
インター予測(又は、ピクチャー間予測)は、ピクチャー間に存在する重複性を除去する技術として、大部分は動き推定(motion estimation)及び動き補償(motion compensation)により行われる。
図5は、本発明が適用できる実施形態であって、インター予測の方向を例示する図である。
図5に示すように、インター予測は、1つのブロックに対して時間軸上で過去のピクチャー又は未来のピクチャー1つのみを参照ピクチャーとして用いる単方向予測(Uni-directional prediction)と、過去及び未来ピクチャーを同時に参照する双方向予測(Bi-directional prediction)に分けられる。
また、単方向予測(Uni-directional prediction)は、時間的に現在ピクチャー以前に表示(または、出力)される1つの参照ピクチャーを用いる順方向予測(forward direction prediction)と、時間的に現在ピクチャー以後に表示(または、出力)される1個の参照ピクチャーを用いる逆方向予測(backward direction prediction)とに区分されることができる。
インター予測過程(すなわち、単方向または双方向予測)で現在ブロックを予測するのに、ある参照領域(または、参照ブロック)が用いられるか特定するために使用される動きパラメータ(または、情報)は、インター予測モード(inter prediction mode)(ここで、インター予測モードは、参照方向(すなわち、単方向または双方向)と参照リスト(すなわち、L0、L1、または双方向)を指示できる)、参照インデックス(reference index)(または、参照ピクチャーインデックスまたは参照リストインデックス)、動きベクトル(motion vector)情報を含む。前記動きベクトル情報は、動きベクトル、動きベクトル予測子(MVP:motion vector predictor)、または動きベクトル差分値(MVD:motion vector difference)を含むことができる。動きベクトル差分値は、前記動きベクトルと動きベクトル予測子との間の差分値を意味する。
単方向予測は、一方向に対する動きパラメータが使用される。すなわち、参照領域(または、参照ブロック)を特定するために、1個の動きパラメータが必要でありうる。
双方向予測は、両方向に対する動きパラメータが使用される。双方向予測方式では、最大2個の参照領域を用いることができるが、この2個の参照領域は、同じ参照ピクチャーに存在することができ、互いに異なるピクチャーに各々存在することもできる。すなわち、双方向予測方式では、最大2個の動きパラメータが用いられ得るが、2個の動きベクトルが同じ参照ピクチャーインデックスを有することができ、互いに異なる参照ピクチャーインデックスを有することもできる。このとき、参照ピクチャー等は、時間的に現在ピクチャー以前に全て表示(または、出力)されるか、以後に全て表示(または、出力)されることができる。
エンコーダは、インター予測過程において現在処理ブロックと最も類似した参照領域を参照ピクチャーから探す動き推定(Motion Estimation)を行う。また、エンコーダは、参照領域に対する動きパラメータをデコーダに提供する。
エンコーダ/デコーダは、動きパラメータを用いて現在処理ブロックの参照領域を取得することができる。前記参照領域は、前記参照インデックスを有する参照ピクチャー内に存在する。また、前記動きベクトルにより特定された参照領域のピクセル値又は補間(interpolation)された値が前記現在処理ブロックの予測値(predictor)として用いられることができる。すなわち、動き情報を用いて、以前にデコードされたピクチャーから現在処理ブロックの画像を予測する動き補償(motion compensation)が行われる。
動きベクトル情報に関連した送信量を減らすために、以前にコードされたブロックの動き情報を用いて動きベクトル予測値(mvp)を取得し、これに対する差分値(mvd)のみを送信する方法を用いることができる。すなわち、デコーダは、デコードされた他のブロックの動き情報を用いて現在処理ブロックの動きベクトル予測値を求め、エンコーダから送信された差分値を用いて現在処理ブロックに対する動きベクトル値を取得する。動きベクトル予測値を取得するにおいて、デコーダは、既にデコードされた他のブロックの動き情報を用いて多様な動きベクトル候補値を取得し、そのうち1つを動きベクトル予測値として取得することができる。
・参照ピクチャーセット及び参照ピクチャーリスト
複数の参照ピクチャーを管理するために、以前にデコードされたピクチャーのセットが、残ったピクチャーのデコードのために復号ピクチャーバッファ(DPB)内に格納される。
DPBに格納された復元されたピクチャーのうち、インター予測に用いられる復元されたピクチャーを参照ピクチャー(reference picture)と呼ぶ。言い換えれば、参照ピクチャー(reference picture)は、デコード順序上、次のピクチャーのデコードプロセスでインター予測のために使用され得るサンプルを含むピクチャーを意味する。
参照ピクチャーセット(RPS:reference picture set)は、ピクチャーと関連した参照ピクチャーのセットを意味し、デコード順序上、以前に関連した全てのピクチャーで構成される。参照ピクチャーセットは、関連したピクチャーまたはデコード順序上、関連したピクチャーに後続するピクチャーのインター予測に用いられ得る。すなわち、復号ピクチャーバッファ(DPB)に維持される参照ピクチャーは、参照ピクチャーセットと呼ばれることができる。エンコーダは、シーケンスパラメータセット(SPS:sequence parameter set)(すなわち、シンタックス要素で構成されるシンタックス構造)または各スライスヘッダで参照ピクチャーセット情報をデコーダに提供することができる。
参照ピクチャーリスト(reference picture list)は、Pピクチャー(または、スライス)またはBピクチャー(または、スライス)のインター予測のために用いられる参照ピクチャーのリストを意味する。ここで、参照ピクチャーリストは、2個の参照ピクチャーリストに区分されることができ、各々参照ピクチャーリスト0(または、L0)及び参照ピクチャーリスト1(または、L1)と呼ぶことができる。また、参照ピクチャーリスト0に属した参照ピクチャーを参照ピクチャー0(または、L0参照ピクチャー)と呼び、参照ピクチャーリスト1に属した参照ピクチャーを参照ピクチャー1(または、L1参照ピクチャー)と呼ぶことができる。
Pピクチャー(または、スライス)のデコードプロセスにおいて、1つの参照ピクチャーリスト(すなわち、参照ピクチャーリスト0)が用いられ、Bピクチャー(または、スライス)のデコードプロセスにおいて、2個の参照ピクチャーリスト(すなわち、参照ピクチャーリスト0及び参照ピクチャーリスト1)が用いられ得る。このような、各参照ピクチャー別に参照ピクチャーリストを区分するための情報は、参照ピクチャーセット情報を介してデコーダに提供されることができる。デコーダは、参照ピクチャーセット(reference picture set)情報に基づいて参照ピクチャーを参照ピクチャーリスト0または参照ピクチャーリスト1に追加する。
参照ピクチャーリスト内のいずれか1つの特定参照ピクチャーを識別するために、参照ピクチャーインデックス(reference picture index)(または、参照インデックス)が用いられる。
・分数サンプル補間(fractional sample interpolation)
インター予測された現在ブロックに対する予測ブロックのサンプルは、参照ピクチャーインデックス(reference picture index)により識別される参照ピクチャー内の当該参照領域のサンプル値から取得される。ここで、参照ピクチャー内の当該参照領域は、動きベクトルの水平要素(horizontal component)及び垂直要素(vertical component)により指示される位置の領域を表す。動きベクトルが整数値を有する場合を除き、非整数(noninteger)サンプル座標のための予測サンプルを生成するために分数サンプル補間(fractional sample interpolation)が使用される。例えば、サンプル間の距離の1/4単位の動きベクトルが支援され得る。
HEVCの場合、輝度成分の分数サンプル補間(fractional sample interpolation)は、8タブフィルタを横方向及び縦方向に各々適用する。そして、色差成分の分数サンプル補間(fractional sample interpolation)は、4タブフィルタを横方向及び縦方向に各々適用する。
図6は、本発明が適用できる実施形態であって、1/4サンプル補間のための整数及び分数サンプル位置を例示する。
図6に示すように、大文字(upper-case letter)(A_i、j)が記載された陰影ブロックは、整数サンプル位置を表し、小文字(lower-case letter)(x_i、j)が記載された陰影のないブロックは、分数サンプル位置を表す。
分数サンプルは、水平方向及び垂直方向に各々整数サンプル値に補間フィルタが適用されて生成される。例えば、水平方向の場合、生成しようとする分数サンプルを基準として左側の4個の整数サンプル値と右側の4個の整数サンプル値とに8タブフィルタが適用され得る。
・インター予測モード
HEVCでは、動き情報の量を減らすために、マージ(Merge)モード、AMVP(Advanced Motion Vector Prediction)が用いられ得る。
1)マージ(Merge)モード
マージ(Merge)モードは、空間的(spatially)または時間的(temporally)に隣り合うブロックから動きパラメータ(または、情報)を導出する方法を意味する。
マージモードで利用可能な候補のセットは、空間的に隣り合う候補(spatial neighbor candidates)、時間的候補(temporal candidates)、及び生成された候補(generated candidates)で構成される。
図7は、本発明が適用できる実施形態であって、空間的候補の位置を例示する。
図7(a)に示すように、{A1、B1、B0、A0、B2}の順序にしたがって各空間的候補ブロックが利用可能であるか否かが判断される。このとき、候補ブロックがイントラ予測モードでエンコードされて動き情報が存在しない場合、または候補ブロックが現在ピクチャー(または、スライス)の外に位置する場合には、当該候補ブロックは利用できない。
空間的候補の有効性の判断後、現在ブロックの候補ブロックから不要な候補ブロックを除くことにより、空間的マージ候補が構成され得る。例えば、現在予測ブロックの候補ブロックが同一コーディングブロック内の1番目の予測ブロックである場合、当該候補ブロックを除き、かつ同じ動き情報を有する候補ブロックを除くことができる。
空間的マージ候補構成が完了すれば、{T0、T1}の順序にしたがって時間的マージ候補構成過程が進まれる。
時間的候補構成において、参照ピクチャーの同一位置の(collocated)ブロックの右下端(right bottom)ブロックT0が利用可能な場合、当該ブロックを時間的マージ候補として構成する。同一位置の(collocated)ブロックは、選択された参照ピクチャーで現在ブロックに対応する位置に存在するブロックを意味する。それに対し、そうでない場合、同一位置の(collocated)ブロックの中央(center)に位置するブロックT1を時間的マージ候補として構成する。
マージ候補の最大個数は、スライスヘッダで特定されることができる。マージ候補の個数が最大個数より大きい場合、最大個数より小さい個数の空間的候補と時間的候補が維持される。そうでない場合、マージ候補の個数は、候補個数が最大個数になるまで現在まで追加された候補を組み合わせて追加的なマージ候補(すなわち、組み合わせられた双予測マージ候補(combined bi-predictive merging candidates))が生成される。
エンコーダでは、上記のような方法によりマージ候補リストを構成し、動き推定(Motion Estimation)を行うことにより、マージ候補リストで選択された候補ブロック情報をマージインデックス(merge index)(例えば、merge_idx[x0][y0]’)としてデコーダにシグナリングする。図7(b)では、マージ候補リストでB1ブロックが選択された場合を例示しており、この場合、マージインデックス(merge index)として「インデックス1(Index1)」がデコーダにシグナリングされ得る。
デコーダでは、エンコーダと同様にマージ候補リストを構成し、マージ候補リストでエンコーダから受信したマージインデックス(merge index)に該当する候補ブロックの動き情報から現在ブロックに対する動き情報を導出する。そして、デコーダは、導出した動き情報に基づいて現在ブロックに対する予測ブロックを生成する(すなわち、動き補償)。
2)AMVP(Advanced Motion Vector Prediction)モード
AMVPモードは、周辺ブロックから動きベクトル予測値を導く方法を意味する。したがって、水平及び垂直動きベクトル差分値(MVD:motion vector difference)、参照インデックス及びインター予測モードがデコーダにシグナリングされる。水平及び垂直動きベクトル値は、導出された動きベクトル予測値とエンコーダから提供された動きベクトル差分値(MVD:motion vector difference)とを用いて計算される。
すなわち、エンコーダは、動きベクトル予測値候補リストを構成し、動き推定(Motion Estimation)を行うことにより動きベクトル予測値候補リストにおいて選択された動き参照フラグ(すなわち、候補ブロック情報)(例えば、mvp_lX_flag[x0][y0]’)をデコーダにシグナリングする。デコーダは、エンコーダと同様に動きベクトル予測値候補リストを構成し、動きベクトル予測値候補リストにおいてエンコーダから受信した動き参照フラグで示された候補ブロックの動き情報を用いて現在処理ブロックの動きベクトル予測値を導出する。また、デコーダは、導出された動きベクトル予測値とエンコーダから送信された動きベクトル差分値とを用いて現在処理ブロックに対する動きベクトル値を取得する。さらに、デコーダは、導出した動き情報に基づいて現在処理ブロックに対する予測ブロックを生成する(すなわち、動き補償)。
AMVPモードの場合、前述した図7において5個の利用可能な候補のうち、2個の空間的動き候補が選択される。1番目の空間的動き候補は、左側に位置した{A0、A1}セットから選択され、2番目の空間的動き候補は、上位に位置した{B0、B1、B2}セットから選択される。このとき、隣り合う候補ブロックの参照インデックスが現在予測ブロックと同じでない場合、動きベクトルがスケーリングされる。
空間的動き候補の探索結果、選択された候補個数が2個であれば、候補構成を終了するが、2個未満である場合、時間的動き候補が追加される。
図8は、本発明が適用される実施形態であって、インター予測方法を例示する図である。
図8に示すように、デコーダ(特に、図2におけるデコーダのインター予測部261)は、処理ブロック(例えば、予測ユニット)に対する動きパラメータを復号する(S801)。
例えば、処理ブロックにマージモードが適用された場合、デコーダは、エンコーダからシグナリングされたマージインデックスを復号することができる。また、マージインデックスで示された候補ブロックの動きパラメータから現在処理ブロックの動きパラメータを導出することができる。
さらに、処理ブロックにAMVPモードが適用された場合、デコーダは、エンコーダからシグナリングされた水平及び垂直動きベクトル差分値(MVD:motion vector difference)、参照インデックス、及びインター予測モードを復号することができる。さらに、動き参照フラグから示された候補ブロックの動きパラメータから動きベクトル予測値を導出し、動きベクトル予測値と受信した動きベクトル差分値とを用いて現在処理ブロックの動きベクトル値を導出することができる。
デコーダは、復号した動きパラメータ(又は、情報)を用いて予測ユニットに対する動き補償を行う(S802)。
すなわち、エンコーダ/デコーダは、復号された動きパラメータを用いて、以前にデコードされたピクチャーから現在ユニットの画像を予測する動き補償(motion compensation)を行う。
図9は、本発明が適用できる実施形態であって、動き補償過程を例示する図である。
図9では、現在ピクチャー(current picture)において符号化しようとする現在ブロック(current block)のための動きパラメータは、単方向予測、LIST0、LIST0内の2番目のピクチャー(picture)、動きベクトル(−a,b)である場合を例示する。
この場合、図9に示すように、現在ブロックは、LIST0の2番目のピクチャーにおいて現在ブロックと(−a,b)だけ離れている位置の値(すなわち、参照ブロック(reference block)のサンプル値)を用いて予測される。
双方向予測の場合は、他の参照リスト(例えば、LIST1)と参照インデックス、動きベクトル差分値が送信されて、デコーダは、2つの参照ブロックを導出し、これに基づいて現在ブロック値を予測する。
実施形態1
本発明の一実施形態において、クアッドツリー構造にブロック分割が行われる場合、マージモードを用いたインター予測方法を提案する。
クアッドツリー構造にブロックが分割される場合、エンコーダとデコーダは同様にマージ候補の最大個数を満足するまで次のような順序でマージ候補リストを生成(又は、構成)することができる。
1)空間マージ候補構成
2)時間マージ候補構成
3)組み合わせマージ候補構成
4)ゼロ動きベクトル候補構成
ここで、空間マージ候補の一及び時間マージ候補の位置は、以下の図面を参照して説明する。
図10は、本発明が適用される実施形態であって、空間マージ候補の位置を説明するための図である。
図10(a)に示すように、現在ブロック1001が2N×2Nブロックである場合、エンコーダ/デコーダは、1番(1)、2番(2)、3番(3)、4番(4)、5番(5)の順序で現在ブロック1001の周辺ブロックの動き情報を探索し、利用可能な(又は、有効な)動き情報をマージ候補として用いることができる。
図10(b)及び図10(c)に示すように、現在ブロック1002、1003が2N×N、nL×2N, nR×2N、N×2N、2N×nU、2N×nDブロックなどの非正方形ブロックである場合、1番(1)、2番(2)、3番(3)、4番(4)の順序で現在ブロック1002、1003の周辺ブロックの動き情報を探索し、利用可能な(又は、有効な)動き情報をマージ候補として用いることができる。
図11は、本発明が適用される実施形態であって、時間マージ候補の位置を説明するための図である。
図11に示すように、エンコーダ/デコーダは、現在ピクチャー1101の時間候補ピクチャー1102内で現在ブロック1103の位置に対応する同一位置の(collocated)ブロック1104の右下端のブロック又は中央位置のブロックを時間マージ候補として用いることができる。すなわち、同一位置のブロック1104の右下端に位置するブロックの動き情報を優先的に考慮し、該当位置に動き情報がない場合、エンコーダ/デコーダは、同一位置のブロック1104の中央に位置するブロックの動き情報をマージ候補の動き情報として用いることができる。
時間的類似性を考慮したマージ候補選択方法、すなわち、時間マージ候補はスライスヘッダで使用可否が決定される。もし、時間マージ候補が用いられる場合、エンコーダは、スライス単位で時間マージ候補決定のために用いられる時間候補ピクチャーの参照方向及び参照ピクチャーインテックスをデコーダに送信することができる。この場合、エンコーダ/デコーダは、全てのスライス内で同一のピクチャーを参照して時間マージ候補を構成することができる。
マージ候補の最大個数はスライスヘッダで特定されることができる。もし、スライスヘッダにおいて、マージ候補の最大個数が送信されないと、エンコーダ/デコーダは、5個のマージ候補を用いてリストを構成することができる。ここで、エンコーダ/デコーダも空間マージ候補は最大4個、時間マージ候補は1個を用いてマージ候補リストを生成することができる。
マージ候補の個数が最大個数より大きい場合、最大個数より小さい個数の空間候補と時間候補が維持される。そうでない場合、マージ候補の個数が最大個数になるまで、エンコーダ/デコーダは、現在までマージ候補リストに追加された候補を組み合わせて組み合わせマージ候補(すなわち、組み合わせられた双予測マージ候補(combined bi-predictive merging candidates))を生成することができる。もし、空間的及び時間的類似性を考慮したマージ候補のみでマージ候補の最大個数が満たされない場合、エンコーダ/デコーダはゼロ動きベクトルをマージ候補として選択することができる。
実施形態2
本発明の一実施形態において、QTBT(Quadtree plus Binarytree)構造にブロック分割が行われる場合、マージモードを用いたインター予測方法を提案する。QTBTは、クアッドツリー(quadtree)構造とバイナリツリー(binarytree)構造が結合されたコーディングブロックの分割構造をいう。具体的には、QTBT構造においては画像をCTU単位でコーディングし、CTUは先にクアッドツリー(quadtree)形態に分割され、クアッドツリーのリーフノード(leaf node)は追加的にバイナリツリー(binarytree)形態に分割される。
特に、本実施形態において、エンコーダ/デコーダは、マージ候補リストを構成するために前述した実施形態1の方法以外に向上した時間動きベクトル予測子(ATMVP:Advanced Temporal Motion Vector Predictor)と向上した時間動きベクトル予測子拡張(ATMVP−ext:Advanced Temporal Motion Vector Predictor-extension)方法を適用することができる。これについては詳細に後述する。
QTBT構造にブロックが分割される場合、エンコーダとデコーダは同様に空間マージ候補、時間マージ候補、ATMVP、ATMVP−ext、組み合わせマージ候補、及び/又はゼロ動きベクトル候補を用いてマージ候補リストを生成(又は、構成)することができる。
一実施形態において、エンコーダ/デコーダは、マージ候補の最大個数を満足するまで次の順序でマージ候補リストを生成(又は、構成)することができる。
1)空間マージ候補構成
2)ATMVP構成
3)ATMVP−ext構成
4)空間マージ候補追加
5)時間マージ候補構成
6)組み合わせマージ候補構成
7)ゼロ動きベクトル候補構成
ここで、例えば、エンコーダ/デコーダは、まず、前述した図10において1番(1)、2番(2)、3番(3)、4番(4)位置のブロックに対して有効な動き情報を探索して空間マージ候補を決定した後、ATMVP、ATMVP−extを構成することができる。その後、エンコーダ/デコーダは、前述した図10で5番位置(5)の動き情報を用いて空間マージ候補を追加することができる。
マージ候補の最大個数は、スライスヘッダで特定されることができる。もし、スライスヘッダにおいて、マージ候補の最大個数が送信されないと、エンコーダ/デコーダは、予め決定された個数のマージ候補を用いてリストを構成することができる。好ましくは、前記予め決定された個数は5個〜7個の1つであり得る。
また、エンコーダは、ATMVP及び/又はATMVP−extを使用(又は、適用)するか否かをハイレベル(high-level)でデコーダにシグナリングすることができる。例えば、エンコーダは、ATMVP及び/又はATMVP−extの使用可否をシーケンス、ピクチャー、スライス単位でデコーダに送信することができる。ATMVP及びATMVP−extが使用される場合、それぞれの使用可否によってマージ候補の最大個数が1つずつ追加されることができる。例えば、マージ候補の最大個数が送信されない場合、デコーダはマージ候補の最大個数を5個に設定することができ、ATMVP及びATMVP−extが両方とも使用される場合、マージ候補の最大個数を7個に増加させることができる。
または、マージ候補の最大個数が送信されない場合、デコーダは、ATMVP又はATMVP−extを使用するか否かに関係なくマージ候補の最大個数を予め決定されている個数に設定して候補を構成することができる。例えば、エンコーダからマージ候補の最大個数が送信されない場合、デコーダは、マージ候補の最大個数を7個に設定し、ATMVP及びATMVP−extが使用されない条件でも最大7個のマージ候補を用いてマージ候補リストを構成することができる。
ATMVPは、時間候補ピクチャー(又は、参照ピクチャー)内でマージ候補リストに追加された空間マージ候補の動き情報により特定されるブロック(又は、ブロックの動き情報)を示す。本発明において、ATMVPは、組み合わせ(又は、混合)マージ候補、第1の向上した時間マージ候補などと称されることができる。以下の図面を参照して説明する。
図12は、本発明が適用される実施形態であって、向上した時間動きベクトル予測子(Advanced Temporal Motion Vector Predictor)を用いて動き情報を誘導する方法を説明するための図である。
図12に示すように、まず、エンコーダ/デコーダは、マージ候補リストに最初に追加される空間マージ候補の動き情報1201を用いて、時間候補ピクチャー内で現在ブロック1202の候補ブロック1202を探索する。
すなわち、ATMVP候補ブロック1202は、マージ候補リストの1番目の空間マージ候補の動き情報1201により特定されることができる。
また、ATMVP候補ブロック1202の動き情報は、サブブロック単位で誘導されることができる。具体的には、エンコーダから受信したマージインデックスがATMVP候補を示す場合、現在ブロック1202の予測ブロックは、前記ATMVP候補の動き情報をサブブロック(sub-block)単位で利用(又は、誘導)してサブブロック単位で生成されることができる。
次に、ATMVP−extは、現在ブロックから分割されたサブブロック単位で動き情報の空間的類似性及び時間的類似性を考慮する方法を示す。本発明において、ATMVP−extは、組み合わせ(又は、混合)マージ候補、第2の向上した時間マージ候補などと称されることができる。以下の図面を参照して説明する。
図13及び図14は、本発明が適用される実施形態であって、向上した時間動きベクトル予測子拡張(Advanced Temporal Motion Vector Predictor-extension)を用いて動き情報を誘導する方法を説明するための図である。
図13に示すように、ATMVP−extが適用される場合、エンコーダ/デコーダは、現在ブロックを複数のサブブロックに分割し、サブブロック単位で動き情報を決定(又は、誘導)することができる。例えば、前記サブブロックは、4×4又は8×8のサイズのブロックであり得る。
エンコーダ/デコーダは、現在サブブロック1301の動きベクトル(又は、動き情報)を誘導するために現在サブブロック1301に隣接するサブブロック1302、1303、1304、1305の動き情報を用いることができる。ここで、現在ブロックを基準に左側1302及び上側1303に隣接するサブブロックは、既に復号された領域に該当するため、エンコーダ/デコーダは現在ピクチャー内で該当領域の動き情報を用いることができる。それに対して、現在ブロックを基準に下側1304及び右側1305に隣接するサブブロックの場合は、まだ復号が終了しない領域であるため、エンコーダ/デコーダは時間候補ピクチャー(又は、参照ピクチャー、コロケーテッド(collocated)ピクチャー)内の該当位置の動き情報を用いることができる。
エンコーダ/デコーダは、現在サブブロック1301に空間的に隣接する2つのブロック1302、1303及び時間的に隣接する2つのブロック1304、1305の動き情報、計4つの動き情報の平均値を現在サブブロック1301の動き情報として誘導することができる。
図14に示すように、現在サブブロック1401が現在ブロックの境界に隣接しない場合、エンコーダ/デコーダは、前述した方法で周辺サブブロックの動き情報を用いるが、現在ピクチャー内で現在ブロックの境界外側の動き情報を用いることによりサブブロック間に発生し得る依存性を除去することができる。
すなわち、現在サブブロック1401が上側境界に隣接するが、左側境界には隣接しない場合、エンコーダ/デコーダは、現在サブブロック1401のすぐ左側のサブブロックの代わりに現在ピクチャー内で現在ブロックの境界に隣接するブロックのうち現在サブブロック1401の水平方向に隣接するブロック1402を用いることができる。
実施形態3
本発明の一実施形態において、エンコーダ/デコーダは、バイナリツリー構造(binary tree structure)に分割されたブロックにおいてクアッドツリー構造(quad tree structure)に分割されたブロックの隣り合うブロックをマージ候補として用いることができる。本実施形態において、エンコーダ/デコーダは、バイナリツリー構造分割による周辺動き情報の類似性を考慮してマージ候補を決定することができる。
QTBT構造においては前述したように、まず、クアッドツリー構造に分割が行われた後、クアッドツリーのリーフノード(leaf node)ブロック(以下、「クアッドツリーブロック」と称することができる)がバイナリツリー構造に追加分割される。ここで、クアッドツリーブロックからバイナリツリー形態に分割されたブロック間の動き情報の類似性は相対的に低いことがある。以下の図面を参照して説明する。
図15〜図18は、QTBT構造において、既存の空間マージ候補位置を用いてマージ候補を構成する場合に発生する問題を説明するための図である。
図15を参照すると、バイナリツリーに分割されたブロックの空間マージ候補の位置を示す。図15(a)の場合はクアッドツリーブロックが垂直方向に分割された例を示し、図15(b)の場合はクアッドツリーブロックが垂直方向に分割された後、水平方向にもう一度分割された例を示す。
図16を参照すると、図15(a)の例示において、図16(a)に示すように空間的予測候補(すなわち、空間マージ候補)として1番位置1601が用いられると、2番目のバイナリツリーブロックである現在ブロック1602は1番目のバイナリツリーブロックと同一の動き情報を用いるので、クアッドツリーブロックが図16(b)に示すように分割されるか、又はバイナリツリー分割が行われない可能性が高い。
図17を参照すると、図15(b)の例示において、図17(a)に示すように現在ブロック1702の空間マージ候補として2番位置1701が用いられると、クアッドツリーブロックは図17(b)に示すように分割される可能性が高い。
図18を参照すると、図15(b)の例示において、5番位置1801、1802を空間候補として用いる場合を仮定して説明する。
空間マージ候補の構成順序によって5番位置まで動き情報を確認して空間マージ候補として構成することは、1番位置の動き情報及び2番位置の動き情報が5番位置の動き情報と同一でないことを意味する。このような動き情報を有する場合、クアッドツリーブロックは、図18(b)に示すようにクアッドツリー構造に分割される分割フラグのビット割り当ての側面で効率的である。
すなわち、図15(b)の例示において5番位置1801、1802のマージ候補の動き情報を用いると、クアッドツリーブロックは図18(b)に示すように分割される可能性が高い。
以上のように、クアッドツリーブロックからバイナリツリー形態に分割されたブロック間の動き情報の類似性は相対的に低いことがある。それにもかかわらず、既存の方法と同一の位置を用いると、選択確率の低い空間マージ候補がマージ候補リストに含まれる可能性があって圧縮性能が低下するしかない。
従って、本発明においては、上記のような問題を解決するために、バイナリツリー構造に分割されたブロックにおいてクアッドツリー構造に分割されたブロック境界に隣接するブロックをマージ候補として用いる方法を提案する。
ブロック分割構造によって相対的に選択確率がより高いマージ候補を用いてマージ候補リストを生成することにより、予測性能が向上し、画像の圧縮効率が向上する。
また、本発明の実施形態によれば、バイナリツリー構造に分割されたブロックにおいてクアッドツリー構造に分割されたブロックの隣り合うブロックをマージ候補として用いることにより、クアッドツリー構造に分割されたブロック単位で並列化を行うことができる。すなわち、本実施形態によれば、上記のような問題を解決すると共にクアッドツリーブロック単位でマージプロセス(merge Process)を並列化することができる。
図19は、本発明が適用される実施形態であって、クアッドツリーのリーフノードブロック境界に隣接するブロックを用いて空間マージ候補を構成する方法を説明するための図である。
図19に示すように、現在ブロック1902、1902がクアッドツリー構造のリーフノードブロックを示すクアッドツリーブロックからバイナリツリー構造に分割されたブロックである場合、空間マージ候補は前記クアッドツリーブロック境界に隣接するブロックに決定されることができる。具体的には、空間マージ候補は、1番(1)、2番(2)、3番(3)、4番(4)、5番(5)位置のブロック(又は、1番(1)、2番(2)、3番(3)、4番(4)、5番(5)位置のピクセルを含むブロック)であり得る。
エンコーダ/デコーダは、1番(1)、2番(2)、3番(3)、4番(4)、5番(5)位置の動き情報を順次探索して現在ブロック1902、1902の空間マージ候補を構成することができる。
上記のような位置の空間マージ候補を用いる場合、既存の方法に比べて圧縮性能が向上し、クアッドツリーブロック内のバイナリツリーブロックの動き情報を誘導する過程においてバイナリツリーブロック間の依存性がないため、クアッドツリーブロック単位で並列化が行われることができる。
実施形態4
本発明の一実施形態において、エンコーダ/デコーダは、サブブロック単位で動き情報を誘導するATMVP又はATMVP−ext方法を適用するとき、バイナリツリー構造に分割されたブロックにおいてクアッドツリー構造に分割されたブロック境界に隣接するブロックをマージ候補として用いることができる。
本実施形態においては、QTBT構造に適合するようにATMVPを誘導するための空間マージ候補を構成する方法を提案する。
実施形態3で説明したように、空間マージ候補の構成過程においてはQTBTブロック分割構造によって周辺候補の動き情報の選択確率が低くなるという問題が発生することがある。しかしながら、ATMVPは、周辺候補の動き情報により時間候補ピクチャー内で特定されるブロックの動き情報を用いるので、実施形態3で説明した問題が発生しないことがある。
従って、エンコーダ/デコーダは、従来と同一の位置(すなわち、前述した図10)の空間候補の動き情報を用いてATMVPを構成することができる。具体的に、現在ブロックがバイナリツリー分割されたブロックである場合、エンコーダ/デコーダは、図10で説明した位置の空間候補の動き情報を探索して1番目の有効な(又は、利用可能な)動き情報により特定される、時間候補ピクチャー内のブロックの動き情報をサブブロック単位で誘導して現在ブロックの動き情報として決定することができる。
それに対して、エンコーダ/デコーダは、実施形態3で提案した方法との統一性又は複雑度の緩和を考慮して前述した図19と同一の位置の空間候補の動き情報を用いてATMVPを構成することもできる。具体的には、現在ブロックがバイナリツリー分割されたブロックである場合、エンコーダ/デコーダは、図19で説明した位置の空間候補の動き情報を探索して1番目の有効な(又は、利用可能な)動き情報により特定される、時間候補ピクチャー内のブロックの動き情報をサブブロック単位で誘導して現在ブロックの動き情報として決定することができる。
図20は、本発明が適用される実施形態であって、クアッドツリーのリーフノードブロック境界に隣接するブロックを用いて空間マージ候補を構成する方法を説明するための図である。
図20に示すように、クアッドツリーブロックからバイナリツリー構造に深さ(depth)3まで分割された場合を仮定する。
エンコーダ/デコーダは、クアッドツリーブロック単位の並列化のために図20(a)に示す位置(1番(1)、2番(2)、3番(3)、4番(4)、5番(5))の空間マージ候補を用いてマージ候補リストを構成することができる。
または、エンコーダ/デコーダは、同一のバイナリツリー深さのブロック間の並列化のために図20(b)に示す位置(1番(1)、2番(2)、3番(3)、4番(4)、5番(5))の空間マージ候補を用いてマージ候補リストを構成することもできる。
エンコーダは、並列化が行われる単位を決定し、決定された並列化単位をハイレベルシンタックス(high-level syntax)によりデコーダに伝送することもできる。例えば、エンコーダは、並列化が行われる単位をシーケンス、ピクチャー、スライス単位でデコーダにシグナリングすることができる。もし、エンコーダから並列化の単位が送信される場合、デコーダは、図20(a)又を図20(b)に示す空間候補位置を選択的に用いることができる。
実施形態5
本発明の一実施形態においては、QTBT構造を考慮して効率的にATMVP−extを適用する方法を提案する。
実施形態2で説明したように、ATMVP−extは、各サブブロック単位で動き情報を誘導する。QTBT構造においては、ブロック構造の多様性が増加するにつれて複雑度が著しく増加するので、並列化の問題が重要な話題として台頭し、並列化実行のときにサブブロックの特性によって周辺候補位置の動き情報の信頼性が低下する問題が発生することがある。
本実施形態においては、上記のような問題を解決するためにATMVP−extに用いられる空間候補又は時間候補の位置を各サブブロックの現在処理ブロック内での位置によって決定する方法を提案する。
図21は、本発明が適用される実施形態であって、向上した時間動きベクトル予測子拡張(Advanced Temporal Motion Vector Predictor-extension)を用いて動き情報を誘導する方法を説明するための図である。
図21に示すように、エンコーダ/デコーダは、ブロック境界でない位置の空間候補の代わりに時間候補の動き情報を用いてATMVP−ext動き情報を決定することができる。
例えば、現在サブブロック2101が現在ブロックの水平境界に隣接しない場合、現在サブブロック2101の動き情報は、現在ブロックの境界に隣接するブロックのうち現在サブブロック2101の垂直方向に隣接するブロック2103の動き情報と、時間候補ピクチャーの同一位置の(collocated)ブロック内の現在サブブロックの左側2102、下側2104、及び右側2105の位置のブロックの動き情報とを用いて決定されることができる。
図22は、本発明が適用される実施形態であって、向上した時間動きベクトル予測子拡張(Advanced Temporal Motion Vector Predictor-extension)を用いて動き情報を誘導する方法を説明するための図である。
図22に示すように、現在サブブロック2201が現在ブロック内の左側境界又は上側境界に隣接しない場合、現在ブロックに隣接する空間候補動きベクトルを用いるが、該当空間候補の動きベクトル2202に現在サブブロック2201との距離が大きくなるほど相対的に小さいサイズの値を有する加重値を適用することができる。例えば、前記加重値の値は、1より小さいサイズの値を有することができる。
以上、マージモードで候補リストを構成する方法を中心に説明したが、前述した実施形態はAMVP(Advanced Motion Vector Prediction)モードでも同様に適用できる。すなわち、マージモードが適用されない場合にAMVPモードが適用され、この場合、デコーダは、以上で説明した方法を適用してAMVP候補リストを生成し、エンコーダから受信した動きベクトル差分値、参照ピクチャーインデックスを用いてインター予測を行うことができる。
また、前述した実施形態は独立的に適用されることもでき、1つ以上の実施形態を組み合わせて適用されることもできる。
図23は、本発明の一実施形態によるインター予測方法を説明するための図である。
図23に示すように、説明の便宜のためにデコーダを中心に説明するが、本実施形態によるインター予測方法は、エンコーダとデコーダに同様に適用できる。
デコーダは、現在ブロックの空間マージ候補(spatial merge candidate)及び時間マージ候補(temporal merge candidate)を用いてマージ候補リストを生成する(S2301)。
前述したように、現在ブロックがクアッドツリー構造(quad tree structure)のリーフノードブロック(leaf node block)を示すクアッドツリーブロックからバイナリツリー構造(binary tree structure)に分割されたブロックである場合、前記空間マージ候補は、クアッドツリーブロック境界に隣接するブロックに決定されることができる。
具体的には、前記空間マージ候補は、前記クアッドツリーブロックの左下側境界に隣接するブロック、左上側境界に隣接するブロック、右上側境界に隣接するブロック、上側境界に隣接するブロック、又は左側境界に隣接するブロックの少なくとも1つに決定される。ここで、前記上側境界に隣接するブロックは、前記現在ブロックの左上側境界に隣接するピクセルと垂直方向に隣接するピクセルを含むブロック又は前記現在ブロックの右上側ピクセルと垂直方向に隣接するピクセルを含むブロックであり得る。前記左側境界に隣接するブロックは、前記現在ブロックの左下側ピクセルと水平方向に隣接するピクセルを含むブロックであり得る。
また、前述したように、ステップS2301は時間候補ピクチャー内で前記空間マージ候補の動き情報により特定されるブロックを示す第1の向上した時間マージ候補(ATMVP)を前記マージ候補リストに追加するステップを含むことができる。
前記マージインデックスが前記第1の向上した時間マージ候補を示す場合、前記現在ブロックの予測ブロックは、前記第1の向上した時間マージ候補の動き情報をサブブロック(sub-block)単位で用いて生成されることができる。
また、前述したように、ステップS2301は、第2の向上した時間マージ候補(ATMVP−ext)を前記マージ候補リストに追加するステップを含むことができる。ここで、前記第2の向上した時間マージ候補の動き情報は、現在ピクチャー内で前記現在ブロックの境界に隣接するブロックの動き情報及び時間候補ピクチャー内で前記現在ブロックと同一位置の(collocated)ブロックの動き情報を用いてサブブロック(sub-block)単位で決定されることができる。また、前記現在ブロックの現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向及び垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの下側及び右側位置のブロックの動き情報を用いて決定される。
図22で説明したように、前記現在サブブロックとの距離に基づいて前記現在サブブロックの水平方向又は垂直方向に隣接するブロックの動き情報に加重値が適用されることもできる。
図21で説明したように、前記現在サブブロックが前記現在ブロックの垂直境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの上側、下側、及び右側位置のブロックの動き情報を用いて決定される。また、前記現在サブブロックが前記現在ブロックの水平境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの左側、下側、及び右側位置のブロックの動き情報を用いて決定される。
デコーダは、マージ候補リスト内で特定マージ候補を示すマージインデックス(merge index)を復号(又は、抽出)する(S2302)。
デコーダは、マージインデックスにより示されるマージ候補の動き情報を用いて前記現在ブロックの予測ブロックを生成する(S2303)。
図24は、本発明の一実施形態によるインター予測部をより具体的に例示する図である。
図24においては、説明の便宜上のために、インター予測部を1つのブロックとして示したが、イントラ予測部はエンコーダ及び/又はデコーダに含まれる構成として実現されることもできる。
図24に示すように、インター予測部は、図5〜図23において提案された機能、過程、及び/又は方法を実現する。具体的に、インター予測部は、マージ候補リスト構成部2401、マージインデックス復号部2402、及び予測ブロック生成部2403を含むことができる。
マージ候補リスト構成部2401は、現在ブロックの空間マージ候補(spatial merge candidate)及び時間マージ候補(temporal merge candidate)を用いてマージ候補リストを生成する。
前述したように、現在ブロックがクアッドツリー構造(quad tree structure)のリーフノードブロック(leaf node block)を示すクアッドツリーブロックからバイナリツリー構造(binary tree structure)に分割されたブロックである場合、前記空間マージ候補は、クアッドツリーブロック境界に隣接するブロックに決定される。
具体的に、前記空間マージ候補は、前記クアッドツリーブロックの左下側境界に隣接するブロック、左上側境界に隣接するブロック、右上側境界に隣接するブロック、上側境界に隣接するブロック、又は左側境界に隣接するブロックの少なくとも1つに決定されることができる。ここで、前記上側境界に隣接するブロックは、前記現在ブロックの左上側境界に隣接するピクセルと垂直方向に隣接するピクセルを含むブロック又は前記現在ブロックの右上側ピクセルと垂直方向に隣接するピクセルを含むブロックであり得る。前記左側境界に隣接するブロックは、前記現在ブロックの左下側ピクセルと水平方向に隣接するピクセルを含むブロックであり得る。
また、前述したように、マージ候補リスト構成部2401は、時間候補ピクチャー内で前記空間マージ候補の動き情報により特定されるブロックを示す第1の向上した時間マージ候補(ATMVP)を前記マージ候補リストに追加することができる。
前記マージインデックスが前記第1の向上した時間マージ候補を示す場合、前記現在ブロックの予測ブロックは、前記第1の向上した時間マージ候補の動き情報をサブブロック(sub-block)単位で用いて生成されることができる。
また、前述したように、マージ候補リスト構成部2401は、第2の向上した時間マージ候補(ATMVP−ext)を前記マージ候補リストに追加することができる。ここで、前記第2の向上した時間マージ候補の動き情報は、現在ピクチャー内で前記現在ブロックの境界に隣接するブロックの動き情報及び時間候補ピクチャー内で前記現在ブロックと同一位置の(collocated)ブロックの動き情報を利用してサブブロック(sub-block)単位で決定される。また、前記現在ブロックの現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向及び垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの下側及び右側位置のブロックの動き情報を利用して決定される。
図22で説明したように、前記現在サブブロックとの距離に基づいて前記現在サブブロックの水平方向又は垂直方向に隣接するブロックの動き情報に加重値が適用されることもできる。
図21で説明したように、前記現在サブブロックが前記現在ブロックの垂直境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの上側、下側、及び右側位置のブロックの動き情報を利用して決定される。また、前記現在サブブロックが前記現在ブロックの水平境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの左側、下側、及び右側位置のブロックの動き情報を利用して決定される。
マージインデックス復号部2402は、マージ候補リスト内で特定マージ候補を示すマージインデックス(merge index)を復号(又は、抽出)する。
予測ブロック生成部2403は、マージインデックスにより示されるマージ候補の動き情報を利用して前記現在ブロックの予測ブロックを生成する。
以上で説明された実施形態等は、本発明の構成要素と特徴が所定形態に結合されたものである。各構成要素または特徴は、別の明示的言及がない限り、選択的なものと考慮されなければならない。各構成要素または特徴は、他の構成要素や特徴と結合されなかった形態で実施されることができる。また、一部構成要素等及び/又は特徴を結合して本発明の実施形態を構成することも可能である。本発明の実施形態等で説明される動作の順序は変更されることができる。ある実施形態の一部構成や特徴は、他の実施形態に含まれることができ、または、他の実施形態の対応する構成または特徴と交替されることができる。特許請求の範囲において明示的な引用関係がない請求項等を結合して実施形態を構成したり、出願後の補正により新しい請求項として含め得ることは自明である。
本発明に係る実施形態は、様々な手段、例えば、ハードウェア、ファームウェア(firmware)、ソフトウェア、またはそれらの組み合わせなどにより実現されることができる。ハードウェアによる実現の場合、本発明の一実施形態は、1つまたはそれ以上のASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサなどにより実現されることができる。
ファームウェアやソフトウェアによる実現の場合、本発明の一実施形態は、以上で説明された機能または動作を行うモジュール、手順、関数などの形態で実現されることができる。ソフトウェアコードは、メモリに格納されてプロセッサにより駆動されることができる。前記メモリは、前記プロセッサの内部または外部に位置し、既に公知された様々な手段により前記プロセッサとデータを交換することができる。
本発明は、本発明の必須的特徴を逸脱しない範囲で他の特定の形態で具体化され得ることは当業者に自明である。したがって、上述した詳細な説明は、あらゆる面で制限的に解釈されてはならず、例示的なことと考慮されなければならない。本発明の範囲は、添付された請求項の合理的解釈により決定されなければならず、本発明の等価的範囲内でのあらゆる変更は、本発明の範囲に含まれる。
以上、前述した本発明の好ましい実施形態は、例示の目的のために開示されたものであって、当業者であれば、以下に添付された特許請求の範囲に開示された本発明の技術的思想とその技術的範囲内で、様々な他の実施形態の改良、変更、代替、または付加などが可能であろう。

Claims (11)

  1. インター予測(inter prediction)モードベースに画像を処理する方法において、
    現在ブロックの空間マージ候補(spatial merge candidate)及び時間マージ候補(temporal merge candidate)を利用してマージ候補リストを生成するステップと、
    前記マージ候補リスト内で特定マージ候補を示すマージインデックス(merge index)を復号するステップと、
    前記マージインデックスにより示されるマージ候補の動き情報を利用して前記現在ブロックの予測ブロックを生成するステップと、を含み、
    前記現在ブロックがクアッドツリー構造(quad tree structure)のリーフノードブロック(leaf node block)を示すクアッドツリーブロックからバイナリツリー構造(binary tree structure)に分割されたブロックである場合、前記空間マージ候補は、前記クアッドツリーブロックの境界に隣接するブロックに決定される、ことを特徴とする、インター予測モードベースの画像処理方法。
  2. 前記空間マージ候補は、前記クアッドツリーブロックの左下側境界に隣接するブロック、左上側境界に隣接するブロック、右上側境界に隣接するブロック、上側境界に隣接するブロック、又は左側境界に隣接するブロックの少なくとも1つに決定されることを特徴とする、請求項1に記載のインター予測モードベースの画像処理方法。
  3. 前記上側境界に隣接するブロックは、前記現在ブロックの左上側境界に隣接するピクセルと垂直方向に隣接するピクセルを含むブロック又は前記現在ブロックの右上側ピクセルと垂直方向に隣接するピクセルを含むブロックであることを特徴とする、請求項2に記載のインター予測モードベースの画像処理方法。
  4. 前記左側境界に隣接するブロックは、前記現在ブロックの左下側ピクセルと水平方向に隣接するピクセルを含むブロックであることを特徴とする、請求項2に記載のインター予測モードベースの画像処理方法。
  5. 前記マージ候補リストを生成するステップは、時間候補ピクチャー内で前記空間マージ候補の動き情報により特定されるブロックを示す第1の向上した時間マージ候補を前記マージ候補リストに追加するステップを含み、
    前記マージインデックスが前記第1の向上した時間マージ候補を示す場合、前記現在ブロックの予測ブロックは、前記第1の向上した時間マージ候補の動き情報をサブブロック(sub-block)単位で利用して生成されることを特徴とする、請求項1に記載のインター予測モードベースの画像処理方法。
  6. 前記マージ候補リストを生成するステップは、第2の向上した時間マージ候補を前記マージ候補リストに追加するステップを含み、
    前記第2の向上した時間マージ候補の動き情報は、現在ピクチャー内で前記現在ブロックの境界に隣接するブロックの動き情報及び時間候補ピクチャー内で前記現在ブロックと同一位置の(collocated)ブロックの動き情報を利用してサブブロック(sub-block)単位で決定されることを特徴とする、請求項1に記載のインター予測モードベースの画像処理方法。
  7. 前記現在ブロックの現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向及び垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの下側及び右側位置のブロックの動き情報を利用して決定されることを特徴とする、請求項6に記載のインター予測モードベースの画像処理方法。
  8. 前記現在サブブロックとの距離に基づいて、前記現在サブブロックの水平方向又は垂直方向に隣接するブロックの動き情報に加重値が適用されることを特徴とする、請求項7に記載のインター予測モードベースの画像処理方法。
  9. 前記現在サブブロックが前記現在ブロックの垂直境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの水平方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの上側、下側、及び右側位置のブロックの動き情報を利用して決定されることを特徴とする、請求項6に記載のインター予測モードベースの画像処理方法。
  10. 前記現在サブブロックが前記現在ブロックの水平境界に隣接しない場合、前記現在サブブロックの動き情報は、前記現在ブロックの境界に隣接するブロックのうち前記現在サブブロックの垂直方向に隣接するブロックの動き情報と、前記同一位置のブロック内の前記現在サブブロックの左側、下側、及び右側位置のブロックの動き情報を利用して決定されることを特徴とする、請求項6に記載のインター予測モードベースの画像処理方法。
  11. インター予測(inter prediction)モードベースに画像を処理する装置において、
    現在ブロックの空間マージ候補(spatial merge candidate)及び時間マージ候補(temporal merge candidate)を利用してマージ候補リストを生成するマージ候補リスト生成部と、
    前記マージ候補リスト内で特定マージ候補を示すマージインデックス(merge index)を復号するマージインデックス復号部と、
    前記マージインデックスにより示されるマージ候補の動き情報を利用して前記現在ブロックの予測ブロックを生成する予測ブロック生成部と、を含み、
    前記現在ブロックがクアッドツリー構造(quad tree structure)のリーフノードブロック(leaf node block)を示すクアッドツリーブロックからバイナリツリー構造(binary tree structure)に分割されたブロックである場合、前記空間マージ候補は、前記クアッドツリーブロックの境界に隣接するブロックに決定される、ことを特徴とする、インター予測モードベースの画像処理装置。
JP2019519004A 2016-10-06 2017-09-29 インター予測モードベースの画像処理方法及びそのための装置 Pending JP2019535202A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662404774P 2016-10-06 2016-10-06
US62/404,774 2016-10-06
PCT/KR2017/010964 WO2018066927A1 (ko) 2016-10-06 2017-09-29 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치

Publications (1)

Publication Number Publication Date
JP2019535202A true JP2019535202A (ja) 2019-12-05

Family

ID=61831827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019519004A Pending JP2019535202A (ja) 2016-10-06 2017-09-29 インター予測モードベースの画像処理方法及びそのための装置

Country Status (6)

Country Link
US (1) US10785477B2 (ja)
EP (1) EP3525460A4 (ja)
JP (1) JP2019535202A (ja)
KR (1) KR20190053238A (ja)
CN (1) CN110024384A (ja)
WO (1) WO2018066927A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022537145A (ja) * 2019-06-13 2022-08-24 エルジー エレクトロニクス インコーポレイティド サブブロック単位の時間動きベクトル予測子候補に基づく映像またはビデオコーディング

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111480341A (zh) * 2017-11-01 2020-07-31 Vid拓展公司 用于合并模式的解码器侧运动矢量细化和子块运动导出
EP3780624A1 (en) 2018-04-19 2021-02-17 LG Electronics Inc. Method for processing image and device therefor
EP3788787A1 (en) 2018-06-05 2021-03-10 Beijing Bytedance Network Technology Co. Ltd. Interaction between ibc and atmvp
GB2589223B (en) 2018-06-21 2023-01-25 Beijing Bytedance Network Tech Co Ltd Component-dependent sub-block dividing
WO2019244117A1 (en) 2018-06-21 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Unified constrains for the merge affine mode and the non-merge affine mode
WO2020004990A1 (ko) 2018-06-27 2020-01-02 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2020009447A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
EP3831062A4 (en) 2018-08-17 2022-07-06 HFI Innovation Inc. SIMPLIFIED SUBMODE METHOD AND APPARATUS FOR VIDEO CODING
US11245922B2 (en) * 2018-08-17 2022-02-08 Mediatek Inc. Shared candidate list
CN110868601B (zh) 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
MX2021002399A (es) * 2018-08-28 2021-07-15 Huawei Tech Co Ltd Método y aparato para construir una lista de información de movimiento candidata, método de interpredicción y aparato.
CN110944193B (zh) 2018-09-24 2023-08-11 北京字节跳动网络技术有限公司 视频编码和解码中的加权双向预测
CN113196751B (zh) * 2018-10-23 2023-10-13 韦勒斯标准与技术协会公司 通过使用基于子块的运动补偿处理视频信号的方法和设备
CN116886926A (zh) * 2018-11-10 2023-10-13 北京字节跳动网络技术有限公司 成对平均候选计算中的取整
WO2020103940A1 (en) 2018-11-22 2020-05-28 Beijing Bytedance Network Technology Co., Ltd. Coordination method for sub-block based inter prediction
WO2020117016A1 (ko) * 2018-12-06 2020-06-11 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
JP2020108082A (ja) * 2018-12-28 2020-07-09 株式会社Jvcケンウッド 画像復号装置、画像復号方法及び画像復号プログラム
JP2020108083A (ja) * 2018-12-28 2020-07-09 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法及び画像符号化プログラム
US20220232219A1 (en) * 2019-06-11 2022-07-21 Lg Electronics Inc. Image or video coding based on temporal motion information in units of subblocks
WO2020251321A1 (ko) 2019-06-13 2020-12-17 엘지전자 주식회사 Sbtmvp 기반 영상 또는 비디오 코딩
CN114080812A (zh) 2019-06-13 2022-02-22 Lg 电子株式会社 使用sbtmvp的基于帧间预测的图像或视频编译
CN114208184A (zh) 2019-08-13 2022-03-18 北京字节跳动网络技术有限公司 基于子块的帧间预测中的运动精度
WO2021052505A1 (en) 2019-09-22 2021-03-25 Beijing Bytedance Network Technology Co., Ltd. Reference picture resampling in video processing
US12088839B2 (en) 2019-10-06 2024-09-10 Hyundai Motor Company Method and apparatus for encoding and decoding video using inter-prediction
WO2021172881A1 (ko) * 2020-02-25 2021-09-02 엘지전자 주식회사 인터 예측에 기반한 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011091696A (ja) * 2009-10-23 2011-05-06 Victor Co Of Japan Ltd 動きベクトル予測方法
JP2014533059A (ja) * 2011-11-08 2014-12-08 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102415787B1 (ko) * 2010-05-04 2022-06-30 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
DK2636218T3 (da) * 2010-11-04 2021-10-04 Ge Video Compression Llc Billedkodning, som understøtter blokfletning og skipmodus
KR101783824B1 (ko) 2010-11-25 2017-10-11 엘지전자 주식회사 영상 정보의 시그널링 방법 및 이를 이용한 영상 정보의 복호화 방법
PL2755389T3 (pl) * 2011-09-09 2019-06-28 Lg Electronics Inc. Sposób predykcji inter i urządzenie do niego
KR20130050149A (ko) 2011-11-07 2013-05-15 오수미 인터 모드에서의 예측 블록 생성 방법
US9521389B2 (en) * 2013-03-06 2016-12-13 Qualcomm Incorporated Derived disparity vector in 3D video coding
US9667990B2 (en) * 2013-05-31 2017-05-30 Qualcomm Incorporated Parallel derived disparity vector for 3D video coding with neighbor-based disparity vector derivation
US9686561B2 (en) 2013-06-17 2017-06-20 Qualcomm Incorporated Inter-component filtering
US9716899B2 (en) * 2013-06-27 2017-07-25 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
EP3128754B1 (en) * 2014-03-31 2020-11-11 Samsung Electronics Co., Ltd. Interlayer video decoding method for performing sub-block-based prediction and apparatus therefor, and interlayer video encoding method for performing sub-block-based prediction and apparatus therefor
KR20170069957A (ko) * 2014-10-08 2017-06-21 엘지전자 주식회사 3d 비디오 코딩에서 카메라 파라미터 처리 방법 및 장치
KR102254162B1 (ko) * 2016-05-12 2021-05-20 엘지전자 주식회사 비디오 코딩 시스템에서 인트라 예측 방법 및 장치
WO2018021374A1 (ja) * 2016-07-29 2018-02-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US10631002B2 (en) * 2016-09-30 2020-04-21 Qualcomm Incorporated Frame rate up-conversion coding mode

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011091696A (ja) * 2009-10-23 2011-05-06 Victor Co Of Japan Ltd 動きベクトル予測方法
JP2014533059A (ja) * 2011-11-08 2014-12-08 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 候補リスト共有方法及びこのような方法を使用する装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN ET AL., ALGORITHM DESCRIPTION OF JOINT EXPLORATION TEST MODEL 3, JPN6020009991, 6 July 2016 (2016-07-06), pages 1 - 6, ISSN: 0004363711 *
WEI-JUNG CHIEN ET AL., MODIFICATION OF MERGE CANDIDATE DERIVATION, JPN6020009993, 23 February 2016 (2016-02-23), ISSN: 0004363712 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022537145A (ja) * 2019-06-13 2022-08-24 エルジー エレクトロニクス インコーポレイティド サブブロック単位の時間動きベクトル予測子候補に基づく映像またはビデオコーディング
JP7259090B2 (ja) 2019-06-13 2023-04-17 エルジー エレクトロニクス インコーポレイティド サブブロック単位の時間動きベクトル予測子候補に基づく映像またはビデオコーディング
US11910002B2 (en) 2019-06-13 2024-02-20 Lg Electronics Inc. Temporal motion vector predictor candidate-based image or video coding of subblock unit
JP7560597B2 (ja) 2019-06-13 2024-10-02 エルジー エレクトロニクス インコーポレイティド サブブロック単位の時間動きベクトル予測子候補に基づく映像またはビデオコーディング

Also Published As

Publication number Publication date
EP3525460A1 (en) 2019-08-14
US10785477B2 (en) 2020-09-22
US20200045307A1 (en) 2020-02-06
KR20190053238A (ko) 2019-05-17
EP3525460A4 (en) 2020-06-17
WO2018066927A1 (ko) 2018-04-12
CN110024384A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
JP2019535202A (ja) インター予測モードベースの画像処理方法及びそのための装置
US11082702B2 (en) Inter prediction mode-based image processing method and device therefor
US20200154124A1 (en) Image decoding method based on inter prediction and image decoding apparatus therefor
US12137240B2 (en) Inter prediction mode-based image processing method and apparatus therefor
US20180249156A1 (en) Method for processing image based on joint inter-intra prediction mode and apparatus therefor
KR20220119579A (ko) 참조 유닛 결정 방법 및 장치
US20200221077A1 (en) Inter prediction mode-based image processing method and apparatus therefor
US10623767B2 (en) Method for encoding/decoding image and device therefor
EP3439303B1 (en) Inter prediction mode-based image processing method and apparatus therefor
KR20180136967A (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
TW201743619A (zh) 在視訊寫碼中適應性迴路濾波中之多個濾波器之混淆
US11381829B2 (en) Image processing method and apparatus therefor
US20200244989A1 (en) Method and device for inter-prediction mode-based image processing
JP2018533286A (ja) 画像の符号化/復号化方法及びこれのために装置
KR20200140896A (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
KR20200058546A (ko) 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US10687073B2 (en) Method for encoding/decoding image and device therefor
KR20180040577A (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US20180359468A1 (en) Image processing method on basis of inter prediction mode and apparatus therefor
RU2803197C1 (ru) Способ и устройство для кодирования/декодирования изображений на основе субкадров и способ для передачи потока битов
US20230388484A1 (en) Method and apparatus for asymmetric blending of predictions of partitioned pictures

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201013