[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3863510B2 - 動きベクトル符号化/復号化方法及びその装置 - Google Patents

動きベクトル符号化/復号化方法及びその装置 Download PDF

Info

Publication number
JP3863510B2
JP3863510B2 JP2003275687A JP2003275687A JP3863510B2 JP 3863510 B2 JP3863510 B2 JP 3863510B2 JP 2003275687 A JP2003275687 A JP 2003275687A JP 2003275687 A JP2003275687 A JP 2003275687A JP 3863510 B2 JP3863510 B2 JP 3863510B2
Authority
JP
Japan
Prior art keywords
motion vector
block
picture
current
mvf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003275687A
Other languages
English (en)
Other versions
JP2004056823A (ja
Inventor
雄一 崔
炳宇 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2004056823A publication Critical patent/JP2004056823A/ja
Application granted granted Critical
Publication of JP3863510B2 publication Critical patent/JP3863510B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動きベクトルの符号化及び復号化に係り、特に複数のピクチャーを参照して算出された動きベクトルの符号化/復号化方法及びその装置に関する。
MPEG-1またはMPEG-2符号化標準によれば、現在のピクチャーを符号化するに当って過去のピクチャーを参照するP-ピクチャー符号化方法と、過去及び未来のピクチャーを何れも参照するB-ピクチャー符号化方法とを採用し、それに基づいて動き補償を行う。また、符号化効率を高めるために現在ブロックの動きベクトルをそのまま符号化することでなく、隣接したブロックの動きベクトル間の連関性が反映さるべく隣接ブロックの動きベクトルを用いて予測符号化を行っている。
予測符号化に使われる隣接ブロックの動きベクトルは現在ブロックのそれと同じ参照ピクチャーを使用しなくなる場合が発生しうる。このような場合が発生すれば、従来には参照ピクチャーが異なる隣接ブロックの動きベクトルを予測符号化過程で除外する方式で対処してきた。これは、他の参照ピクチャーに基づいて得られた動きベクトルが予測符号化に参与することによって符号化効率が落ちるからである。しかし、他の参照ピクチャーを有する隣接ブロックの動きベクトルを予測符号化過程で除けば、隣接するブロックの動きベクトルの連関性の反映程度が低まり、よって動きベクトルの符号化効率がそれほど低下することがある。参照ピクチャーの相異なる場合が頻繁なブロックよりなるピクチャーの場合にはさらにそうである。
従って、本発明の目的は、参照ピクチャーの相異なる動きベクトル間に対してもさらに効率よく予測符号化を行える動きベクトル符号化/復号化方法及びその装置を提供することである。
本発明の他の目的は、参照ピクチャーの相異なる動きベクトルのうち少なくとも一部を再調整して符号化効率を高める動きベクトル符号化/復号化方法及びその装置を提供することである。
前記目的は、本発明によって動きベクトルを符号化する方法において、(a)現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックの動きベクトルと相異なるタイプの動きベクトルを有する隣接ブロックに対して前記現在ブロックの動きベクトルと同タイプの動きベクトルを予測して予測動きベクトルを求める段階と、(b)求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同タイプの動きベクトルに対する代表値を算出する段階と、(c)算出された代表値と前記現在ブロックの動きベクトルとの誤差値を算出する段階と、(d)算出された誤差値を符号化する段階と、を含むことを特徴とする方法によっても達成される。
一方、本発明の他の分野によれば、動きベクトルを符号化する装置において、現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックの動きベクトルと相異なるタイプの動きベクトルを有する隣接ブロックに対して前記現在ブロックの動きベクトルと同タイプの動きベクトルを予測して予測動きベクトルを求めた後、求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同タイプの動きベクトルに対する代表値を算出し、算出された代表値と前記現在ブロックの動きベクトルとの誤差値を算出する動きベクトル予測器と、算出された誤差値を符号化する動きベクトル符号化器と、を含むことを特徴とする装置によっても達成される。
前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、前記動きベクトル予測器は前記予測動きベクトルのフォワード動きベクトルMVf(予測)を次の式により算出することが望ましい。
MVf(予測)={前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離/(前記隣接ブロックが参照した未来のピクチャーと前記過去ピクチャーとの距離-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離)}*MVb
前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、前記動きベクトル予測器は前記予測動きベクトルのバックワード動きベクトルMVb(予測)を次の式により算出することが望ましい。
MVb(予測)={(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの距離-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離)/前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離}*MVf
前記動きベクトル予測器は次の式により算出された代表値の予測値PMV_Xを求めることが望ましい。PVM_X=median(MVf_A,MVf_B,MVf_C)またはmedian(MVb_A,MVb_B,MVb_C)
ここで、MVf_A,MVf_B,MVf_C、MVb_A,MVb_B及びMVb_Cは前記隣接ブロックの動きベクトルの成分であって、MVf_Aは左側ブロックのフォワード動きベクトルを、MVf_Bは上側ブロックのフォワード動きベクトルを、MVf_Cは右上側ブロックのフォワード動きベクトルを、MVb_Aは左側ブロックのバックワード動きベクトルを、MVb_Bは上側ブロックのバックワード動きベクトルを、MVb_Cは右上側ブロックのバックワード動きベクトルを、各々意味する。前記予測動きベクトルはそれらのうち何れか1つであり得る。
一方、本発明の他の分野によれば、動きベクトルを復号化する方法において、(a)現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックと相異なるタイプの動きベクトルを有する隣接ブロックに対して前記現在ブロックの動きベクトルと同タイプの動きベクトルを予測して予測動きベクトルを求める段階と、(b)求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックと同タイプの動きベクトルに対する代表値を算出する段階と、(c)算出された代表値と復号化された誤差値とを合算して前記現在ブロックの動きベクトルを算出する段階と、を含むことを特徴とする方法によっても達成される。
前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、前記予測動きベクトルのフォワード動きベクトルMVf(予測)は次の式により算出されることが望ましい。
MVf(予測)={前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差/(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの時間差-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差)}*MVb
前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、前記予測動きベクトルのバックワード動きベクトルMVb(予測)は次の式により算出されることが望ましい。
MVb(予測)={(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの時間差-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差)/前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差}*MVf
前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、前記予測動きベクトルのフォワード動きベクトルMVf(予測)は次の式により算出されることが望ましい。
MVf(予測)={前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離/(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの距離-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離)}*MVb
前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、前記予測動きベクトルのバックワード動きベクトルMVb(予測)は次の式により算出されることが望ましい。
MVb(予測)={(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの距離-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離)/前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離}*MVf
前記(b)段階は次式により算出された代表値である復号化のための予測値PMV_Xを求める段階であることが望ましい。PVM_X=median(MVf_A,MVf_B,MVf_C)またはmedian(MVb_A,MVb_B,MVb_C)
ここで、MVf_A,MVf_B,MVf_C、MVb_A,MVb_B及びMVb_Cは前記隣接ブロックの動きベクトルの成分であって、MVf_Aは左側ブロックのフォワード動きベクトルを、MVf_Bは上側ブロックのフォワード動きベクトルを、MVf_Cは右上側ブロックのフォワード動きベクトルを、MVb_Aは左側ブロックのバックワード動きベクトルを、MVb_Bは上側ブロックのバックワード動きベクトルを、MVb_Cは右上側ブロックのバックワード動きベクトルを、各々意味する。前記予測動きベクトルはそれらのうち何れか1つであり得る。
一方、本発明の他の分野によれば、前記目的は、動きベクトルを復号化する装置において、誤差値を復号化する動きベクトル復号化器と、現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックと相異なるタイプの動きベクトルを有する隣接ブロックに対して前記現在ブロックと同タイプの動きベクトルを予測して予測動きベクトルを求めた後、求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同タイプの動きベクトルに対する代表値を算出し、算出された代表値と前記誤差値を合算して前記現在ブロックの動きベクトルを算出する動きベクトル予測補償器と、を含むことを特徴とする装置によっても達成される。
前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、前記動きベクトル予測補償器は前記予測動きベクトルのフォワード動きベクトルMVf(予測)を次の式により算出することが望ましい。
MVf(予測)={前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差/(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの時間差-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差)}*MVb
前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、前記動きベクトル予測補償器は前記予測動きベクトルのバックワード動きベクトルMVb(予測)を次の式により算出することが望ましい。
MVb(予測)={(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの時間差-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差)/前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの時間差}*MVf
前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、前記動きベクトル予測補償器は前記予測動きベクトルのフォワード動きベクトルMVf(予測)を次の式により算出することが望ましい。
MVf(予測)={前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離/(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの距離-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離)}*MVb
前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、前記動きベクトル予測補償器は前記予測動きベクトルのバックワード動きベクトルMVb(予測)を次の式により算出することが望ましい。
MVb(予測)={(前記隣接ブロックが参照した未来ピクチャーと前記過去ピクチャーとの距離-前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離)/前記隣接ブロックが属する現在ピクチャーと参照した過去ピクチャーとの距離}*MVf
一方、前記目的は、前述した符号化方法または復号化方法を行うためのプログラムコードが記録されたコンピュータにて判読可能な情報貯蔵媒体によっても達成される。
本発明によれば、動きベクトルを符号化/復号化するに当たって、現在ブロックの動きベクトルと相異なるタイプの動きベクトルを有する隣接ブロックに対して同タイプの動きベクトルを予測し、これに基づいて中間値を求め、求められた中間値に基づいて得られた差分値を符号化し、復号化された差分値に現在ブロックと異なるタイプの動きベクトルを有する隣接ブロックに対して同タイプの動きベクトルを予測し、これに基づいて求められた中間値を合算して現在ブロックの動きベクトルを求めるので、符号化効率及び復号化効率が高まる。
すなわち、現在ブロックの動きベクトルを符号化/復号化するに当たって隣接ブロックのそれらの代表値(中間値)に基づくということは隣接するブロックの動きは類似しているという前提に基づく。それにより、本発明の動きベクトル符号化方法及び復号化方法によれば、従来の異なるタイプの動きベクトルの場合、代表値(中間値)算出から排除されることによって隣接ブロックの動きが正しく反映されない問題点を改善し、隣接ブロックが異なる動きベクトルを有する場合でも同タイプの予測動きベクトルを求め、これを代表値(中間値)を求めるのに反映することによって符号化及び復号化効率がより向上する。
以下、添付した図面に基づき、本発明の望ましい実施例について詳細に説明する。
図1は、本発明の望ましい実施例に係る動きベクトル符号化装置のブロック図である。
図1を参照すれば、符号化装置70は、動きベクトルを符号化する装置であって、動きベクトル予測器701及び動きベクトル符号化器702を備える。複数のブロックについての動きベクトルが入力されれば、動きベクトル予測器701は現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックの動きベクトルと 相異なるタイプの動きベクトルだけを有する隣接ブロックに対して前記現在ブロックの動きベクトルと同タイプの動きベクトルを予測して予測動きベクトルを求めた後、求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同タイプの動きベクトルに対する代表値を算出し、算出された代表値と前記現在ブロックの動きベクトルとの誤差値を算出する。動きベクトル符号化器702は、動きベクトル予測器701から出力された誤差値を符号化する。本実施例における動きベクトル符号化器702は誤差値として差分値を符号化する。
図2は、本発明の望ましい実施例によって、図1の動きベクトル符号化装置を含む映像データ符号化装置のブロック図である。
図2を参照すれば、映像データ符号化装置は多重参照方式を採用した符号化装置であって、符号化制御部100、第1ソース符号化部200、第2ソース符号化部700を具備する。また、ソース復号化部300、メモリ部400、動き補償部500、及び動き予測部600を具備する。
入力される映像データは、図3のように時間軸に沿ってカメラから入力されるフレームまたはフレームを所定サイズに分割して得られたブロックで構成される。フレームは順次走査方式により得られた順次走査フレーム、飛越走査方式により得られたフィールドまたは飛越走査フレームを含む。したがって、後述する映像データは順次走査フレーム、飛越走査フレーム、フィールド、ブロック構造のピクチャーを意味する。
映像データが入力されれば、符号化制御部100は入力される映像の特性または使用者の所望の所定動作目的によって、入力映像に対して動き補償を行うか否かによるコーディングタイプ(イントラコーディング/インターコーディング)を決定して対応する制御信号を第1スイッチS1に出力する。動き補償を行う場合には以前または以後に入力された映像データが必要なので第1スイッチS1がターンオフされ、動き補償を行わない場合には以前または以後に入力された映像データが不要なので第1スイッチS1はターンオンされる。第1スイッチS1がターンオフされれば入力映像と以前または以後映像から得られた差映像データが第1ソース符号化部200に入力され、第1スイッチS1がターンオンされれば入力映像のみが第1ソース符号化部200に入力される。
第1ソース符号化部200は、入力された映像データを変換符号化して得られた変換係数値を所定の量子化ステップによって量子化し、量子化された変換係数値で構成された2次元データであるN×Mデータを得る。使われる変換の例としては、DCT(Discrete Cosine Transform)を挙げられる。量子化は既定の量子化ステップによって行われる。
一方、第1ソース符号化部200に入力されて符号化された映像データは、以後または以前に入力された映像データの動き補償のための参照データとして使われうるのでソース復号化部300により第1ソース符号化部200の逆過程である逆量子化と逆変換符号化とを経てからメモリ400に貯蔵される。また、ソース復号化部200から出力されたデータが差映像データであれば、符号化制御部100は第2スイッチS2をターンオフしてソース復号化部300から出力された差映像データを動き補償部500の出力に加算した後、メモリ400に貯蔵する。
動き予測部600は、入力された映像データとメモリ400に貯蔵されたデータとを比較し、現在入力されたデータと最も類似したデータを探した後、入力された映像データと比較して動きベクトルMV(Motion Vector)を出力する。動きベクトルは少なくとも1つのピクチャーに基づいて求められる。すなわち、複数の過去及び/または未来のピクチャーを参照して算出されうる。動きベクトルがメモリ400に伝えられれば、メモリ400は該当データを動き補償部500に出力し、動き補償部500は入力されたデータに基づいて現在符号化する映像データに該当する補償値を作って出力する。
第2ソース符号化部700は、第1ソース符号化部200から出力される量子化された変換符号化係数と動き予測部600から出力された動きベクトルとに関する情報を入力され、符号化制御部100で提供されるコーディングタイプ情報、量子化ステップ情報などその他の復号化に必要な情報を入力されて符号化して最終的に得られたビットストリームを出力する。
本発明に係る動きベクトルの符号化装置70は第2ソース符号化部700に備わる。したがって、本発明に係る動きベクトル符号化方法は第2ソース符号化部700により行われる。第2ソース符号化部700は、MPEG-4符号化標準、H.263符号化標準と同様に、動きベクトル間の連関性を反映して符号化効率を高めるために現在ブロックの動きベクトルをそのまま符号化することでなく、隣接するブロックの動きベクトルを用いて予測符号化を行う。
図4は、本発明の望ましい実施例に係る動きベクトル復号化装置のブロック図である。
図4を参照すれば、復号化装置は本発明によって動きベクトルを復号化する装置であって、動きベクトル復号化器131及び動きベクトル予測補償器132を具備する。動きベクトル復号化器131は入力された符号化された動きベクトル誤差値を復号化して誤差値を復元する。このように復元された誤差値から元の動きベクトルを得るためには誤差値計算に使われた予測値を求めた後、これを誤差値に加えて初めて最終的に元の動きベクトルが分かる。このために動きベクトル予測補償器132は複数のブロックに対する動きベクトルを入力されて現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックの動きベクトルと相異なるタイプの動きベクトルだけを有する隣接ブロックに対して前記現在ブロックの動きベクトルと同タイプの動きベクトルを予測して予測動きベクトルを求めた後、求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同タイプの動きベクトルに対する代表値を算出し、算出された代表値を前記動きベクトル復号化器131により復元された誤差値に加算して現在ブロックの動きベクトルを算出する。
本発明に係る動きベクトル復号化方法は本発明に係る動きベクトル復号化装置130により行われる。動きベクトル復号化装置130はMPEG-4符号化標準、H.263符号化標準と同様に、動きベクトル間の連関性を反映して復号化効率を高めるために現在ブロックの動きベクトルをそのまま復号化せず隣接ブロックの動きベクトルを用いて予測復号化を行う。
図5は、図4の動きベクトル復号化装置130が備えられた映像データ復号化装置のブロック図である。
図5を参照すれば、復号化装置はビットストリームをデマルチプレックスするデマルチプレクサ110、第2ソース復号化部710、第1ソース復号化部210を備える。また、コーディングタイプ情報を復号化するコーディングタイプ情報復号化部120及び本発明に係る動きベクトル復号化を行う動きベクトル復号化部130を備える。
ビットストリームはデマルチプレクサ110によりエントロピー符号化された量子化された変換符号化係数、動きベクトル情報、コーディングタイプ情報等でデマルチプレックスされる。第2ソース復号化部710は符号化された変換符号化係数をエントロピー復号化して量子化された変換符号化係数を出力する。第1ソース復号化部210は量子化された変換符号化係数をソース復号化する。すなわち、図1の第1ソース符号化部200の逆過程を行う。例えば、第1ソース符号化部200がDCTを行えたならば、第1ソース復号化部210はIDCT(Inverse Discrete Cosine Transform)を行う。これにより、映像データが復元される。復元された映像データは動き補償のためにメモリ部410に貯蔵される。
一方、コーディングタイプ情報復号化部120は、コーディングタイプを判別して動き補償が必要なインタータイプである場合、第3スイッチS30をターンオフして第1ソース復号化部210から出力されたデータに動き補償部510から出力された動き補償値を加えて復元された映像データを得る。動きベクトル復号化部130は動きベクトル情報から得た動きベクトルが示す位置を知らせ、動き補償部510は動きベクトルが示す参照映像データから動き補償値を生成して出力する。動きベクトル復号化部130の詳細な動作は、図10に基づいて説明したものと同一なのでその詳細な説明は略す。
図6は、本発明の望ましい実施例に係る多重参照方式を説明するための参考図である。
図6を参照すれば、Iピクチャーは他のピクチャーを参照せずに得られるイントラピクチャーを示し、Bピクチャーは2つの相異なるピクチャーを参照して得られる両方向ピクチャーを示す。PピクチャーはIピクチャーだけを参照して得られる予測ピクチャーを示す。矢印は復号化時に必要なピクチャー、すなわち従属関係を示す。B2ピクチャーはI0ピクチャーとP4ピクチャーとに従属され、B1ピクチャーはI0ピクチャー、P4ピクチャー、B2ピクチャーに従属される。B3ピクチャーはI0ピクチャー、P4ピクチャー、B1ピクチャー、及びB2ピクチャーに従属される。したがって、ディスプレー順序はI0、B1、B2、B3、P4..順であるが、伝送順序はI0、P4、B2、B1、B3...になる。このように、図1の符号化装置によれば複数のピクチャーを参照して生成されるBピクチャーが存在する。換言すれば、本発明の符号化方法及び復号化方法での動きベクトルはフォワード予測方式、バックワード予測方式、両方向予測方式、及びダイレクト予測方式のうち両方向予測方式を含む少なくとも1つの方式で算出される。両方向予測方式において2つの参照ピクチャーは何れも過去ピクチャーまたは未来ピクチャーであり得る。
図7は、本発明の望ましい実施例に係る動き補償の単位となる動き補償ブロックを示す参考図である。
図7を参照すれば、ピクチャーは複数の動き補償ブロックで構成される。動き補償ブロックは本実施例に係る16×16マクロブロック(MB)はもとより、マクロブロックを水平方向に2分割して得られた16×8ブロック、マクロブロックを垂直方向に2分割して得られた8×16ブロック、マクロブロックを水平及び垂直方向に各々2分割して得られた8×8ブロック、これを再び水平または垂直方向に2分割して得られた8×4ブロックまたは4×8ブロック、水平及び垂直方向に各々2分割して得られた4×4ブロックを含む。
本発明に係る動きベクトル符号化方法は、現在ブロックの動きベクトルMV_Xの隣接ブロックの代表値、本実施例では中間値に対する誤差値を符号化する差分符号化方式による。すなわち、現在ブロックXに対する隣接ブロックである左側ブロックA、上側ブロックB、右上側ブロックCの動きベクトルを各々MV_A、MV_B、MV_Cとすれば、差分ベクトル符号化のための予測値である予測ベクトルPVM_Xとこれを用いた差分値である差分ベクトルMVD_Xは次の数学式1により計算される。計算はベクトルの成分値(x成分及びy成分)に対して各々独立して行われる。一方、左側ブロックAは現在ブロックXに属する最初行の最左側画素の左側に隣接した画素が属するブロックを、上側ブロックCは現在ブロックXに属する最初行の最左側画素の上側に隣接した画素が属するブロックを、右上側ブロックCは現在ブロックXに属する最初行の最右側画素の上側に隣接した画素の右側に隣接した画素が属するブロックを、各々示す。
Figure 0003863510
本発明に係る動きベクトル復号化方法は現在ブロックの隣接ブロックの代表値、本実施例では中間値と、復号化して得た誤差値MVD_Xとを合算して現在ブロックの動きベクトルMV_Xを求める復号化方式による。すなわち、現在ブロックXに対する隣接ブロックである左側ブロックA、上側ブロックB、右上側ブロックCの動きベクトルを各々MV_A、MV_B、MV_Cとすれば、復号化のための予測値である予測ベクトルPVM_Xと、ここに復号化された誤差値MVD_Xを合算して得られる動きベクトルMV_Xは次の数式2により計算される。計算はベクトルの成分値(x成分及びy成分)に対して各々独立して行われる。
Figure 0003863510
前述した符号化方法及び復号化方法によって予測動きベクトルを求めるに当って例外の場合を処理するロジックは次の通りである。
第1に、隣接ブロックA、B、C、Dのうち特定ブロックがピクチャー(またはスライス)の外に位置する場合は次の通り処理する。スライスは開始コードを有する一連のデータ列の最小単位であって任意の長さを有してマクロブロックで構成される。スライスは複数のピクチャーに亙って存在せず、1つのピクチャー内に存在する。
1)ブロックA及びDが何れもピクチャー(またはスライス)の外に位置する場合にはMV_A=MV_D=0とし、ブロックA及びDは現在ブロックXと異なる参照ピクチャーを有するものと見なす。
2)ブロックB、C、D何れもピクチャー(またはスライス)の外に位置する場合にはMV_B=MV_C=MV_Aとして中間値を取る場合に必ずMV_Aを現在のブロックXの予測ベクトルPMV_Xにする。
3)ブロックCがピクチャー(またはスライス)の外に位置する場合にはブロックDに代える。ブロックDは現在ブロックXの左上側ブロックであって現在ブロックXに属する最初行の最左側画素の上側に隣接した画素が属するブロックを示す。
第2に、隣接ブロックがイントラ符号化された場合、すなわち隣接ブロックA、B、C、Dのうちイントラ符号化されたブロックがあればそのブロックの動きベクトルを0にし、他の参照ピクチャーを有するものと見なす。
第3に、隣接ブロックが現在ブロックと異なる参照ピクチャーを有する場合には本発明で提案する方式によって「予測動きベクトル」を求めた後、求められた「予測動きベクトル」で中間値を求める。換言すれば、予測符号化に参与する現在ブロックと隣接ブロックとが相異なるタイプの動きベクトルを有していれば、本発明で提案する方式によって同タイプの予測動きベクトルを求めた後、これを数式1及び数式2の予測ベクトルを求める式に代入して中間値を求める。
図8は、本発明の望ましい実施例によって予測動きベクトルを求める場合を説明するための参考図である。
図8を参照すれば、現在ブロックXはフォワード動きベクトルMVf_Xを有しており、隣接ブロックA、Dは現在ブロックXと同タイプのフォワード動きベクトルMVf_A及びMVf_Dを有している。しかし、隣接ブロックBは現在ブロックXと相異なるタイプのバックワード動きベクトルMVb_Bを有し、隣接ブロックCはフォワード動きベクトルMVf_C及びバックワード動きベクトルMVb_Cを全て有している。
前述した数式1及び数式2に係る中間値は同タイプの動きベクトルについて求めるべきである。その理由は現在ブロックと異なる動きベクトルが符号化及び復号化に参与すれば、符号化及び復号化効率が低下しうるからである。ところが、隣接ブロックBは同タイプの動きベクトルを有していないために、先に隣接ブロックBの予測動きベクトルを求めなければならない。換言すれば、現在ブロックXと同タイプのフォワード動きベクトルを予測しなければならない。
図9は、予測動きベクトルを求める方式の一例を示す。
図9を参照すれば、隣接ブロックに対する予測動きベクトルとしてフォワード動きベクトルMVf(予測)またはバックワード動きベクトルMVb(予測)は次の式により予測されうる。
Figure 0003863510
ここで、Distance_Aは対応隣接ブロックが属する現在ピクチャーが参照した参照ピクチャー1と参照ピクチャー2とのピクチャー距離(picture_distance)であり、Distance_Bは対応隣接ブロックが属する現在ピクチャーと参照ピクチャー1とのピクチャー距離(picture_distance)である。本例において参照ピクチャー1は現在ピクチャーに対する過去ピクチャーであり、参照ピクチャー2は未来ピクチャーである。
図10は、予測動きベクトルを求める方式の他の例を示す。
図10を参照すれば、隣接ブロックに対する予測動きベクトルとしてフォワード動きベクトルMVf(予測)またはバックワード動きベクトルMVb(予測)は次の式により予測できる。
Figure 0003863510
ここで、TR_Aは対応隣接ブロックが属する現在ピクチャーが参照した過去ピクチャーと未来ピクチャーとの時間差であり、TR_Bは対応隣接ブロックが属する現在ピクチャーと過去ピクチャーとの時間差である。時間差はピクチャー間のディスプレーの相対的な時間順序を分かるためのカウンター値TR(Temporal Reference)から求められる。
一方、本発明に係る動きベクトル符号化方法はB(Bi-predictive)ピクチャーに対してその特徴を有するのでBピクチャーについてより詳細に説明すれば次の通りである。
Bピクチャーは、必ず時間的に過去ピクチャーと未来ピクチャーとをもって動き補償を行うべきであるという制約を有していない。これにより、Bピクチャーに属する現在ブロックの動きベクトルは時間や方向に独立的である。換言すれば、Bピクチャーは複数のピクチャーを参照して得られたものであるので、現在ブロックと隣接ブロックとが相異なるタイプの動きベクトルを有する可能性が高い。それにも拘わらず、Bピクチャーに属する現在ブロックの動きベクトルは本発明に係る動きベクトル符号化方法及び復号化方法により、隣接ブロックの動きベクトルのタイプに関係なく符号化及び復号化が可能である。
Bピクチャーは4つの動き補償モードを有するので4つの動きベクトルが存在する。フォワード動きベクトルForward MV(MVf)、バックワード動きベクトルBackward MV(MVb)、両方向動きベクトルBi-predictive MV(MVf、MVb)、ダイレクト動きベクトルDirect MVがそれである。ダイレクト動きベクトルの場合には動きベクトル情報を受信端に伝送しないので、符号化及び復号化する必要がないが、残りの動きベクトルはPピクチャーと同様に、隣接ブロックの動きベクトルから得られた予測ベクトルPMVを使用して符号化/復号化する。
前述したように、Bピクチャーに属する現在ブロックの動きベクトルは時間や方向において独立しているのでフォワード、バックワードが必ずしも特定時間や方向に区分されることを意味することではない。両方向も必ずしも特定時間や方向を区分して特定時点を基準に過去と未来とを含むことではなく、特定地点を基準に両方向が必ずしも含むことではない。
予測ベクトルPMVをを求めるに当って、MVf及びMVbは各々隣接ブロックと同タイプの動きベクトルを用いる。すなわち、MVfは予測ベクトルを求めるに当たって隣接するMVfだけを利用し、MVbは周辺のMVbだけを用いる。但し、両方向動きベクトルは2種を何れも有しているので、各々必要な動きベクトルを使用する。したがって、Bピクチャーの動きベクトルを符号化/復号化するに当たって予測ベクトルPMVを設定する時、隣接する動きベクトルのタイプが相異なる場合、同タイプの動きベクトルは図9及び図10を参照して説明した方法で予測できる。
図7を再び参照すれば、MVf_X=(1,2)、MVf_A=(4,4)、MVb_B=(-1,-1)、MVf_C=(0,3)、MVb_C=(-1,-2)とする時、従来の技術によればMVb_B=(-1,-1)は現在ブロックの動きベクトルとタイプとが相異なるので中間値を求めるのに排除され、代わりに(0,0)が代入される。したがって、中間値は(0,3)となり、差分値DMV_Xは(1,-1)となる。しかし、本発明によれば、MVb_B=(-1,-1)の代わりに予測された(1,1)が中間値を求めるのに使われる。したがって、中間値は(1,1)となり、差分値DMV_Xは(0,1)となる。
一方、動き補償ブロックは前述したように長方形を有しうる。長方形の動き補償ブロックの場合には動きベクトルの予測方向が分かるために、前述した周辺の3ブロックの動きベクトルの中間値を予測ベクトルとして使用する代わり他の方式で予測した予測ベクトルを使用する。
図11は、長方形動き補償ブロックに対する予測ベクトルを求める方式を説明するための参考図である。
図11を参照すれば、動き補償ブロックが8×16である場合、ブロック(1)の予測ベクトルとしては隣接ブロックのうち左側ブロックの動きベクトルが使われ、ブロック(2)の予測ベクトルとしては隣接ブロックのうち右上側ブロックの動きベクトルが使われる。
動き補償ブロックが16×8である場合、ブロック(3)の予測ベクトルとしては隣接ブロックのうち上側ブロックの動きベクトルが使われてブロック(4)の予測ベクトルとしては隣接ブロックのうち左側ブロックの動きベクトルが使われる。
動き補償ブロックが8×4である場合、ブロック(5)の予測ベクトルは各々以前ブロックの中間値がそのまま使われて求められ、ブロック(6)の予測ベクトルとしては各々隣接ブロックのうち左側ブロックの動きベクトルが使われる。
動き補償ブロックが4×8である場合、ブロック(7)の予測ベクトルは各々以前ブロックの中間値がそのまま使われて求められ、ブロック(8)の予測ベクトルとしては各々隣接ブロックのうち上側ブロックの動きベクトルが使われる。
但し、予測ベクトルとして設定された動きベクトルの参照ピクチャーが現在ブロックの参照ピクチャーと異なる場合には既存の中間値を使用する。他の例外の場合は前述した中間値予測と同一に処理する。
前述した動きベクトル符号化方法及び復号化方法は、コンピュータプログラムで作成できる。前記プログラムを構成するコード及びコードセグメントは当該分野のコンピュータプログラマーによって容易に推論されうる。また、前記プログラムはコンピュータにて読取り可能な情報貯蔵媒体に貯蔵され、コンピュータにて読取り、実行されることによって動きベクトル符号化方法及び復号化方法を具現する。前記情報貯蔵媒体は、磁気記録媒体、光記録媒体及びキャリアウェーブ媒体を含む。
本発明の望ましい実施例に係る動きベクトル符号化装置のブロック図である。 本発明の望ましい実施例による図1の動きベクトル符号化装置を含む映像データ符号化装置のブロック図である。 入力映像の一例である。 本発明の望ましい実施例に係る動きベクトル復号化装置のブロック図である。 本発明の望ましい実施例による図10の動きベクトル復号化装置を含む映像データ復号化装置のブロック図である。 本発明の望ましい実施例に係る多重参照方式を説明するための参考図である。 本発明の望ましい実施例に係る動き補償の単位となる動き補償ブロックを示す参考図である。 本発明の望ましい実施例によって予測動きベクトルを求める場合を説明するための参考図である。 予測動きベクトルを求める方式の一例である。 予測動きベクトルを求める方式の他の例である。 長方形動き補償ブロックに対する予測ベクトルを求める方式を説明するための参考図である。
符号の説明
70 符号化装置
701 動きベクトル予測器
702 動きベクトル符号化器
100 符号化制御部
200 第1ソース符号化部
300 ソース復号化部
400 メモリ
500 動き補償部
600 動き予測部
700 第2ソース符号化部

Claims (26)

  1. 動きベクトルを符号化する方法において、
    (a) 現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックの動きベクトルと相異なる参照ピクチャーに基づいた動きベクトルを有する隣接ブロックに対して前記隣接ブロックと現在ピクチャーが参照した参照ピクチャーとの間のピクチャー距離及び前記隣接ブロックが参照する参照ピクチャーと現在ピクチャーとの間のピクチャー距離の比例関係を用いて前記現在ブロックの動きベクトルと同じ参照ピクチャーに基づいた動きベクトルを予測して予測動きベクトルを求める段階と、
    (b) 求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同じ参照ピクチャーに基づいた動きベクトルに対する中間値を算出する段階と、
    (c) 算出された中間値と前記現在ブロックの動きベクトルとの誤差値を算出する段階と、
    (d) 算出された誤差値を符号化する段階とを含むことを特徴とする方法。
  2. 前記隣接する複数のブロックは前記現在ブロックの左側ブロック、上側ブロック、及び右上側ブロックであることを特徴とする請求項1に記載の方法。
  3. 前記左側ブロックは前記現在のブロックに属する最初行の最左側画素の左側に隣接した画素が属するブロックを、前記上側ブロックは前記最左側画素の上側に隣接した画素が属するブロックを、前記右上側ブロックは前記現在のブロックに属する最初行の最右側画素の上側に隣接した画素の右側に隣接した画素が属するブロックを、各々示すことを特徴とする請求項1に記載の方法。
  4. 動きベクトルを符号化する装置において、
    現在ブロックに隣接する複数の隣接ブロックのうち前記現在ブロックの動きベクトルと相異なる参照ピクチャーに基づいた動きベクトルを有する隣接ブロックに対して前記隣接ブロックと現在ピクチャーが参照した二つの参照ピクチャーとの間のピクチャー距離及び前記隣接ブロックが参照した参照ピクチャーと現在ピクチャーとの間のピクチャー距離の比例関係を用いて前記現在ブロックの動きベクトルと同じ参照ピクチャーに基づいた動きベクトルを予測して予測動きベクトルを求めた後、求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同タイプの動きベクトルに対する中間値を算出し、算出された中間値と前記現在ブロックの動きベクトルとの誤差値を算出する動きベクトル予測器と、
    算出された誤差値を符号化する動きベクトル符号化器と、を含むことを特徴とする装置。
  5. 前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、
    前記動きベクトル予測器は前記予測動きベクトルのフォワード動きベクトルMVf(予測)を次の式により算出することを特徴とする請求項4に記載の装置。
    MVf(予測) = {(前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去ピクチャとの距離/(前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去ピクチャーとの距離−前記隣接ブロックが参照した未来ピクチャーと前記現在ブロックが参照した過去ピクチャーとの距離))*MVb
  6. 前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、
    前記動きベクトル予測器は前記予測動きベクトルのバックワード動きベクトルMVb(予測)を次の式により算出することを特徴とする請求項4に記載の装置。
    MVf(予測) = {(前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャとの距離−前記現在ブロックが参照した未来ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの距離)/隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの距離}}*MVb
  7. 前記動きベクトル予測器は次の式により算出される中間値である予測値PMV_Xを求めることを特徴とする装置。
    PVM_X = median(MVf_A, MVf_B, MVf_C)またはmedian(MVb_A, MVb_B, MVb_C)
    ここで、MVf_A, MVf_B, MVf_C, MVb_A, MVb_B,及びMVb_Cは前記隣接ブロックの動きベクトルの成分であって、MVf_Aは左側ブロックのフォワード動きベクトルを、MVf_Bは上側ブロックのフォワード動きベクトルを、MVf_Cは右上側ブロックのフォワード動きベクトルを、MVb_Aは左側ブロックのバックワード動きベクトルを、MVb_Bは上側ブロックのバックワード動きベクトルを、MVb_Cは右上側ブロックのバックワード動きベクトルを、各々意味する。前記予測動きベクトルはそれらのうち何れか一つでありうる。
  8. 前記動きベクトル予測器は、
    前記誤差値として前記算出された中間値と前記現在ブロックの動きベクトルとの差分値を算出することを特徴とする請求項7に記載の装置。
  9. 前記動きベクトル符号化器は前記差分値を符号化することを特徴とする請求項8に記載の装置。
  10. 動きベクトルを復号化する方法において、
    (a)現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックと異なる参照ピクチャーに基づいた動きベクトルを有する隣接ブロックに対して前記隣接ブロックと現在ピクチャーが参照した二つの参照ピクチャー間の時間差及び前記隣接ブロックが参照する参照ピクチャーと現在ピクチャーとの時間差の比例関係を用いて前記現在ブロックの動きベクトルと同じ参照ピクチャーに基づいた動きベクトルを予測して予測動きベクトルを求める段階と、
    (b) 求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックと同じ参照ピクチャーに基づいた動きベクトルに対する中間値を算出する段階と、
    (c) 算出された中間値と復号化された誤差値とを合算して前記現在ブロックの動きベクトルを算出する段階と、を含むことを特徴とする方法。
  11. 前記隣接する複数のブロックは前記現在ブロックの左側ブロック、上側ブロック、及び右上側ブロックであることを特徴とする請求項10に記載の方法。
  12. 前記左側ブロックは前記現在のブロックに属する最初行の最左側画素の左側に隣接した画素が属するブロックを、前記上側ブロックは前記最左側画素の上側に隣接した画素が属するブロックを、前記右上側ブロックは前記現在のブロックに属する最初行の最右側画素の上側に隣接した画素の右側に隣接した画素が属するブロックを、各々示すことを特徴とする請求項11に記載の方法。
  13. 前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、
    前記予測動きベクトルであるフォワード動きベクトルMVf(予測)は次の式により算出されることを特徴とする請求項10に記載の方法。
    MVf(予測) = {前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去 ピクチャーとの時間差/(前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去ピクチャーとの時間差−前記隣接ブロックが参照した未来ピクチャーと前記現在ブロックが参照した過去ピクチャーとの時間差)}*MVb
  14. 前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、
    前記予測動きベクトルであるバックワード動きベクトルMVb(予測)は次の式により算出されることを特徴とする請求項10に記載の方法。
    MVb(予測) = {(前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの時間差−前記現在ブロックが参照した未来ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの時間差)/前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの時間差}*MVf
  15. 前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、
    前記予測動きベクトルのフォワード動きベクトルMVf(予測)は次の式により算出されることを特徴とする請求項10に記載の方法。
    MVf(予測) = {前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去ピクチャーとの距離/(前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去ピクチャーとの距離−前記隣接ブロックが参照した未来ピクチャーと前記現在ブロックが参照した過去ピクチャーとの距離)}*MVb
  16. 前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、
    前記予測動きベクトルのバックワード動きベクトルMVb(予測)は次の式により算出されることを特徴とする請求項10に記載の方法。
    MVb(予測) = {前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの距離−前記現在ブロックが参照した未来ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの距離}/前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーの距離}*MVf
  17. 前記(b)段階は次の式により算出された中間値である復号化のための予測値PMV_Xを求める段階であることを特徴とする請求項10に記載の方法。
    PVM_X = median(MVf_A, MVf_B, MVf_C)またはmedian(MVb_A, MVb_B, MVb_C)
    ここで、MVf_A, MVf_B, MVf_C, MVb_A, MVb_B,及びMVb_Cは前記隣接ブロックの動きベクトルの成分であって、MVf_Aは左側ブロックのフォワード動きベクトルを、MVf_Bは上側ブロックのフォワード動きベクトルを、MVf_Cは右上側ブロックのフォワード動きベクトルを、MVb_Aは左側ブロックのバックワード動きベクトルを、MVb_Bは上側ブロックのバックワード動きベクトルを、MVb_Cは右上側ブロックのバックワード動きベクトルを、各々意味する。前記予測動きベクトルはそれらのうち何れか一つでありうる。
  18. 前記(c)段階は、
    前記算出された中間値と復号化された前記現在ブロックの差分値とを合算する段階であることを特徴とする請求項10に記載の方法。
  19. 動きベクトルを復号化する装置において、
    誤差値を復号化する動きベクトル復号化器と、
    現在のブロックに隣接する複数の隣接ブロックのうち前記現在ブロックと相異なる参照ピクチャーに基づいた動きベクトルを有する隣接ブロックに対して前記隣接ブロックと現在ピクチャーが参照した参照ピクチャーとの間のピクチャー距離及び前記隣接ブロックが参照する参照ピクチャーと現在ピクチャーとの間のピクチャー距離の比例関係を用いて前記現在ブロックと同じ参照ピクチャーに基づいた動きベクトルを予測して予測動きベクトルを求めた後、求められた予測動きベクトルを含んで前記隣接ブロックの動きベクトルのうち前記現在ブロックの動きベクトルと同タイプの動きベクトルに対する中間値を算出し、算出された中間値と前記誤差値とを合算して前記現在ブロックの動きベクトルを算出する動きベクトル予測補償器と、を含むことを特徴とする装置。
  20. 前記隣接する複数のブロックは前記現在ブロックの左側ブロック、上側ブロック、右上側ブロックであることを特徴とする請求項19に記載の装置。
  21. 前記左側ブロックは前記現在のブロックに属する最左側画素の左側に隣接した画素が属するブロックを、前記上側ブロックは前記最左側画素の上側に隣接した画素が属するブロックを、前記右上側ブロックは前記現在のブロックに属する最右側画素の上側に隣接した画素の右側に隣接した画素が属するブロックを、各々示すことを特徴とする請求項20に記載の装置。
  22. 前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、
    前記動きベクトル予測補償器は前記予測動きベクトルであるフォワード動きベクトルMVf(予測)を次の式により算出することを特徴とする請求項19に記載の装置。
    MVf(予測) = {前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去ピクチャーとの時間差/(前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去ピクチャーとの時間差−前記隣接ブロックが参照した未来ピクチャーと前記現在ブロックが参照した過去ピクチャーとの時間差)}*MVb
  23. 前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、
    前記動きベクトル予測補償器は前記予測動きベクトルのバックワード動きベクトルMVb(予測)を次の式により算出することを特徴とする請求項19に記載の装置。
    MVb(予測) = {(前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの時間差−前記現在ブロックが参照した未来ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの時間差)/前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの時間差}*MVf
  24. 前記現在ブロックの動きベクトルがフォワード動きベクトルMVfであり、前記隣接ブロックの動きベクトルはバックワード動きベクトルMVbである時、
    前記動きベクトル予測補償器は前記予測動きベクトルであるフォワード動きベクトルMVf(予測)を次の式により算出することを特徴とする請求項19に記載の装置。
    MVf(予測) = {前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去 ピクチャーとの距離/(前記隣接ブロックが属する現在ピクチャーと前記現在ブロックが参照した過去 ピクチャーとの距離−前記隣接ブロックが参照した未来ピクチャーと前記現在ブロックが参照した過去ピクチャーとの距離)}*MVb
  25. 前記現在ブロックの動きベクトルがバックワード動きベクトルMVbであり、前記隣接ブロックの動きベクトルはフォワード動きベクトルMVfである時、
    前記動きベクトル予測補償器は前記予測動きベクトルであるバックワード動きベクトルMVb(予測)を次の式により算出することを特徴とする請求項19に記載の装置。
    MVb(予測) = {(前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの距離−前記現在ブロックが参照した未来ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの距離)/前記隣接ブロックが属する現在ピクチャーと前記隣接ブロックが参照した過去ピクチャーとの距離}*MVf
  26. 前記動きベクトル予測補償器は次の式により算出された中間値である予測値PMV_Xを求めることを特徴とする請求項19に記載の装置。
    PVM_X = median(MVf_A, MVf_B, MVf_C)またはmedian(MVb_A, MVb_B, MVb_C)
    ここで、MVf_A, MVf_B, MVf_C, MVb_A, MVb_B,及びMVb_Cは前記隣接ブロックの動きベクトルの成分であって、MVf_Aは左側ブロックのフォワード動きベクトルを、MVf_Bは上側ブロックのフォワード動きベクトルを、MVf_Cは右上側ブロックのフォワード動きベクトルを、MVb_Aは左側ブロックのバックワード動きベクトルを、MVb_Bは上側ブロックのバックワード動きベクトルを、MVb_Cは右上側ブロックのバックワード動きベクトルを、各々意味する。前記予測動きベクトルはそれらのうち何れか一つでありうる。
JP2003275687A 2002-07-16 2003-07-16 動きベクトル符号化/復号化方法及びその装置 Expired - Fee Related JP3863510B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20020041798A KR100774296B1 (ko) 2002-07-16 2002-07-16 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치

Publications (2)

Publication Number Publication Date
JP2004056823A JP2004056823A (ja) 2004-02-19
JP3863510B2 true JP3863510B2 (ja) 2006-12-27

Family

ID=30439317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003275687A Expired - Fee Related JP3863510B2 (ja) 2002-07-16 2003-07-16 動きベクトル符号化/復号化方法及びその装置

Country Status (6)

Country Link
US (5) US7257263B2 (ja)
EP (1) EP1389017B1 (ja)
JP (1) JP3863510B2 (ja)
KR (1) KR100774296B1 (ja)
CN (1) CN1229999C (ja)
DE (1) DE60315565T2 (ja)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4114859B2 (ja) * 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
KR100774296B1 (ko) * 2002-07-16 2007-11-08 삼성전자주식회사 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치
US20040141555A1 (en) * 2003-01-16 2004-07-22 Rault Patrick M. Method of motion vector prediction and system thereof
KR100846780B1 (ko) * 2003-11-10 2008-07-16 삼성전자주식회사 움직임 벡터 추정 방법 및 장치
KR101104828B1 (ko) * 2004-12-09 2012-01-16 삼성전자주식회사 움직임 벡터 연산 장치 및 그 방법
CN100473168C (zh) * 2005-06-21 2009-03-25 中国科学院计算技术研究所 视频编码的运动矢量空间预测方法
US8559515B2 (en) 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
CN101072356B (zh) * 2006-05-12 2011-02-09 中国科学院计算技术研究所 一种运动矢量预测方法
KR100802207B1 (ko) * 2006-07-18 2008-02-11 연세대학교 산학협력단 동영상의 움직임 추정을 위한 움직임 예측방법 및 움직임추정 부호화기
CA2665781C (en) * 2006-10-30 2014-02-18 Nippon Telegraph And Telephone Corporation Predicted reference information generating method, video encoding and decoding methods, apparatuses therefor, programs therefor, and storage media which store the programs
CN101536530B (zh) * 2006-11-07 2011-06-08 三星电子株式会社 基于运动估计进行视频编码和解码的方法和设备
KR101383540B1 (ko) * 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
US8665942B2 (en) * 2007-01-23 2014-03-04 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction signaling
US8503524B2 (en) * 2007-01-23 2013-08-06 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction
US8233536B2 (en) * 2007-01-23 2012-07-31 Sharp Laboratories Of America, Inc. Methods and systems for multiplication-free inter-layer image prediction
KR101365574B1 (ko) * 2007-01-29 2014-02-20 삼성전자주식회사 영상 부호화 방법 및 장치, 복호화 방법 및 장치
KR101366242B1 (ko) * 2007-03-29 2014-02-20 삼성전자주식회사 움직임 모델 파라메터의 부호화, 복호화 방법 및 움직임모델 파라메터를 이용한 영상의 부호화, 복호화 방법 및장치
JP5422168B2 (ja) 2008-09-29 2014-02-19 株式会社日立製作所 動画像符号化方法および動画像復号化方法
US20100090391A1 (en) * 2008-10-10 2010-04-15 Xerox Corporation Nip release system
KR101279573B1 (ko) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US9060176B2 (en) * 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
TWI566586B (zh) 2009-10-20 2017-01-11 湯姆生特許公司 一序列形象的現時區塊之寫碼方法和重建方法
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US20130003843A1 (en) * 2010-03-12 2013-01-03 Mediatek Singapore Pte. Ltd. Motion Prediction Method
WO2011125211A1 (ja) 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
CN101873497B (zh) * 2010-05-26 2012-02-29 杭州海康威视软件有限公司 宏块信息存储方法及装置
JP2012019447A (ja) * 2010-07-09 2012-01-26 Sony Corp 画像処理装置および方法
JP2012094959A (ja) * 2010-10-25 2012-05-17 Sony Corp 画像処理装置と画像処理方法およびプログラム
KR101484171B1 (ko) * 2011-01-21 2015-01-23 에스케이 텔레콤주식회사 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
US9532066B2 (en) 2011-01-21 2016-12-27 Qualcomm Incorporated Motion vector prediction
US8792549B2 (en) 2011-02-28 2014-07-29 Sony Corporation Decoder-derived geometric transformations for motion compensated inter prediction
US9288501B2 (en) * 2011-03-08 2016-03-15 Qualcomm Incorporated Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
PL3937497T3 (pl) 2011-03-21 2023-07-17 Lg Electronics, Inc. Wybieranie predyktora wektora ruchu
CN102737383B (zh) * 2011-03-31 2014-12-17 富士通株式会社 视频中的摄像机运动分析方法及装置
CN108184124B (zh) * 2011-06-28 2022-01-11 Lg电子株式会社 设置运动矢量列表的方法
KR101607038B1 (ko) * 2011-11-21 2016-04-11 모토로라 모빌리티 엘엘씨 시간 예측을 위한 병치된 픽처의 암시적 결정 및 결합된 암시적 및 명시적 결정
CA2877268C (en) * 2012-06-19 2020-07-21 Lg Electronics Inc. Method and device for processing video signal
KR101255230B1 (ko) * 2012-06-25 2013-04-16 세종대학교산학협력단 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법
CN109413424B (zh) 2012-09-03 2022-11-15 索尼公司 图像处理设备和方法
JP5571229B2 (ja) * 2013-06-03 2014-08-13 株式会社東芝 画像符号化方法及び画像復号化方法
CN103338372A (zh) * 2013-06-15 2013-10-02 浙江大学 一种视频处理方法及装置
KR101390194B1 (ko) * 2013-07-08 2014-04-30 삼성전자주식회사 움직임 추정을 이용한 영상의 부호화, 복호화 방법 및 장치
JP2014131295A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP2014131293A (ja) * 2014-01-23 2014-07-10 Toshiba Corp 画像符号化方法及び画像復号化方法
JP5509398B1 (ja) * 2014-01-23 2014-06-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP5571262B2 (ja) * 2014-01-23 2014-08-13 株式会社東芝 画像符号化方法及び画像復号化方法
CA2938974C (en) 2014-02-07 2023-08-22 Gojo Industries, Inc. Compositions and methods with efficacy against spores and other organisms
JP5659314B1 (ja) * 2014-10-01 2015-01-28 株式会社東芝 画像符号化方法及び画像復号化方法
JP2015053729A (ja) * 2014-11-17 2015-03-19 株式会社東芝 画像符号化方法及び画像復号化方法
JP6196341B2 (ja) * 2016-02-17 2017-09-13 株式会社東芝 画像符号化方法及び画像復号化方法
JP6271694B2 (ja) * 2016-12-16 2018-01-31 株式会社東芝 画像符号化方法及び画像復号化方法
JP6370977B2 (ja) * 2017-08-31 2018-08-08 株式会社東芝 画像符号化方法及び画像復号化方法
JP6367452B2 (ja) * 2017-11-13 2018-08-01 株式会社東芝 画像符号化方法及び画像復号化方法
CN110662033B (zh) * 2018-06-28 2021-11-23 杭州海康威视数字技术股份有限公司 一种解码、编码方法及其设备
JP6609004B2 (ja) * 2018-07-02 2019-11-20 株式会社東芝 画像符号化方法及び画像復号化方法
CN111131822B (zh) 2018-10-31 2023-08-01 北京字节跳动网络技术有限公司 具有从邻域导出的运动信息的重叠块运动补偿
CN117560503A (zh) * 2019-01-13 2024-02-13 北京字节跳动网络技术有限公司 重叠块运动补偿和其他工具之间的协调
CN113709473B (zh) 2019-03-11 2022-11-25 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
JP6795666B2 (ja) * 2019-10-21 2020-12-02 株式会社東芝 画像符号化方法及び画像復号化方法
JP7242811B2 (ja) 2019-10-21 2023-03-20 株式会社東芝 画像符号化方法及び画像復号化方法
JP6980889B2 (ja) * 2019-10-21 2021-12-15 株式会社東芝 画像符号化方法及び画像復号化方法
JP6961781B2 (ja) * 2019-10-21 2021-11-05 株式会社東芝 画像符号化方法及び画像復号化方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123406A (ja) * 1993-10-22 1995-05-12 Canon Inc 動きベクトル検出装置
US6023298A (en) * 1996-03-22 2000-02-08 Daewoo Electronics Co., Ltd Video signal encoding system using a current frame prediction apparatus
KR100229803B1 (ko) * 1996-11-15 1999-11-15 전주범 움직임 벡터 검출 방법 및 장치
US5825930A (en) * 1997-03-05 1998-10-20 Samsung Electronics Co., Ltd. Motion estimating method
JP3957915B2 (ja) * 1999-03-08 2007-08-15 パイオニア株式会社 フェード検出装置及び情報符号化装置
KR100364789B1 (ko) * 2000-02-28 2002-12-16 엘지전자 주식회사 움직임 추정 방법 및 장치
KR100774296B1 (ko) * 2002-07-16 2007-11-08 삼성전자주식회사 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치
US6925123B2 (en) * 2002-08-06 2005-08-02 Motorola, Inc. Method and apparatus for performing high quality fast predictive motion search

Also Published As

Publication number Publication date
US7257263B2 (en) 2007-08-14
US7483579B2 (en) 2009-01-27
US7447371B2 (en) 2008-11-04
KR20040007140A (ko) 2004-01-24
US20080013631A1 (en) 2008-01-17
US20080013843A1 (en) 2008-01-17
KR100774296B1 (ko) 2007-11-08
US7486831B2 (en) 2009-02-03
EP1389017A3 (en) 2005-08-03
US20070286505A1 (en) 2007-12-13
US20070286506A1 (en) 2007-12-13
US7447370B2 (en) 2008-11-04
DE60315565D1 (de) 2007-09-27
DE60315565T2 (de) 2008-05-15
CN1497981A (zh) 2004-05-19
EP1389017A2 (en) 2004-02-11
US20040013309A1 (en) 2004-01-22
CN1229999C (zh) 2005-11-30
EP1389017B1 (en) 2007-08-15
JP2004056823A (ja) 2004-02-19

Similar Documents

Publication Publication Date Title
JP3863510B2 (ja) 動きベクトル符号化/復号化方法及びその装置
JP5580453B2 (ja) 直接モード符号化及び復号化装置
JP4733341B2 (ja) 双方向予測(b)ピクチャの時空間予測および複数ピクチャ参照動き補償の動きベクトル予測
JP4752631B2 (ja) 画像符号化装置、及び画像符号化方法
JP6100240B2 (ja) 多視点ビデオの動きベクトル符号化方法及び装置、その復号化方法及び装置
JP2019115061A (ja) 符号化装置、符号化方法、復号装置、復号方法、及びプログラム
JP5830548B2 (ja) 多視点ビデオの符号化方法及び装置、その復号化方法及び装置
CN101690234B (zh) 视频图像编码方法及解码方法、其装置
JP5983430B2 (ja) 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
KR100510136B1 (ko) 참조 픽처 결정 방법, 그 움직임 보상 방법 및 그 장치
JP2007243784A (ja) 動画像復号装置および動画像復号方法
JP5281597B2 (ja) 動きベクトル予測方法,動きベクトル予測装置および動きベクトル予測プログラム
KR100774297B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
JP2006246277A (ja) 再符号化装置、再符号化方法、および再符号化用プログラム
KR100774298B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR100774299B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
KR100774300B1 (ko) 움직임 벡터 복호화 방법 및 그 장치
JP2006304350A (ja) 動画像復号化方法及び装置
KR20070033239A (ko) 다시점 동영상을 부호화 및 복호화하는 장치 및 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060928

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees