JP2009071878A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2009071878A5 JP2009071878A5 JP2008332877A JP2008332877A JP2009071878A5 JP 2009071878 A5 JP2009071878 A5 JP 2009071878A5 JP 2008332877 A JP2008332877 A JP 2008332877A JP 2008332877 A JP2008332877 A JP 2008332877A JP 2009071878 A5 JP2009071878 A5 JP 2009071878A5
- Authority
- JP
- Japan
- Prior art keywords
- memory
- prediction
- image
- unit
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015654 memory Effects 0.000 claims description 482
- 238000001514 detection method Methods 0.000 description 46
- 230000000875 corresponding Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 21
- 230000000694 effects Effects 0.000 description 16
- 238000000034 method Methods 0.000 description 13
- 239000000203 mixture Substances 0.000 description 9
- 230000003068 static Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- UIIMBOGNXHQVGW-UHFFFAOYSA-M buffer Substances [Na+].OC([O-])=O UIIMBOGNXHQVGW-UHFFFAOYSA-M 0.000 description 6
- 230000001131 transforming Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000002715 modification method Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 101700080201 SC29 Proteins 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002194 synthesizing Effects 0.000 description 2
- 101700059663 PGK1 Proteins 0.000 description 1
- 101700017448 PS17 Proteins 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000007430 reference method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Description
この発明は、例えば、テレビ電話・テレビ会議などの画像通信用途に用いられる携帯および据置型画像通信機器などで用いられる動画像符号化/復号装置、デジタルVTR、ビデ
オサーバーなどの画像蓄積・記録装置などで用いられる動画像符号化/復号装置、単独ソフトウエアもしくはDSP(Digital Signal Processor)のファームウエアの形で実装され
る動画像符号化/復号プログラムなどに用いられる動画像の予測に関するものである。
オサーバーなどの画像蓄積・記録装置などで用いられる動画像符号化/復号装置、単独ソフトウエアもしくはDSP(Digital Signal Processor)のファームウエアの形で実装され
る動画像符号化/復号プログラムなどに用いられる動画像の予測に関するものである。
従来の動画像の符号化/復号方式における予測符号化/復号の例として、ISO/IEC JTC1/SC29/WG11にて標準化作業がすすめられているMPEG-4(Moving Picture Experts Group Phase-4)のビデオ符号化/復号参照方式(Verification Model、以下VM)があげられる。VMはMPEG-4の標準化作業の進行に伴って方式の内容が変化しているが、ここではVM Version5.0を想定し、以下単にVMと表現する。
VMは動画像シーケンスを時間/空間的に任意の形状をとる画像オブジェクトの集合体としてとらえ、各画像オブジェクトを単位として符号化/復号を行う方式である。VMにおけるビデオデータ構造を図29に示す。VMでは時間軸を含めた動画像オブジェクトをVideo Object(VO)と呼び、VOの各時刻の状態を表し符号化の単位となる画像データをVideo Object Plane(VOP)と呼ぶ。VOが時間的/空間的に階層性を持つ場合、特別にVOとVOPの間にVideo Object Layer(VOL)なる単位を設けてVO内の階層構造を表現するようになっている。
各VOPは形状情報とテクスチャ情報とに分離される。ただし、動画像シーケンス中でVOが
1つの場合、各VOPはフレームと同義となる。この場合は形状情報は存在せず、テクスチ
ャ情報だけが符号化/復号される。
各VOPは形状情報とテクスチャ情報とに分離される。ただし、動画像シーケンス中でVOが
1つの場合、各VOPはフレームと同義となる。この場合は形状情報は存在せず、テクスチ
ャ情報だけが符号化/復号される。
VOPは図30に示すように、形状情報をあらわすアルファデータとテクスチャ情報をあ
らわすテクスチャデータからなる構造を持つ。各データは、それぞれ16x16サンプルから
なるブロック(アルファブロック、マクロブロック)の集合体として定義される。アルファブロック内の各サンプルは8ビットで表現される。マクロブロックは、16x16サンプルの輝度信号に付随してそれに対応する色差信号を含む。動画像シーケンスからVOPデータを作り出す処理は本符号化装置外で行われるものとする。
らわすテクスチャデータからなる構造を持つ。各データは、それぞれ16x16サンプルから
なるブロック(アルファブロック、マクロブロック)の集合体として定義される。アルファブロック内の各サンプルは8ビットで表現される。マクロブロックは、16x16サンプルの輝度信号に付随してそれに対応する色差信号を含む。動画像シーケンスからVOPデータを作り出す処理は本符号化装置外で行われるものとする。
図31はVM符号化/方式によるVOP符号化装置の構成を示したものである。同図におい
て、P1は入力となる原VOPデータ、P2はVOPの形状情報をあらわすアルファブロック、P3aは入力された原VOPデータの形状情報の有無を伝えるためのスイッチ、P4はアル
ファブロックを圧縮符号化する形状符号化部、P5は圧縮アルファブロックデータ、P6は局所復号アルファブロック、P7はテクスチャデータ(マクロブロック)、P8は動き検出部、P9は動きパラメータ、P10は動き補償部、P11は予測画像候補、P12は予測モード選択部、P13は予測モード、P14は予測画像、P15は予測誤差信号、P16はテクスチャ符号化部、P17はテクスチャ符号化情報、P18は局所復号予測誤差信号、P19は局所復号マクロブロック、P20はスプライトメモリ更新部、P21はVOPメモリ、P22はスプライトメモリ、P23は可変長符号化・多重化部、P24はバッファ、P25は符号化ビットストリームである。
て、P1は入力となる原VOPデータ、P2はVOPの形状情報をあらわすアルファブロック、P3aは入力された原VOPデータの形状情報の有無を伝えるためのスイッチ、P4はアル
ファブロックを圧縮符号化する形状符号化部、P5は圧縮アルファブロックデータ、P6は局所復号アルファブロック、P7はテクスチャデータ(マクロブロック)、P8は動き検出部、P9は動きパラメータ、P10は動き補償部、P11は予測画像候補、P12は予測モード選択部、P13は予測モード、P14は予測画像、P15は予測誤差信号、P16はテクスチャ符号化部、P17はテクスチャ符号化情報、P18は局所復号予測誤差信号、P19は局所復号マクロブロック、P20はスプライトメモリ更新部、P21はVOPメモリ、P22はスプライトメモリ、P23は可変長符号化・多重化部、P24はバッファ、P25は符号化ビットストリームである。
また、図32にこの符号化装置の動作を要約したフローチャートを示す。
図31の符号化装置において、原VOPデータP1はまずアルファブロックP2、マクロ
ブロックP7に分離され(ステップPS2、ステップPS3)、アルファブロックP2は形状符号化部P4へ、マクロブロックP7は動き検出部P8へ送られる。形状符号化部P4はアルファブロックP2のデータ圧縮を行う処理ブロック(ステップPS4)であり、この発明は形状情報の圧縮方法に関わるものではないので、その処理の詳細はここでは省略する。
ブロックP7に分離され(ステップPS2、ステップPS3)、アルファブロックP2は形状符号化部P4へ、マクロブロックP7は動き検出部P8へ送られる。形状符号化部P4はアルファブロックP2のデータ圧縮を行う処理ブロック(ステップPS4)であり、この発明は形状情報の圧縮方法に関わるものではないので、その処理の詳細はここでは省略する。
形状符号化部P4の出力は圧縮アルファデータP5と局所復号アルファブロックP6で、前者は可変長符号化・多重化部P23に送られ,後者は動き検出部P8、動き補償部P10、予測モード選択部P12、テクスチャ符号化部P16にそれぞれ送られる。
動き検出部P8(ステップPS5)は、マクロブロックP7を受け取り、VOPメモリP
21に蓄積されている参照画像データと局所復号アルファブロックP6を用いて、マクロブロックごとにローカルな動きベクトルを検出する。ここで、動きベクトルは動きパラメータの一例である。VOPメモリP21には、すでに符号化されたVOPの局所復号画像が蓄積される。VOPメモリP21の内容は、マクロブロックの符号化が終わるごとに逐次その局
所復号画像で更新される。さらに動き検出部P8は、原VOPのテクスチャデータ全体を受
け取り、スプライトメモリP22に蓄積されている参照画像データと局所復号アルファデータを用いてグローバルなワーピングパラメータを検出する機能も併せ持つ。スプライトメモリP22については後で詳しく述べる。
21に蓄積されている参照画像データと局所復号アルファブロックP6を用いて、マクロブロックごとにローカルな動きベクトルを検出する。ここで、動きベクトルは動きパラメータの一例である。VOPメモリP21には、すでに符号化されたVOPの局所復号画像が蓄積される。VOPメモリP21の内容は、マクロブロックの符号化が終わるごとに逐次その局
所復号画像で更新される。さらに動き検出部P8は、原VOPのテクスチャデータ全体を受
け取り、スプライトメモリP22に蓄積されている参照画像データと局所復号アルファデータを用いてグローバルなワーピングパラメータを検出する機能も併せ持つ。スプライトメモリP22については後で詳しく述べる。
動き補償部P10(ステップPS6)は、動き検出部P8で検出した動きパラメータP9と局所復号アルファブロックP6を用いて予測画像候補P11を生成する。次いで、予測モード選択部P12において、予測誤差信号電力と原信号電力とを用いて当該マクロブロックの最終的な予測モードP13および予測画像P14を決定する(ステップPS7)。予測モード選択部P12ではイントラフレーム符号化/インターフレーム符号化のいずれかの符号化かという判定も行われる。
テクスチャ符号化部P16では、予測モードP13に基づいて、予測誤差信号P15または原マクロブロックそのものをDCT(Discrete Cosine Transform)、量子化し、得られた量子化DCT係数を予測後、または直接、可変長符号化・多重化部P23へ送り符号化す
る(ステップPS8,ステップPS9)。可変長符号化部・多重化部P23は、あらかじめ定められたシンタックスと可変長符号化コードとに従い、受け取ったデータをビットストリームに変換して多重化する(ステップPS10)。量子化DCT係数は、逆量子化、逆DCTを経て局所復号予測誤差信号P18にされた後、予測画像P14と加算され局所復号マクロブロックP19を得る(ステップPS11)。局所復号マクロブロックP19はVOP
メモリP21およびスプライトメモリP22に書き込まれ、以降のVOPの予測に用いられ
る(ステップPS12)。
る(ステップPS8,ステップPS9)。可変長符号化部・多重化部P23は、あらかじめ定められたシンタックスと可変長符号化コードとに従い、受け取ったデータをビットストリームに変換して多重化する(ステップPS10)。量子化DCT係数は、逆量子化、逆DCTを経て局所復号予測誤差信号P18にされた後、予測画像P14と加算され局所復号マクロブロックP19を得る(ステップPS11)。局所復号マクロブロックP19はVOP
メモリP21およびスプライトメモリP22に書き込まれ、以降のVOPの予測に用いられ
る(ステップPS12)。
以下では、予測を行う部分、特に予測方式と動き補償、スプライトメモリP22およびVOPメモリP21の更新制御について詳しく説明する。
(1)VMにおける予測方式
VMでは通常、図33に示すように4種類のVOPの符号化タイプがあり、それぞれのタイ
プごとに〇で示される予測方式をマクロブロックごとに選択できる。I-VOPでは予測をま
ったく行わず、すべてイントラフレーム符号化する。P-VOPは過去のVOPからの予測を行うことができる。B-VOPは、過去および未来のVOPを予測に使用できる。
VMでは通常、図33に示すように4種類のVOPの符号化タイプがあり、それぞれのタイ
プごとに〇で示される予測方式をマクロブロックごとに選択できる。I-VOPでは予測をま
ったく行わず、すべてイントラフレーム符号化する。P-VOPは過去のVOPからの予測を行うことができる。B-VOPは、過去および未来のVOPを予測に使用できる。
以上の予測はすべて動きベクトルによる予測である。一方、Sprite-VOPはスプライトメモリを用いた予測が可能である。スプライトとは、下式
x’=(a x + b y + c)/(g x + h y + 1)
y’=(d x + e y + f)/(g x +h y + 1)に示すワーピングパラメータセット
x’=(a x + b y + c)/(g x + h y + 1)
y’=(d x + e y + f)/(g x +h y + 1)に示すワーピングパラメータセット
をVOP単位に検出し(→はベクトルを示す。以下、同じ)、これに基づいてVOPを順次混合していくことにより生成する画像空間であり、スプライトメモリP22に蓄積される。
ここで、(x,y)は原VOPの2次元座標上での画素位置、(x’,y’)はワーピングパラメ
ータによって(x,y)に対応付けられるスプライトメモリ中の画素位置である。Sprite-VOPの各マクロブロックでは、このワーピングパラメータセットを統一的に用いて、スプライトメモリ中の(x’,y’)を決定して予測画像を生成して予測を行うことができる。厳密には、スプライトには、予測に用いる「ダイナミックスプライト」と、予測に用いるとともに、復号側で近似的にVOPを合成する目的で用いる「スタティックスプライト」の区別が
あるが、以下に述べる図34〜図37では、ダイナミックスプライトを「スプライト」の意味で用いる。
ータによって(x,y)に対応付けられるスプライトメモリ中の画素位置である。Sprite-VOPの各マクロブロックでは、このワーピングパラメータセットを統一的に用いて、スプライトメモリ中の(x’,y’)を決定して予測画像を生成して予測を行うことができる。厳密には、スプライトには、予測に用いる「ダイナミックスプライト」と、予測に用いるとともに、復号側で近似的にVOPを合成する目的で用いる「スタティックスプライト」の区別が
あるが、以下に述べる図34〜図37では、ダイナミックスプライトを「スプライト」の意味で用いる。
動き検出部P8では、以上の予測に用いる動きベクトルおよびワーピングパラメータを検出する。動きベクトルおよびワーピングパラメータを動きパラメータP9という言葉で総称する。
(2)動き補償部
動き補償部P10は例えば図34に示すような内部構成をとる。同図において、P26はワーピングパラメータ、P27は動きベクトル、P28はグローバル動き補償部、P29はローカル動き補償部、P30はワーピングパラメータによる予測画像候補、P31は動きベクトルによる予測画像候補である。予測画像候補P11をワーピングパラメータによる予測画像候補P30および動きベクトルによる予測画像候補P31を総称する言葉とする。
動き補償部P10は例えば図34に示すような内部構成をとる。同図において、P26はワーピングパラメータ、P27は動きベクトル、P28はグローバル動き補償部、P29はローカル動き補償部、P30はワーピングパラメータによる予測画像候補、P31は動きベクトルによる予測画像候補である。予測画像候補P11をワーピングパラメータによる予測画像候補P30および動きベクトルによる予測画像候補P31を総称する言葉とする。
動き補償部P10の動作を要約するフローチャートを図35のステップPS14からステップPS21に示す。
動き補償部P10では、マクロブロックP7ごとに動き検出部P8で検出されたVOP全
体のワーピングパラメータP26またはマクロブロック単位の動きベクトルP27を用いて予測画像候補P11を生成する。グローバル動き補償部P28においてワーピングパラメータP26を用いた動き補償を行い、ローカル動き補償部P29において動きベクトルP27を用いた動き補償を行う。
体のワーピングパラメータP26またはマクロブロック単位の動きベクトルP27を用いて予測画像候補P11を生成する。グローバル動き補償部P28においてワーピングパラメータP26を用いた動き補償を行い、ローカル動き補償部P29において動きベクトルP27を用いた動き補償を行う。
I-VOPでは動き補償部P10は動作しない(ステップPS14からステップPS21へ
行く)。I-VOP以外のとき、ローカル動き補償部P29が動作し、動きベクトルP27を
用いてVOPメモリP21内の過去のVOP局所復号画像から予測画像候補(PR1)を取り出す(
ステップPS15)。P-VOPではこの予測画像候補(PR1)のみを用いることになる。
行く)。I-VOP以外のとき、ローカル動き補償部P29が動作し、動きベクトルP27を
用いてVOPメモリP21内の過去のVOP局所復号画像から予測画像候補(PR1)を取り出す(
ステップPS15)。P-VOPではこの予測画像候補(PR1)のみを用いることになる。
ステップPS16でB-VOPであるとされた場合は、さらにローカル動き補償部P29に
おいて、動きベクトルP27を用いてVOPメモリP21内の未来のVOP局所復号画像から予測画像候補(PR2)を取り出すとともに(ステップPS17)、過去および未来のVOP局所復号画像から得た予測画像候補を加算平均して予測画像候補(PR3)を得る(ステップPS1
8)。
おいて、動きベクトルP27を用いてVOPメモリP21内の未来のVOP局所復号画像から予測画像候補(PR2)を取り出すとともに(ステップPS17)、過去および未来のVOP局所復号画像から得た予測画像候補を加算平均して予測画像候補(PR3)を得る(ステップPS1
8)。
また、ダイレクト予測(ITU-T勧告 H.263符号化方式におけるBフレーム相当の予測方式に基づく予測。組になるP-VOPのベクトルからBフレーム用のベクトルを作る。ここでは詳細の記述は省略する)についても同様に予測画像候補(PR4)を生成する(ステップPS19)。図34において、動きベクトルによる予測画像候補P31は上記予測画像候補PR1か
らPR4の一部またはすべてを総称するものとする。
らPR4の一部またはすべてを総称するものとする。
I-VOPでもB-VOPでもない場合はSprite-VOPであり、VOPメモリから動きベクトルを用い
て予測画像候補(PR1)を取り出すとともに、ステップPS20でグローバル動き補償部P
28においてワーピングパラメータP26を用いてスプライトメモリP22から予測画像候補P30を取り出す。
て予測画像候補(PR1)を取り出すとともに、ステップPS20でグローバル動き補償部P
28においてワーピングパラメータP26を用いてスプライトメモリP22から予測画像候補P30を取り出す。
グローバル動き補償部P28はワーピングパラメータP26からスプライトメモリP22中の予測画像候補が存在するアドレスを計算し、これに基づいてスプライトメモリP22から予測画像候補P30を取り出して出力する。ローカル動き補償部P29は動きベクトルP27からVOPメモリP21中の予測画像が存在するアドレスを計算し、これに基づ
いてVOPメモリP21から予測画像候補P31を取り出して出力する。
いてVOPメモリP21から予測画像候補P31を取り出して出力する。
これらの予測画像候補P11は、予測モード選択部P12においてテクスチャデータP7のイントラフレーム符号化信号を含めて評価され、最も予測誤差信号電力の小さい予測画像候補と予測モードが選択される。
(3)メモリ更新
メモリ更新制御(ステップPS12)はメモリ更新部P20で行われ、VOPメモリP2
1およびスプライトメモリP22の更新を行う。これらのメモリ内容の更新は、マクロブロック単位に選択された予測モードP13に関係なく行われる。
メモリ更新制御(ステップPS12)はメモリ更新部P20で行われ、VOPメモリP2
1およびスプライトメモリP22の更新を行う。これらのメモリ内容の更新は、マクロブロック単位に選択された予測モードP13に関係なく行われる。
メモリ更新部P20の内部構成を図36に、メモリ更新部P20の動作を示すフローチャートを図37のステップPS22からステップPS28に示す。
図36において、P32は外部から与えられるVOP符号化タイプ、P33はスプライト
メモリを用いた予測をするかしないかを示す、外部から与えられるスプライト予測識別フラグ、P34はスプライトメモリを用いた予測に用いられる、外部から与えられるブレンド係数、P35はスイッチ、P36はスイッチ、P37はスプライト合成部、P38はスプライト変形処理部、P39はVOPメモリ更新信号、P40はスプライト更新信号である
。
メモリを用いた予測をするかしないかを示す、外部から与えられるスプライト予測識別フラグ、P34はスプライトメモリを用いた予測に用いられる、外部から与えられるブレンド係数、P35はスイッチ、P36はスイッチ、P37はスプライト合成部、P38はスプライト変形処理部、P39はVOPメモリ更新信号、P40はスプライト更新信号である
。
まず、スプライト予測識別フラグP33により、当該VOまたはVOLでスプライトを使用
すると指定されているかどうかがチェックされ(ステップPS22)、スプライトを用いない場合、B-VOPかチェックされ(ステップPS27)、B-VOPならばVOPメモリP21の
更新は全く行わない。I-VOPまたはP-VOPでは、マクロブロックごとに局所復号マクロブロックP19をVOPメモリP21に上書きする(ステップPS28)。
すると指定されているかどうかがチェックされ(ステップPS22)、スプライトを用いない場合、B-VOPかチェックされ(ステップPS27)、B-VOPならばVOPメモリP21の
更新は全く行わない。I-VOPまたはP-VOPでは、マクロブロックごとに局所復号マクロブロックP19をVOPメモリP21に上書きする(ステップPS28)。
一方、ステップPS22のチェックにおいてスプライトを用いるとされた場合は、まず上記と同様のVOPメモリP21の更新が行われた後(ステップPS23,ステップPS2
4)、以下の手順に従ってスプライトメモリP22の更新が行われる。
a)スプライトのワーピング(ステップPS25)
まず、スプライト変形処理部P38において、スプライトメモリ上の領域(当該VOPの
時刻をtとしたときの、スプライトメモリ上の位置を原点とするVOPと同面積の領域)
4)、以下の手順に従ってスプライトメモリP22の更新が行われる。
a)スプライトのワーピング(ステップPS25)
まず、スプライト変形処理部P38において、スプライトメモリ上の領域(当該VOPの
時刻をtとしたときの、スプライトメモリ上の位置を原点とするVOPと同面積の領域)
を、ワーピングパラメータ
によってワーピング(変形)させる。
b)スプライトのブレンド(ステップPS26)
上記a)の結果得られたワーピング画像を用いて、スプライト合成部P37において、下式に従って新しいスプライトメモリ領域
b)スプライトのブレンド(ステップPS26)
上記a)の結果得られたワーピング画像を用いて、スプライト合成部P37において、下式に従って新しいスプライトメモリ領域
を求める。ここで、
α:ブレンド係数P34
α:ブレンド係数P34
である。
ただし、局所復号マクロブロック中でVOPに属さない領域については、
とみなす。ブレンド係数αはVOP単位で与えられるので、局所復号VOPは、VOP領域の内容
の如何に関わらず、αに基づく比重で、一括してスプライトメモリに合成される。
特開平8−172631号公報
特開平7−184206号公報
如澤裕尚、"MPEG−4の符号化効率"、1996年テレビジョン学会映像メディア部門冬期大会講演予稿集、社団法人テレビジョン学会、1996年12月、p.39−44
の如何に関わらず、αに基づく比重で、一括してスプライトメモリに合成される。
以上のような従来の符号化方式における予測方式では、動画像オブジェクトの予測に際して、動きベクトルの検出しか行わないメモリとワーピングパラメータの検出しか行わないメモリとを最大1画面ずつだけしか使用できない構成になっているため、予測に用いることのできる参照画像をごく限られた方法でしか使用しておらず、予測効率を十分に向上させることができない。
また、複数の動画像オブジェクトを同時に符号化するようなシステムにおいても、これらのメモリには、予測される動画像オブジェクト自身の履歴を示す参照画像しか含まれないので、参照画像のバリエーションが限定されるとともに、動画像オブジェクト間の相関を利用して予測を行うことができない。
さらに、メモリの更新に際しても、動画像オブジェクトの内部構造や性質、履歴等に関係なくメモリが書き換えられるため、動画像オブジェクトを予測する上で重要な知識を十分にメモリに蓄積できておらず、予測効率の向上が図れないという問題があった。
この発明は前記問題点を解決するためになされたものであり、画像データを符号化/復号する場合、複数のメモリを設けて、動画像シーケンスの内部構造、性質などを考慮して、複数のメモリに効果的に動画像シーケンスの履歴を蓄積して、予測および符号化/復号の効率を高めるとともに、複数の動画像オブジェクト間で予測が行える構造を設けてより柔軟な予測方式を提供することを目的とする。
この発明に係る動画像を予測する動画像予測装置は、
予測に使用される参照画像の画像データを各々記憶するための複数の参照画像メモリエリアと、
予測される画像と参照画像メモリに記憶された参照画像との間の動きを示すパラメータ、予測に使用される参照画像メモリエリアを示すパラメータ、を受信するとともに、複数のメモリエリアに記憶され予測に使用する参照画像メモリエリアを示すパラメータによって示された参照画像を用いて予測画像を生成し、予測に使用する参照画像エリアを示すパラメータの符号割り当てを決定するパラメータを生成する動き補償部、を有する予測画像生成部と、
を備えたことを特徴とする。
予測に使用される参照画像の画像データを各々記憶するための複数の参照画像メモリエリアと、
予測される画像と参照画像メモリに記憶された参照画像との間の動きを示すパラメータ、予測に使用される参照画像メモリエリアを示すパラメータ、を受信するとともに、複数のメモリエリアに記憶され予測に使用する参照画像メモリエリアを示すパラメータによって示された参照画像を用いて予測画像を生成し、予測に使用する参照画像エリアを示すパラメータの符号割り当てを決定するパラメータを生成する動き補償部、を有する予測画像生成部と、
を備えたことを特徴とする。
この発明に係る動画像予測方法は、
予測画像生成に用いる参照画像をそれぞれ複数のメモリに記憶する記憶ステップと、
予測される画像と参照画像メモリに記憶された参照画像との間の動きを示すパラメータ、予測に使用される参照画像メモリエリアを示すパラメータ、を受信するするとともに、複数のメモリエリアに記憶され予測に使用する参照画像メモリエリアを示すパラメータによって示された参照画像を用いて予測画像を生成し、予測に使用する参照画像エリアを示すパラメータの符号割り当てを決定するパラメータを生成する動き補償ステップと、
を備えたことを特徴とする。
予測画像生成に用いる参照画像をそれぞれ複数のメモリに記憶する記憶ステップと、
予測される画像と参照画像メモリに記憶された参照画像との間の動きを示すパラメータ、予測に使用される参照画像メモリエリアを示すパラメータ、を受信するするとともに、複数のメモリエリアに記憶され予測に使用する参照画像メモリエリアを示すパラメータによって示された参照画像を用いて予測画像を生成し、予測に使用する参照画像エリアを示すパラメータの符号割り当てを決定するパラメータを生成する動き補償ステップと、
を備えたことを特徴とする。
前記動画像予測装置において、前記符号割り当ては可変であることを特徴とする。
前記動画像予測方法において、前記符号割り当ては可変であることを特徴とする。
実施の形態1.
図1は実施の形態1及び後述する実施の形態における符号化装置の構成を示すブロック図である。同図において、1は入力動画像信号、2はテクスチャデータ、3は動き検出部、4は動きパラメータ、5は動き補償部、6は予測画像候補、7は予測モード選択部、8は予測モード、9は予測画像、10は予測誤差画像、11はテクスチャ符号化部、12は量子化DCT係数、13は局所復号された予測誤差画像、14は局所復号画像、15はメモ
リ更新部、16はメモリa、17はメモリb、18はメモリc、19は可変長符号化・多重化部、20は送信バッファ、21はビットストリーム、80はシーンチェンジ検出部、81はタイマーである。このうち動き補償部5およびメモリ更新部15が予測方式を実現する予測画像生成部100である。また、メモリa,b,cがメモリ領域200である。図中この実施の形態で取り上げない部分については後の実施の形態で説明する。図2は、この符号化装置の動作の流れを示すフローチャートである。
図1は実施の形態1及び後述する実施の形態における符号化装置の構成を示すブロック図である。同図において、1は入力動画像信号、2はテクスチャデータ、3は動き検出部、4は動きパラメータ、5は動き補償部、6は予測画像候補、7は予測モード選択部、8は予測モード、9は予測画像、10は予測誤差画像、11はテクスチャ符号化部、12は量子化DCT係数、13は局所復号された予測誤差画像、14は局所復号画像、15はメモ
リ更新部、16はメモリa、17はメモリb、18はメモリc、19は可変長符号化・多重化部、20は送信バッファ、21はビットストリーム、80はシーンチェンジ検出部、81はタイマーである。このうち動き補償部5およびメモリ更新部15が予測方式を実現する予測画像生成部100である。また、メモリa,b,cがメモリ領域200である。図中この実施の形態で取り上げない部分については後の実施の形態で説明する。図2は、この符号化装置の動作の流れを示すフローチャートである。
この実施の形態では複数、例えば3つのメモリ、を入力動画像の動き量・色度等の画像の特徴に基づく重要度に応じて使い分け、かつ任意の時間間隔で任意のメモリ(領域)、例えばメモリa、の内容を更新する仕組みを設ける。また、動画像シーケンスはフレーム単位に入力されるものとする。
(1)入力信号
上述のごとく、上記符号化装置は動画像シーケンスの各時刻の画像を表すフレームを単位に入力し、フレームは被予測画像領域の一例である符号化単位となるマクロブロックに分割される(ステップS1)。
上述のごとく、上記符号化装置は動画像シーケンスの各時刻の画像を表すフレームを単位に入力し、フレームは被予測画像領域の一例である符号化単位となるマクロブロックに分割される(ステップS1)。
(2)メモリの使い分け方
メモリには、過去に復号済みの画像や、またはあらかじめ固定的に与えられた画像が蓄積されるが、この実施の形態では、フレーム中の部分領域の重要度に応じて、3つのメモリを以下のように使い分ける。
メモリa:重要度小の画像領域(=動きが静止または均一で、かつテクスチャが均一な背景的画像領域)を蓄積する。
メモリb:重要度中の画像領域(=被写体の動きで、比較的動きの小さい画像領域)を蓄積する。
メモリc:重要度大の画像領域(=被写体の動きで、動きの大きな画像領域)を蓄積する。
メモリには、過去に復号済みの画像や、またはあらかじめ固定的に与えられた画像が蓄積されるが、この実施の形態では、フレーム中の部分領域の重要度に応じて、3つのメモリを以下のように使い分ける。
メモリa:重要度小の画像領域(=動きが静止または均一で、かつテクスチャが均一な背景的画像領域)を蓄積する。
メモリb:重要度中の画像領域(=被写体の動きで、比較的動きの小さい画像領域)を蓄積する。
メモリc:重要度大の画像領域(=被写体の動きで、動きの大きな画像領域)を蓄積する。
メモリaに蓄積される重要度小の画像領域は、テレビ会議のシーンなどに出てくる背景画像領域と考えることができる。また、ある微少な動きを伴う被写体を含み、カメラ操作によって画面全体の均一な動きが含まれるようなシーンにおける背景領域にも相当する。これらの動きはマクロブロックという小さな単位よりもあらかじめフレーム全体の動きを求めて、それをマクロブロックの動きとして代用すると効率的である。すなわち、従来例に述べたスプライトにおけるワーピングパラメータに相当する変形パラメータを求め、フレーム全体の変形パラメータを各マクロブロックの動きパラメータとみなすことにする。動きパラメータは、単なる平行移動パラメータ(=動きベクトルと同義)でもよいし、変形を含んだアフィン、遠近法動きパラメータなどであってもよい。ここで、動きベクトルは動きパラメータの一例である。
メモリbに蓄積される重要度中の画像領域は例えばテレビ会議のシーンにおいて発言をせずに体だけが動いているような人物の画像領域で、画面中の注目度が低い被写体領域と考えることができる。メモリcに蓄積される重要度大の画像領域は例えばテレビ会議のシーン中、発言者などもっとも注目度が高い被写体領域と考えることができる。
メモリb、cに蓄積される領域は被写体固有の動きを持つため、マクロブロックごとに異なる動きパラメータを持つと考えるのが自然である。この際の動きパラメータは、単なる平行移動パラメータ(=動きベクトルと同義)でもよいし、変形を含んだアフィン、遠近法動きパラメータなどであってもよい。
(3)動き検出(ステップS2)
この実施の形態における動き検出部3は、従来例のような動きベクトルとワーピングパラメータという区別を取り去り、3つのメモリすべてについて任意の変形パラメータをマクロブロック単位に検出できるようにする。また、動き検出部3はメモリaを用いてフレーム全体の変形パラメータを検出するグローバル動きパラメータ検出と、メモリaからcを用いてマクロブロックごとの変形パラメータを検出するローカル動きパラメータ検出の機能を備える。
この実施の形態における動き検出部3は、従来例のような動きベクトルとワーピングパラメータという区別を取り去り、3つのメモリすべてについて任意の変形パラメータをマクロブロック単位に検出できるようにする。また、動き検出部3はメモリaを用いてフレーム全体の変形パラメータを検出するグローバル動きパラメータ検出と、メモリaからcを用いてマクロブロックごとの変形パラメータを検出するローカル動きパラメータ検出の機能を備える。
(4)動き補償(ステップS3)
この実施の形態における動き補償部5の内部構成を図3に示す。同図において、22は予測画像メモリアドレス算出部、23は予測画像メモリアドレス、24はメモリ読み出し部、25は外部から与えられる参照メモリ指示信号である。ここでは、参照メモリ指示信号25は、メモリa,b,cを使用することを指示しているものとする。この動き補償部5の動作を記したフローチャートを図4のステップS11からステップS16に示す。
この実施の形態における動き補償部5の内部構成を図3に示す。同図において、22は予測画像メモリアドレス算出部、23は予測画像メモリアドレス、24はメモリ読み出し部、25は外部から与えられる参照メモリ指示信号である。ここでは、参照メモリ指示信号25は、メモリa,b,cを使用することを指示しているものとする。この動き補償部5の動作を記したフローチャートを図4のステップS11からステップS16に示す。
まずI(Intra)-フレームならば、動き補償を行わない(ステップS11)。I-フレームでなければ、動き検出部3で検出されたグローバル動きパラメータならびに各メモリに基づくローカル動きパラメータをもとに予測画像候補を生成する(ステップS12からステップS15)。具体的には、予測画像メモリアドレス算出部22において、参照メモリ指示信号25で指示されるメモリ中の予測画像候補が存在する予測画像メモリアドレス23を動きパラメータ4に基づいて計算し、予測画像メモリアドレス23によってメモリ読み出し部24が対応するメモリから予測画像候補6を取り出して出力する。
この実施の形態においてはグローバル動きパラメータもローカル動きパラメータも同一の変形方式に基づくので、いずれの予測画像生成も図3の動き補償部5を共有して用いることができる。なお、グローバル動きパラメータにより予測画像候補6を生成する場合(ステップS15)は、常にメモリaが参照メモリとして用いられる。
(5)予測モードの選択(ステップS4)
この実施の形態における予測モードは、
(a)メモリaを使用するモード、
(b)メモリbを使用するモード、
(c)メモリcを使用するモード、
(d)イントラフレーム符号化信号を使用するモード
があるものとする。予測モード選択部7は、例えば従来例に示したように、動き補償部5によって生成されるすべての予測画像候補6とイントラフレーム符号化信号を含めて、最も予測誤差信号の電力(振幅)の小さい予測画像候補6を選択して予測画像9として出力する。また、選択した予測画像9に対応する予測モード8を出力する。この予測モード8の情報の中には、選択した予測画像9を予測したメモリを示すメモリ選択情報も含まれている。予測モード8は可変長符号化・多重化部19へ送られ、割り当てられた符号長で予測メモリ指示情報800としてビットストリーム21の中に符号化される。
この実施の形態における予測モードは、
(a)メモリaを使用するモード、
(b)メモリbを使用するモード、
(c)メモリcを使用するモード、
(d)イントラフレーム符号化信号を使用するモード
があるものとする。予測モード選択部7は、例えば従来例に示したように、動き補償部5によって生成されるすべての予測画像候補6とイントラフレーム符号化信号を含めて、最も予測誤差信号の電力(振幅)の小さい予測画像候補6を選択して予測画像9として出力する。また、選択した予測画像9に対応する予測モード8を出力する。この予測モード8の情報の中には、選択した予測画像9を予測したメモリを示すメモリ選択情報も含まれている。予測モード8は可変長符号化・多重化部19へ送られ、割り当てられた符号長で予測メモリ指示情報800としてビットストリーム21の中に符号化される。
(6)メモリの更新
メモリの更新はメモリ更新部15で制御される。この実施の形態におけるメモリ更新部15の内部構成を図5に示す。同図において、26はメモリaの更新に用いるアクティビティ(詳細は後述する)、27はメモリa更新判定部、28は参照メモリ選択部、29、30はスイッチ、31はメモリaを更新する画像データ、32はメモリbを更新する画像データ、33はメモリcを更新する画像データ、34はメモリaを更新するグローバル予測画像データである。また、メモリ更新の動作フローを図6に示す。
メモリの更新はメモリ更新部15で制御される。この実施の形態におけるメモリ更新部15の内部構成を図5に示す。同図において、26はメモリaの更新に用いるアクティビティ(詳細は後述する)、27はメモリa更新判定部、28は参照メモリ選択部、29、30はスイッチ、31はメモリaを更新する画像データ、32はメモリbを更新する画像データ、33はメモリcを更新する画像データ、34はメモリaを更新するグローバル予測画像データである。また、メモリ更新の動作フローを図6に示す。
この実施の形態におけるメモリ更新は以下の手順を踏む。メモリ更新部15は局所復号画像14を入力すると、メモリa更新判定部27において該局所復号画像14が属するフレームに対するメモリa更新の必要性を判定し(ステップS17)、参照メモリ選択部28において予測モード8に基づき予測に使用したメモリを選択し(ステップS18、S19)、選択されたメモリ内の参照画像を該局所復号画像14のメモリaを更新する画像データ31、メモリbを更新する画像データ32、メモリcを更新する画像データ33、メモリaを更新するグローバル予測画像データ34のいずれかを用いて下記のルールで更新する。なお、該メモリ更新は予測単位(マクロブロック単位)でフレーム毎に行われる。
(1)メモリb、cの毎フレーム更新(ステップS20、S21)
当該画像の予測に用いたメモリbまたはメモリcに、局所復号画像14を書き込む。
(2)メモリaの任意フレーム更新(ステップS22、S23)
当該画像の予測に用いたメモリaにステップS17のメモリa更新判定結果1000に基づき、任意のフレームについてのみ、または任意の時間間隔で局所復号画像14を書き込む。
当該画像の予測に用いたメモリbまたはメモリcに、局所復号画像14を書き込む。
(2)メモリaの任意フレーム更新(ステップS22、S23)
当該画像の予測に用いたメモリaにステップS17のメモリa更新判定結果1000に基づき、任意のフレームについてのみ、または任意の時間間隔で局所復号画像14を書き込む。
メモリaの内容はいわば背景画像などの時不変画像領域の履歴であり、シーンチェンジや画面全体の大きな動きなどによって領域の内容がおおきく変化することでもない限り、メモリ内容の更新の必要がない。
上述のように被写体などの動領域についてはフレーム単位で逐次更新し、メモリaの内容はより長い時間間隔で更新する仕組みを備えておけば、被写体の動きによって見え隠れする背景画像などの予測に効果的である。
この実施の形態では、以上の観点からメモリaの更新を任意の時間間隔で行う仕組みを設ける。具体的には例えば、
a.グローバル動きパラメータの大きさに基づき、動きが大きい場合は画面全体の内容を一斉に更新し、動きが小さい場合は内容を更新しない方法、
b.フレーム間の時間間隔に限定されず、ある一定時間ごとに画面全体の内容を一斉に更新する方法、
c.シーンチェンジを検出した場合、シーンチェンジ直後のフレームで画面全体の内容を一斉に更新する方法
などの任意更新判定基準が考えられる。
a.グローバル動きパラメータの大きさに基づき、動きが大きい場合は画面全体の内容を一斉に更新し、動きが小さい場合は内容を更新しない方法、
b.フレーム間の時間間隔に限定されず、ある一定時間ごとに画面全体の内容を一斉に更新する方法、
c.シーンチェンジを検出した場合、シーンチェンジ直後のフレームで画面全体の内容を一斉に更新する方法
などの任意更新判定基準が考えられる。
この実施の形態では、以上のような任意更新判定基準になるデータをメモリaの更新に用いるアクティビティ26という言葉で総称する。まず、メモリa更新判定部27はアクティビティ26を用いてメモリaの内容を更新するかどうかを判定する(ステップS17)。上記任意更新判定基準aの場合は動き検出部3で検出されたグローバル動きパラメータの値がアクティビティとなり、任意更新判定基準bの場合はタイマー81からの当該フレームのタイムスタンプが、任意更新判定基準cの場合はシーンチェンジ検出部80から出力されるシーンチェンジ検出を知らせるフラグがアクティビティ26に相当する。
メモリaの内容を更新すると判断された場合は、局所復号画像14の内容がグローバル予測画像データ34として出力されてメモリaの内容を書きかえる(ステップS23)。メモリaの内容を更新すると判断されなかった場合は、メモリaの更新を行わない。
なお、当該フレームにおけるメモリa更新判定結果1000は復号側で同様の任意更新を行うことができるよう、ビットストリーム21に多重化されて復号側に伝送される。
図20は、この実施の形態のビットストリーム21を示す図である。
図20においては、フレームデータが順に符号化されて転送される様子を概念的に示している。各フレームデータの先頭には、フレーム単位の付加情報としてヘッダ情報が付け加えられている。また、ヘッダ情報には、メモリa更新判定結果1000が多重化されて復号側に伝送される。ヘッダ情報の後からは、そのフレームを構成するマクロブロックデータが続いている。マクロブロックデータの内部には、そのマクロブロックデータを予測するために用いられたメモリを示す予測メモリ指示情報800が含まれている。復号装置においては、各マクロブロックデータの予測メモリ指示情報800に基づいて、予測画像を予測するメモリを特定して予測画像を生成する。
また、図示していないが、メモリa更新判定結果1000とともに、或いは、その代わりに、メモリb更新情報、及び/又はメモリc更新情報を復号側に転送するようにしても構わない。
以上述べた符号化装置により、動画像シーケンスの内容に応じて複数のメモリを効率的に使い分ける仕組みが供給され、予測効率を向上させることができる。すなわち、動画像シーケンスの予測に際して、動画像シーケンスの内容や性質によって複数のメモリを使い分けて任意の変形パラメータに基づいた予測を行うので、複雑な動きまでもカバーして局所的な画像の性質に追随した効率的な動画像予測が行え、予測効率が向上し、符号化画像の品質を保ちつつ符号化データの発生量を低減させる符号化装置を構成することができる。また、この発明の予測方式に基づいて符号化されたビットストリームを復号する復号装置においても同様の予測方式により構成することができる。
この実施の形態ではフレームごとに符号化する装置について述べたが、任意の形状を持つ動画像オブジェクト(VOP)を符号化する装置についても同様の効果が期待できる。
また、この実施の形態では被予測画像領域の一例としてマクロブロックを単位とした符号化装置について述べたが、任意の形状を持つ部分画像などの画像単位または複数個の固定サイズブロックの組み合わせによって構成される可変形状のブロックなどの画像単位で画像を符号化する装置についても、同様の効果が期待できる。
また、この実施の形態では、メモリaを用いたグローバル動きパラメータ検出を用いたが、これを用いずにローカル動き検出だけを用いる構成でも適用可能であることは言うまでもない。グローバル動き検出を行わない場合は、予測モードとしてグローバル/ローカル予測の判別情報は伝送する必要がない。
また、この実施の形態において、あらかじめ動画像シーケンスの内容に基づいて生成した参照画像データを蓄積して符号化中に更新を行わないメモリを設け、それを予測に用いる構成もとることができる。
また、この実施の形態においては、メモリa,b,cに対してそれぞれ部分領域を蓄積するようにしてメモリ更新部15によるメモリ更新は、メモリa,b,cのいずれか1つのメモリに対して行う場合を示したが、メモリa,b,cが画像の一部分、或いは、全部を共有して画像を蓄積するような場合には、メモリ更新部15は、メモリa,b,cのうち2つのメモリ、或いは、全てのメモリを更新する。例えば、メモリaが1フレームの参照画像データを蓄積するフレームメモリであり、メモリbが逐次更新を伴わないスタティックスプライトメモリであり、メモリcが逐次更新を伴うダイナミックスプライトメモリである場合には、スタティックスプライトメモリは、予め固定的なデータを参照画像データとして蓄積しているため、メモリbはメモリ更新部15によっては更新されないが、メモリaとメモリcが同一領域の参照画像データを蓄積している場合には、メモリ更新部15は、メモリaとメモリcを同時に更新することになる。このように、メモリa,b,cが参照画像データを重複して蓄積している場合には、重複した領域をそれぞれメモリ更新部15が更新する。
以上のことは、以下に述べる実施の形態においても同様である。
また、この実施の形態では、3つのメモリa,b,cを用いる場合を示したが、いずれか2つのメモリを用いる場合であっても構わない。
また、この実施の形態で述べた動き補償部5、メモリ更新部15とまったく同一の部材を有する予測画像生成部100を用いた復号装置を構成することもできる。復号装置に用いられる場合は、動き補償部は3つの全ての予測画像候補を生成する必要はなく復号された動きパラメータに関わる予測画像だけを生成すればよい。
実施の形態2.
次に、図1に示した構成の符号化装置において、動き補償部5の構成だけ別の構成とした符号化装置の実施形態を示し、実施の形態2の動き補償部5aの構成と動作について述べる。
次に、図1に示した構成の符号化装置において、動き補償部5の構成だけ別の構成とした符号化装置の実施形態を示し、実施の形態2の動き補償部5aの構成と動作について述べる。
この実施の形態における動き補償部5aの内部構成を図7に示す。同図において、35は参照メモリ決定部である。またこの動き補償部5aの詳細な動作を記したフローチャートを図8に示す。
まず、I-フレームならば動き補償を行わない(ステップS24)。I-フレームでなければ、参照メモリ決定部35は動きパラメータ4の値に基づいて参照メモリを決定する(ステップS25)。参照メモリ決定部35は各メモリa,b,cに割り当てられている有効動きパラメータ値域(詳細は後述する)を保持しており、動きパラメータ4の値と比較することによって、当該動きパラメータ4がどのメモリを指しているかを判断し、メモリa,b,cを識別する参照メモリ指示信号25aを出力する。
有効動きパラメータ値域とは、例えば動きベクトルを検出する場合、その探索範囲が±15画素だとすると、±0から3画素の範囲ではメモリaを、±4から8画素の範囲ではメモリbを、±9から15画素の範囲ではメモリcを予測に用いるようにするというような、各メモリごとの有効探索範囲を意味する。ただし、グローバル動きパラメータで予測画像を生成する場合は参照メモリはメモリaと決まっているので、参照メモリ決定部35を起動するのはローカル動きパラメータを用いるときのみとする。このように、動きベクトルの値で予測に用いるメモリを特定するのは、背景画像は動きが少なく、注目度が高い画像ほど動きが大きくなるはずであるという前提に基づくものである。このように、動きベクトルの値で予測に用いるメモリを特定する場合は、予測モードを符号化して伝送する必要がない。
次いで、選択された参照メモリ指示信号25aにしたがって予測画像候補6が生成される(ステップS26からステップS30)。具体的には、予測画像メモリアドレス算出部22において、参照メモリ指示信号25aで指示されるメモリ中の予測画像候補6が存在する予測画像メモリアドレス23を動きパラメータ4に基づいて計算し、予測画像メモリアドレス23によってメモリ読み出し部24が対応するメモリから予測画像候補6を取り出して出力する。
この実施の形態においてはグローバル動きパラメータもローカル動きパラメータも同一の変形方式に基づくので、いずれの予測画像生成も図7の動き補償部5aを共有して用いることができる。なお、グローバル動きパラメータにより予測画像候補6を取り出す場合(ステップS31)は、常にメモリaが参照メモリとして用いられる。
有効動きパラメータ値域は、動画像シーケンス毎に一定値域でもよいが、たとえば、各フレーム毎に変更してもよい。各フレーム毎に変更する場合は、当該フレームにおける各メモリの有効動きパラメータ値域は、復号側で同様のメモリ選択を行うことができるよう、ビットストリームに多重化されて復号側に伝送される。
図21は、この実施の形態のビットストリーム21を示す図である。
このビットストリームの先頭には、動画像シーケンス単位に付加されたヘッダ情報がある。このヘッダ情報は、各メモリの有効動きパラメータ値域指示情報を有している。このように、動画像シーケンスの先頭に有効動きパラメータ値域指示情報を指定することにより、その動画像シーケンスに対して一定値域の有効動きパラメータ値域を用いた予測方式を復号装置で行うことができる。
フレーム毎に有効動きパラメータ値域を変更する場合は、フレーム単位に付加されたヘッダ情報の中に有効動きパラメータ指示情報を含ませればよい。
以上述べた動き補償部5aの構成を持つ符号化装置により、フレームの局所的な動きの程度に応じて複数のメモリを効率的に使い分ける仕組みが供給され、予測効率を向上させることができる。
この実施の形態ではフレームごとに符号化する装置について述べたが、任意の形状を持つ動画像オブジェクト(VOP)を符号化する装置についても同様の効果が期待できる。
また、この実施の形態ではマクロブロックを単位とした符号化装置について述べたが、任意の形状を持つ部分画像などの画像単位または複数個の固定サイズブロックの組み合わせによって構成される可変形状のブロックなどの画像単位で画像を符号化する装置についても、同様の効果が期待できる。
また、この実施の形態では、メモリaを用いたグローバル動きパラメータ検出を用いたが、これを用いずにローカル動き検出だけを用いる構成でも適用可能であることは言うまでもない。グローバル動き検出を行わない場合は、予測モードとしてグローバル/ローカル予測の判別情報は伝送する必要がない。
また、この実施の形態で述べた動き補償部5とまったく同一の部材有する予測画像生成部100を用いた復号装置を構成することもできる。復号装置に用いられる場合は、動き補償部は復号された動きパラメータに関わる予測画像だけを生成すればよい。
実施の形態3.
次に、図1に示した構成の符号化装置において、動き補償部5の構成だけをさらに別の構成とした符号化装置の実施形態を示し、動き補償部5bの構成と動作について述べる。この実施の形態における動き検出部3aは、動きパラメータ4aとして平行移動量、アフィンパラメータ、遠近法パラメータをそれぞれ出力するものとする。
次に、図1に示した構成の符号化装置において、動き補償部5の構成だけをさらに別の構成とした符号化装置の実施形態を示し、動き補償部5bの構成と動作について述べる。この実施の形態における動き検出部3aは、動きパラメータ4aとして平行移動量、アフィンパラメータ、遠近法パラメータをそれぞれ出力するものとする。
また、この実施の形態におけるメモリaは参照画像を1フレーム分記憶するフレームメモリであり、メモリbはスタティックスプライトメモリであり、メモリcはダイナミックスプライトメモリであるものとする。
この実施の形態における動き補償部5bの内部構成を図9に示す。同図において、36は平行移動量(=動きベクトル)、37はアフィンパラメータ、38は遠近法パラメータ、39は平行移動量に基づく予測画像メモリアドレス算出部、40はアフィンパラメータに基づく予測画像メモリアドレス算出部、41は遠近法パラメータに基づく予測画像メモリアドレス算出部である。またこの動き補償部5bの詳細な動作を記したフローチャートを図10に示す。
まず、I-フレームならば動き補償を行わない(ステップS33)。I-フレームでない場合、予測画像メモリアドレス算出部39から41はそれぞれ動きパラメータ4aの値に基づいて予測画像メモリアドレス23を計算する(ステップS34)。
各予測画像メモリアドレス算出部は、対応する各メモリに割り当てられている画像変形方式に基づいてアドレス計算を行う。この実施の形態においては、メモリaに平行移動、メモリbにある程度回転や拡大・縮小などの単純な変形を伴うアフィンパラメータ、メモリcに3次元的で複雑な動きを伴う遠近法パラメータを用いる。これらの変形方式は以下
のような変換式で表せる。
のような変換式で表せる。
〔平行移動〕
平行移動量(a,b):
x’ = x + a
y’ = y + b
平行移動量(a,b):
x’ = x + a
y’ = y + b
〔アフィン変換〕
アフィンパラメータ(a,b,c,θ):
x’ =a(cosθ)x + a(sinθ)y + b
y’ = a(-sinθ)x + a(cosθ)y + c
アフィンパラメータ(a,b,c,θ):
x’ =a(cosθ)x + a(sinθ)y + b
y’ = a(-sinθ)x + a(cosθ)y + c
〔遠近法変換〕
遠近法パラメータ(a,b,c,d,e,f):
x’ =(a x + b y + c)/(g x + h y + 1)
y’ =(d x + e y + f)/(g x + h y + 1)
遠近法パラメータ(a,b,c,d,e,f):
x’ =(a x + b y + c)/(g x + h y + 1)
y’ =(d x + e y + f)/(g x + h y + 1)
ここで、2次元座標上の(x,y)は原マクロブロックの画素位置、(x’ ,y’ )は各パラメータによって(x,y)に対応付けられるメモリ中の画素位置である。すなわち、これらのパラメータをもとに(x’ ,y’ )のメモリ上の位置を計算する。この仕組みをもつことにより、各マクロブロックごとに動きの性質がもっとも適合するメモリから予測を行うことができるようになる。各動きパラメータ36、37、38から計算した予測画像メモリアドレス23によって、メモリ読み出し部24が対応するメモリから予測画像候補6を取り出して出力する(ステップS35からステップS39)。
なお、当該フレームにおける各メモリの変形方式のタイプは、復号側で同様の動き補償を行うことができるよう、動き検出手法指示情報としてビットストリーム21に多重化されて復号側に伝送される。
図22は、この実施の形態のビットストリーム21を示す図である。
動画像シーケンスの先頭に付加されるヘッダ情報の中には、動き検出手法指示情報が含まれている。符号化装置では、各メモリで使用する変形方式のタイプが変更可能であり、この対応関係を示す動き検出手法指示情報を動画像シーケンスのヘッダ情報として復号装置に送る。こうして復号装置においては、各メモリで使用する変形方式のタイプを識別することができる。
復号装置においては、この識別された変形方式のタイプが動的に各メモリに対応づけられるようになっている。
以上述べた動き補償部5bの構成を持つ符号化装置により、フレームの局所的な動きの性質に応じて複数のメモリを効率的に使い分ける仕組みが供給され、予測効率を向上させることができる。
この実施の形態ではフレームごとに符号化する装置について述べたが、任意の形状を持つ動画像オブジェクト(VOP)を符号化する装置についても同様の効果が期待できる。
この実施の形態ではフレームごとに符号化する装置について述べたが、任意の形状を持つ動画像オブジェクト(VOP)を符号化する装置についても同様の効果が期待できる。
また、この実施の形態ではマクロブロックを単位とした符号化装置について述べたが、任意の形状を持つ部分画像などの画像単位または複数個の固定サイズブロックの組み合わせによって構成される可変形状のブロックなどの画像単位で画像を符号化する装置についても、同様の効果が期待できる。
また、この実施の形態では、メモリaを用いたグローバル動きパラメータ検出を用いたが、これを用いずにローカル動き検出だけを用いる構成でも適用可能であることは言うまでもない。グローバル動き検出を行わない場合は、予測モードとしてグローバル/ローカル予測の判別情報は伝送する必要がない。
また、この実施の形態では、メモリa,b,cを用いる場合を示したが、メモリaとbだけを用いる場合、或いは、メモリaとcを用いる場合、或いは、メモリbとcだけを用いる場合であっても構わない。
また、この実施の形態で述べた動き補償部5bとまったく同一の部材を有する予測画像生成部100を用いた復号装置を構成することもできる。復号装置に用いられる場合は、動き補償部は復号された動きパラメータに関わる予測画像だけを生成すればよい。
実施の形態4.
次に、形状情報を持った複数、例えば2つ、の異なる動画像オブジェクトが混在する動画像シーケンスを対象とし、これらの動画像オブジェクトを一括して符号化する装置の実施形態を説明する。図11にこの実施の形態における符号化装置の構成を示す。
次に、形状情報を持った複数、例えば2つ、の異なる動画像オブジェクトが混在する動画像シーケンスを対象とし、これらの動画像オブジェクトを一括して符号化する装置の実施形態を説明する。図11にこの実施の形態における符号化装置の構成を示す。
同図において、42は入力画像フレーム、43はオブジェクト分離部、44a、44bはオブジェクトデータ、45a、45bは形状ブロック、46a、46bはスイッチ、47a、47bは形状符号化部、48a、48bは圧縮形状ブロックデータ、49a、49bは局所復号形状ブロック、50a、50bはテクスチャデータ(マクロブロック)、51a、51bは動き検出部、52a、52bは動きパラメータ、53a、53bは動き補償部、54a、54bは予測画像候補、55a、55bは予測モード選択部、56a、56bは予測モード情報、57a、57bは予測画像、58a、58bは予測誤差信号、59a、59bはテクスチャ符号化部、60a、60bは圧縮テクスチャデータ、61a、61bは局所復号予測誤差信号、62a、62bは局所復号マクロブロック、63はメモリ更新部、64はメモリa、65はメモリb、66はメモリc、67はメモリd、68はメモリe、69はメモリf、70a、70bは可変長符号化部、71は多重化部、72はバッファ、73はビットストリーム、94はメモリ部、88aはAオブジェクトを符号化するAオブジェクト符号化部、88bはBオブジェクトを符号化するBオブジェクト符号化部である。オブジェクト符号化部88a、88bは同一の部材による同一の内部構成を有する。
この符号化装置は画像フレーム42を入力し、これがオブジェクト分離部43において符号化単位のオブジェクトに分けられる。オブジェクト分離部43の処理は任意の方法をとることができるものとする。
オブジェクトの形状情報は形状ブロック45a、45bの形式で形状符号化部47a、47bに送られて符号化され、圧縮形状ブロックデータ48a、48bとして可変長符号化部70a、70bに送られる。
動き検出部51a、51bはVM符号化方式と同様、局所復号形状ブロック49a、49bを考慮して動きパラメータの検出を行う。動きパラメータ検出はマクロブロック単位にメモリaからfのすべてを用いて行うことができる。
ただし、原則としてAオブジェクト符号化部88aにおいて符号化されるAオブジェクトについてはメモリaからcを、Bオブジェクト符号化部88bにおいて符号化されるBオブジェクトについてはメモリdからfをそれぞれ用いるものとする。
また、動きの種類としては、動きベクトルとワーピングパラメータという区別を取り去り、メモリ部94のすべてのメモリについて任意の変形パラメータをマクロブロック単位に検出できるものとする。
動き補償部53a、53bで各動きパラメータ52a、52bに基づいてすべての予測画像候補54a、54bを生成した後、予測モード選択部55a、55bで予測画像57a、57bおよび予測モード情報56a、56bを得る。原信号またはテクスチャデータ50a、50bと予測画像57a、57bとの差分をとって予測誤差信号58a、58bを得、これがテクスチャ符号化部59a、59bで符号化されて可変長符号化部70a、70bに送られる。また、局所復号された予測誤差信号61a、61bが予測画像57a、57bと加算されて局所復号マクロブロック62a、62bとなり、メモリ更新部の指示にしたがってメモリaからfに書き込まれる。
上記A/Bオブジェクト符号化部88a、88bにおいて符号化されたA/Bオブジェクトデータは多重化部71で1つのビットストリーム73に多重化され、バッファ72を介して伝送される。
以下、この実施の形態における予測について主要な動作を行う動き補償部53a、53bを中心に説明する。
この実施の形態における動き補償部53a、53bは、動き検出部51a、51bで検出した動きパラメータ52a、52bに基づいて予測画像候補を生成する。動き補償部53aの内部構成を図12に示す。また、Aオブジェクト符号化部88aにおける動き補償部53aの動作のフローチャートを図13に示す。なお、動き補償部53bでも同様に構成され同様に動作する。
図12において、74aはBオブジェクト参照判定部、75aはBオブジェクト参照指示フラグである。
ここで動きパラメータ52aは検出に用いたメモリ情報も含むものとする。パラメータの値から実施の形態1と同様に、予測画像メモリアドレス算出部22a、メモリ読み出し部24aを用いて予測画像候補を生成する(ステップS44からステップS49)。また、Bオブジェクト参照判定部74aは動きパラメータ52aの中の参照するメモリ情報から、当該マクロブロックの予測にBオブジェクト用のメモリを使用しているかどうかを判定する(ステップS43)。
Bオブジェクト参照判定部74aは、判定結果をBオブジェクト参照指示フラグ75aとして出力し、復号側で当該オブジェクトが単独で、自身のメモリa,b,cのみを用いて再生できるかどうかの判定に用いるため、ビットストリーム73に多重化されて復号側に伝送される。符号化時には、外部から与える信号85aにより、常に復号側で当該オブジェクトの単独再生が可能になるように、動きパラメータの検出に際して、自身の予測用のメモリ(a,b,c,のみ)しか使用しないように制御することも可能とする。
以上述べた動き補償部53a、53bの構成を持つ符号化装置により、フレームの局所的な動きの性質に応じて複数のメモリを効率的に使い分ける仕組みが供給され、予測効率を向上させることができる。
また、この実施の形態ではオブジェクトをマクロブロック単位に符号化する装置について述べたが、任意の形状を持つ部分画像または複数個の固定サイズブロックの組み合わせによって構成される可変形状のブロックなどの単位で符号化する装置についても、同様の効果が期待できる。
また、この実施の形態で述べた動き補償部53a、53bと同一の部材を用いた復号装置を構成することもできる。復号装置に用いられる場合は、動き補償部53は復号された動きパラメータに関わる予測画像だけを生成すればよい。また、ビットストリームから他オブジェクト参照指示フラグ75a、75b相当のビットを復号して、復号中のオブジェクトが単独で再生できるかどうかを認識できる構成とすれば、オブジェクトデータを誤りなく復号再生できるようになる。
実施の形態5.
次に、動画像オブジェクトの時間的変化に対応して、メモリの数または容量を自在に変化可能な構成の符号化装置の実施形態を説明する。実施の形態5においては、図1に示した構成の符号化装置におけるメモリ更新部15の構成を置きかえた符号化装置を考える。
次に、動画像オブジェクトの時間的変化に対応して、メモリの数または容量を自在に変化可能な構成の符号化装置の実施形態を説明する。実施の形態5においては、図1に示した構成の符号化装置におけるメモリ更新部15の構成を置きかえた符号化装置を考える。
図14にこの実施の形態におけるメモリ更新部15aの内部構成を示す。同図において、76はメモリ拡張判定部、77はメモリ拡張指示信号、78はメモリ縮退判定部、79はメモリ縮退指示信号である。図15にメモリ更新部15aの動作フロー(ステップS51からステップS63)を示す。
シーンチェンジなどによりメモリに蓄積されていた動画像シーケンスの履歴とは著しく異なる画像が現れた場合、シーンチェンジ後の予測においては、既存メモリに含まれる参照画像だけでは予測効率が劣化することがある。そのような場合、シーンチェンジ検出部80によりシーンチェンジを検出し、シーンチェンジ直後のフレームはイントラフレーム符号化するなどして、それを新たな参照画像としてメモリに追加蓄積しておくことができれば、それ以降の予測効率を向上できる。
また、追加できるメモリの容量には物理的限界があるため、メモリ上の参照画像のうち、ほとんど予測に使われない部分を逐次縮退できる仕組みも持たせる。メモリa,b,cの各メモリ領域予測に使われる頻度を予測モード8に基づいてメモリ更新部15aで計測しておき、メモリ更新部に頻度の小さいメモリ領域を使用領域から開放する仕組みをもたせる。この実施の形態によれば、例えばソフトウエアで符号化装置を構成するような場合、限られたRAM(ランダムアクセスメモリ)資源を有効に活用することができる。
以上の観点から、この実施の形態におけるメモリ更新部15aは、動画像シーケンスの時間的変化の状況に応じてメモリ領域を増やしたり、予測にあまり使われない参照画像を含むメモリ領域を縮退したりする機能を備える。
メモリaについては、実施の形態1と同様、メモリa更新判定部27において更新の可否が決定され(ステップS50)、更新する場合は局所復号画像14をメモリaに書き込む(ステップS56、ステップS57)。また、予測モード8にしたがって各メモリへ局所復号画像14が書き込まれる(ステップS51からステップS55)。
これらメモリ内容更新は、メモリ拡張/縮退の判定をともなって行われる。メモリ拡張判定部76においては、メモリaの更新に用いるアクティビティ26をもとにメモリa(またはメモリb,c)の容量を増やすかを判定する(ステップS58からステップS60)。シーンチェンジなどにより容量を増やした方がよいと判定されれば、メモリ拡張指示信号77によってメモリの拡張が指示される。また、メモリ縮退判定部78においては、予測モード8をもとに予測に用いられるメモリ領域のカウントをおこなっておき、所定の回数以下しか予測に用いられないメモリ領域については、メモリ縮退指示信号79によってメモリの縮退が指示される(ステップS61からステップS63)。
以上述べたメモリ更新部15aの構成を持つ符号化装置により、動画像シーケンスの時間的変化に追随して効率のよい予測が行えるとともに、予測に必要なメモリ領域をダイナミックに割り当てる仕組みが供給され、予測効率を向上させるとともにメモリ資源の有効活用が可能になる。
この実施の形態ではフレームごとに符号化する装置について述べたが、任意の形状を持つ動画像オブジェクト(VOP)を符号化する装置についても同様の効果が期待できる。
また、この実施の形態ではフレームをマクロブロック単位に符号化する装置について述べたが、任意の形状を持つ部分画像などの画像単位または複数個の固定サイズブロックの組み合わせによって構成される可変形状のブロック領域などの画像単位で画像を符号化する装置についても、同様の効果が期待できる。
また、この実施の形態で述べたメモリ更新部15aとまったく同一の部材を用いた復号装置を構成することもできる。
実施の形態6.
上記の各実施の形態においてはマクロブロックで予測に使用するメモリを変更する場合を示したが、フレームもしくは動画像オブジェクトの単位で、予測に使用するメモリを変更して予測を行う構成をとることもできる。これにより、フレームもしくは動画像オブジェクトの単位で符号化すべきメモリ関連の情報、およびマクロブロック単位で符号化すべきメモリ選択情報(予測モード8に含まれる)を符号化する必要がなくなり、効率的な符号化を行うことができる。
上記の各実施の形態においてはマクロブロックで予測に使用するメモリを変更する場合を示したが、フレームもしくは動画像オブジェクトの単位で、予測に使用するメモリを変更して予測を行う構成をとることもできる。これにより、フレームもしくは動画像オブジェクトの単位で符号化すべきメモリ関連の情報、およびマクロブロック単位で符号化すべきメモリ選択情報(予測モード8に含まれる)を符号化する必要がなくなり、効率的な符号化を行うことができる。
例えば実施の形態1における図1の符号化装置においては、マクロブロック単位で予測に使用するメモリを切替えることが可能になっているため、マクロブロック単位でどのメモリを予測に使用したかを示す付加情報を伝送する必要がある。これに対して、本実施の形態ではこの使用メモリの切替の単位をフレームまたは動画像オブジェクトに制限して予測を行うことにより、マクロブロック単位に伝送すべき付加情報を効果的に削減することを可能とする。図23に、図20に示した実施の形態1の伝送ビットストリーム21と本実施の形態の伝送ビットストリーム21との違いを示す。図23に示す例は、フレーム単位に予測に使用するメモリを変更する場合を示しており、予測メモリ指示情報800がフレーム単位のヘッダ情報に含まれている。図23に示す例は、例えば、動画像シーケンスの映像の性質が定常的に変化せず、マクロブロックレベルの局所的な変化が少ないような場合に有効である。また、以上のようにして符号化されたビットストリームを復号してフレームもしくは動画像オブジェクトを再生する復号装置を構成することもできる。
実施の形態7.
上記の各実施の形態において、複数のメモリのうち、任意の複数、例えば2つ、のメモリ(例えばメモリaとb)から取り出された2つの予測画像候補を加算平均した画像を予測画像候補6の1つとする構成または予測画像9として用いる構成にすることができる。また、以上のようにして符号化されたビットストリームを復号してフレームもしくは動画像オブジェクトを再生する復号装置を構成することもできる。
上記の各実施の形態において、複数のメモリのうち、任意の複数、例えば2つ、のメモリ(例えばメモリaとb)から取り出された2つの予測画像候補を加算平均した画像を予測画像候補6の1つとする構成または予測画像9として用いる構成にすることができる。また、以上のようにして符号化されたビットストリームを復号してフレームもしくは動画像オブジェクトを再生する復号装置を構成することもできる。
実施の形態8.
上記の各実施の形態に示した符号化装置において、予測を行う単位となる画像領域の空間的な複雑さ、注視度、などを規定する特徴量パラメータをあらかじめ検出しておき、これらを予測モード決定、メモリ更新の際の判定尺度として利用する構成をとることができる。
上記の各実施の形態に示した符号化装置において、予測を行う単位となる画像領域の空間的な複雑さ、注視度、などを規定する特徴量パラメータをあらかじめ検出しておき、これらを予測モード決定、メモリ更新の際の判定尺度として利用する構成をとることができる。
例えば、複雑な動きを含み、与えられた符号量内で許容品質を達成する符号化を行うことが困難な動画像を想定する。このような場合は、被予測画像領域(マクロブロック、任意形状画像領域、任意形状ブロックなど)ごとに重要度を見極め、重要度の低い領域はある程度品質を落して符号量を減少させ、その分を重要度の高い領域に割り当てて全体の品質を向上させる。本発明のように複数のメモリを任意のタイミングで切り替えて予測を行う装置では、被予測画像領域の重要度を表す特徴量パラメータを検出して、これに基づいて動的にメモリ使用方法を決定することにより、より画像の性質に適応した予測を行うことができる。例えば、図16に示すように、領域ごとに特徴量パラメータを検出して重要度を決定する領域重要度検出部95を設ける。領域重要度検出部95は領域重要度を予測モード選択部7aへ伝えるとともに領域重要度に基づく量子化パラメータをテクスチャ符号化部11aへ伝える。領域重要度検出部95で重要度が高いと判定された領域は、複数用意された予測モードのうち、もっとも複雑なモードを用いて予測を行う。例えば、各メモリa,b,cからの参照画像を用いてそれぞれ複雑な動きモデルに基づいた動きパラメータと予測画像を求め、これら予測画像の任意の組み合せ(加算平均など)も含めて最も予測効率の高い予測モードを予測モード選択部7aにおいて選択する。この際、予測に使用したすべてのメモリに対して参照画像を更新する。さらに、テクスチャ符号化部11aでは、量子化ステップ幅が細かい量子化パラメータにより符号化を行う。一方、重要度の低い領域では、簡易な予測モード(1つのメモリだけを用いた平行移動量検出)によって予測を行い、得られた予測誤差信号の振幅に関わらず少ない符号量になるように、量子化ステップの粗い量子化パラメータを用いて符号化する。以上の制御を行うことによって、重要度の低い領域はある程度品質を落しても、重要度の高い領域は高度な予測によって品質が保たれ、与えられた符号量で全体の品質を向上することができる。
実施の形態9.
複数のメモリを用いて動画像シーケンスを予測、符号化する装置において、動画像シーケンスの各時刻において使用可能な符号量、あるいは当該時刻でのシーンの変化量(シーンチェンジ検出など)、実施の形態8で述べたような被予測画像領域の特徴量や重要度などのパラメータを検出しておき、これらの値を、当該時刻における画像の予測に用いることのできる予測方式、あるいは参照メモリ領域の選択の際の判定尺度として利用する構成をとることができる。例えば、図17のように、フレーム単位で重要度を決定するフレーム重要度検出部96を設け、前フレームに対する当該フレームの変化量(シーンチェンジ検出部80からのシンーンチェンジを検出)、新しいオブジェクトの出現・隠蔽の有無などを検出し、送信バッファ20から通知される当該フレームで使用できる符号量を考慮して最終的なフレーム重要度を決定する。これに基づいて、重要度の高いフレームでは用意されたすべての予測方式と参照メモリ領域を用いて最大限予測効率を向上し、重要度の低いフレームでは予測方式や参照メモリ領域を限定して用い、符号化処理を簡素化して処理量を低減する、という装置構成が考えられる。また、シーンチェンジ時に予測を行わずにすべてイントラフレーム符号化する装置も考えられる。さらに、実施の形態8で述べた領域重要度検出部95と併用すれば、よりきめ細かい品質制御を行うことができる。以上の制御を行うことによって、重要度の低いフレームはある程度品質を落しても、重要度の高いフレームは高度な予測によって品質が保たれ、与えられた符号量で全体の品質を向上することができる。
複数のメモリを用いて動画像シーケンスを予測、符号化する装置において、動画像シーケンスの各時刻において使用可能な符号量、あるいは当該時刻でのシーンの変化量(シーンチェンジ検出など)、実施の形態8で述べたような被予測画像領域の特徴量や重要度などのパラメータを検出しておき、これらの値を、当該時刻における画像の予測に用いることのできる予測方式、あるいは参照メモリ領域の選択の際の判定尺度として利用する構成をとることができる。例えば、図17のように、フレーム単位で重要度を決定するフレーム重要度検出部96を設け、前フレームに対する当該フレームの変化量(シーンチェンジ検出部80からのシンーンチェンジを検出)、新しいオブジェクトの出現・隠蔽の有無などを検出し、送信バッファ20から通知される当該フレームで使用できる符号量を考慮して最終的なフレーム重要度を決定する。これに基づいて、重要度の高いフレームでは用意されたすべての予測方式と参照メモリ領域を用いて最大限予測効率を向上し、重要度の低いフレームでは予測方式や参照メモリ領域を限定して用い、符号化処理を簡素化して処理量を低減する、という装置構成が考えられる。また、シーンチェンジ時に予測を行わずにすべてイントラフレーム符号化する装置も考えられる。さらに、実施の形態8で述べた領域重要度検出部95と併用すれば、よりきめ細かい品質制御を行うことができる。以上の制御を行うことによって、重要度の低いフレームはある程度品質を落しても、重要度の高いフレームは高度な予測によって品質が保たれ、与えられた符号量で全体の品質を向上することができる。
本実施の形態の考え方は、処理プロセスや使用可能なメモリ量が流動的なソフトウエアによる符号化の際に、利用できる資源を最大限に活用して効率よく符号化処理を行わせる場合にも適用可能である。重要度の低いフレームでは処理量を低減でき、全体の処理速度を向上させることができる。
実施の形態10.
図11に示したような、複数のメモリを用いて複数の動画像オブジェクトから構成される動画像シーケンスを予測、符号化する装置において、シーケンスとして使用できる総符号量、各動画像オブジェクトの各時刻において使用可能な符号量、あるいは当該時刻での動画像オブジェクトの変化量(オブジェクトの出現、隠蔽など)、各動画像オブジェクトのシーンの中での重要度/注視度のレベル、実施の形態8や9で述べたような被予測画像領域の特徴量や重要度などのパラメータを検出しておき、これらの値を、当該時刻における動画像オブジェクトの予測に用いることのできる予測方式、あるいは参照メモリ領域の選択の際の判定尺度として利用する構成をとることができる。
図11に示したような、複数のメモリを用いて複数の動画像オブジェクトから構成される動画像シーケンスを予測、符号化する装置において、シーケンスとして使用できる総符号量、各動画像オブジェクトの各時刻において使用可能な符号量、あるいは当該時刻での動画像オブジェクトの変化量(オブジェクトの出現、隠蔽など)、各動画像オブジェクトのシーンの中での重要度/注視度のレベル、実施の形態8や9で述べたような被予測画像領域の特徴量や重要度などのパラメータを検出しておき、これらの値を、当該時刻における動画像オブジェクトの予測に用いることのできる予測方式、あるいは参照メモリ領域の選択の際の判定尺度として利用する構成をとることができる。
例えば、図18のように、各オブジェクト1〜nに対応する重要度検出部97a〜97nを設け、オブジェクトの各時刻における変化量やオブジェクトの出現・隠蔽の有無などを表すパラメータを検出するとともに、すべてのオブジェクトの符号化データが蓄積される全体バッファ72xの占有率、各オブジェクトの仮想バッファ72a〜72nの占有率とを考慮して、各時刻においてオブジェクトの重要度を決定する。例えば、オブジェクト内に他のオブジェクトの一部が重なるなどの結果として新しいタイプの領域が出現した場合、これは以降の予測効率に大きく影響するため、ある程度オブジェクトの仮想バッファに余裕のない場合であっても重要度を高くし、符号化画像をきれいにしておく、などの制御が考えられる。重要度検出部97a〜97nで検出された重要度はオブジェクト1〜N符号化部98a〜98nに渡され、重要度の高いオブジェクトでは用意されたすべての予測方式と参照メモリ領域を用いて最大限予測効率を向上し、重要度の低いオブジェクトでは予測方式や参照メモリ領域を限定して用い、符号化処理を簡素化して処理量を低減する、という装置構成が考えられる。また、フレームからリアルタイムにオブジェクト分離を行って符号化する装置では、新しいオブジェクトの出現や、既存オブジェクトの隠蔽などによって当該オブジェクトの内容が著しく変化した場合に、予測を行わずにすべてイントラフレーム符号化する装置も考えられる。さらに、オブジェクト1〜N符号化部98a〜98nにおいて実施の形態8で述べた領域重要度検出部95も併用すれば、オブジェクト内の各被予測対象領域単位によりきめ細かい品質制御を行うことができる。以上の制御を行うことによって、重要度の低いオブジェクトはある程度品質を落しても、重要度の高いオブジェクトは高度な予測によって品質が保たれ、与えられた符号量で全体の品質を向上することができる。
実施の形態11.
また、図19に示すように、予測に関する符号化情報(参照メモリ番号など)の符号割り当て(符号化)を行う予測情報符号化部91を設ける場合がある。
また、図19に示すように、予測に関する符号化情報(参照メモリ番号など)の符号割り当て(符号化)を行う予測情報符号化部91を設ける場合がある。
複数のメモリa,b,cを用いて動画像シーケンスまたは動画像オブジェクトを予測、符号化する装置において、予測に用いられるメモリの使用頻度に応じて複数のメモリのランク付けを行い、かつこのランク付けを符号化中にダイナミックに変更することができるようにして、上記予測情報符号化部91における予測に関する符号化情報(参照メモリ番号など)の符号割り当てを、予測に用いる複数のメモリのランクに応じて行うようにする構成をとることができる。
例えば、図19の符号化装置において、メモリ更新部15bに、メモリa,b,cそれぞれの予測に用いられる頻度をカウントするカウンタ92を設けておき、そのカウント値にしたがってメモリa,b,cをランク付けし、ランク情報90を出力する。このランク付けは、例えば1フレームもしくは動画像オブジェクトのある時刻における画像(VOP)
を単位に行ってもよいし、より細かい単位である被予測画像領域(マクロブロック、任意形状領域、任意形状ブロックなど)毎に行うこともできる。
を単位に行ってもよいし、より細かい単位である被予測画像領域(マクロブロック、任意形状領域、任意形状ブロックなど)毎に行うこともできる。
これにより、どのメモリがどれだけ頻繁に予測に使われるかを認識できる。頻繁に予測に用いられるメモリは、予測を行うにあたって重要度の高いメモリであり、参照頻度が高いほどランクを高くする。
このようにして、各被予測画像領域単位に予測に用いたメモリの頻度情報を符号化する場合、頻繁に参照するメモリ(=ランクが高いメモリ)には短い符号長を割り当てるほうが符号化効率が高まる。
また、各被予測画像領域単位に検出した動きパラメータも、参照したメモリのランクに対応して符号長を割り当てることができれば、頻繁に発生する動きパラメータ値に対して短い符号長を割り当てることができ、効率的な予測情報の符号化が可能になる。これらの仕組みは、可変長符号化・多重化部19の予測情報符号化部91がメモリ更新部15bのカウンタ92から各メモリのランクを受け取るようにしておき、このランク情報90に基づいて符号長を可変にして予測情報の符号化を行う構成で実現できる。
実施の形態12.
図24は、本実施の形態における、圧縮符号化されたディジタル画像を伸長再生する画像復号装置の構成を示したものである。同図において、
21は符号化されたビットストリーム、119は可変長復号部、12は量子化DCT係数、
12aは量子化直交変換係数、12bは量子化ステップ、111はテクスチャ復号部、111aは逆量子化部、111bは逆直交変換部、190は復号加算部、101は復号画像、191は表示制御部、8は予測モード、1001はメモリb更新情報、1002はメモリc更新情報、4は動きベクトル(動きパラメータ)、800は予測メモリ指示情報、195は被予測画像領域の画面内位置、105は動き補償部、116はメモリa、117はメモリb、118はメモリc、115はメモリ更新部、106は予測画像である。動き補償部105とメモリ更新部115により予測画像生成部100aを構成している。また、メモリa,b,cによりメモリ領域200aを構成している。
図24は、本実施の形態における、圧縮符号化されたディジタル画像を伸長再生する画像復号装置の構成を示したものである。同図において、
21は符号化されたビットストリーム、119は可変長復号部、12は量子化DCT係数、
12aは量子化直交変換係数、12bは量子化ステップ、111はテクスチャ復号部、111aは逆量子化部、111bは逆直交変換部、190は復号加算部、101は復号画像、191は表示制御部、8は予測モード、1001はメモリb更新情報、1002はメモリc更新情報、4は動きベクトル(動きパラメータ)、800は予測メモリ指示情報、195は被予測画像領域の画面内位置、105は動き補償部、116はメモリa、117はメモリb、118はメモリc、115はメモリ更新部、106は予測画像である。動き補償部105とメモリ更新部115により予測画像生成部100aを構成している。また、メモリa,b,cによりメモリ領域200aを構成している。
この実施の形態では、メモリaは1フレーム分の画像データを蓄積するフレームメモリであり、メモリbはスタティックスプライトメモリであり、メモリcはダイナミックスプライトメモリであるものとする。また、この実施の形態の復号装置は、図22に示したビットストリーム21を入力するものとする。また、図22には示していないが、メモリb更新情報1001及びメモリc更新情報1002がビットストリームの中で送られてくるものとする。メモリb更新情報1001には、スタティックスプライトメモリを全面更新するための更新指示と全面更新するための画像データが含まれているものとする。同様に、メモリc更新情報1002には、ダイナミックスプライトメモリを全面更新する更新指示と全面更新するための画像データが含まれているものとする。
以下、上記構成の装置の動作を説明する。まず、可変長復号部119においてビットストリーム21が解析され、個々の符号化データに切り分けられる。量子化直交変換係数12aは逆量子化部119aに送られ、量子化ステップ12bを用いて逆量子化される。この結果が逆直交変換部111bにおいて逆直交変換されテクスチャが復号され、復号加算部190に送られる。直交変換はDCT(離散コサイン変換)など、符号化装置側で用いる
ものと同じものを用いる。
ものと同じものを用いる。
動き補償部105には、可変長復号部119でビットストリーム21から復号された動きベクトル4、予測メモリ指示情報800と、被予測画像領域の画面内位置195を示す情報が入力される。動き補償部105は、これらの3種類の情報にしたがって複数のメモリa,b,cに格納されている参照画像から所望の予測画像を取り出す。被予測画像領域の画面内位置195はビットストリームに含まれている情報ではなくマクロブロックの数をカウントすることにより計算できる。予測画像生成の処理については以下の動き補償部105の動作説明の箇所で詳述する。
復号加算部190は、予測モード8の情報に基づいて、イントラフレーム符号化されたブロックならば逆直交変換部111bの出力をそのまま復号画像101として出力し、インターフレーム符号化されたブロックなら逆直交変換部111bの出力に予測画像106を加算して復号画像101として出力する。復号画像101は表示制御部191に送られ、表示デバイスに出力されるともに、以降の復号処理において参照画像として用いるためにメモリa〜cに書き込まれる。メモリへの書き込みは予測モード8に基づいて、メモリ更新部115で制御される。
次に、予測画像生成部100aの動き補償部105における予測画像生成処理について説明する。本実施の形態では、画像の予測方式は予測メモリ指示情報800に基づいて決定される。本実施の形態による復号装置では、予測画像を生成するにあたって、動きベクトル4と予測メモリ指示情報800とに基づいて、所定の座標変換処理および内挿処理により参照画像から予測画像を生成する。座標変換処理の方法はあらかじめ予測に使用するメモリに対応づけられているものとする。例えば、実施の形態3で述べた画像変形方式と同じ以下のような変形手法の例を考えることができる。
(1)メモリaを予測に用いる場合(=予測メモリ指示情報800がメモリaの使用を指示している場合)
動きベクトルによって被予測対象領域の各画素の座標を平行移動させ、メモリa中の対応する位置の画像データを予測画像として取り出す。
(2)メモリbを予測に用いる場合(=予測メモリ指示情報がメモリbの使用を指示している場合)
動きベクトルに基づいてアフィン変換式を求め、同変換式によって被予測対象領域の各画素の座標を変位させ、メモリc中の対応する位置の画像データを予測画像として取り出す。
(3)メモリcを予測に用いる場合(=使用メモリ指示情報がメモリcの使用を指示している場合)
動きベクトルに基づいて遠近法変換式を求め、同変換式によって被予測対象領域の各画素の座標を変位させ、メモリb中の対応する位置の画像データを予測画像として取り出す。
動きベクトルによって被予測対象領域の各画素の座標を平行移動させ、メモリa中の対応する位置の画像データを予測画像として取り出す。
(2)メモリbを予測に用いる場合(=予測メモリ指示情報がメモリbの使用を指示している場合)
動きベクトルに基づいてアフィン変換式を求め、同変換式によって被予測対象領域の各画素の座標を変位させ、メモリc中の対応する位置の画像データを予測画像として取り出す。
(3)メモリcを予測に用いる場合(=使用メモリ指示情報がメモリcの使用を指示している場合)
動きベクトルに基づいて遠近法変換式を求め、同変換式によって被予測対象領域の各画素の座標を変位させ、メモリb中の対応する位置の画像データを予測画像として取り出す。
動き補償部105の内部構成を図25に示す。同図において、161はスイッチ、162はメモリa用対応点決定部、163はメモリb用対応点決定部、164はメモリc用対応点決定部、165はメモリ読み出しアドレス生成部、166はスイッチ、167は内挿処理部である。また、図26はその動作の様子を示すフローチャートである。
以下、図25および図26をもとに、本実施形態における動き補償部105の動作を説明する。
1)対応点の決定
まず、予測メモリ指示情報800に基づき、スイッチ161によって対応するメモリ用の対応点決定部を選択し、選択された対応点決定部に動きベクトル4を入力する。ここでは、各メモリに対応した予測画像位置の算出を行う。以下、メモリ対応で説明する。
1)対応点の決定
まず、予測メモリ指示情報800に基づき、スイッチ161によって対応するメモリ用の対応点決定部を選択し、選択された対応点決定部に動きベクトル4を入力する。ここでは、各メモリに対応した予測画像位置の算出を行う。以下、メモリ対応で説明する。
1ー1)予測メモリ指示情報800がメモリaを指示している場合(ステップS100)
動きベクトルによる平行移動によって、予測画像位置を算出する(ステップS101)。具体的には、動きベクトル(a,b)によって、被予測画像領域の位置(x,y)の画素に対する予測画像位置(x',y')を下式によって決定する。
動きベクトルによる平行移動によって、予測画像位置を算出する(ステップS101)。具体的には、動きベクトル(a,b)によって、被予測画像領域の位置(x,y)の画素に対する予測画像位置(x',y')を下式によって決定する。
x’ = x + a
y’ = y + b
決定された予測画像位置をメモリ読み出しアドレス生成部165に出力する。
y’ = y + b
決定された予測画像位置をメモリ読み出しアドレス生成部165に出力する。
1ー2)予測メモリ指示情報800がメモリbを指示している場合(ステップS103)
動きベクトル4に基づいてアフィン変換式を決定する。具体的には、被予測画像領域を取り囲む矩形領域の頂点の動きベクトルを用いて、下式のアフィンパラメータ(a,b,c,θ)を決定する。
動きベクトル4に基づいてアフィン変換式を決定する。具体的には、被予測画像領域を取り囲む矩形領域の頂点の動きベクトルを用いて、下式のアフィンパラメータ(a,b,c,θ)を決定する。
x’ = a(cosθ)x + a(sinθ)y + b
y’ = a(-sinθ)x + a(cosθ)y + c
y’ = a(-sinθ)x + a(cosθ)y + c
これにより、被予測画像領域の位置(x,y)の画素に対する予測画像位置(x',y')を求め、メモリ読み出しアドレス生成部165に出力する(ステップS104)。
1ー3)予測メモリ指示情報800がメモリcを指示している場合(ステップS106)
動きベクトルに基づいて遠近法変換式を決定する。具体的には、被予測画像領域を取り囲む矩形領域の頂点の動きベクトルを用いて、下式の遠近法パラメータ(a,b,c,d,e,f)を
決定する。
動きベクトルに基づいて遠近法変換式を決定する。具体的には、被予測画像領域を取り囲む矩形領域の頂点の動きベクトルを用いて、下式の遠近法パラメータ(a,b,c,d,e,f)を
決定する。
x’ =(a x + b y + c)/(g x + h y + 1)
y’ =(d x + e y + f)/(g x + h y + 1)
y’ =(d x + e y + f)/(g x + h y + 1)
これにより、被予測画像領域の位置(x,y)の画素に対する予測画像位置(x',y')を求め、メモリ読み出しアドレス生成部に出力する(ステップS107)。
2)予測画像生成用データの読み出し
選択された対応点決定部から出力される予測画像位置(x'y')を基に、メモリ読み出しアドレス生成部165がメモリに蓄積されている参照画像中の予測画像生成に必要な画像データの位置を特定するメモリアドレスを生成し、予測画像生成用データを読み出す(ステップS102、S105、S108)。
選択された対応点決定部から出力される予測画像位置(x'y')を基に、メモリ読み出しアドレス生成部165がメモリに蓄積されている参照画像中の予測画像生成に必要な画像データの位置を特定するメモリアドレスを生成し、予測画像生成用データを読み出す(ステップS102、S105、S108)。
3)予測画像の生成
予測画像を構成する画素のうち、整数画素位置の画素ならば、予測画像生成用データがそのまま予測画像構成画素となる。一方、実数精度の画素位置の画素の場合、内挿処理部167によって予測画像生成用データの内挿処理によって内挿画素値が生成される(ステップS109,S110,S111)。内挿画素値の生成は図26による。図26において、(ip,jp)は整数画素位置を示し、(i',j')は実数精度の画素位置を示し、wは重みを示す。
予測画像を構成する画素のうち、整数画素位置の画素ならば、予測画像生成用データがそのまま予測画像構成画素となる。一方、実数精度の画素位置の画素の場合、内挿処理部167によって予測画像生成用データの内挿処理によって内挿画素値が生成される(ステップS109,S110,S111)。内挿画素値の生成は図26による。図26において、(ip,jp)は整数画素位置を示し、(i',j')は実数精度の画素位置を示し、wは重みを示す。
4)メモリ(参照画像)の更新
図28に、メモリ更新部115の制御のフローチャートを示す。メモリ更新部115では、予測モード8(又は、予測メモリ指示情報800)に基づいて予測画像取り出しの単位(例えばマクロブロック単位)で各メモリの更新を制御する。メモリaを用いて予測した場合(ステップS112)は、復号画像101によって逐次、メモリaおよびcの内容を更新する(ステップS113)。メモリbを用いて予測した場合(ステップS114)は、メモリbはスタティックスプライトメモリなので、メモリbの参照画像は予測画像取り出しの単位では更新しない。しかし、復号画像101によって逐次、メモリaおよびびcの内容を更新する(ステップS115)。一方、メモリb更新情報1001による更新指示を受けた場合、メモリb更新情報1001に含まれる画像データを受け取りメモリbの内容を全面更新する(ステッブS116)。また、メモリcを用いて予測した場合(ステップS117)は、復号画像101によって逐次、メモリaおよびcの内容を更新する(ステップS118)。また、メモリ更新情報により更新指示を受けた場合に、メモリc更新情報1002に含まれる画像データを受け取りメモリcの内容を更新する(ステップS119)。
図28に、メモリ更新部115の制御のフローチャートを示す。メモリ更新部115では、予測モード8(又は、予測メモリ指示情報800)に基づいて予測画像取り出しの単位(例えばマクロブロック単位)で各メモリの更新を制御する。メモリaを用いて予測した場合(ステップS112)は、復号画像101によって逐次、メモリaおよびcの内容を更新する(ステップS113)。メモリbを用いて予測した場合(ステップS114)は、メモリbはスタティックスプライトメモリなので、メモリbの参照画像は予測画像取り出しの単位では更新しない。しかし、復号画像101によって逐次、メモリaおよびびcの内容を更新する(ステップS115)。一方、メモリb更新情報1001による更新指示を受けた場合、メモリb更新情報1001に含まれる画像データを受け取りメモリbの内容を全面更新する(ステッブS116)。また、メモリcを用いて予測した場合(ステップS117)は、復号画像101によって逐次、メモリaおよびcの内容を更新する(ステップS118)。また、メモリ更新情報により更新指示を受けた場合に、メモリc更新情報1002に含まれる画像データを受け取りメモリcの内容を更新する(ステップS119)。
この実施の形態においては、メモリa,b,cの3つのメモリを用いる場合を示したが、2つのメモリを用いる場合であっても構わない。例えば、メモリaとb、即ち、フレームメモリとスタティックスプライトメモリを用いる場合でも構わない。或いは、メモリaとc、即ち、フレームメモリとダイナミックスプライトメモリを用いる場合でも構わない。
以上のように、本実施の形態の復号装置によれば、画像の動きに対応して様々な種類の動きパラメータを用いて効率よく予測を行った符号化されたビットストリーム21を復号できるとともに、符号化側で定められるタイミングで参照画像の内容を任意に更新する仕組みに対応できるので、より画像の性質に適応した復号処理を行うことが可能である。
本実施の形態では、直交変換符号化以外の別の符号化方式によって予測誤差信号を符号化したビットストリームであっても、動き補償部・メモリ更新部以外の、予測誤差信号復号処理のための部材を変更することで同様の効果を得ることができる。
また、本実施の形態は、固定サイズブロックを単位として復号処理を行うような通常のテレビ信号のフレームを単位とする復号装置に適用できるだけでなく、被予測対象領域を固定サイズブロックに限定せずに、任意形状画像オブジェクト(例:ISO/IEC JTC1/SC29/WG11/N1902で開示されるVideo Object Planeなど)を単位とする復号装置にも適用可能である。
以上説明したように、この発明の実施の形態によれば、参照用画像を蓄積するメモリ領域を複数個持つので、動画像シーケンスの性質に応じてメモリに振り分けて蓄積することができ、また、複数のメモリ領域のうち1つ以上のメモリ領域の内容を任意のタイミングで更新可能なので、背景画像などの時不変な画像内容は長時間内容の更新を行わず、局所的に変化する画像領域は頻繁にメモリ内容を更新するなどの制御が可能となり、動画像シーケンスの履歴を生かした効率的な予測が行える。
また、複数のメモリ領域それぞれに、各メモリ領域が有効となる変形パラメータ値域を設定し、被予測画像領域の変形パラメータの値に応じてメモリ領域を切り替えて予測に用いるるので、動画像シーケンスの局所的/大域的な動きの大きさに応じて効率的な予測が行える。同時に、被予測画像領域ごとに符号化すべき動きパラメータは参照メモリ領域の有効動きパラメータ値域の範囲内で効率的に符号化することができる。
また、複数のメモリ領域それぞれに、各メモリで有効となる変形手法を設定し、被予測画像領域の変形パラメータの種類に応じてメモリを切り替えて予測できるので、動画像シーケンスの局所的/大域的な動きの複雑さに応じて効率的な予測が行える。同時に、被予測画像領域の動きの性質にあわせて変形手法を適宜選択できることで、動きパラメータを効率的に符号化することができる。
Claims (4)
- 動画像を予測する動画像予測装置において、
予測に使用される参照画像の画像データを各々記憶するための複数の参照画像メモリエリアと、
予測される画像と参照画像メモリに記憶された参照画像との間の動きを示すパラメータ、予測に使用される参照画像メモリエリアを示すパラメータ、を受信するとともに、複数のメモリエリアに記憶され予測に使用する参照画像メモリエリアを示すパラメータによって示された参照画像を用いて予測画像を生成し、予測に使用する参照画像エリアを示すパラメータの符号割り当てを決定するパラメータを生成する動き補償部、を有する予測画像生成部と、
を備えたことを特徴とする動画像予測装置。 - 動画像予測方法において、
予測画像生成に用いる参照画像をそれぞれ複数のメモリに記憶する記憶ステップと、
予測される画像と参照画像メモリに記憶された参照画像との間の動きを示すパラメータ、予測に使用される参照画像メモリエリアを示すパラメータ、を受信するするとともに、複数のメモリエリアに記憶され予測に使用する参照画像メモリエリアを示すパラメータによって示された参照画像を用いて予測画像を生成し、予測に使用する参照画像エリアを示すパラメータの符号割り当てを決定するパラメータを生成する動き補償ステップと、
を備えたことを特徴とする動画像予測方法。 - 前記符号割り当ては可変であることを特徴とする請求項1記載の動画像予測装置。
- 前記符号割り当ては可変であることを特徴とする請求項2記載の動画像予測方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008332877A JP4755242B2 (ja) | 1997-02-13 | 2008-12-26 | 動画像予測装置及び動画像予測方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1997028862 | 1997-02-13 | ||
JP2886297 | 1997-02-13 | ||
JP2008332877A JP4755242B2 (ja) | 1997-02-13 | 2008-12-26 | 動画像予測装置及び動画像予測方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006146066A Division JP2006262528A (ja) | 1997-02-13 | 2006-05-26 | 動画像復号装置及び動画像予測システム及び動画像復号方法及び動画像予測方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009071878A JP2009071878A (ja) | 2009-04-02 |
JP2009071878A5 true JP2009071878A5 (ja) | 2010-12-02 |
JP4755242B2 JP4755242B2 (ja) | 2011-08-24 |
Family
ID=12260195
Family Applications (10)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP53555298A Expired - Fee Related JP3748895B2 (ja) | 1997-02-13 | 1998-01-22 | 符号化装置及び復号装置及び符号化方法及び復号方法 |
JP2003350911A Expired - Lifetime JP3836827B2 (ja) | 1997-02-13 | 2003-10-09 | 動画像復号装置及び動画像復号方法 |
JP2005253043A Expired - Lifetime JP4260786B2 (ja) | 1997-02-13 | 2005-09-01 | 動画像予測装置及び動画像予測方法 |
JP2006146066A Pending JP2006262528A (ja) | 1997-02-13 | 2006-05-26 | 動画像復号装置及び動画像予測システム及び動画像復号方法及び動画像予測方法 |
JP2008332878A Expired - Lifetime JP4963496B2 (ja) | 1997-02-13 | 2008-12-26 | 動画像予測装置及び動画像予測方法 |
JP2008332876A Expired - Lifetime JP4819865B2 (ja) | 1997-02-13 | 2008-12-26 | 動画像符号化装置及び動画像符号化方法 |
JP2008332877A Expired - Lifetime JP4755242B2 (ja) | 1997-02-13 | 2008-12-26 | 動画像予測装置及び動画像予測方法 |
JP2011173787A Expired - Lifetime JP4963520B2 (ja) | 1997-02-13 | 2011-08-09 | 動画像予測方法 |
JP2012028852A Expired - Lifetime JP4963526B2 (ja) | 1997-02-13 | 2012-02-13 | 動画像予測装置及び動画像予測方法 |
JP2012028853A Expired - Lifetime JP5258991B2 (ja) | 1997-02-13 | 2012-02-13 | 動画像符号化装置及び動画像符号化方法 |
Family Applications Before (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP53555298A Expired - Fee Related JP3748895B2 (ja) | 1997-02-13 | 1998-01-22 | 符号化装置及び復号装置及び符号化方法及び復号方法 |
JP2003350911A Expired - Lifetime JP3836827B2 (ja) | 1997-02-13 | 2003-10-09 | 動画像復号装置及び動画像復号方法 |
JP2005253043A Expired - Lifetime JP4260786B2 (ja) | 1997-02-13 | 2005-09-01 | 動画像予測装置及び動画像予測方法 |
JP2006146066A Pending JP2006262528A (ja) | 1997-02-13 | 2006-05-26 | 動画像復号装置及び動画像予測システム及び動画像復号方法及び動画像予測方法 |
JP2008332878A Expired - Lifetime JP4963496B2 (ja) | 1997-02-13 | 2008-12-26 | 動画像予測装置及び動画像予測方法 |
JP2008332876A Expired - Lifetime JP4819865B2 (ja) | 1997-02-13 | 2008-12-26 | 動画像符号化装置及び動画像符号化方法 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011173787A Expired - Lifetime JP4963520B2 (ja) | 1997-02-13 | 2011-08-09 | 動画像予測方法 |
JP2012028852A Expired - Lifetime JP4963526B2 (ja) | 1997-02-13 | 2012-02-13 | 動画像予測装置及び動画像予測方法 |
JP2012028853A Expired - Lifetime JP5258991B2 (ja) | 1997-02-13 | 2012-02-13 | 動画像符号化装置及び動画像符号化方法 |
Country Status (8)
Country | Link |
---|---|
US (7) | US6775326B2 (ja) |
EP (12) | EP2173103A3 (ja) |
JP (10) | JP3748895B2 (ja) |
KR (1) | KR100309086B1 (ja) |
CN (5) | CN1217852A (ja) |
HK (3) | HK1109001A1 (ja) |
TW (1) | TW376650B (ja) |
WO (1) | WO1998036576A1 (ja) |
Families Citing this family (124)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3748895B2 (ja) * | 1997-02-13 | 2006-02-22 | 三菱電機株式会社 | 符号化装置及び復号装置及び符号化方法及び復号方法 |
US6499060B1 (en) * | 1999-03-12 | 2002-12-24 | Microsoft Corporation | Media coding for loss recovery with remotely predicted data units |
KR100791666B1 (ko) * | 2000-04-14 | 2008-01-03 | 지멘스 악티엔게젤샤프트 | 시간상 연속되는 영상의 영상 정보를 저장 및 처리하는 방법 및 장치 |
EP1156678A3 (en) * | 2000-05-15 | 2007-07-11 | Matsushita Electric Industrial Co., Ltd. | Video decoding method, video decoding apparatus, and video decoding program storage medium |
KR20030042115A (ko) * | 2001-11-21 | 2003-05-28 | 정한승 | 다중 레퍼런스 프레임 기반의 동영상 부호화 방법 |
JP3936335B2 (ja) * | 2001-11-30 | 2007-06-27 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、プログラム及びプログラムを記憶したコンピュータ読み取り可能な記録媒体 |
FI114527B (fi) | 2002-01-23 | 2004-10-29 | Nokia Corp | Kuvakehysten ryhmittely videokoodauksessa |
US7130472B2 (en) * | 2002-01-21 | 2006-10-31 | Canon Kabushiki Kaisha | Image distribution apparatus, communication terminal apparatus, and control method thereof |
KR100959573B1 (ko) * | 2002-01-23 | 2010-05-27 | 노키아 코포레이션 | 비디오 코딩시 이미지 프레임들의 그루핑 |
KR100508798B1 (ko) * | 2002-04-09 | 2005-08-19 | 엘지전자 주식회사 | 쌍방향 예측 블록 예측 방법 |
KR100491530B1 (ko) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
US7119837B2 (en) * | 2002-06-28 | 2006-10-10 | Microsoft Corporation | Video processing system and method for automatic enhancement of digital video |
US7421129B2 (en) * | 2002-09-04 | 2008-09-02 | Microsoft Corporation | Image compression and synthesis for video effects |
JP4007594B2 (ja) * | 2002-09-26 | 2007-11-14 | 株式会社東芝 | 動画像符号化装置及び方法、動画像符号化方式変換装置及び方法 |
EP1614297A1 (en) * | 2003-04-04 | 2006-01-11 | Koninklijke Philips Electronics N.V. | Video encoding and decoding methods and corresponding devices |
JP2006525722A (ja) * | 2003-05-06 | 2006-11-09 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ符号化及び復号化方法、並びに対応する符号化及び復号化装置 |
US7408986B2 (en) * | 2003-06-13 | 2008-08-05 | Microsoft Corporation | Increasing motion smoothness using frame interpolation with motion analysis |
US7558320B2 (en) * | 2003-06-13 | 2009-07-07 | Microsoft Corporation | Quality control in frame interpolation with motion analysis |
US20050105621A1 (en) * | 2003-11-04 | 2005-05-19 | Ju Chi-Cheng | Apparatus capable of performing both block-matching motion compensation and global motion compensation and method thereof |
US7521174B2 (en) * | 2003-12-05 | 2009-04-21 | Albert Einstein College Of Medicine Of Yeshiva University | Universal red blood cells, methods of preparing same, and uses thereof |
US7835438B2 (en) | 2003-12-22 | 2010-11-16 | Nec Corporation | Method and device for encoding moving picture using reference frequency of reference frame |
JP2007524309A (ja) * | 2004-02-20 | 2007-08-23 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ビデオ復号の方法 |
KR100994773B1 (ko) | 2004-03-29 | 2010-11-16 | 삼성전자주식회사 | 계층적 움직임 추정에 있어서 움직임 벡터 생성 방법 및장치 |
JP4414904B2 (ja) * | 2004-04-16 | 2010-02-17 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム |
WO2008091483A2 (en) | 2007-01-23 | 2008-07-31 | Euclid Discoveries, Llc | Computer method and apparatus for processing image data |
US9743078B2 (en) | 2004-07-30 | 2017-08-22 | Euclid Discoveries, Llc | Standards-compliant model-based video encoding and decoding |
US8902971B2 (en) * | 2004-07-30 | 2014-12-02 | Euclid Discoveries, Llc | Video compression repository and model reuse |
US9532069B2 (en) | 2004-07-30 | 2016-12-27 | Euclid Discoveries, Llc | Video compression repository and model reuse |
WO2010042486A1 (en) | 2008-10-07 | 2010-04-15 | Euclid Discoveries, Llc | Feature-based video compression |
US9578345B2 (en) | 2005-03-31 | 2017-02-21 | Euclid Discoveries, Llc | Model-based video encoding and decoding |
DE102004049156B4 (de) | 2004-10-08 | 2006-07-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Codierschema für einen ein zeitlich veränderliches Graphikmodell darstellenden Datenstrom |
US8948266B2 (en) * | 2004-10-12 | 2015-02-03 | Qualcomm Incorporated | Adaptive intra-refresh for digital video encoding |
JP4257655B2 (ja) * | 2004-11-04 | 2009-04-22 | 日本ビクター株式会社 | 動画像符号化装置 |
JP4501676B2 (ja) * | 2004-12-22 | 2010-07-14 | 日本電気株式会社 | 動画像圧縮符号化方法と動画像圧縮符号化装置並びにプログラム |
US8634413B2 (en) | 2004-12-30 | 2014-01-21 | Microsoft Corporation | Use of frame caching to improve packet loss recovery |
JP4480156B2 (ja) * | 2005-02-02 | 2010-06-16 | キヤノン株式会社 | 画像処理装置及び方法 |
US7822121B2 (en) * | 2005-03-17 | 2010-10-26 | Lsi Corporation | Method and/or apparatus for implementing global motion compensation in a video system |
US20060215036A1 (en) * | 2005-03-25 | 2006-09-28 | Multivision Intelligent Surveillance (Hk) Ltd. | Method and apparatus for video stabilization |
US7769274B2 (en) * | 2005-05-06 | 2010-08-03 | Mediatek, Inc. | Video processing and optical recording using a shared memory |
US8488889B2 (en) * | 2005-07-22 | 2013-07-16 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program |
CA2610276C (en) * | 2005-07-22 | 2013-01-29 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program |
US8509551B2 (en) * | 2005-07-22 | 2013-08-13 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recording with image encoding program and computer readable recording medium recorded with image decoding program |
JP4514666B2 (ja) * | 2005-07-25 | 2010-07-28 | シャープ株式会社 | 動画像符号化装置 |
US7596243B2 (en) | 2005-09-16 | 2009-09-29 | Sony Corporation | Extracting a moving object boundary |
US20070064805A1 (en) * | 2005-09-16 | 2007-03-22 | Sony Corporation | Motion vector selection |
US7620108B2 (en) * | 2005-09-16 | 2009-11-17 | Sony Corporation | Integrated spatial-temporal prediction |
US7957466B2 (en) * | 2005-09-16 | 2011-06-07 | Sony Corporation | Adaptive area of influence filter for moving object boundaries |
US7885335B2 (en) * | 2005-09-16 | 2011-02-08 | Sont Corporation | Variable shape motion estimation in video sequence |
US8059719B2 (en) * | 2005-09-16 | 2011-11-15 | Sony Corporation | Adaptive area of influence filter |
US7894527B2 (en) * | 2005-09-16 | 2011-02-22 | Sony Corporation | Multi-stage linked process for adaptive motion vector sampling in video compression |
US8107748B2 (en) * | 2005-09-16 | 2012-01-31 | Sony Corporation | Adaptive motion search range |
US8165205B2 (en) * | 2005-09-16 | 2012-04-24 | Sony Corporation | Natural shaped regions for motion compensation |
US8005308B2 (en) * | 2005-09-16 | 2011-08-23 | Sony Corporation | Adaptive motion estimation for temporal prediction filter over irregular motion vector samples |
US7894522B2 (en) * | 2005-09-16 | 2011-02-22 | Sony Corporation | Classified filtering for temporal prediction |
US7924914B2 (en) * | 2005-09-20 | 2011-04-12 | Intel Corporation | Dynamically configuring a video decoder cache for motion compensation |
JP4666255B2 (ja) * | 2005-12-27 | 2011-04-06 | 日本電気株式会社 | 符号化データ選定、符号化データ設定、再符号化データ生成及び再符号化の方法及び装置 |
CN101496387B (zh) | 2006-03-06 | 2012-09-05 | 思科技术公司 | 用于移动无线网络中的接入认证的系统和方法 |
EP2041982A2 (en) | 2006-07-11 | 2009-04-01 | Thomson Licensing | Methods and apparatus using virtual reference pictures |
US7957601B2 (en) * | 2006-08-30 | 2011-06-07 | Siemens Medical Solutions Usa, Inc. | Systems and methods of inter-frame compression |
KR100678410B1 (ko) * | 2006-11-13 | 2007-02-02 | (주)아이팝엔지니어링종합건축사사무소 | 공동주택용 조립식 계단 설치구조 |
JP4875007B2 (ja) * | 2007-02-09 | 2012-02-15 | パナソニック株式会社 | 動画像符号化装置、動画像符号化方法、及び、動画像復号化装置 |
WO2008102827A1 (ja) * | 2007-02-20 | 2008-08-28 | Sony Corporation | 画像表示装置、映像信号処理装置および映像信号処理方法 |
US8634462B2 (en) * | 2007-03-13 | 2014-01-21 | Matthias Narroschke | Quantization for hybrid video coding |
US20080225947A1 (en) * | 2007-03-13 | 2008-09-18 | Matthias Narroschke | Quantization for hybrid video coding |
US8145002B2 (en) * | 2007-06-28 | 2012-03-27 | Mitsubishi Electric Corporation | Image encoding device and image encoding method |
US8797377B2 (en) | 2008-02-14 | 2014-08-05 | Cisco Technology, Inc. | Method and system for videoconference configuration |
JP5281839B2 (ja) * | 2008-07-23 | 2013-09-04 | パナソニック株式会社 | 画像合成符号化方法、画像合成符号化装置、撮像システム |
EP2315447A1 (en) * | 2008-08-21 | 2011-04-27 | Panasonic Corporation | Motion detection device |
US8694658B2 (en) | 2008-09-19 | 2014-04-08 | Cisco Technology, Inc. | System and method for enabling communication sessions in a network environment |
US9253496B2 (en) * | 2008-12-12 | 2016-02-02 | Qualcomm Incorporated | Intelligent decoded picture buffering |
JP2012080151A (ja) * | 2009-02-09 | 2012-04-19 | Toshiba Corp | 幾何変換動き補償予測を用いる動画像符号化及び動画像復号化の方法と装置 |
US8659637B2 (en) | 2009-03-09 | 2014-02-25 | Cisco Technology, Inc. | System and method for providing three dimensional video conferencing in a network environment |
US8659639B2 (en) | 2009-05-29 | 2014-02-25 | Cisco Technology, Inc. | System and method for extending communications between participants in a conferencing environment |
JP5927117B2 (ja) * | 2009-07-23 | 2016-05-25 | トムソン ライセンシングThomson Licensing | ビデオ符号化及び復号化のための適応的変換選択のための方法及び装置 |
US9082297B2 (en) | 2009-08-11 | 2015-07-14 | Cisco Technology, Inc. | System and method for verifying parameters in an audiovisual environment |
CN102197652B (zh) * | 2009-10-19 | 2013-09-11 | 松下电器产业株式会社 | 解码装置、解码方法、程序以及集成电路 |
CN101783958B (zh) * | 2010-02-10 | 2011-10-05 | 中国科学院计算技术研究所 | Avs视频标准中时域直接模式运动矢量的计算方法和装置 |
JP5583439B2 (ja) * | 2010-03-17 | 2014-09-03 | パナソニック株式会社 | 画像符号化装置及びカメラシステム |
US9225916B2 (en) | 2010-03-18 | 2015-12-29 | Cisco Technology, Inc. | System and method for enhancing video images in a conferencing environment |
US9313452B2 (en) | 2010-05-17 | 2016-04-12 | Cisco Technology, Inc. | System and method for providing retracting optics in a video conferencing environment |
JPWO2012002039A1 (ja) * | 2010-06-29 | 2013-08-22 | 富士フイルム株式会社 | 代表画像決定装置および画像圧縮装置ならびにそれらの動作制御方法およびそのプログラム |
US8896655B2 (en) | 2010-08-31 | 2014-11-25 | Cisco Technology, Inc. | System and method for providing depth adaptive video conferencing |
US8599934B2 (en) * | 2010-09-08 | 2013-12-03 | Cisco Technology, Inc. | System and method for skip coding during video conferencing in a network environment |
US10165276B2 (en) * | 2010-09-30 | 2018-12-25 | Texas Instruments Incorporated | Method and apparatus for frame coding in vertical raster scan order for HEVC |
US9532059B2 (en) | 2010-10-05 | 2016-12-27 | Google Technology Holdings LLC | Method and apparatus for spatial scalability for video coding |
US8599865B2 (en) | 2010-10-26 | 2013-12-03 | Cisco Technology, Inc. | System and method for provisioning flows in a mobile network environment |
US8699457B2 (en) | 2010-11-03 | 2014-04-15 | Cisco Technology, Inc. | System and method for managing flows in a mobile network environment |
US8902244B2 (en) | 2010-11-15 | 2014-12-02 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US9338394B2 (en) | 2010-11-15 | 2016-05-10 | Cisco Technology, Inc. | System and method for providing enhanced audio in a video environment |
US9143725B2 (en) | 2010-11-15 | 2015-09-22 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US8730297B2 (en) | 2010-11-15 | 2014-05-20 | Cisco Technology, Inc. | System and method for providing camera functions in a video environment |
US8723914B2 (en) | 2010-11-19 | 2014-05-13 | Cisco Technology, Inc. | System and method for providing enhanced video processing in a network environment |
US9111138B2 (en) | 2010-11-30 | 2015-08-18 | Cisco Technology, Inc. | System and method for gesture interface control |
US8692862B2 (en) | 2011-02-28 | 2014-04-08 | Cisco Technology, Inc. | System and method for selection of video data in a video conference environment |
US8670019B2 (en) | 2011-04-28 | 2014-03-11 | Cisco Technology, Inc. | System and method for providing enhanced eye gaze in a video conferencing environment |
US8786631B1 (en) | 2011-04-30 | 2014-07-22 | Cisco Technology, Inc. | System and method for transferring transparency information in a video environment |
US8934026B2 (en) | 2011-05-12 | 2015-01-13 | Cisco Technology, Inc. | System and method for video coding in a dynamic environment |
JP2012244437A (ja) * | 2011-05-19 | 2012-12-10 | Canon Inc | 画像処理装置、画像処理方法 |
US8989256B2 (en) * | 2011-05-25 | 2015-03-24 | Google Inc. | Method and apparatus for using segmentation-based coding of prediction information |
US9106927B2 (en) | 2011-09-23 | 2015-08-11 | Qualcomm Incorporated | Video coding with subsets of a reference picture set |
JP5729825B2 (ja) * | 2011-09-26 | 2015-06-03 | 日本電信電話株式会社 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム |
JP5898924B2 (ja) * | 2011-11-10 | 2016-04-06 | 株式会社Nttドコモ | 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置および動画像予測復号プログラム |
US8947493B2 (en) | 2011-11-16 | 2015-02-03 | Cisco Technology, Inc. | System and method for alerting a participant in a video conference |
US9247257B1 (en) | 2011-11-30 | 2016-01-26 | Google Inc. | Segmentation based entropy encoding and decoding |
US8682087B2 (en) | 2011-12-19 | 2014-03-25 | Cisco Technology, Inc. | System and method for depth-guided image filtering in a video conference environment |
US9094681B1 (en) | 2012-02-28 | 2015-07-28 | Google Inc. | Adaptive segmentation |
KR20130108949A (ko) * | 2012-03-26 | 2013-10-07 | 한국전자통신연구원 | 영상부호 및 복호화 단계에서의 이중 객체검출 및 이동경로 정보를 이용한 영상 압축 방법 |
US9332276B1 (en) | 2012-08-09 | 2016-05-03 | Google Inc. | Variable-sized super block based direct prediction mode |
US9380298B1 (en) | 2012-08-10 | 2016-06-28 | Google Inc. | Object-based intra-prediction |
US9681154B2 (en) | 2012-12-06 | 2017-06-13 | Patent Capital Group | System and method for depth-guided filtering in a video conference environment |
KR102121558B1 (ko) * | 2013-03-15 | 2020-06-10 | 삼성전자주식회사 | 비디오 이미지의 안정화 방법, 후처리 장치 및 이를 포함하는 비디오 디코더 |
US9843621B2 (en) | 2013-05-17 | 2017-12-12 | Cisco Technology, Inc. | Calendaring activities based on communication processing |
JP2015002462A (ja) * | 2013-06-17 | 2015-01-05 | ソニー株式会社 | 画像圧縮回路、画像圧縮方法、および伝送システム |
JP6614472B2 (ja) * | 2013-09-30 | 2019-12-04 | サン パテント トラスト | 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置 |
CA2942336A1 (en) | 2014-03-10 | 2015-09-17 | Euclid Discoveries, Llc | Continuous block tracking for temporal prediction in video encoding |
US10091507B2 (en) | 2014-03-10 | 2018-10-02 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
US10097851B2 (en) | 2014-03-10 | 2018-10-09 | Euclid Discoveries, Llc | Perceptual optimization for model-based video encoding |
JP2017126896A (ja) * | 2016-01-14 | 2017-07-20 | 株式会社東芝 | 監視システム、監視装置、および再生装置 |
US10448010B2 (en) * | 2016-10-05 | 2019-10-15 | Qualcomm Incorporated | Motion vector prediction for affine motion models in video coding |
US20190045213A1 (en) * | 2017-08-03 | 2019-02-07 | Intel Corporation | Reference frame reprojection for improved video coding |
JP7315821B2 (ja) | 2019-04-01 | 2023-07-27 | 日本電信電話株式会社 | 画像生成装置、画像生成方法、及びプログラム |
US11095901B2 (en) * | 2019-09-23 | 2021-08-17 | International Business Machines Corporation | Object manipulation video conference compression |
JP7397360B2 (ja) * | 2019-11-15 | 2023-12-13 | 日本電信電話株式会社 | 映像符号化方法、映像符号化装置及びコンピュータープログラム |
US20240089460A1 (en) * | 2022-09-13 | 2024-03-14 | Ati Technologies Ulc | Scene-change detection at server for triggering client-side temporal frame buffer reset |
Family Cites Families (91)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5886A (en) * | 1848-10-31 | Shihgle-machine | ||
US4218704A (en) | 1979-03-16 | 1980-08-19 | Bell Telephone Laboratories, Incorporated | Method and apparatus for video signal encoding with motion compensation |
US4460923A (en) | 1981-06-01 | 1984-07-17 | Nippon Electric Co., Ltd. | Predictive coding system for television signals |
JPS58127488A (ja) | 1982-01-25 | 1983-07-29 | Kokusai Denshin Denwa Co Ltd <Kdd> | テレビジヨン信号の適応予測符号化方式 |
GB8724789D0 (en) | 1987-10-19 | 1987-11-25 | British Telecomm | Signal coding |
JP2810052B2 (ja) * | 1987-11-18 | 1998-10-15 | 株式会社日立製作所 | 伝送装置 |
FR2623955B1 (fr) * | 1987-11-27 | 1990-04-27 | Labo Electronique Physique | Procede et dispositif d'estimation et de compensation de mouvement dans une sequence d'images et leur application dans un systeme de transmission d'images de television a haute definition |
JPH02171093A (ja) | 1988-12-23 | 1990-07-02 | Nec Corp | 動画像の予測符号化方式 |
US5151754A (en) * | 1989-10-06 | 1992-09-29 | Kabushiki Kaisha Toshiba | Method and an apparatus for measuring a displacement between two objects and a method and an apparatus for measuring a gap distance between two objects |
JPH04127689A (ja) | 1990-09-19 | 1992-04-28 | Hitachi Ltd | 動画像予測符号化方式 |
US5205177A (en) * | 1991-01-23 | 1993-04-27 | Research-Cottrell, Inc. | Method and apparatus for gas monitoring |
US5353062A (en) * | 1991-04-25 | 1994-10-04 | Canon Kabushiki Kaisha | Method and apparatus for decoding moving images encoded by inter-frame prediction and displaying it |
US5185819A (en) * | 1991-04-29 | 1993-02-09 | General Electric Company | Video signal compression apparatus for independently compressing odd and even fields |
US5151784A (en) * | 1991-04-30 | 1992-09-29 | At&T Bell Laboratories | Multiple frame motion estimation |
US5647049A (en) * | 1991-05-31 | 1997-07-08 | Kabushiki Kaisha Toshiba | Video recording/reproducing apparatus which uses a differential motion vector determined using two other motion vectors |
US5428396A (en) * | 1991-08-03 | 1995-06-27 | Sony Corporation | Variable length coding/decoding method for motion vectors |
US5231384A (en) * | 1991-08-26 | 1993-07-27 | General Electric Company | Apparatus for splitting video signal between two channels |
US5420635A (en) * | 1991-08-30 | 1995-05-30 | Fuji Photo Film Co., Ltd. | Video camera, imaging method using video camera, method of operating video camera, image processing apparatus and method, and solid-state electronic imaging device |
US5488482A (en) * | 1992-01-29 | 1996-01-30 | Mitsubishi Denki Kabushiki Kaisha | High-efficiency encoder and video information recording/reproducing apparatus |
US5247363A (en) * | 1992-03-02 | 1993-09-21 | Rca Thomson Licensing Corporation | Error concealment apparatus for hdtv receivers |
JP2636622B2 (ja) * | 1992-03-13 | 1997-07-30 | 松下電器産業株式会社 | ビデオ信号の符号化方法及び復号化方法ならびにビデオ信号の符号化装置及び復号化装置 |
US5420638A (en) * | 1992-04-14 | 1995-05-30 | U.S. Philips Corporation | Subassembly for coding images with refresh correction of the data to be coded, and subassembly for decording signals representing these images and previously coded by means of a subassembly of the former kind |
JPH05344493A (ja) * | 1992-06-10 | 1993-12-24 | Victor Co Of Japan Ltd | 動画像符号化装置 |
JP3245977B2 (ja) * | 1992-06-30 | 2002-01-15 | ソニー株式会社 | ディジタル画像信号の伝送装置 |
JP3358835B2 (ja) * | 1992-12-14 | 2002-12-24 | ソニー株式会社 | 画像符号化方法及び装置 |
WO1994018799A1 (en) | 1993-02-03 | 1994-08-18 | Qualcomm Incorporated | Interframe video encoding and decoding system |
TW224553B (en) * | 1993-03-01 | 1994-06-01 | Sony Co Ltd | Method and apparatus for inverse discrete consine transform and coding/decoding of moving picture |
US5592228A (en) * | 1993-03-04 | 1997-01-07 | Kabushiki Kaisha Toshiba | Video encoder using global motion estimation and polygonal patch motion estimation |
US5515388A (en) * | 1993-03-19 | 1996-05-07 | Sony Corporation | Apparatus and method for preventing repetitive random errors in transform coefficients representing a motion picture signal |
US5815646A (en) * | 1993-04-13 | 1998-09-29 | C-Cube Microsystems | Decompression processor for video applications |
BE1007252A3 (nl) * | 1993-06-29 | 1995-05-02 | Philips Electronics Nv | Bewegingscompensator. |
US5329365A (en) * | 1993-07-07 | 1994-07-12 | Rca Thomson Licensing Corporation | Method and apparatus for providing compressed non-interlaced scanned video signal |
AU678490B2 (en) * | 1993-07-12 | 1997-05-29 | Sony Corporation | Decoding method and apparatus |
EP1928174A2 (en) * | 1993-07-12 | 2008-06-04 | Sony Corporation | Processing digital video data |
JPH0799658A (ja) * | 1993-08-03 | 1995-04-11 | Sony Corp | 動きベクトル検出装置 |
KR0122745B1 (ko) * | 1993-10-28 | 1997-11-17 | 배순훈 | 개선된 메모리 구조를 갖는 동영상 복호화장치 |
US5625656A (en) * | 1993-10-29 | 1997-04-29 | General Electric Company | Method for monitoring noble metal distribution in reactor circuit during plant application |
JP3031152B2 (ja) * | 1993-12-24 | 2000-04-10 | 日本電気株式会社 | 動き予測プロセッサ及び動き予測装置 |
JPH07184206A (ja) | 1993-12-24 | 1995-07-21 | Mitsubishi Electric Corp | 画像符号化装置 |
KR950024600A (ko) * | 1994-01-31 | 1995-08-21 | 김광호 | 휘도신호적응 움직임 평가방법 |
JPH07226917A (ja) * | 1994-02-14 | 1995-08-22 | Toshiba Corp | 画像再生方式及び装置 |
US5576765A (en) * | 1994-03-17 | 1996-11-19 | International Business Machines, Corporation | Video decoder |
JPH07336461A (ja) | 1994-06-03 | 1995-12-22 | Canon Inc | 画像通信装置 |
KR0134483B1 (ko) * | 1994-06-14 | 1998-05-15 | 배순훈 | 디코더에 있어서 어드레스 보정 회로(address correction circuit of the decoder) |
KR0148154B1 (ko) * | 1994-06-15 | 1998-09-15 | 김광호 | 움직임크기에 따른 동영상데이타의 부호화방법 및 장치 |
US5684538A (en) * | 1994-08-18 | 1997-11-04 | Hitachi, Ltd. | System and method for performing video coding/decoding using motion compensation |
EP0708563B1 (en) * | 1994-10-19 | 2004-12-22 | Matsushita Electric Industrial Co., Ltd. | Image decoding device |
KR100396971B1 (ko) * | 1994-11-29 | 2003-11-03 | 산요덴키가부시키가이샤 | 인코드된비디오데이터의에러검출및처리기능을구비한비디오디코더 |
DE69530908T2 (de) * | 1994-12-20 | 2004-05-19 | Matsushita Electric Industrial Co., Ltd., Kadoma | Verfahren und Vorrichtung zur Bildkodierung |
JP3334384B2 (ja) * | 1994-12-20 | 2002-10-15 | 松下電器産業株式会社 | 画像予測符号化方法 |
KR100235343B1 (ko) * | 1994-12-29 | 1999-12-15 | 전주범 | 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치 |
EP0721286A3 (en) * | 1995-01-09 | 2000-07-26 | Matsushita Electric Industrial Co., Ltd. | Video signal decoding apparatus with artifact reduction |
JP3694912B2 (ja) * | 1995-02-23 | 2005-09-14 | 株式会社日立製作所 | メモリ制御方法及び画像復号装置 |
US6064803A (en) * | 1995-03-01 | 2000-05-16 | Matsushita Electric Industrial Co., Ltd. | Image information decoder with a reduced capacity frame memory |
JP3086396B2 (ja) * | 1995-03-10 | 2000-09-11 | シャープ株式会社 | 画像符号化装置及び画像復号装置 |
KR0171118B1 (ko) * | 1995-03-20 | 1999-03-20 | 배순훈 | 비디오신호 부호화 장치 |
JP3803122B2 (ja) | 1995-05-02 | 2006-08-02 | 松下電器産業株式会社 | 画像メモリ装置および動きベクトル検出回路 |
JP4223571B2 (ja) * | 1995-05-02 | 2009-02-12 | ソニー株式会社 | 画像符号化方法及び装置 |
JP3824678B2 (ja) * | 1995-05-09 | 2006-09-20 | 株式会社ルネサステクノロジ | 画像復号表示装置 |
KR100203243B1 (ko) | 1995-07-31 | 1999-06-15 | 윤종용 | 에스디알에이엠에 프레임의 영상신호를 기록하는 방법 |
JPH0955941A (ja) * | 1995-08-16 | 1997-02-25 | Sony Corp | 画像符号化方法、画像符号化装置、及び画像符号化データの記録装置 |
EP0765087B1 (en) * | 1995-08-29 | 2003-11-12 | Sharp Kabushiki Kaisha | Video coding device |
DE69618759T2 (de) * | 1995-09-06 | 2002-09-12 | Koninklijke Philips Electronics N.V., Eindhoven | Verfahren und system zur kodierung einer sequenz von segmentierten bildern , kodiertes signal und speichermedium, verfahren und system zur dekodierung des kodierten signals |
JP3068002B2 (ja) * | 1995-09-18 | 2000-07-24 | 沖電気工業株式会社 | 画像符号化装置、画像復号化装置及び画像伝送システム |
JPH0998425A (ja) * | 1995-09-29 | 1997-04-08 | Toshiba Corp | 画像符号化装置および画像復号化装置 |
US5959672A (en) * | 1995-09-29 | 1999-09-28 | Nippondenso Co., Ltd. | Picture signal encoding system, picture signal decoding system and picture recognition system |
JPH0997425A (ja) * | 1995-09-29 | 1997-04-08 | Kao Corp | 磁気記録媒体の製造方法 |
JP2000511366A (ja) * | 1995-10-25 | 2000-08-29 | サーノフ コーポレイション | 4分割ツリーベースの可変ブロックサイズ動き推定装置および方法 |
JPH09121358A (ja) | 1995-10-25 | 1997-05-06 | Matsushita Electric Ind Co Ltd | 画像符号化及び復号化装置と方法 |
JP3347954B2 (ja) * | 1995-11-02 | 2002-11-20 | 三菱電機株式会社 | 動画像符号化装置及び動画像復号化装置 |
IL116060A (en) * | 1995-11-19 | 2000-02-17 | Israel State | Method for compression and decompression of a video signal |
US5963673A (en) * | 1995-12-20 | 1999-10-05 | Sanyo Electric Co., Ltd. | Method and apparatus for adaptively selecting a coding mode for video encoding |
US5692063A (en) * | 1996-01-19 | 1997-11-25 | Microsoft Corporation | Method and system for unrestricted motion estimation for video |
US6415056B1 (en) * | 1996-01-22 | 2002-07-02 | Matsushita Electric Industrial, Co., Ltd. | Digital image encoding and decoding method and digital image encoding and decoding device using the same |
US5764553A (en) * | 1996-02-28 | 1998-06-09 | Lsi Logic Corporation | Generalized data processing path for performing transformation and quantization functions for video encoder systems |
US5668599A (en) * | 1996-03-19 | 1997-09-16 | International Business Machines Corporation | Memory management for an MPEG2 compliant decoder |
US5719966A (en) * | 1996-03-29 | 1998-02-17 | David Sarnoff Research Center, Inc. | Apparatus for assessing the visiblity of differences between two image sequences |
JP3628810B2 (ja) | 1996-06-28 | 2005-03-16 | 三菱電機株式会社 | 画像符号化装置 |
US6084912A (en) * | 1996-06-28 | 2000-07-04 | Sarnoff Corporation | Very low bit rate video coding/decoding method and apparatus |
JP3426092B2 (ja) * | 1996-09-12 | 2003-07-14 | シャープ株式会社 | 動画像符号化装置における動き補償フレーム間予測方法 |
US6205178B1 (en) * | 1996-09-20 | 2001-03-20 | Hitachi, Ltd. | Method and synthesizing a predicted image, video coding device and video coding method |
US5870087A (en) | 1996-11-13 | 1999-02-09 | Lsi Logic Corporation | MPEG decoder system and method having a unified memory for transport decode and system controller functions |
JP3748895B2 (ja) * | 1997-02-13 | 2006-02-22 | 三菱電機株式会社 | 符号化装置及び復号装置及び符号化方法及び復号方法 |
US6175592B1 (en) * | 1997-03-12 | 2001-01-16 | Matsushita Electric Industrial Co., Ltd. | Frequency domain filtering for down conversion of a DCT encoded picture |
US6404813B1 (en) * | 1997-03-27 | 2002-06-11 | At&T Corp. | Bidirectionally predicted pictures or video object planes for efficient and flexible video coding |
SG65064A1 (en) * | 1997-04-09 | 1999-05-25 | Matsushita Electric Ind Co Ltd | Image predictive decoding method image predictive decoding apparatus image predictive coding method image predictive coding apparatus and data storage media |
JP3094944B2 (ja) * | 1997-04-25 | 2000-10-03 | 日本電気株式会社 | アービトレーション方法及びその装置 |
US6249318B1 (en) * | 1997-09-12 | 2001-06-19 | 8×8, Inc. | Video coding/decoding arrangement and method therefor |
US5946043A (en) * | 1997-12-31 | 1999-08-31 | Microsoft Corporation | Video coding using adaptive coding of block parameters for coded/uncoded blocks |
US6425056B2 (en) * | 1998-10-26 | 2002-07-23 | Micron Technology, Inc. | Method for controlling a direct mapped or two way set associative cache memory in a computer system |
SG75189A1 (en) * | 1998-12-04 | 2000-09-19 | Canon Kk | Image processing apparatus method therefor and recording medium storing image processing program |
-
1998
- 1998-01-22 JP JP53555298A patent/JP3748895B2/ja not_active Expired - Fee Related
- 1998-01-22 CN CN199898800131A patent/CN1217852A/zh active Pending
- 1998-01-22 EP EP20090075539 patent/EP2173103A3/en not_active Withdrawn
- 1998-01-22 EP EP10010359.7A patent/EP2352297B1/en not_active Expired - Lifetime
- 1998-01-22 CN CN2006101018347A patent/CN1992900B/zh not_active Expired - Lifetime
- 1998-01-22 EP EP20100010360 patent/EP2320664A1/en not_active Withdrawn
- 1998-01-22 CN CNB2003101245648A patent/CN1284376C/zh not_active Expired - Lifetime
- 1998-01-22 EP EP20040026174 patent/EP1511325A3/en not_active Withdrawn
- 1998-01-22 US US09/142,577 patent/US6775326B2/en not_active Expired - Fee Related
- 1998-01-22 EP EP20070022122 patent/EP1887806B1/en not_active Expired - Lifetime
- 1998-01-22 CN CN2006101007963A patent/CN101005624B/zh not_active Expired - Lifetime
- 1998-01-22 EP EP20100010362 patent/EP2352299A1/en not_active Withdrawn
- 1998-01-22 EP EP20100010361 patent/EP2352298A1/en not_active Ceased
- 1998-01-22 EP EP98900693A patent/EP0898427A4/en not_active Ceased
- 1998-01-22 EP EP20100010611 patent/EP2364024A1/en not_active Withdrawn
- 1998-01-22 EP EP20100010364 patent/EP2357829A1/en not_active Ceased
- 1998-01-22 EP EP10010358.9A patent/EP2369847B1/en not_active Expired - Lifetime
- 1998-01-22 WO PCT/JP1998/000232 patent/WO1998036576A1/ja active IP Right Grant
- 1998-01-22 CN CN200610103004.8A patent/CN101026762B/zh not_active Expired - Lifetime
- 1998-01-22 EP EP20100010363 patent/EP2352300A1/en not_active Withdrawn
- 1998-01-22 KR KR1019980708155A patent/KR100309086B1/ko not_active IP Right Cessation
- 1998-02-10 TW TW087101885A patent/TW376650B/zh not_active IP Right Cessation
-
2003
- 2003-08-18 US US10/642,508 patent/US20050100092A1/en not_active Abandoned
- 2003-10-09 JP JP2003350911A patent/JP3836827B2/ja not_active Expired - Lifetime
-
2004
- 2004-01-20 US US10/759,298 patent/US8553772B2/en not_active Expired - Lifetime
-
2005
- 2005-09-01 JP JP2005253043A patent/JP4260786B2/ja not_active Expired - Lifetime
-
2006
- 2006-05-26 JP JP2006146066A patent/JP2006262528A/ja active Pending
-
2007
- 2007-10-31 US US11/980,474 patent/US20080152007A1/en not_active Abandoned
- 2007-10-31 US US11/932,735 patent/US9225945B2/en not_active Expired - Fee Related
- 2007-10-31 US US11/980,497 patent/US20080144719A1/en not_active Abandoned
- 2007-10-31 US US11/932,623 patent/US9232198B2/en not_active Expired - Fee Related
- 2007-12-27 HK HK07114161A patent/HK1109001A1/xx not_active IP Right Cessation
- 2007-12-28 HK HK07114254A patent/HK1109278A1/xx not_active IP Right Cessation
-
2008
- 2008-01-07 HK HK08100149.2A patent/HK1109687A1/xx not_active IP Right Cessation
- 2008-12-26 JP JP2008332878A patent/JP4963496B2/ja not_active Expired - Lifetime
- 2008-12-26 JP JP2008332876A patent/JP4819865B2/ja not_active Expired - Lifetime
- 2008-12-26 JP JP2008332877A patent/JP4755242B2/ja not_active Expired - Lifetime
-
2011
- 2011-08-09 JP JP2011173787A patent/JP4963520B2/ja not_active Expired - Lifetime
-
2012
- 2012-02-13 JP JP2012028852A patent/JP4963526B2/ja not_active Expired - Lifetime
- 2012-02-13 JP JP2012028853A patent/JP5258991B2/ja not_active Expired - Lifetime
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4819865B2 (ja) | 動画像符号化装置及び動画像符号化方法 | |
JP2009071878A5 (ja) | ||
JP4755093B2 (ja) | 画像符号化方法および画像符号化装置 |