[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH0974567A - Moving image encoding/decoding method and device therefor - Google Patents

Moving image encoding/decoding method and device therefor

Info

Publication number
JPH0974567A
JPH0974567A JP24833295A JP24833295A JPH0974567A JP H0974567 A JPH0974567 A JP H0974567A JP 24833295 A JP24833295 A JP 24833295A JP 24833295 A JP24833295 A JP 24833295A JP H0974567 A JPH0974567 A JP H0974567A
Authority
JP
Japan
Prior art keywords
boundary
information
image
frame
arbitrary shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24833295A
Other languages
Japanese (ja)
Inventor
Yutaka Watanabe
裕 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP24833295A priority Critical patent/JPH0974567A/en
Publication of JPH0974567A publication Critical patent/JPH0974567A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve encoding efficiency of arbitrary shaped data contained in the inter-frame predicted error signal of a moving image. SOLUTION: When the boundary 105 of a signal level is extracted by using the image 103 of a previous frame, an intra-frame predicted image 123 is generated by using a motion compensation, the location of the moved boundary is detected in the predicted image, and the inter-frame predicted error 112 with the present frame 101 is encoded on the side of an encoding, the part in which the predicted error is large is divided into an arbitrary shape, a picture element width is designated from a starting point, a terminating point and a picture element width or the starting point and the location of detected boundary, the picture element contained in the image width is encoded, and information necessary for the motion compensation, the information on the starting point, the information on the picture element width, encoded data and the information on the terminating point if necessary are transmitted to the side of a decoding. On the side of the decoding, encoded data 119 is decoded from the image 208 of the previous frame by the entirely same technique as that of the side of the encoding.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は動画像の符号化・復
号方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image encoding / decoding method.

【0002】[0002]

【従来の技術】従来の典型的な動画像の高能率符号化方
法である動き補償フレーム間符号化方法では、予測誤差
を符号化する際に、画像を一定のサイズの小ブロックに
区切り、そのブロック毎に2次元離散コサイン変換(Di
screte Cosine Transform, DCT) などの変換が施され、
変換係数が量子化され、量子化番号がエントロピー符号
化されている。この際、ブロックの量子化情報が全て0
かどうかを判定し、全ての量子係数が0であるブロック
(あるいは数ブロックを1つにまとめたマクロブロッ
ク)にはブロック単位あるいは(あるいはマクロブロッ
ク単位)に有効な量子化係数が存在しないことを示す情
報が与えられていた。
2. Description of the Related Art In a conventional motion-compensated interframe coding method, which is a typical high-efficiency coding method for moving pictures, when coding a prediction error, the picture is divided into small blocks of a certain size, and Two-dimensional discrete cosine transform (Di
screte Cosine Transform, DCT)
The transform coefficient is quantized, and the quantization number is entropy coded. At this time, all the quantization information of the block is 0.
It is determined whether or not there is no effective quantized coefficient in block units (or in macroblock units) in a block (or macroblock in which several blocks are combined into one) in which all quantum coefficients are 0. The information given was given.

【0003】[0003]

【発明が解決しようとする課題】従来の符号化方法で
は、動き補償フレーム間予測誤差信号に対して、変換を
施すブロックあるいはそれらを数個集めたマクロブロッ
ク単位に、レベル0以外の量子化された係数が存在する
かどうかを判定しており、動き補償フレーム間予測誤差
信号を任意形状に分割して符号化する場合に、符号化伝
送すべき領域を示す情報を効率よく示す手法はなかっ
た。
In the conventional coding method, the motion-compensated inter-frame prediction error signal is quantized to a level other than level 0 in units of blocks to be transformed or macroblock units in which several of them are collected. There is no method for efficiently indicating the information indicating the area to be coded and transmitted when the motion compensation inter-frame prediction error signal is divided into arbitrary shapes and coded. .

【0004】本発明の目的は、動画像のフレーム間予測
誤差信号に含まれる任意形状の領域のデータの符号化効
率を改善する動画像符号化・復号方法および装置を提供
することにある。
It is an object of the present invention to provide a moving picture coding / decoding method and apparatus for improving the coding efficiency of data of an arbitrarily shaped area included in an inter-frame prediction error signal of a moving picture.

【0005】[0005]

【課題を解決するための手段】本発明の動画像符号化・
復号方法は、符号化側では、前の時刻の復号フレームを
用いて信号レベルあるいはテクスチャの境界を抽出し、
動き補償を用いてフレーム間予測画像を生成し、該予測
画像の中で移動した境界の位置を検出し、現在のフレー
ムとのフレーム間予測誤差を符号化する際に、予測誤差
の大きい部分を任意形状に分割し、始点と終点と画素
幅、あるいは始点と検出した境界の位置から画素幅を指
定して、それらの幅に含まれる画素を符号化し、動き補
償に必要な情報と始点の情報と画素幅の情報と符号化デ
ータと必要があれば終点の情報を復号側に伝送し、復号
側では、前の時刻の復号フレームから符号化側と全く同
一の手法で信号レベルあるいはテクスチャの境界を抽出
し、動き補償に必要な情報を復号し、動き補償を用いて
フレーム間予測画像を生成し、該予測画像の中で移動し
た境界の位置を検出し、任意形状のフレーム間予測誤差
を復号する際に、始点の情報と必要に応じて終点の情報
を復号しておき、検出した境界の位置と復号した画素幅
の情報に基づいて符号化データを復号することを特徴と
する。
MEANS FOR SOLVING THE PROBLEMS Video coding according to the present invention
On the encoding side, the decoding method uses the decoded frame at the previous time to extract the boundary of the signal level or texture,
An inter-frame prediction image is generated by using motion compensation, a position of a boundary moved in the prediction image is detected, and a part with a large prediction error is detected when encoding an inter-frame prediction error with the current frame. Divide into arbitrary shapes, specify the pixel width from the start point and end point and pixel width, or the position of the boundary detected as the start point, encode the pixels included in those widths, information necessary for motion compensation and start point information The pixel width information, encoded data, and end point information, if necessary, are transmitted to the decoding side, and the decoding side uses the same method as the encoding side from the decoded frame at the previous time to demarcate the signal level or texture boundary. , The information necessary for motion compensation is decoded, the inter-frame prediction image is generated using the motion compensation, the position of the boundary moved in the prediction image is detected, and the inter-frame prediction error of an arbitrary shape is calculated. When decrypting Information and leave decode the information of the end point as required, characterized by decoding the encoded data based on the detected position and the decoded pixel width information of the border.

【0006】本発明の符号化装置は、前フレームの画像
を蓄えるフレームメモリと、現フレームの画像と前記フ
レームメモリに蓄えられた前フレームの画像を入力し、
動きベクトルを検出し、フレーム間予測画像を生成する
動き補償部と、前記フレームメモリに蓄えられた前フレ
ームの画像から信号レベルあるいはテクスチャの境界を
検出し、境界情報として出力する境界情報抽出部と、前
記境界情報を、前記動きベクトルを用いて動き補償し、
境界の予測データを出力する境界予測部と、前記現フレ
ームの画像と前記フレーム間予測画像を入力し、フレー
ム間予測誤差を出力する減算器と、前記フレーム間予測
誤差と前記境界の予測データを入力し、前記フレーム間
予測誤差の大きな部分をまとめ、その領域が前記境界の
予測データを含む場合には、境界の始点と画素幅を、ま
たその領域が境界の端点から始まらない場合には、領域
の始点と終点と画素幅を任意形状指定情報として出力
し、また任意形状の予測誤差信号を出力する符号化領域
決定部と、前記任意形状指定情報と前記任意形状の予測
誤差信号を入力し、任意形状分析フィルタバンク係数を
出力する任意形状分析フィルタバンク処理部と、前記任
意形状分析フィルタバンク係数を量子化、符号化し、符
号化データを出力する量子化符号化部と、前記任意形状
指定情報と前記境界の予測データを入力し、任意形状情
報を再生する符号化領域復号部と、前記符号化データを
量子化値に戻す逆量子化復号部と、前記量子化値に、前
記任意形状情報に基づいて形状毎に任意形状合成フィル
タバンク処理を施し、量子化されたフレーム間予測誤差
画像を出力する任意形状合成フィルタバンク処理部と、
前記量子化されたフレーム間予測誤差画像に前記フレー
ム間予測画像を加算し、局部復号画像として前記フレー
ムメモリに蓄える加算器を有する。
The encoding apparatus of the present invention inputs a frame memory for storing the image of the previous frame, an image of the current frame and the image of the previous frame stored in the frame memory,
A motion compensation unit that detects a motion vector and generates an inter-frame predicted image, and a boundary information extraction unit that detects a signal level or texture boundary from the image of the previous frame stored in the frame memory and outputs it as boundary information. , The boundary information is motion compensated using the motion vector,
A boundary prediction unit that outputs boundary prediction data, a subtracter that inputs the current frame image and the interframe prediction image, and outputs an interframe prediction error, and the interframe prediction error and the boundary prediction data Input, collect a large portion of the inter-frame prediction error, if the region includes the prediction data of the boundary, the starting point of the boundary and the pixel width, if the region does not start from the end point of the boundary, A coding region determination unit that outputs a start point and an end point of a region and a pixel width as arbitrary shape designation information, and outputs a prediction error signal of an arbitrary shape, and inputs the arbitrary shape designation information and the prediction error signal of the arbitrary shape. , An arbitrary shape analysis filter bank processing unit that outputs an arbitrary shape analysis filter bank coefficient, and quantizes and encodes the arbitrary shape analysis filter bank coefficient, and outputs encoded data Quantization coding unit, coding region decoding unit that inputs the arbitrary shape designation information and the prediction data of the boundary and reproduces arbitrary shape information, and dequantization decoding unit that returns the coded data to a quantized value An arbitrary shape synthesis filter bank processing unit that performs, on the quantized value, an arbitrary shape synthesis filter bank process for each shape based on the arbitrary shape information, and outputs a quantized inter-frame prediction error image;
It has an adder which adds the inter-frame prediction image to the quantized inter-frame prediction error image and stores it in the frame memory as a locally decoded image.

【0007】前記符号化領域決定部は、前記フレーム間
予測誤差をしきい値と比較し、しきい値以上の誤差の大
きい部分のデータを出力するしきい値処理部と、前記誤
差の大きい部分のデータと前記境界の予測データを照合
し、後者が前者を含むかどうかチェックし、含む場合に
は境界を含む部分のデータとして、含まない場合には境
界を含まない部分のデータとして振り分けて出力する照
合部と、前記境界を含む部分のデータを入力し、境界を
含む部分の予測誤差情報および始点と画素幅を出力す
る、境界を含む部分の処理部と、前記境界を含まない部
分のデータを入力し、境界を含まない部分の予測誤差情
報および始点/終点と画素幅を出力する、境界を含まな
い部分の処理部と、前記境界を含む部分の予測誤差情報
と前記境界を含まない部分の予測誤差情報を統合し、前
記任意形状の予測誤差信号として出力する第1の統合部
と、前記始点と画素幅と前記始点/終点と画素幅を統合
し、前記任意形状指定情報として出力する第2の統合部
とを有する。
The encoding area determination unit compares the inter-frame prediction error with a threshold value, and outputs data of a portion having a large error equal to or larger than the threshold value, and a portion having the large error. Data is checked against the predicted data of the boundary, and the latter is checked to see if it contains the former. If the latter is included, it is distributed as the data containing the boundary, and if it is not included, it is distributed as the data containing the boundary and output. A collation unit for inputting data of a portion including the boundary, outputting prediction error information and a starting point and a pixel width of the portion including the boundary, a processing unit of the portion including the boundary, and data of a portion not including the boundary , And outputs the prediction error information, the start point / end point, and the pixel width of the part that does not include the boundary, the processing part of the part that does not include the boundary, the prediction error information of the part that includes the boundary, and the A first integration unit that integrates prediction error information of a part and outputs it as the prediction error signal of the arbitrary shape, integrates the start point, the pixel width, the start point / end point, and the pixel width, and outputs as the arbitrary shape designation information. And a second integration unit.

【0008】本発明の復号装置は、符号化装置の符号化
データを量子化値に戻す逆量子化復号部と、前記量子化
値に任意形状情報に基づいて、形状毎に任意形状合成フ
ィルタバンク処理を施し、量子化されたフレーム間予測
誤差画像を出力する任意形状合成フィルタバンク処理部
と、前フレームの画像を蓄えるフレームメモリと、前記
フレームメモリに蓄えられた前フレームの画像を入力
し、信号レベルあるいはテクスチャの境界を検出し、境
界情報として出力する境界情報抽出部と、前記境界情報
を請求項2の前記動きベクトルを用いて動き補償し、境
界の予測データを得る境界予測部と、請求項2の前記任
意形状指定情報と前記境界の予測データを入力し、任意
形状の始点あるいは前記境界の予測データから得られる
境界の始点および任意形状終点と画素幅の情報とを用い
て、符号化データを配置すべき領域を記述した前記任意
形状情報を出力する符号化領域復号部と、前記フレーム
メモリに蓄えられた前フレームの画像を、前記動きベク
トルを用いて動き補償し、フレーム間予測画像を出力す
る動き補償部と、前記量子化されたフレーム間予測誤差
画像に前記フレーム間予測画像を加算し、復号画像とし
て出力するとともに前記フレームメモリに蓄える加算器
を有する。
The decoding apparatus of the present invention comprises an inverse quantization decoding unit for returning the encoded data of the encoding apparatus to a quantized value, and an arbitrary shape synthesis filter bank for each shape based on the quantized value and arbitrary shape information. An arbitrary shape synthesis filter bank processing unit that performs processing and outputs a quantized inter-frame prediction error image, a frame memory that stores the image of the previous frame, and an image of the previous frame that is stored in the frame memory are input, A boundary information extraction unit that detects a signal level or texture boundary and outputs it as boundary information; and a boundary prediction unit that performs motion compensation on the boundary information using the motion vector of claim 2 to obtain boundary prediction data, 3. The arbitrary shape designation information according to claim 2 and the prediction data of the boundary are input, and the starting point of the arbitrary shape or the boundary start point and the boundary obtained from the prediction data of the boundary Using the shape end point and the information of the pixel width, the coding area decoding unit that outputs the arbitrary shape information describing the area where the coded data is to be arranged, and the image of the previous frame stored in the frame memory, A motion compensation unit that performs motion compensation using the motion vector and outputs an interframe prediction image, and adds the interframe prediction image to the quantized interframe prediction error image, and outputs the decoded image as well as the frame. It has an adder that stores it in memory.

【0009】[0009]

【発明の実施の形態】本発明は、動き補償フレーム間予
測誤差信号を符号化する際に、画像データの急峻な変化
をエッジフィルタやテクスチャ解析等の手法を用いて検
出し、検出した境界の位置に基づいて符号化を行う部分
と、全く境界に関係なく符号化する部分とに分離すると
ともに、予測誤差の大きな部分を符号化の対象とする。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention detects a sharp boundary of image data by using a technique such as an edge filter or texture analysis when encoding a motion-compensated inter-frame prediction error signal, and detects a detected boundary. A part to be coded based on the position and a part to be coded irrespective of the boundary are separated, and a part having a large prediction error is the object of coding.

【0010】符号化データを正しく復号するためには、
符号化側と全く同じ処理を復号側で行う必要がある。そ
のためには、通常、復号側に境界の情報を伝送する必要
がある。しかし、この情報量が膨大であるため、符号化
効率が低下する。そこで、動き補償フレーム間予測に用
いる前フレームの復号画像のデータを利用する。前フレ
ームの復号画像に対して、エッジフィルタやテクスチャ
解析などの手法を用いて画像データの急峻な変化を検出
し、これを境界とする(図3)。その画像を動き補償し
て現在のフレームの境界を予測するデータを作成する
(図4)。
In order to correctly decode the encoded data,
It is necessary for the decoding side to perform exactly the same processing as the encoding side. For that purpose, it is usually necessary to transmit boundary information to the decoding side. However, since the amount of this information is huge, the coding efficiency decreases. Therefore, the data of the decoded image of the previous frame used for motion-compensated interframe prediction is used. For the decoded image of the previous frame, a sharp change in the image data is detected by using a technique such as an edge filter or texture analysis, and this is used as a boundary (FIG. 3). Data for predicting the boundary of the current frame is created by motion-compensating the image (FIG. 4).

【0011】動き補償フレーム間予測誤差信号のうち、
予測誤差の大きな部分を任意形状に分割する(図5)。
任意形状の画像信号を、境界の周囲にかたまっているも
のと、境界とは関係なく孤立しているかたまりとに分類
する。さらに、これらの領域に対して、DPCMなどの
フレーム内予測や任意形状DCTによる処理を行った
後、得られたデータに対して量子化を行う。量子化の結
果得られたレベルが0でないとき、境界の周囲のデータ
に対しては始点と画素幅を指定し(図6(B))、境界
とは関係ない部分に対しては、始点、終点と画素幅を指
定する(図6(A))。これらの位置情報は、任意形状
のフレーム間予測誤差信号の符号化データとともに、復
号側へ伝送する。
Of the motion-compensated inter-frame prediction error signals,
A part with a large prediction error is divided into arbitrary shapes (FIG. 5).
Image signals of arbitrary shape are classified into those that are clustered around the boundary and those that are isolated regardless of the boundary. Furthermore, after intra-frame prediction such as DPCM or processing by an arbitrary shape DCT is performed on these regions, the obtained data is quantized. When the level obtained as a result of the quantization is not 0, the starting point and the pixel width are specified for the data around the boundary (FIG. 6 (B)), and the starting point is specified for the part not related to the boundary. The end point and the pixel width are designated (FIG. 6 (A)). The position information is transmitted to the decoding side together with the encoded data of the inter-frame prediction error signal of arbitrary shape.

【0012】復号側では、前の時刻の復号フレームから
符号化側と全く同一の手法で信号レベルあるいはテクス
チャの境界を抽出し、動き補償を用いてフレーム間予測
画像を生成し、予測画像の中で移動した境界の位置を検
出しておく。
On the decoding side, the signal level or texture boundary is extracted from the decoded frame at the previous time by the same method as on the encoding side, an inter-frame predicted image is generated using motion compensation, and The position of the boundary moved by is detected.

【0013】復号側では任意形状のフレーム間予測誤差
信号の符号化データを復号し、始点と画素幅の情報、あ
るいは始点、終点と画素幅の位置情報に基づき、予測誤
差画像中に配置する。
On the decoding side, the coded data of the inter-frame prediction error signal of arbitrary shape is decoded and placed in the prediction error image based on the information of the start point and the pixel width or the position information of the start point, the end point and the pixel width.

【0014】ここで、動き補償は最も簡単なブロックマ
ッチング型から、投射変換やアフィン変換などの複雑な
ものまで、どれでも組み合わせることができる。
Here, the motion compensation can be combined from the simplest block matching type to the complex one such as projection transformation and affine transformation.

【0015】また、任意形状の符号化には、DPCMや
任意形状DCTだけでなく、形状情報のみから基底を生
成する変換あるいは、フィルタバンクなどどのようなも
のであっても構わない。また、任意形状の変換を含み、
その拡張となっている任意形状の分析・合成フィルタバ
ンクを用いることができる。
The arbitrary shape encoding may be not only DPCM or arbitrary shape DCT, but also conversion such as generating a base from only shape information or a filter bank. Also, including arbitrary shape transformation,
An analysis / synthesis filter bank of any shape, which is an extension of the above, can be used.

【0016】本発明では、動き補償フレーム間予測誤差
のうち、予測誤差の大きい部分が含まれる任意形状を指
定するのに、前のフレームから抽出した境界情報を動き
補償し、現在のフレームの境界を予測している。任意形
状を指定するためには、任意形状の始点を境界線上に拘
束して指定し、さらに画素幅を指定する。これにより、
1フレーム全ての領域の予測誤差を符号化して伝送する
必要がない。また、境界上に始点を持たない領域の予測
誤差が大きい場合もあり得る。これに対しては始点と終
点の座標および画素幅を指定することにより、形状を指
定できる。
According to the present invention, the boundary information extracted from the previous frame is motion-compensated to specify an arbitrary shape of the motion-compensated inter-frame prediction error that includes a portion having a large prediction error. Is predicting. In order to specify the arbitrary shape, the starting point of the arbitrary shape is restricted and specified on the boundary line, and further the pixel width is specified. This allows
It is not necessary to encode and transmit the prediction error in the entire area of one frame. In addition, the prediction error of a region having no starting point on the boundary may be large. For this, the shape can be specified by specifying the coordinates of the start point and the end point and the pixel width.

【0017】[0017]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0018】図1(A)は本発明の一実施例の符号化装
置のブロック図である。
FIG. 1A is a block diagram of an encoding apparatus according to an embodiment of the present invention.

【0019】フレームメモリ102は前フレームの画像
103を蓄える。動き補償部106は現フレームの画像
101とフレームメモリ102に蓄えられた前フレーム
の画像103を入力し、動きベクトル107を検出し、
フレーム間予測画像108を生成する。境界情報抽出部
104はフレームメモリ102に蓄えられた前フレーム
の画像103から信号レベルの境界を検出し、境界情報
105として出力する。境界予測部109は、境界情報
105を、動きベクトル107を用いて動き補償し、境
界の予測データ110を出力する。減算器111は、現
フレームの画像101とフレーム間予測画像108を入
力し、フレーム間予測誤差112を出力する。符号化領
域決定部113は、フレーム間予測誤差112と境界の
予測データ110を入力して、フレーム間予測誤差11
2の大きな部分をまとめ、その領域が境界の予測データ
110を含む場合には、境界の始点と画素幅を、またそ
の領域が境界の端点から始まらない場合には、領域の始
点と終点と画素幅を任意形状指定情報115として出力
し、また任意形状の予測誤差信号114を出力する。任
意形状DCT部116は任意形状指定情報115と任意
形状の予測誤差信号114を入力し、任意形状DCT係
数117を出力する。量子化符号化部118は任意形状
DCT係数117を量子化、符号化し、符号化データ1
19を出力する。符号化領域復号部126は任意形状指
定情報115と境界の予測データ110を入力し、任意
形状情報127を再生する。逆量子化復号部120は符
号化データ119を量子化値121に戻す。任意形状I
DCT部122は量子化値121に任意形状情報127
に基づいて形状毎に任意形状IDCTを施し、量子化さ
れたフレーム間予測誤差画像123を出力する。加算器
124は量子化されたフレーム間予測誤差画像123に
フレーム間予測画像108を加算し、局部復号画像12
5としてフレームメモリ102に蓄える。
The frame memory 102 stores the image 103 of the previous frame. The motion compensation unit 106 inputs the image 101 of the current frame and the image 103 of the previous frame stored in the frame memory 102, detects the motion vector 107,
The inter-frame predicted image 108 is generated. The boundary information extraction unit 104 detects the boundary of the signal level from the image 103 of the previous frame stored in the frame memory 102, and outputs it as boundary information 105. The boundary prediction unit 109 performs motion compensation on the boundary information 105 using the motion vector 107, and outputs boundary prediction data 110. The subtractor 111 inputs the image 101 of the current frame and the inter-frame prediction image 108, and outputs the inter-frame prediction error 112. The coding area determination unit 113 inputs the inter-frame prediction error 112 and the boundary prediction data 110, and inputs the inter-frame prediction error 11
If the area includes the prediction data 110 of the boundary, the start point and the pixel width of the boundary are set. If the area does not start from the end point of the boundary, the start point and the end point and the pixel of the area are set. The width is output as the arbitrary shape designation information 115, and the prediction error signal 114 of the arbitrary shape is output. The arbitrary shape DCT unit 116 inputs the arbitrary shape designation information 115 and the arbitrary shape prediction error signal 114, and outputs an arbitrary shape DCT coefficient 117. The quantization coding unit 118 quantizes and codes the arbitrarily shaped DCT coefficient 117 to generate the coded data 1
19 is output. The coding area decoding unit 126 inputs the arbitrary shape designation information 115 and the boundary prediction data 110, and reproduces the arbitrary shape information 127. The inverse quantization decoding unit 120 returns the encoded data 119 to the quantized value 121. Arbitrary shape I
The DCT unit 122 converts the quantized value 121 into arbitrary shape information 127.
An arbitrary shape IDCT is performed for each shape based on the above, and a quantized inter-frame prediction error image 123 is output. The adder 124 adds the inter-frame prediction image 108 to the quantized inter-frame prediction error image 123, and outputs the locally decoded image 12
5 is stored in the frame memory 102.

【0020】図1(B)は本発明の一実施例の復号装置
のブロック図である。
FIG. 1B is a block diagram of a decoding apparatus according to an embodiment of the present invention.

【0021】逆量子化復号部201は符号化データ11
9を量子化値202に戻す。任意形状IDCT部203
は、量子化値202に任意形状情報216に基づいて、
形状毎に任意形状IDCTを施し、量子化されたフレー
ム間予測誤差画像204を出力する。フレームメモリ2
07は前フレームの画像208を蓄える。境界情報抽出
部211はフレームメモリ207に蓄えられた前フレー
ムの画像208を入力し、信号レベルの境界を検出し、
境界情報212として出力する。境界予測部213は、
境界情報212を、動きベクトル107を用いて動き補
償し、境界の予測データ214を得る。符号化領域復号
部215は、任意形状指定情報115と境界の予測デー
タ214を入力し、任意形状の始点あるいは境界の予測
データ214から得られる境界の始点および任意形状の
終点と画素幅の情報とを用いて、符号化データを配置す
べき領域を記述した任意形状情報216を出力する。動
き補償部209は、フレームメモリ207に蓄えられた
前フレームの画像208を、動きベクトル107を用い
て動き補償し、フレーム間予測画像210を出力する。
加算器205は、量子化されたフレーム間予測誤差画像
204にフレーム間予測画像210を加算し、復号画像
206として表示するとともにフレームメモリ207に
蓄える。
The inverse quantization decoding unit 201 uses the encoded data 11
9 is returned to the quantized value 202. Arbitrary shape IDCT unit 203
Is the quantized value 202 based on the arbitrary shape information 216,
Arbitrary shape IDCT is performed for each shape, and the quantized inter-frame prediction error image 204 is output. Frame memory 2
07 stores the image 208 of the previous frame. The boundary information extraction unit 211 inputs the image 208 of the previous frame stored in the frame memory 207, detects the boundary of the signal level,
It is output as the boundary information 212. The boundary prediction unit 213
The boundary information 212 is motion-compensated using the motion vector 107 to obtain boundary prediction data 214. The coding area decoding unit 215 inputs the arbitrary shape designation information 115 and the prediction data 214 of the boundary, and inputs the start point of the arbitrary shape or the end point of the boundary and the information of the pixel width obtained from the prediction data 214 of the boundary. Is used to output the arbitrary shape information 216 describing the area in which the encoded data is to be arranged. The motion compensation unit 209 motion-compensates the image 208 of the previous frame stored in the frame memory 207 using the motion vector 107, and outputs an inter-frame predicted image 210.
The adder 205 adds the inter-frame predicted image 210 to the quantized inter-frame predicted error image 204, displays it as a decoded image 206, and stores it in the frame memory 207.

【0022】次に、本実施例の動作を説明する。Next, the operation of this embodiment will be described.

【0023】現フレームの画像101とフレームメモリ
102に蓄えられた前フレームの画像103は動き補償
部106に入力され、動きベクトル107が検出され、
フレーム間予測画像108が生成されるとともに、動き
ベクトル107が伝送路に出力される。フレーム間予測
画像108は、予測に使われる他、次のフレームの予測
のために必要な局部復号画像125を生成するために用
いられる。
The image 101 of the current frame and the image 103 of the previous frame stored in the frame memory 102 are input to the motion compensation section 106, and the motion vector 107 is detected.
The inter-frame predicted image 108 is generated and the motion vector 107 is output to the transmission path. The inter-frame predicted image 108 is used not only for prediction but also for generating a locally decoded image 125 necessary for prediction of the next frame.

【0024】フレームメモリ102に蓄えられた前フレ
ームの画像103は、境界情報抽出部104において、
Sobelオペレータなどのエッジフィルタによって、
信号レベルの境界が検出される。得られた境界情報10
5は、境界予測部109において、動きベクトル107
を用いて動き補償され、境界の予測データ110が得ら
れる。
The image 103 of the previous frame stored in the frame memory 102 is processed by the boundary information extraction unit 104.
By edge filter such as Sobel operator,
Signal level boundaries are detected. Obtained boundary information 10
5 is the motion vector 107 in the boundary prediction unit 109.
Is used to obtain the boundary prediction data 110.

【0025】現フレーム画像101とフレーム間予測画
像108とのフレーム間予測誤差112が減算器111
から出力され、境界の予測データ110とともに符号化
領域決定部113に入力される。境界の予測データ11
0は符号化領域決定部113において、符号化すべき任
意形状を決定するためのデータとして用いられる。予測
誤差の大きな部分がまとめられ、その領域が境界の予測
データを含む場合には、境界の始点と画素幅が、またそ
の領域が境界の端点から始まらない場合には、領域の始
点と終点と画素幅が、任意形状指定情報115として出
力され、復号側に伝送される。さらに、符号化領域決定
部113からは任意形状の予測誤差信号114も出力さ
れる。
The inter-frame prediction error 112 between the current frame image 101 and the inter-frame predicted image 108 is subtracted by the subtractor 111.
Is output from the output terminal and is input to the coding area determination unit 113 together with the boundary prediction data 110. Boundary prediction data 11
0 is used as data for determining an arbitrary shape to be encoded in the encoding area determination unit 113. If the areas with large prediction errors are grouped together and the area includes boundary prediction data, the boundary start point and pixel width are used.If the area does not start from the boundary end points, the area start and end points are used. The pixel width is output as the arbitrary shape designation information 115 and transmitted to the decoding side. Further, the coding region determination unit 113 also outputs a prediction error signal 114 having an arbitrary shape.

【0026】任意形状の予測誤差信号114と任意形状
指定情報115は任意形状DCT部116に入力され、
DCT係数117が出力される。DCT係数117はさ
らに量子化符号化部118において、量子化され、符号
化され、符号化データ119が伝送される。
The arbitrary shape prediction error signal 114 and the arbitrary shape designation information 115 are input to the arbitrary shape DCT unit 116,
The DCT coefficient 117 is output. The DCT coefficient 117 is further quantized and encoded by the quantization encoding unit 118, and the encoded data 119 is transmitted.

【0027】一方、任意形状指定情報115は境界の予
測データ110とともに、符号化領域復号部126に入
力され、ここから任意形状情報127が再生される。こ
の任意形状情報127は任意形状IDCT部122で用
いられる。
On the other hand, the arbitrary shape designation information 115 is input to the coding area decoding unit 126 together with the boundary prediction data 110, and the arbitrary shape information 127 is reproduced from this. This arbitrary shape information 127 is used by the arbitrary shape IDCT unit 122.

【0028】符号化データ119は逆量子化復号部12
0において、量子化値121に戻される。量子化値12
1は、任意形状IDCT部122において、任意形状情
報127に基づいて、形状毎に任意形状のIDCTが施
される。その結果、量子化されたフレーム間予測誤差画
像123が得られる。
The encoded data 119 is the inverse quantization decoding unit 12
At 0, the quantized value 121 is restored. Quantized value 12
In the arbitrary shape IDCT unit 122, the arbitrary shape IDCT 1 is applied to each shape based on the arbitrary shape information 127. As a result, the quantized inter-frame prediction error image 123 is obtained.

【0029】量子化されたフレーム間予測誤差画像12
3にはフレーム間予測画像108が加算器124で加算
され、局部復号画像125としてフレームメモリ102
に蓄えられる。
Quantized inter-frame prediction error image 12
3, the inter-frame predicted image 108 is added by the adder 124, and the locally decoded image 125 is added to the frame memory 102.
Is stored in

【0030】符号化データ119は逆量子化復号部20
1において、量子化値202に戻される。量子化値20
2は、任意形状IDCT部203において、任意形状情
報216に基づいて、形状毎に任意形状IDCTが施さ
れる。その結果、量子化されたフレーム間予測誤差画像
204が得られる。
The encoded data 119 is transferred to the inverse quantization decoding unit 20.
At 1, the quantization value 202 is restored. Quantization value 20
2, the arbitrary shape IDCT unit 203 performs an arbitrary shape IDCT for each shape based on the arbitrary shape information 216. As a result, the quantized inter-frame prediction error image 204 is obtained.

【0031】フレームメモリ207に蓄えられた前フレ
ームの画像208は、境界情報抽出部211において、
Sobelオペレータなどのエッジフィルタによって、
信号レベルの境界が検出される。得られた境界情報21
2は、境界予測部213において、動きベクトル107
を用いて動き補償され、境界の予測データ214が得ら
れる。
The image 208 of the previous frame stored in the frame memory 207 is processed by the boundary information extraction unit 211.
By edge filter such as Sobel operator,
Signal level boundaries are detected. Obtained boundary information 21
2 is the motion vector 107 in the boundary prediction unit 213.
Is used to obtain the boundary prediction data 214.

【0032】任意形状指定情報115と境界の予測デー
タ214とが符号化領域復号部215に入力される。符
号化領域復号部215からは,任意形状の始点あるいは
境界の予測データ214から得られる境界の始点、およ
び任意形状の終点と画素幅の情報と用いて、符号化デー
タを配置すべき領域を記述した任意形状情報216が出
力される。
The arbitrary shape designation information 115 and the boundary prediction data 214 are input to the coding area decoding unit 215. The coding area decoding unit 215 describes the area in which the coded data is to be arranged, using the starting point of the arbitrary shape or the boundary starting point obtained from the prediction data 214 of the boundary, the ending point of the arbitrary shape, and the pixel width information. The arbitrary shape information 216 is output.

【0033】また、フレームメモリ207に蓄えられた
前フレームの画像208は、動き補償部209におい
て、動きベクトル107を用いて動き補償され、フレー
ム間予測画像210が出力される。
The image 208 of the previous frame stored in the frame memory 207 is motion-compensated by the motion compensator 209 using the motion vector 107, and the inter-frame predicted image 210 is output.

【0034】量子化されたフレーム間予測誤差画像20
4には加算器205でフレーム間予測画像210が加算
され、復号画像206として表示される他、フレームメ
モリ207に蓄えられる。
Quantized inter-frame prediction error image 20
The inter-frame predicted image 210 is added to 4 by the adder 205 and displayed as the decoded image 206 and stored in the frame memory 207.

【0035】図2は図1(A)中の符号化領域決定部1
13のブロック図である。
FIG. 2 shows a coding area determining unit 1 in FIG. 1 (A).
13 is a block diagram of FIG.

【0036】しきい値処理部301は、フレーム間予測
誤差112をしきい値と比較し、しきい値以上の誤差の
大きい部分のデータ302を出力する。照合部303
は、誤差の大きい部分のデータ302と境界の予測デー
タ110を照合し、後者が前者と含むかどうかチェック
し、含む場合には境界を含む部分のデータ304とし
て、含まない場合には境界を含まない部分のデータ30
5として振り分けて出力する。境界を含む部分の処理部
306は、境界を含む部分のデータ304を入力し、境
界を含む部分の予測誤差情報308および始点と画素幅
311を出力する。境界を含まない部分の処理部307
は、境界を含まない部分のデータ305を入力し、境界
を含まない部分の予測誤差情報309および始点/終点
と画素幅310を出力する。第1の統合部312は境界
を含む部分の予測誤差情報308と境界を含まない部分
の予測誤差情報309を統合し、任意形状の予測誤差信
号114として出力する。第2の統合部313は、始点
と画素幅311と始点/終点と画素幅310を統合し、
任意形状指定情報115として出力する。
The threshold processing unit 301 compares the inter-frame prediction error 112 with a threshold and outputs the data 302 of a portion having a larger error than the threshold. Collating unit 303
Compares the data 302 having a large error with the boundary prediction data 110, checks whether the latter includes the former, and if the latter includes the boundary, the data 304 including the boundary is included. If not, the boundary is included. Data of the missing part 30
It is distributed as 5 and output. The processing unit 306 of the part including the boundary inputs the data 304 of the part including the boundary, and outputs the prediction error information 308 of the part including the boundary, the starting point, and the pixel width 311. The processing unit 307 that does not include the boundary
Inputs the data 305 of the portion not including the boundary, and outputs the prediction error information 309, the start point / end point and the pixel width 310 of the portion not including the boundary. The first integration unit 312 integrates the prediction error information 308 of the portion including the boundary and the prediction error information 309 of the portion not including the boundary, and outputs the prediction error signal 114 having an arbitrary shape. The second integration unit 313 integrates the start point and the pixel width 311, the start point / end point, and the pixel width 310,
It is output as the arbitrary shape designation information 115.

【0037】次に、符号化領域決定部113の動作を説
明する。
Next, the operation of the coding area determining unit 113 will be described.

【0038】まず、動き補償されたフレーム間予測誤差
112がしきい値処理部301においてしきい値と比較
され、しきい値以上の誤差の大きい部分のデータ302
が出力される。誤差の大きい部分のデータ302と境界
の予測データ110が照合部303において照合され、
後者が前者を含むかどうかチェックされる。含む場合に
は境界を含む部分のデータ304として、また含まない
場合には境界を含まない部分のデータ305として、境
界を含む部分の処理部306および境界を含まない部分
の処理部307に振り分けられる。境界を含む部分の処
理部306からは、境界を含む部分の予測誤差情報30
8および始点と画素幅311が出力される。境界を含ま
ない部分の処理部307からは、境界を含まない部分の
予測誤差情報309および始点/終点と画素幅310が
出力される。境界を含む部分の予測誤差情報308と境
界を含まない部分の予測誤差情報309は第1の統合部
312において統合され、任意形状の予測誤差信号11
3として出力される。始点と画素幅311と始点/終点
と画素幅310は第2の統合部313において統合さ
れ、任意形状指定情報114として出力される。
First, the motion-compensated inter-frame prediction error 112 is compared with a threshold value in the threshold value processing unit 301, and the data 302 of a portion having a larger error than the threshold value is obtained.
Is output. The data 302 having a large error and the boundary prediction data 110 are collated by the collation unit 303,
It is checked if the latter contains the former. If it includes the boundary, the data 304 of the portion including the boundary, and if it does not include the boundary, the data 305 of the portion not including the boundary is distributed to the processing unit 306 including the boundary and the processing unit 307 including the boundary. . From the processing unit 306 of the part including the boundary, the prediction error information 30 of the part including the boundary is obtained.
8 and the starting point and the pixel width 311 are output. The prediction error information 309, the start point / end point, and the pixel width 310 of the portion that does not include the boundary are output from the processing unit 307 that does not include the boundary. The prediction error information 308 of the portion including the boundary and the prediction error information 309 of the portion not including the boundary are integrated by the first integration unit 312, and the prediction error signal 11 having an arbitrary shape is obtained.
It is output as 3. The start point / pixel width 311, the start point / end point, and the pixel width 310 are integrated by the second integration unit 313 and output as the arbitrary shape designation information 114.

【0039】ここで、フレーム間予測誤差の大きい部分
は抽出するのに、しきい値による比較を用いる例を示し
たが、一旦実際に変換などを行って量子化した後、量子
化レベルが0でない量子化値をもつ部分を抽出する方法
を用いることができる。
Here, an example in which comparison by a threshold value is used to extract a portion having a large inter-frame prediction error has been described. However, after the actual conversion is performed and quantization is performed, the quantization level becomes 0. A method of extracting a portion having a non-quantized value can be used.

【0040】[0040]

【発明の効果】以上説明したように、本発明は、動き補
償フレーム間予測誤差信号のうち符号化する必要のある
部分だけを、少ない情報量で指定することができるた
め、高い符号化効率を達成できる効果がある。
As described above, according to the present invention, only a portion of the motion-compensated inter-frame prediction error signal that needs to be coded can be designated with a small amount of information, so that high coding efficiency can be achieved. There is an effect that can be achieved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の符号化装置(図1(A))
と復号装置(図1(B))のブロック図である。
FIG. 1 is an encoding device according to an embodiment of the present invention (FIG. 1 (A)).
2 is a block diagram of a decoding device (FIG. 1 (B)).

【図2】図1(A)中の符号化領域決定部113のブロ
ック図である。
FIG. 2 is a block diagram of a coding area determination unit 113 in FIG.

【図3】画像の境界線の検出例を示す図である。FIG. 3 is a diagram illustrating an example of detecting a boundary line of an image.

【図4】図3の検出された境界線をもとに予測された境
界線の例を示す図である。
4 is a diagram showing an example of a boundary line predicted based on the detected boundary line in FIG.

【図5】図4の動き補償フレーム間予測誤差信号のう
ち、予測誤差の大きな部分を任意形状に分割した例を示
す図である。
5 is a diagram showing an example in which a portion having a large prediction error in the motion compensation inter-frame prediction error signal of FIG. 4 is divided into arbitrary shapes.

【図6】図5の分割形状に対して、始点、終点、画素幅
を指定した例を示す図である。
FIG. 6 is a diagram showing an example in which a start point, an end point, and a pixel width are designated for the divided shape of FIG.

【符号の説明】[Explanation of symbols]

101 入力画素 102 フレームメモリ 103 前フレームの画像 104 境界情報抽出部 105 境界情報 106 動き補償部 107 動きベクトル 108 フレーム間予測画像 109 境界予測部 110 境界の予測データ 111 減算器 112 フレーム間予測誤差 113 符号化領域決定部 114 任意形状の予測誤差信号 115 任意形状指定情報 116 任意形状DCT部 117 DCT係数 118 量子化符号化部 119 符号化データ 120 逆量子化復号部 121 量子化値 122 任意形状IDCT部 123 量子化されたフレーム間予測誤差画像 124 加算器 125 局部復号画像 126 符号化領域復号部 127 任意形状情報 201 逆量子化復号部 202 量子化値 203 任意形状IDCT部 204 量子化されたフレーム間予測誤差画像 205 加算器 206 復号画像 207 フレームメモリ 208 前フレームの画像 209 動き補償部 210 フレーム間予測画像 211 境界情報抽出部 212 境界情報 213 境界予測部 214 境界の予測データ 215 符号化領域復号部 216 任意形状情報 301 しきい値処理部 302 誤差の大きい部分のデータ 303 照合部 304 境界を含む部分のデータ 305 境界を含まない部分のデータ 306 境界を含む部分の処理部 307 境界を含まない部分の処理部 308 境界を含む部分の予測誤差情報 309 境界含まない部分の予測誤差情報 310 始点/終点と画素幅 311 始点と画素幅 312,313 統合部 101 Input Pixel 102 Frame Memory 103 Image of Previous Frame 104 Boundary Information Extraction Unit 105 Boundary Information 106 Motion Compensation Unit 107 Motion Vector 108 Inter-frame Predicted Image 109 Boundary Prediction Unit 110 Boundary Prediction Data 111 Subtractor 112 Inter-frame Prediction Error 113 Code Coded region determination unit 114 Arbitrary shape prediction error signal 115 Arbitrary shape designation information 116 Arbitrary shape DCT unit 117 DCT coefficient 118 Quantization encoding unit 119 Encoded data 120 Inverse quantization decoding unit 121 Quantization value 122 Arbitrary shape IDCT unit 123 Quantized inter-frame prediction error image 124 Adder 125 Locally decoded image 126 Encoding area decoding unit 127 Arbitrary shape information 201 Inverse quantization decoding unit 202 Quantization value 203 Arbitrary shape IDCT unit 204 Quantized inter-frame prediction Measurement error image 205 Adder 206 Decoded image 207 Frame memory 208 Image of previous frame 209 Motion compensation unit 210 Inter-frame predicted image 211 Boundary information extraction unit 212 Boundary information 213 Boundary prediction unit 214 Boundary prediction data 215 Coding region decoding unit 216 Arbitrary shape information 301 Threshold processing unit 302 Data with large error 303 Collation unit 304 Data with portion including boundary 305 Data with portion without boundary 306 Processing portion with portion including boundary 307 Processing with portion not including boundary Part 308 Prediction error information of part including boundary 309 Prediction error information of part not including boundary 310 Start point / end point and pixel width 311 Start point and pixel width 312, 313 Integration section

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 動画像符号化・復号方法において、 符号化側では、前の時刻の復号フレームを用いて信号レ
ベルあるいはテクスチャの境界を抽出し、動き補償を用
いてフレーム間予測画像を生成し、該予測画像の中で移
動した境界の位置を検出し、現在のフレームとのフレー
ム間予測誤差を符号化する際に、予測誤差の大きい部分
を任意形状に分割し、始点と終点と画素幅、あるいは始
点と検出した境界の位置から画素幅を指定して、該画素
幅に含まれる画素を符号化し、動き補償に必要な情報と
始点の情報と画素幅の情報と符号化データと必要があれ
ば終点の情報を復号側に伝送し、 復号側では、前の時刻の復号フレームから符号化側と全
く同一の手法で信号レベルあるいはテクスチャの境界を
抽出し、動き補償に必要な情報を復号し、動き補償を用
いてフレーム間予測画像を生成し、該予測画像の中で移
動した境界の位置を検出し、任意形状のフレーム間予測
誤差を復号する際に、始点の情報と必要に応じて終点の
情報を復号しておき、検出した境界の位置と復号した画
素幅の情報に基づいて符号化データを復号することを特
徴とする動画像符号化・復号方法。
1. A moving picture coding / decoding method, wherein the coding side extracts a signal level or texture boundary using a decoded frame at a previous time and generates an inter-frame predicted image using motion compensation. , When detecting the position of the boundary that has moved in the predicted image and encoding the inter-frame prediction error with the current frame, divide the part with the large prediction error into an arbitrary shape, and start and end points and pixel width , Or the pixel width is specified from the position of the boundary detected as the start point, the pixels included in the pixel width are encoded, and the information necessary for motion compensation, the start point information, the pixel width information, and the encoded data are required. If there is, the end point information is transmitted to the decoding side, and the decoding side extracts the signal level or texture boundary from the decoded frame at the previous time using exactly the same method as the coding side, and decodes the information necessary for motion compensation. Then move When an inter-frame predicted image is generated using compensation, the position of a boundary that has moved in the predicted image is detected, and when decoding an inter-frame prediction error of an arbitrary shape, information on the start point and, if necessary, the end point A moving picture coding / decoding method characterized in that information is decoded and coded data is decoded based on the detected boundary position and decoded pixel width information.
【請求項2】 前フレームの画像を蓄えるフレームメモ
リと、 現フレームの画像と前記フレームメモリに蓄えられた前
フレームの画像を入力し、動きベクトルを検出し、フレ
ーム間予測画像を生成する動き補償部と、 前記フレームメモリに蓄えられた前フレームの画像から
信号レベルあるいはテクスチャの境界を検出し、境界情
報として出力する境界情報抽出部と、 前記境界情報を、前記動きベクトルを用いて動き補償
し、境界の予測データを出力する境界予測部と、 前記現フレームの画像と前記フレーム間予測画像を入力
し、フレーム間予測誤差を出力する減算器と、 前記フレーム間予測誤差と前記境界の予測データを入力
し、前記フレーム間予測誤差の大きな部分をまとめ、そ
の領域が前記境界の予測データを含む場合には、境界の
始点と画素幅を、またその領域が境界の端点から始まら
ない場合には、領域の始点と終点と画素幅を任意形状指
定情報として出力し、また任意形状の予測誤差信号を出
力する符号化領域決定部と、 前記任意形状指定情報と前記任意形状の予測誤差信号を
入力し、任意形状分析フィルタバンク係数を出力する任
意形状分析フィルタバンク処理部と、 前記任意形状分析フィルタバンク係数を量子化、符号化
し、符号化データを出力する量子化符号化部と、 前記任意形状指定情報と前記境界の予測データを入力
し、任意形状情報を再生する符号化領域復号部と、 前記符号化データを量子化値に戻す逆量子化復号部と、 前記量子化値に、前記任意形状情報に基づいて形状毎に
任意形状合成フィルタバンク処理を施し、量子化された
フレーム間予測誤差画像を出力する任意形状合成フィル
タバンク処理部と、 前記量子化されたフレーム間予測誤差画像に前記フレー
ム間予測画像を加算し、局部復号画像として前記フレー
ムメモリに蓄える加算器を有する符号化装置。
2. A frame memory that stores an image of a previous frame, and a motion compensation that inputs a current frame image and an image of the previous frame stored in the frame memory, detects a motion vector, and generates an inter-frame prediction image. Unit, a boundary information extraction unit that detects a signal level or texture boundary from the image of the previous frame stored in the frame memory and outputs the boundary information as boundary information, and the boundary information is motion-compensated using the motion vector. A boundary prediction unit that outputs boundary prediction data, a subtracter that inputs the current frame image and the interframe prediction image, and outputs an interframe prediction error, the interframe prediction error, and the boundary prediction data , The large part of the inter-frame prediction error is collected, and if the area includes the prediction data of the boundary, And the pixel width, and if the area does not start from the end point of the boundary, the starting point and the end point of the area and the pixel width are output as arbitrary shape designation information, and a prediction error signal of an arbitrary shape is determined. A unit, an arbitrary shape analysis filter bank processing unit that inputs the arbitrary shape designation information and the prediction error signal of the arbitrary shape, and outputs an arbitrary shape analysis filter bank coefficient; A quantized coding unit that outputs the coded data, a coding region decoding unit that inputs the arbitrary shape designation information and the prediction data of the boundary, and reproduces the arbitrary shape information; and quantizes the coded data. An inverse quantization decoding unit for returning to a value, and the quantized inter-frame prediction error quantized by subjecting the quantized value to arbitrary shape synthesis filter bank processing for each shape based on the arbitrary shape information An encoding device that includes an arbitrary shape synthesis filter bank processing unit that outputs an image, and an adder that adds the inter-frame prediction image to the quantized inter-frame prediction error image and stores the image as a locally decoded image in the frame memory.
【請求項3】 前記符号化領域決定部が、 前記フレーム間予測誤差をしきい値と比較し、しきい値
以上の誤差の大きい部分のデータを出力するしきい値処
理部と、 前記誤差の大きい部分のデータと前記境界の予測データ
を照合し、後者が前者を含むかどうかチェックし、含む
場合には境界を含む部分のデータとして、含まない場合
には境界を含まない部分のデータとして振り分けて出力
する照合部と、 前記境界を含む部分のデータを入力し、境界を含む部分
の予測誤差情報および始点と画素幅を出力する、境界を
含む部分の処理部と、 前記境界を含まない部分のデータを入力し、境界を含ま
ない部分の予測誤差情報および始点/終点と画素幅を出
力する、境界を含まない部分の処理部と、 前記境界を含む部分の予測誤差情報と前記境界を含まな
い部分の予測誤差情報を統合し、前記任意形状の予測誤
差信号として出力する第1の統合部と、 前記始点と画素幅と前記始点/終点と画素幅を統合し、
前記任意形状指定情報として出力する第2の統合部とを
有する、請求項2記載の符号化装置。
3. A threshold processing unit, wherein the coding area determination unit compares the inter-frame prediction error with a threshold value and outputs data of a portion having a large error equal to or larger than the threshold value; The data of a large part is compared with the predicted data of the boundary, and it is checked whether the latter includes the former. If the latter is included, it is classified as the data of the part including the boundary. And a collation unit that outputs the data including the boundary, and outputs prediction error information and a start point and a pixel width of the boundary, and a processing unit that includes the boundary and a part that does not include the boundary. Input data, and outputs the prediction error information of the part not including the boundary, the start point / end point, and the pixel width, the processing part of the part not including the boundary, the prediction error information of the part including the boundary, and the boundary. Integrating prediction error information portion without integrates the first integration unit which outputs as a prediction error signal of the arbitrary shape, the start point and the pixel width and the start / end and pixel width,
The encoding device according to claim 2, further comprising a second integration unit that outputs the arbitrary shape designation information.
【請求項4】 請求項2の前記符号化データを量子化値
に戻す逆量子化復号部と、 前記量子化値に任意形状情報に基づいて、形状毎に任意
形状合成フィルタバンク処理を施し、量子化されたフレ
ーム間予測誤差画像を出力する任意形状合成フィルタバ
ンク処理部と、 前フレームの画像を蓄えるフレームメモリと、 前記フレームメモリに蓄えられた前フレームの画像を入
力し、信号レベルあるいはテクスチャの境界を検出し、
境界情報として出力する境界情報抽出部と、 前記境界情報を請求項2の前記動きベクトルを用いて動
き補償し、境界の予測データを得る境界予測部と、 請求項2の前記任意形状指定情報と前記境界の予測デー
タを入力し、任意形状の始点あるいは前記境界の予測デ
ータから得られる境界の始点および任意形状終点と画素
幅の情報とを用いて、符号化データを配置すべき領域を
記述した前記任意形状情報を出力する符号化領域復号部
と、 前記フレームメモリに蓄えられた前フレームの画像を、
前記動きベクトルを用いて動き補償し、フレーム間予測
画像を出力する動き補償部と、 前記量子化されたフレーム間予測誤差画像に前記フレー
ム間予測画像を加算し、復号画像として出力するととも
に前記フレームメモリに蓄える加算器を有する復号装
置。
4. An inverse-quantization decoding unit for returning the encoded data of claim 2 to a quantized value, and an arbitrary-shape synthesis filter bank process for each shape based on arbitrary shape information to the quantized value, Arbitrary shape synthesis filter bank processing unit that outputs a quantized inter-frame prediction error image, frame memory that stores the image of the previous frame, and input the image of the previous frame stored in the frame memory, and input the signal level or texture The boundary of
A boundary information extraction unit that outputs as boundary information, a boundary prediction unit that performs motion compensation on the boundary information using the motion vector of claim 2, and obtains prediction data of the boundary, and the arbitrary shape designation information of claim 2. By inputting the prediction data of the boundary, the start point of the arbitrary shape or the start point of the boundary and the end point of the arbitrary shape obtained from the prediction data of the boundary and the information of the pixel width are used to describe the area in which the encoded data is to be arranged. A coded area decoding unit that outputs the arbitrary shape information, and an image of the previous frame stored in the frame memory,
A motion compensation unit that performs motion compensation using the motion vector and outputs an inter-frame prediction image, and adds the inter-frame prediction image to the quantized inter-frame prediction error image, and outputs the decoded image as well as the frame. A decoding device having an adder for storing in a memory.
JP24833295A 1995-09-04 1995-09-04 Moving image encoding/decoding method and device therefor Pending JPH0974567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24833295A JPH0974567A (en) 1995-09-04 1995-09-04 Moving image encoding/decoding method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24833295A JPH0974567A (en) 1995-09-04 1995-09-04 Moving image encoding/decoding method and device therefor

Publications (1)

Publication Number Publication Date
JPH0974567A true JPH0974567A (en) 1997-03-18

Family

ID=17176518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24833295A Pending JPH0974567A (en) 1995-09-04 1995-09-04 Moving image encoding/decoding method and device therefor

Country Status (1)

Country Link
JP (1) JPH0974567A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072851A (en) * 2002-03-07 2003-09-19 황봉갑 A propeller with screw-shaped blade in ship
KR100750136B1 (en) * 2005-11-02 2007-08-21 삼성전자주식회사 Method and apparatus for encoding and decoding of video

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030072851A (en) * 2002-03-07 2003-09-19 황봉갑 A propeller with screw-shaped blade in ship
KR100750136B1 (en) * 2005-11-02 2007-08-21 삼성전자주식회사 Method and apparatus for encoding and decoding of video

Similar Documents

Publication Publication Date Title
US6771826B2 (en) Digital image encoding and decoding method and digital image encoding and decoding device using the same
US6757330B1 (en) Efficient implementation of half-pixel motion prediction
EP1359764B1 (en) Video encoding method with fading compensation
EP1059812A2 (en) Methods and apparatus for context-based inter/intra coding mode selection
EP1359770B1 (en) Signaling for fading compensation in video encoding
US7463684B2 (en) Fading estimation/compensation
JP4226172B2 (en) Video compression encoding apparatus and decoding apparatus using adaptive conversion method and method thereof
WO1998026601A1 (en) Picture encoder and picture decoder
US6697427B1 (en) Methods and apparatus for improved motion estimation for video encoding
JPH1155672A (en) Dynamic image coder, dynamic image decoder, dynamic image coding method and dynamic image decoding method
US8462851B2 (en) Video encoding method and apparatus and video decoding method and apparatus
JPH11168731A (en) Motion vector detection method and system for executing the method
US6847684B1 (en) Zero-block encoding
US6362753B1 (en) Video data encoder and method of encoding video data
JPH06351000A (en) Picture signal encoder and picture signal decoder
JPH0974567A (en) Moving image encoding/decoding method and device therefor
WO2000027128A1 (en) Methods and apparatus for improved motion estimation for video encoding
JP3711022B2 (en) Method and apparatus for recognizing specific object in moving image
JP3526316B2 (en) Video compression encoding method
KR100498445B1 (en) Image encoding method and apparatus for improving performance
JPH07336684A (en) Picture signal decoding device
US7283675B1 (en) Method and device for encoding and decoding a digitized image
JP4154772B2 (en) Image information conversion apparatus and conversion method
JP2001078199A (en) Video signal coder
JP3407872B2 (en) Method and apparatus for detecting additional information