JPH07336687A - Picture encoding device - Google Patents
Picture encoding deviceInfo
- Publication number
- JPH07336687A JPH07336687A JP12244194A JP12244194A JPH07336687A JP H07336687 A JPH07336687 A JP H07336687A JP 12244194 A JP12244194 A JP 12244194A JP 12244194 A JP12244194 A JP 12244194A JP H07336687 A JPH07336687 A JP H07336687A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frequency band
- output
- motion
- memory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は画像を少ない符号化量で
伝送蓄積する画像符号化装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image coding apparatus for transmitting and storing an image with a small coding amount.
【0002】[0002]
【従来の技術】従来の画像符号化装置としては、例え
ば、CCITT勧告H.261にて開示されたものがあ
る(従来例1)が、H.261の扱う画像サイズは、小
さくとも縦横144×180画素、符号化量は、毎秒6
4キロビット以上である。この従来例1は、画像変換に
ブロック単位での離散コサイン変換(DCT)を用い、
また、動き補償フレーム間予測により情報量の削減を行
うものである。しかしながら、ブロック単位での変換に
より、以下の課題が生じる。2. Description of the Related Art As a conventional image coding apparatus, for example, CCITT Recommendation H.264 is recommended. 261 (Prior Art Example 1) is disclosed in H.261. The image size handled by H. 261 is 144 x 180 pixels vertically and horizontally, and the encoding amount is 6 per second.
4 kilobits or more. This conventional example 1 uses a discrete cosine transform (DCT) in block units for image conversion,
In addition, the amount of information is reduced by motion-compensated interframe prediction. However, the conversion in block units causes the following problems.
【0003】(A1)ブロック境界にて、原画像に存在
しない境界が知覚される。この、課題(A1)は、一般
にブロック歪みと呼ばれる。これを解決するものとし
て、画像変換にサブバンド分解を用いたものが、電子情
報通信学会技術研究報告 IE91-82にて開示されている
(従来例2)。この構成を図6に示す。At (A1) block boundary, a boundary not existing in the original image is perceived. This problem (A1) is generally called block distortion. As a solution to this problem, a technique using subband decomposition for image conversion is disclosed in IEICE Technical Report IE91-82 (conventional example 2). This configuration is shown in FIG.
【0004】図6において、601は画像の入力端子、603
は差分器、604は量子化器であって、図3の入出力特性
で表されるように、ある範囲の入力値を一つの代表値で
置き換えるものである。606は加算器、607は予測画像を
記憶するための画像メモリ、608は動き推定器であっ
て、ブロックマッチング法によりブロックごとの動きベ
クトルを求めるものである。なお、ブロックマッチング
法は、例えば、日刊工業新聞社"TV画像の多次元信号
処理"吹抜敬彦著、6.3.2 節を用いることができる。In FIG. 6, 601 is an image input terminal, and 603.
Is a differentiator, and 604 is a quantizer, which replaces an input value in a certain range with one representative value, as represented by the input / output characteristic of FIG. Reference numeral 606 is an adder, 607 is an image memory for storing a predicted image, and 608 is a motion estimator for obtaining a motion vector for each block by the block matching method. For the block matching method, for example, Nikkan Kogyo Shimbun "Multidimensional signal processing of TV image" by Takahiko Fukibe, Section 6.3.2 can be used.
【0005】609は動きベクトルに基づき予測画像から
動き補償予測画像を生成する動き補償器であって、ブロ
ック単位の補償方法の説明が雑誌「インターフェース」
Aug.'92, p125, 1.2 節にある。610,611は出力端子であ
って、それぞれ残差と動きベクトルを後段の符号化器へ
出力する。602,612は画像変換器、613は画像逆変換器で
ある。Numeral 609 is a motion compensator for generating a motion-compensated predicted image from a predicted image based on a motion vector, and a description of a block-based compensation method is given in the magazine "Interface".
Aug.'92, p125, section 1.2. Output terminals 610 and 611 respectively output the residual and the motion vector to the encoder at the subsequent stage. Reference numerals 602 and 612 are image converters, and 613 is an image inverse converter.
【0006】ここで、画像変換器602,612と画像逆変換
器613の構成を図7、図8を用いて説明する。図7にお
いて、701は入力端子、702は水平フィルタH0、703は水
平フィルタH1、704、705は水平画素数を1画素おきに
間引く2:1ダウンサンプリング回路、706、708は垂直
フィルタH0、707,709は垂直フィルタH1、710,711,71
2,713は垂直画素数を1画素おきに間引く2:1ダウン
サンプリング回路、714,715,716,717は出力端子であ
る。The structures of the image converters 602 and 612 and the image inverse converter 613 will be described with reference to FIGS. 7 and 8. In FIG. 7, 701 is an input terminal, 702 is a horizontal filter H0, 703 is a horizontal filter H1, 704, 705 is a 2: 1 down-sampling circuit that thins out the number of horizontal pixels every other pixel, and 706 and 708 are vertical filters H0, 707 and 709. Is a vertical filter H1, 710,711,71
2,713 is a 2: 1 down-sampling circuit for thinning out the number of vertical pixels every other pixel, and 714,715,716,717 are output terminals.
【0007】また図8において、801,802,803,804は入
力端子、805,806,807,808は零の輝度値を持つ画素を垂
直方向一画素おきに挿入する1:2アップサンプリング
回路、809, 811は垂直フィルタG0、810,812は垂直フィ
ルタG1、813, 814,819は加算回路、815, 816は零の輝
度値を持つ画素を水平方向一画素おきに挿入する1:2
アップサンプリング回路、817は水平フィルタG0、818
は垂直フィルタG1、821は出力端子である。In FIG. 8, 801, 802, 803, 804 are input terminals, 805, 806, 807, 808 are 1: 2 upsampling circuits for inserting pixels having a luminance value of zero every other pixel in the vertical direction, 809, 811 are vertical filters G0, 810, 812 are vertical filters. G1, 813, 814, 819 are adder circuits, and 815, 816 insert pixels having a luminance value of zero every other horizontal pixel 1: 2.
Up-sampling circuit, 817 is horizontal filter G0, 818
Is a vertical filter G1, and 821 is an output terminal.
【0008】以上のように構成された画像変換回路602,
612と画像逆変換回路613の動作を以下に説明する。各
フィルタの構成をZ変換の形式で、(数1)〜(数8)
に示す。Zh -1とZv -1は各々、水平1画素、垂直1画素
の遅延演算子である。The image conversion circuit 602, which is configured as described above,
The operations of 612 and the image inverse conversion circuit 613 will be described below. The structure of each filter is expressed in the Z conversion format (Equation 1) to (Equation 8).
Shown in. Z h -1 and Z v -1 are delay operators of 1 horizontal pixel and 1 vertical pixel, respectively.
【0009】[0009]
【数1】 [Equation 1]
【0010】[0010]
【数2】 [Equation 2]
【0011】[0011]
【数3】 [Equation 3]
【0012】[0012]
【数4】 [Equation 4]
【0013】[0013]
【数5】 [Equation 5]
【0014】[0014]
【数6】 [Equation 6]
【0015】[0015]
【数7】 [Equation 7]
【0016】[0016]
【数8】 [Equation 8]
【0017】フィルタの中で名称の末尾にH0と記した
ものは低帯域通過フィルタ、H1と記したものは高帯域
通過フィルタに相当する。本実施例の画像変換器では、
前記したフィルタの構成(図7)により、出力にLL,LH,
HL,HH の4つの周波数帯域ごとの画像が出力される。こ
れをそれぞれ帯域画像と呼ぶ。また、以後、このような
周波数領域での画像を表す為に、末尾に-Fを付ける。例
えば、帯域画像-Fなどと書く。また、図8より、画像逆
変換器は入力されたLL〜HH帯域画像-Fを基に、空間領域
での画像を生成し、これを出力する。Among the filters, the one labeled H0 at the end of the name corresponds to the low bandpass filter, and the one labeled H1 corresponds to the high bandpass filter. In the image converter of this embodiment,
With the above filter configuration (Fig. 7), LL, LH,
Images are output for each of the four frequency bands HL and HH. Each of these is called a band image. Further, hereinafter, in order to represent an image in such a frequency domain, -F is added to the end. For example, write band image-F. Further, as shown in FIG. 8, the image inverse converter generates an image in the spatial domain based on the input LL to HH band image-F, and outputs this.
【0018】尚、本実施例に示すフィルタ係数は、文献
「アイイーイーイー インターナショナル コンファレ
ンス アコースチック スピーチ シグナル プロセッ
シング」(D.Gall,A.Tabatani:”Su
b−band Codingof Digital Im
ages Using Symmetric Short
Kernel Filters and Arithme
tic CodingTechniques”、Pro
c。IEEE IntConf。Acoustic Sp
eech Signal Processing、pp。
761−764、April、1988)記載のフィル
タに基いており、量子化誤差が無ければ、画像はサブバ
ンド分割、サブバンド合成を経て完全に再構成される。
つまり、画像変換器により得た帯域画像-Fを画像逆変換
器に入力することで、もとの画像変換器の入力画像を得
ることができる。The filter coefficient shown in the present embodiment is the same as that in the document "IEEE International Conference Acoustic Speech Signal Processing" (D. Gall, A. Tabatani: "Su.
b-band Coding of Digital Im
ages Using Symmetric Short
Kernel Filters and Arithme
tic Coding Technologies ", Pro
c. IEEE IntConf. Acoustic Sp
ech Signal Processing, pp.
761-764, April, 1988). If there is no quantization error, the image is completely reconstructed through subband division and subband synthesis.
That is, by inputting the band image-F obtained by the image converter to the image inverse converter, the input image of the original image converter can be obtained.
【0019】以上のような構成要素から成る従来例2に
ついて図6を用いてその動作を説明する。尚、本明細書
に記す従来例、実施例では、実装置の動作を容易に理解
するために、画像は縦横144×176画素で構成さ
れ、相関演算を行なうブロックは縦8画素、横8画素で
構成されているとする。また、画像変換器の出力は、帯
域画像-Fであり、この成分画像を伝達する信号線は、太
い線で表わされている。The operation of the conventional example 2 including the above components will be described with reference to FIG. In the conventional examples and examples described in this specification, in order to easily understand the operation of the actual device, the image is composed of 144 × 176 pixels in the vertical and horizontal directions, and the block for performing the correlation calculation is 8 pixels in the vertical direction and 8 pixels in the horizontal direction. It is composed of. The output of the image converter is the band image-F, and the signal line for transmitting this component image is represented by a thick line.
【0020】まず、画像メモリ607に記録された前フレ
ームでの処理結果である予測画像と入力端子601からの
入力画像を基に、動き推定器608はブロック単位に動き
ベクトルを求める。この動きベクトルは、端子611より
出力され、また、動き補償器609へ送られる。画像メモ
リ607の予測画像は、この動きベクトルを基に動き補償
器609にて動き補償予測画像、さらに画像変換器612にて
動き補償予測画像-Fへと変換される。この動き補償予測
画像-Fと、画像変換器602の出力する入力画像-Fの残差
が差分器603にて計算され、さらに量子化器604にて代表
値に変換される。この代表値から成る残差画像-Fは、端
子610より出力され、また、加算器606にて画像変換器61
2の出力との和が計算される。これは、予測画像-Fであ
って、量子化誤差を除いて入力画像-Fと一致する。これ
を画像逆変換器613を用い予測画像に変換して画像メモ
リ607に記録する。First, the motion estimator 608 obtains a motion vector in block units based on the predicted image which is the processing result in the previous frame recorded in the image memory 607 and the input image from the input terminal 601. This motion vector is output from the terminal 611 and also sent to the motion compensator 609. The predicted image in the image memory 607 is converted into a motion-compensated predicted image in the motion compensator 609 and further into a motion-compensated predicted image-F in the image converter 612 based on this motion vector. The difference between the motion-compensated predicted image-F and the input image-F output from the image converter 602 is calculated by the differentiator 603, and further converted into a representative value by the quantizer 604. The residual image-F composed of these representative values is output from the terminal 610, and the adder 606 outputs the residual image-F.
The sum of the two outputs is calculated. This is the predicted image-F and matches the input image-F except for the quantization error. This is converted into a predicted image using the image inverse converter 613 and recorded in the image memory 607.
【0021】以上の動作を、入力画像のフレームごとに
行い、端子610,611よりそれぞれ残差画像-F,動きベクト
ルを出力する。これら出力を後段の符号化器に通し符号
を得ることで、画像符号化が可能となる。また、画像復
号化装置は、構成要素群614から成り、上記の符号を復
号化して残差画像-F、動きベクトルを得て、これらを入
力することで、予測画像を出力するものである。なお、
画像復号化装置の動作は画像符号化装置の動作と同じで
あるので説明を省略する。The above operation is performed for each frame of the input image, and the residual image-F and the motion vector are output from the terminals 610 and 611, respectively. Image coding can be performed by passing these outputs through a coder in the subsequent stage to obtain a code. Further, the image decoding apparatus is composed of a group of constituent elements 614, which decodes the above codes to obtain a residual image-F and a motion vector, and inputs these to output a predicted image. In addition,
The operation of the image decoding device is the same as the operation of the image encoding device, and therefore its explanation is omitted.
【0022】以上の構成により、変換に用いるデータが
ブロック内で閉じることのないサブバンド分解を用いる
ことで、課題(A1)を解決することができる。なお、
従来例2では、画像変換後の周波数領域で、動き補償予
測画像-Fとの差分を行う構成である。これは、以下の課
題(A2)を解決するためである。With the above configuration, the problem (A1) can be solved by using the subband decomposition in which the data used for conversion is not closed in the block. In addition,
In the second conventional example, the difference from the motion-compensated predicted image -F is calculated in the frequency domain after image conversion. This is to solve the following problem (A2).
【0023】まず、予測画像-Fとして、動き補償フレー
ム間予測(inter)以外に、フレーム内予測(intra)を
追加し、これを局所領域ごとに切り替えるように拡張す
る。すると、空間領域での差分の場合、(intra)と(i
nter)の局所領域境界に信号レベルの段差が生じ、これ
をサブバンド分解するために符号化効率が悪化するとい
う課題(A2)が生じる。従来例2は、この課題(A
2)を、画像変換後の周波数領域で差分を取ることによ
り解決するものである。ところで、従来例1、2が用い
る動き補償フレーム間予測は、時間的連続性を利用する
ため、以下の課題が生じる。First, as a predicted image-F, in addition to motion-compensated inter-frame prediction (inter), intra-frame prediction (intra) is added, and this is expanded so as to be switched for each local area. Then, in the case of difference in the spatial domain, (intra) and (i
There is a problem (A2) that a signal level step is generated at the boundary of the local area of (nter), and this is subband decomposed to deteriorate the coding efficiency. In the conventional example 2, this problem (A
2) is solved by taking the difference in the frequency domain after image conversion. By the way, since the motion-compensated inter-frame prediction used in Conventional Examples 1 and 2 utilizes temporal continuity, the following problems occur.
【0024】(A3)移動体の後ろから現れる部分は、
時間連続性がないため、予測誤差が増大し、後段での符
号化量が増える。なお、これを以後、アンカバーの問題
と呼ぶ。この課題(A3)を解決するものとして、特開
昭61ー114677号公報にて開示されたものがある
(従来例3)。(A3) The part appearing from behind the moving body is
Since there is no time continuity, the prediction error increases and the amount of coding in the subsequent stage increases. This will be referred to as the uncover problem hereinafter. As a solution to this problem (A3), there is one disclosed in JP-A-61-1114677 (Prior art example 3).
【0025】[0025]
【発明が解決しようとする課題】しかしながら、前記し
た従来技術を用いても以下の課題が存在する。 (B1)従来例2では、動き推定にブロックマッチング
法を用いるため、空間領域での予測画像を得るための画
像逆変換器が必要である。また、周波数領域での差分を
行うため、動き補償予測画像に対する画像変換器が必要
である。However, even if the above-mentioned conventional technique is used, the following problems still exist. (B1) In the conventional example 2, since the block matching method is used for motion estimation, an image inverse converter for obtaining a predicted image in the spatial domain is required. In addition, an image converter for the motion-compensated prediction image is required to perform the difference in the frequency domain.
【0026】以上より、従来例2では、画像変換器、逆
変換器が計3個必要となる。画像変換、逆変換器は、ハ
ードウェア構成ではたくさんのユニットを必要とし、消
費電力、価格に影響を与える。また、処理時間を多く必
要とし、実時間動作の律速部分となる。これら理由よ
り、このような変換器はできるだけ少ないほうが良い。
また、従来例2を毎秒20キロビット程度の符号化(超
低ビットレート符号化と呼ぶ)に適用すると、以下の問
題が生じる (B2)符号化量の制限より、周波数領域での残差のう
ち、高帯域成分を伝送できず画質劣化を生じる。これは
例えば、CCITT勧告H.261では以上の動作によ
り生じる。符号化量の制限を越えそうになると、予め量
子化の幅を大きくする。この結果、値の小さな変動を無
視することで情報を減らすことができ、符号化量の制限
を満たすことができる。しかしながらこの結果、高帯域
成分での値の小さな変動はすべて代表値零で置き換えら
れ、結果として高帯域成分を伝送できない。このため、
予測画像に前フレームでの高帯域成分から成るエッジが
残り、画像劣化を生じる。この様子を図9、図10に示
す。As described above, in the second conventional example, a total of three image converters and inverse converters are required. The image converter and the inverse converter require a lot of units in hardware configuration, which affects power consumption and price. Further, it requires a lot of processing time, which is a rate-determining part of the real-time operation. For these reasons, it is better to have as few such converters as possible.
Further, when the conventional example 2 is applied to coding of about 20 kilobits per second (referred to as ultra-low bit rate coding), the following problems occur. (B2) Due to the limitation of the coding amount, among the residuals in the frequency domain However, the high band component cannot be transmitted and the image quality deteriorates. This is described, for example, in CCITT Recommendation H.264. 261 is caused by the above operation. When the limit of the coding amount is about to be exceeded, the quantization width is increased in advance. As a result, it is possible to reduce information by ignoring small fluctuations in the value, and it is possible to satisfy the limitation of the coding amount. However, as a result, all small fluctuations in the value in the high band component are replaced with a representative value of zero, and as a result, the high band component cannot be transmitted. For this reason,
An edge composed of the high band component in the previous frame remains in the predicted image, causing image deterioration. This state is shown in FIGS. 9 and 10.
【0027】図9に示すように、入力画像901中の正方
形902が左に移動している場合を考える。入力画像901に
対し画像変換を施すことで、周波数帯域ごとのLL,LH,H
L,HH画像-Fを得る(903)。これを予測画像-Fとし、次フ
レームにてこれとの残差を送る場合を考える。しかも、
符号化量の制限より、LL帯域画像のみ残差を伝送できた
とする。すると、残差を加算した結果の画像-Fは、904
のように、LL以外の帯域画像はすべて予測信号-F903と
同じとなる。この画像-F904を逆変換すると、905に示す
ように、縦エッジ部分に劣化のある画像となる。これ
は、HL帯域による高域周波数が、LL帯域に対して相対的
にずれているため生じるものである。なお、図10にお
いて、この時の断面a-bでの輝度分布を906に示す。矩形
点線で囲った部分907が、画像劣化を生じる部分であ
る。Consider a case where a square 902 in an input image 901 is moved to the left as shown in FIG. By applying image conversion to the input image 901, LL, LH, H for each frequency band
Obtain L, HH image-F (903). Let us consider the case where this is predicted image-F and the residual with this is sent in the next frame. Moreover,
It is assumed that the residual can be transmitted only in the LL band image due to the limitation of the coding amount. Then, the image of the result of adding the residuals-F is 904
As described above, all band images other than LL are the same as the prediction signal-F903. When this image-F904 is inversely transformed, as shown by 905, it becomes an image with deterioration in vertical edge portions. This occurs because the high frequency in the HL band is relatively displaced from the LL band. In FIG. 10, reference numeral 906 shows the luminance distribution on the cross section ab at this time. A portion 907 surrounded by a rectangular dotted line is a portion where image deterioration occurs.
【0028】さらに、課題(B1)を解決した第1の実
施例(後述)に、従来例3で示した背景予測方式を導入
する場合、以下の課題が生じる。 (B3)画像変換後の各周波数帯域での画像では、入力
画像と背景画像との差分が変換前の画像のそれに対して
小さいため、前記しきい値の設定が困難となる。Furthermore, when the background prediction method shown in Conventional Example 3 is introduced into the first embodiment (described later) which solves the problem (B1), the following problems occur. (B3) In the image in each frequency band after the image conversion, the difference between the input image and the background image is smaller than that in the image before conversion, so that it is difficult to set the threshold value.
【0029】本発明は上記課題を解決するもので、周波
数領域での残差符号化による画像符号化装置において、
回路規模の削減、処理時間の短縮を図ることを目的とす
る。The present invention is to solve the above-mentioned problems, and in an image coding apparatus by residual coding in the frequency domain,
The purpose is to reduce the circuit scale and processing time.
【0030】[0030]
【課題を解決するための手段】上記目的を達成するた
め、第1の発明は、画像を周波数帯域ごとの複数の画像
に分解する画像変換手段と、周波数帯域ごとの画像を記
憶する画像メモリと、前記画像変換手段の出力する周波
数帯域ごとの画像と前記画像メモリの出力するそれらを
もとに局所領域での動きベクトルを算出する動き推定手
段と、前記動きベクトルをもとに、前記画像メモリの出
力する周波数帯域ごとの画像に対し動き補償を局所領域
ごとに行いこれを動き補償予測画像として出力する動き
補償手段を備え、周波数帯域ごとの画像をもとに動きベ
クトルを算出し、これをもとに周波数帯域ごとの動き補
償予測画像を得る構成である。In order to achieve the above object, a first aspect of the invention is to provide an image conversion means for decomposing an image into a plurality of images for each frequency band, and an image memory for storing the image for each frequency band. A motion estimation means for calculating a motion vector in a local area based on the image for each frequency band output by the image conversion means and those output by the image memory; and the image memory based on the motion vector. Is provided with a motion compensation means for performing motion compensation on each image for each frequency band output for each local region, and outputting this as a motion-compensated prediction image, and a motion vector is calculated based on the image for each frequency band. Based on the configuration, a motion-compensated prediction image is obtained for each frequency band.
【0031】また、第2の発明は、画像を周波数帯域ご
との複数の画像に分解する画像変換手段と、周波数帯域
ごとの画像を記憶する画像メモリと、前記画像変換手段
の出力する周波数帯域ごとの画像と、前記画像メモリの
出力するそれらとの残差を求める減算手段と、前記残差
を代表値に変換する量子化手段と、前記代表値から成る
周波数帯域ごとの画像と前記画像メモリの出力するそれ
らとの和を求める加算手段と、前記和から成る周波数帯
域ごとの画像と、値0から成るそれらのどちらかを選択
し、これを前記画像メモリへ出力する選択手段を備え、
前記代表値から成る周波数帯域ごとの画像を符号化する
符号化器からの量子化幅変更信号に基づき、前記選択器
の出力する画像を周波数帯域ごとに変更する構成であ
る。In the second invention, an image conversion means for decomposing an image into a plurality of images for each frequency band, an image memory for storing the image for each frequency band, and each frequency band output by the image conversion means. Of the image and subtraction means for obtaining a residual between them output from the image memory, quantizing means for converting the residual into a representative value, an image for each frequency band composed of the representative value, and the image memory And an addition unit for obtaining the sum of them to be output, an image for each frequency band composed of the sum, and a selection unit for selecting one of them having a value of 0 and outputting this to the image memory,
The image output by the selector is changed for each frequency band based on the quantization width change signal from the encoder that encodes the image for each frequency band made up of the representative value.
【0032】また、第3の発明は、画像を周波数帯域ご
との複数の画像に分解する画像変換手段と、周波数帯域
ごとの画像を記憶する画像メモリと、前記画像変換手段
の出力する周波数帯域ごとの画像と前記画像メモリの出
力するそれらとの残差を求める減算手段と、前記残差を
代表値に変換する量子化手段と、前記代表値から成る周
波数帯域ごとの画像と前記画像メモリの出力するそれら
との和を求める加算手段と、前記和から成る周波数帯域
ごとの画像と前記画像メモリの出力するそれらを入力と
し、これら入力の差の絶対値の局所領域での総和を、周
波数帯域ごとに総和したものを用い前記画像メモリに出
力する画像として2つの入力のどちらかを選択する制御
手段を備えた構成である。Further, a third aspect of the invention is an image conversion means for decomposing an image into a plurality of images for each frequency band, an image memory for storing an image for each frequency band, and each frequency band output by the image conversion means. Means for obtaining a residual difference between the image and those output by the image memory, a quantizing means for converting the residual into a representative value, an image for each frequency band composed of the representative value, and an output of the image memory The addition means for obtaining the sum with them, the image for each frequency band composed of the sum and those output from the image memory are input, and the total sum of the absolute values of the differences between these inputs in the local region is calculated for each frequency band. The configuration is provided with a control means for selecting one of two inputs as an image to be output to the image memory by using the sum of the two.
【0033】[0033]
【作用】第1の発明では、動き推定手段が周波数帯域ご
との画像を用い動きベクトルを推定する。また、動き補
償手段は、この動きベクトルを用い、画像メモリの出力
する周波数帯域ごとの画像に対し動き補償を行う。この
ようにして動き補償画像を得るため、周波数領域での画
像だけで処理できる。つまり、従来例1が行うような、
周波数領域から空間領域への画像逆変換手段や動き補償
画像を空間領域から周波数領域へ変換するための画像変
換手段を必要とせず、それだけ処理時間を短く、また、
ハードウェア実現時の装置コストを低くすることができ
る。In the first aspect of the invention, the motion estimating means estimates the motion vector using the image for each frequency band. Further, the motion compensation means uses this motion vector to perform motion compensation on the image for each frequency band output from the image memory. Since the motion compensation image is obtained in this way, only the image in the frequency domain can be processed. That is, as in Conventional Example 1,
It does not require an image inverse transforming means from the frequency domain to the spatial domain or an image transforming means for transforming the motion-compensated image from the spatial domain to the frequency domain, and the processing time is shortened accordingly.
It is possible to reduce the device cost when implementing hardware.
【0034】また第2の発明では、後段の符号化器から
の量子化幅変更信号によりある周波数帯域の量子化幅が
大きくなると、加算手段の出力の代わりに値0から成る
画像を、その周波数帯域の画像として出力する。この結
果、量子化幅が大きく、量子化手段の出力する高周波数
帯域での画像が値0だけとなり、加算手段の出力のうち
高周波数帯域の画像が前回の値と同じものとなる結果生
じる画質の劣化を避けることができる。According to the second aspect of the invention, when the quantization width of a certain frequency band is increased by the quantization width changing signal from the encoder at the subsequent stage, an image having a value of 0 is output instead of the output of the adding means. Output as a band image. As a result, the quantization width is large, and the image in the high frequency band output by the quantizing unit has only the value 0, and the image in the high frequency band in the output of the adding unit becomes the same as the previous value. It is possible to avoid deterioration.
【0035】また、第3の発明では、画像メモリに記憶
された周波数帯域ごとの背景画像の更新において必要と
なる背景/移動体の識別を、背景画像と加算手段の出力
である予測画像との差分絶対値の周波数帯域ごとの総和
をもとに判断する。これにより、周波数帯域別の画像に
しきい値を設定し周波数帯域ごとに識別を行う場合に生
じる、しきい値設定の困難を回避することができる。According to the third aspect of the invention, the background / moving object identification necessary for updating the background image for each frequency band stored in the image memory is identified by the background image and the predicted image output from the adding means. Judgment is made based on the sum of absolute differences for each frequency band. As a result, it is possible to avoid the difficulty of setting the threshold value, which occurs when the threshold value is set in the image for each frequency band and the identification is performed for each frequency band.
【0036】[0036]
【実施例】以下、本発明の実施例を図面を用いて説明す
る。本発明の第1の実施例を図1および2を用い説明す
る。図1は、第1の実施例の構成図である。Embodiments of the present invention will be described below with reference to the drawings. A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of the first embodiment.
【0037】図1において、101は入力端子、102は画像
変換器、103は減算器、104は量子化器、105は逆量子化
器106は加算器であり、以上は、従来例2で説明した構
成要素と同じものである。また、107は画像変換後の周
波数帯域 LL,LH,HL,HHごとの4枚の画像を1フレーム分
記録する画像メモリ、108は動き推定器、109は動き補償
器である。また、110、110は出力端子であって、後段の
符号化器に接続される。ここで、動き推定器108の動作
を図2を用い説明する。In FIG. 1, 101 is an input terminal, 102 is an image converter, 103 is a subtractor, 104 is a quantizer, 105 is an inverse quantizer, and 106 is an adder. It is the same as the component. Further, 107 is an image memory for recording one frame of four images of each frequency band LL, LH, HL, HH after image conversion, 108 is a motion estimator, and 109 is a motion compensator. Also, 110 and 110 are output terminals, which are connected to the encoder in the subsequent stage. Here, the operation of the motion estimator 108 will be described with reference to FIG.
【0038】図2は、変換画像をもとに局所ブロックで
の相関を最良にするブロックの移動量を動きベクトルと
して算出するものである。図2において、201は相関演
算回路、202は動きベクトル格納メモリであり、以上が
動き推定器108の構成要素である。また、210は画像メモ
リ107の出力する帯域画像(図1では予測画像-F)、212
は入力画像の帯域画像(入力画像-F)である。In FIG. 2, the movement amount of the block that maximizes the correlation in the local block is calculated as the motion vector based on the converted image. In FIG. 2, 201 is a correlation calculation circuit, 202 is a motion vector storage memory, and the above are the components of the motion estimator 108. 210 is a band image output from the image memory 107 (prediction image-F in FIG. 1), 212
Is a band image of the input image (input image-F).
【0039】次に動作を説明する。相関演算回路201は
2つの処理から成る。まず、第1の処理を説明する。帯
域画像212のLL帯域画像を64分割する。この分割され
た1要素は、縦9画素、横11画素から成り、これをブロ
ックと呼ぶ。なお、ブロックの左上座標を(数9)で表
す。Next, the operation will be described. The correlation calculation circuit 201 is composed of two processes. First, the first process will be described. The LL band image of the band image 212 is divided into 64. This divided one element consists of 9 pixels vertically and 11 pixels horizontally, and this is called a block. The upper left coordinates of the block are represented by (Equation 9).
【0040】[0040]
【数9】 [Equation 9]
【0041】同様に LH,HL,HH帯域画像も64分割し、
(数10)に基づき位置的に対応する4つのブロックの
群213をLL〜HH帯域画像から取り出す。Similarly, the LH, HL, and HH band images are also divided into 64,
Based on (Equation 10), a group 213 of four blocks corresponding in position is extracted from the LL to HH band images.
【0042】[0042]
【数10】 [Equation 10]
【0043】次に、帯域画像210から、(数9)で表さ
れる左上座標を持つブロック群211を(数10)に基づ
き取り出す。これらブロック群の相関値を(数11)で
定義し、これを最小にするピクセル単位の変位(△j,△
i) を求める。Next, the block group 211 having the upper left coordinates represented by (Equation 9) is extracted from the band image 210 based on (Equation 10). The correlation value of these block groups is defined by (Equation 11), and the displacement (Δj, Δ
i) is calculated.
【0044】[0044]
【数11】 [Equation 11]
【0045】以上が第1の処理である。次に相関演算回
路201、第2の処理を説明する。これは、帯域画像210
から取り出すブロックの位置を、(数12)で表される量
だけ変更して相関演算(数11)を行い、変位(ξ,η)
を求めるものである。The above is the first processing. Next, the correlation calculation circuit 201 and the second processing will be described. This is a band image 210
The position of the block to be extracted from is changed by the amount represented by (Equation 12) and the correlation operation (Equation 11) is performed to obtain the displacement (ξ, η)
Is to seek.
【0046】[0046]
【数12】 [Equation 12]
【0047】これに伴い、画素点の中間点での画素値が
必要となるため、双一次線形補完(数13)によりこれ
を求める。Along with this, a pixel value at the intermediate point of the pixel points is required, and this is obtained by bilinear linear complementation (Equation 13).
【0048】[0048]
【数13】 [Equation 13]
【0049】以上のようにして求まるブロック群 201
と、ブロック群 213 の相関値(数14)を最小とする
サブピクセル単位の変位(ξ,η) を求める。Block group 201 obtained as described above
And the correlation value of the block group 213 (Equation 14) is minimized.
Find the displacement (ξ, η) in subpixel units.
【0050】[0050]
【数14】 [Equation 14]
【0051】以上の2段階の処理により求まるピクセル
単位とサブピクセル単位の変位をもとに動きベクトル
(△j+ξ,△i+η) を計算し、これを動きベクトル格
納メモリに、(j0,i0) を指標として記録する。A motion vector based on the displacement in pixel units and subpixel units obtained by the above two-step processing
(Δj + ξ, Δi + η) is calculated, and this is recorded in the motion vector storage memory using (j0, i0) as an index.
【0052】以上の相関演算回路201、動きベクトル格
納メモリ202での動作を、ブロック (j0,i0) ごとに実
施する。以上が動き推定器108 の動作である。The above operation in the correlation calculation circuit 201 and the motion vector storage memory 202 is executed for each block (j0, i0). The above is the operation of the motion estimator 108.
【0053】このような構成要素から成る第1の実施例
について以下にその処理手順を説明する。入力端子101
の入力画像は、画像変換器にて、4つのLL〜HH帯域画像
に分解される。また、このLL〜HH帯域画像と、画像メモ
リ107に記録されたLL〜HH帯域画像を入力とし、動き推
定器はブロックごとの動きベクトルを算出する。この動
きベクトルと画像メモリ107のLL〜HH画像を用い、動き
補償器109 はブロック単位での動き補償を行い、これを
動き補償予測画像-Fとして出力する。なお、この時、サ
ブピクセル単位での動き補償は(数13)で求まる補完
により行う。The processing procedure of the first embodiment having such components will be described below. Input terminal 101
The input image of is decomposed into four LL to HH band images by the image converter. Also, the LL to HH band image and the LL to HH band image recorded in the image memory 107 are input, and the motion estimator calculates a motion vector for each block. Using this motion vector and the LL to HH images in the image memory 107, the motion compensator 109 performs motion compensation in block units, and outputs this as a motion-compensated predicted image-F. At this time, motion compensation in units of sub-pixels is performed by complementation obtained by (Equation 13).
【0054】以上のようにして求まる動き補償予測画像
-Fと、画像変換器102の出力する入力画像-Fとを基に、
減算器103はLL〜HH帯域画像ごと、位置ごとに画素値の
差分を求める。この差分は、量子化器104にて画素値ご
とに変換特性(図3)により代表値で置き換えられ、出
力端子110より出力される。さらに動き推定器108の出力
する動きベクトルが出力端子111より出力される。以上
の2つは、後段の符号化器へ渡される。また、量子化器
104の出力する差分後の代表値は、加算器106にて動き補
償予測画像-Fと加算され、これは予測画像-Fとして画像
メモリ107に記録される。この予測画像-Fは、次フレー
ムにおいて動き推定器108、動き補償画像109の入力とな
る。Motion-compensated prediction image obtained as described above
-F and the input image -F output by the image converter 102,
The subtractor 103 obtains the pixel value difference for each position for each of the LL to HH band images. This difference is replaced by a representative value in the quantizer 104 for each pixel value according to the conversion characteristic (FIG. 3), and is output from the output terminal 110. Further, the motion vector output from the motion estimator 108 is output from the output terminal 111. The above two are passed to the encoder at the subsequent stage. Also the quantizer
The representative value after the difference output by 104 is added to the motion-compensated prediction image-F by the adder 106, and this is recorded in the image memory 107 as the prediction image-F. This predicted image-F is input to the motion estimator 108 and the motion compensated image 109 in the next frame.
【0055】以上の動作により、毎フレームごとの入力
画像に対し、前フレームでの予測画像-Fをもとに動き補
償予測画像-Fを生成し、これと入力画像-Fとの残差を出
力する。なお、画像復号化装置は、図1の点線矩形112
内の構成要素群と、画像変換器102と対を成す画像逆変
換器から成り、復号化器の出力する残差の代表値と動き
ベクトルを受取り、動き補償予測信号を求め、これを逆
変換したものを復号結果として出力する。以上のように
して画像の符号化が実現できる。By the above operation, the motion-compensated predicted image-F is generated for the input image for each frame based on the predicted image-F in the previous frame, and the residual difference between this and the input image-F is calculated. Output. The image decoding apparatus is a dotted rectangle 112 in FIG.
Of image components, and an image inverse converter that forms a pair with the image converter 102, receives the representative value of the residual and the motion vector output from the decoder, obtains a motion-compensated prediction signal, and inverse-transforms this. What is done is output as a decoding result. The image encoding can be realized as described above.
【0056】尚、画像変換器102 は、サブバンド変換以
外に、ブロック単位のフーリエ変換やウェーブレット変
換でもよい。また、空間領域での画像のシフトは、周波
数領域での画像(複素数)の絶対値を変えず、位相成分
のみを変えることを利用して動き推定を行うことができ
る。この場合の画像変換器102、動き推定器108、動き補
償器109について説明する。画像変換器102は、入力画像
(縦144画素、横176画素)を縦18個、横22個
のブロックに分割し、このブロック(縦8、横8画素か
ら成る)を、(数15)(数16)によりフーリエ変換
係数a(q,p),b(q,p) に変換する。The image converter 102 may be a block unit Fourier transform or a wavelet transform, in addition to the subband transform. Further, the image shift in the spatial domain can be performed by using only the phase component without changing the absolute value of the image (complex number) in the frequency domain. The image converter 102, the motion estimator 108, and the motion compensator 109 in this case will be described. The image converter 102 divides the input image (144 vertical pixels, 176 horizontal pixels) into 18 vertical blocks and 22 horizontal blocks, and this block (composed of vertical 8 horizontal 8 pixels) The Fourier transform coefficients a (q, p) and b (q, p) are converted by the equation 16).
【0057】[0057]
【数15】 [Equation 15]
【0058】[0058]
【数16】 [Equation 16]
【0059】動き推定器108は、画像変換器102の出力す
るフーリエ変換係数a1,b1と、画像メモリ107に記憶さ
れたそれらa2,b2を用い、(数17)により動きベク
トル(u,v)を計算する。以上の動きベクトルは、ブロ
ックごとに計算される。The motion estimator 108 uses the Fourier transform coefficients a1 and b1 output from the image converter 102 and those a2 and b2 stored in the image memory 107, and the motion vector (u, v) is calculated by (Equation 17). To calculate. The above motion vector is calculated for each block.
【0060】[0060]
【数17】 [Equation 17]
【0061】動き補償器109 は(数18)(数19)に
基づきフーリエ変換係数a3,b3を出力する。The motion compensator 109 outputs Fourier transform coefficients a3 and b3 based on (Equation 18) and (Equation 19).
【0062】[0062]
【数18】 [Equation 18]
【0063】[0063]
【数19】 [Formula 19]
【0064】なお、サイン成分とコサイン成分の内、コ
サイン成分のみを符号化して伝送し、復号器側ではヒル
ベルト変換によりサイン成分を復元するようにしてもよ
い。これにより伝送すべき情報をさらに減らすことがで
きる。また、フーリエ変換時にブロック内のデータに対
し窓関数をかけても良い。Of the sine component and cosine component, only the cosine component may be encoded and transmitted, and the sine component may be restored by the Hilbert transform on the decoder side. This can further reduce the information to be transmitted. Further, a window function may be applied to the data in the block at the time of Fourier transform.
【0065】次に、本発明の第2の実施例について図4
を用いて説明する。入力端子101、画像変換器102、差分
をとる減算器103、加算器106、画像メモリ107、動き推
定器108、動き補償器109、出力端子110、111は第1の実
施例の構成要素と同じものである。212は後段の符号化
器での符号化量に基づいて量子化幅を制御するための信
号を受け取る制御端子、204はこの制御信号に基づき、
帯域画像LL〜HHごとの量子化幅を変更する機能を有する
量子化器、213は制御入力に基づき信号を選択する選択
器である。Next, the second embodiment of the present invention will be described with reference to FIG.
Will be explained. The input terminal 101, the image converter 102, the subtractor 103 that takes the difference, the adder 106, the image memory 107, the motion estimator 108, the motion compensator 109, and the output terminals 110 and 111 are the same as the constituent elements of the first embodiment. It is a thing. 212 is a control terminal that receives a signal for controlling the quantization width based on the encoding amount in the encoder in the subsequent stage, and 204 is based on this control signal,
A quantizer having a function of changing the quantization width for each of the band images LL to HH, and a selector 213 for selecting a signal based on a control input.
【0066】以上の構成要素から成る第2の実施例につ
いて動作を、第1の実施例と異なる部分のみ説明する。
後段の符号化器は、符号化量が制限を越えそうになる
と、制御端子212へ帯域画像ごとの量子化幅wLL,wLH,
wHL,wHHを出力する。この制御信号は、まず量子化器2
04に伝送され、帯域画像ごとの量子化幅が変更される。
なお、量子化器の変換特性を表す図3は、量子化幅が4
の場合である。また、選択器213は制御信号が信号の最
大値に等しい場合に端子aを、それ以外の場合に端子b
を選択するものである。なお、信号の最大値とは、帯域
画像の画素値の、この装置で扱える最大値であって、例
えば量子化器の入力がデジタル信号であって信号線が8
本の場合、信号は−128〜127までの値を取るので、信号
の最大値は127である。The operation of the second embodiment composed of the above components will be described only in the part different from that of the first embodiment.
When the coding amount is about to exceed the limit, the latter-stage encoder sends the quantization width wLL, wLH,
Output wHL and wHH. This control signal is first sent to the quantizer 2
It is transmitted to 04, and the quantization width for each band image is changed.
In addition, in FIG. 3 showing the conversion characteristic of the quantizer, the quantization width is 4
Is the case. Also, the selector 213 selects the terminal a when the control signal is equal to the maximum value of the signal, and the terminal b otherwise.
Is to be selected. The maximum value of the signal is the maximum value of the pixel value of the band image that can be handled by this device. For example, the input of the quantizer is a digital signal and the signal line is 8
In the case of a book, the signal takes a value from -128 to 127, so the maximum value of the signal is 127.
【0067】以上の構成により、ある高帯域画像の量子
化幅wが大きくなり、信号の最大値に等しくなると、図
3より、量子化器204の出力は、零となり、選択器213の
端子bには減算器103の出力する残差による修正を受け
ない、動き補償予測画像-Fが入力される。この時、選択
器213はこれを選択せず、端子aの値0を選択する。以
上のようにして、作用の項で説明したように、残差によ
る修正を受けていない信号の替わりに、高帯域画像を値
0から成る画像で置き換えることができる。尚、選択器
端子aを選択する場合として、量子化幅が一定値以上の
場合としてもよい。With the above configuration, when the quantization width w of a certain high-band image becomes large and becomes equal to the maximum value of the signal, the output of the quantizer 204 becomes zero and the terminal b of the selector 213 is shown in FIG. A motion-compensated prediction image -F that is not corrected by the residual output from the subtractor 103 is input to the. At this time, the selector 213 does not select this, but selects the value 0 of the terminal a. In this way, the high-band image can be replaced by an image consisting of the value 0, instead of the signal which has not been modified by the residual, as explained in the section of the operation. The selector terminal a may be selected when the quantization width is equal to or larger than a certain value.
【0068】次に、本発明の第3の実施例について、図
5を用いて説明する。入力端子101、画像変換器102、差
分をとる減算器103、量子化器104、加算器106、画像メ
モリ107、動き推定器108、動き補償器109、出力端子11
0、111は第1の実施例と同じ構成要素である。Next, a third embodiment of the present invention will be described with reference to FIG. An input terminal 101, an image converter 102, a subtractor 103 that takes a difference, a quantizer 104, an adder 106, an image memory 107, a motion estimator 108, a motion compensator 109, and an output terminal 11.
0 and 111 are the same constituent elements as in the first embodiment.
【0069】また、512は動き補償予測画像-Fを生成す
るための構成要素群である。513は4つの帯域画像から
成る背景画像-Fを記憶するための画像メモリ、514はこ
の背景画像-Fを予測画像-Fより生成するための制御器、
以上の2つが背景画像-Fを生成するための構成要素群51
1である。515は背景画像-Fと動き補償予測画像-Fのう
ち、一方を出力する選択器、516は選択信号を出力する
制御器であって、従来例3同様に、予測画像-Fつまり入
力画像-Fが、背景画像-Fと動き補償予測画像-Fのどちら
に近いかを選択結果として画素ごとに記録する。そし
て、選択器515へのある画素に対する制御信号として、
その画素の近傍での選択結果より、もっとも選択頻度の
多かった方を選択する制御信号を出力する。Further, reference numeral 512 is a group of constituent elements for generating the motion-compensated prediction image-F. 513 is an image memory for storing the background image-F consisting of four band images, 514 is a controller for generating this background image-F from the predicted image-F,
The above two are the constituent elements 51 for generating the background image-F.
Is 1. 515 is a selector that outputs one of the background image-F and the motion-compensated predicted image-F, and 516 is a controller that outputs a selection signal. Like the conventional example 3, the predicted image-F, that is, the input image- Whether F is closer to the background image-F or the motion compensation prediction image-F is recorded for each pixel as a selection result. Then, as a control signal for a pixel to the selector 515,
A control signal for selecting the one having the highest selection frequency out of the selection results in the vicinity of the pixel is output.
【0070】ここで、構成要素群511の動作を説明す
る。画像メモリ513の出力する背景画像-Ffbと加算器10
6の出力する予測画像-Ffpをもとに、制御器514は、
(数14)に基づき背景画像-Ffbを更新する。Here, the operation of the component group 511 will be described. Background image output from the image memory 513-Ffb and adder 10
Based on the predicted image-Ffp output by 6, the controller 514
The background image-Ffb is updated based on (Equation 14).
【0071】上記の処理を、各帯域画像の各画素ごとに
行う。尚、e(j0,i0)はブロックB(j0,i0)での残差
の総和を、帯域画像ごとにさらに加算したものである。
つまり、e(j0,i0)は、ブロックB(j0,i0 )での、
変換前の画像領域での残差の大きさを表す。(数14)
は、このe(j0,i0)が大きい領域を移動体であると判
断し、この点での予測画像-Ffpつまり移動体を表す信
号が背景画像-Ffbに含まれないようにするため、もと
の背景画像-Ffbを次の背景画像-Fとする。これに対
し、e(j0,i0)が小さい場合には、予測信号fpを用
い、更新係数αだけ背景画像-Ffbを変更する。The above processing is performed for each pixel of each band image. Note that e (j0, i0) is the sum of the residuals in the block B (j0, i0), which is further added for each band image.
That is, e (j0, i0) is the block B (j0, i0)
It represents the size of the residual in the image area before conversion. (Equation 14)
Determines that the region with a large e (j0, i0) is a moving object, and that the predicted image-Ffp at this point, that is, the signal representing the moving object is not included in the background image-Ffb, The background image-Ffb with is the next background image-F. On the other hand, when e (j0, i0) is small, the prediction signal fp is used and the background image -Ffb is changed by the update coefficient α.
【0072】以上のようにして、背景画像-Fが生成され
る。なお、ここで示した背景画像-Fの生成方式は、情報
処理学会論文誌 Vol.28 No.4 "移動物体像の抽出技術",
Apr.'87 に開示された手法を帯域画像LL〜HH に応用し
たものである。The background image-F is generated as described above. The background image-F generation method shown here is based on the IPSJ Transactions Vol.28 No.4 "Moveable Object Image Extraction Technology",
The method disclosed in Apr.'87 is applied to band images LL to HH.
【0073】以上のように構成された第3の実施例につ
いて、以下その動作を説明する。第1の実施例同様に、
入力端子101の入力画像は、画像変換器102にて帯域画像
(入力画像-F)に分解される。The operation of the third embodiment constructed as above will be described below. Similar to the first embodiment,
The input image of the input terminal 101 is decomposed into a band image (input image-F) by the image converter 102.
【0074】この入力画像-Fと選択器515の出力する帯
域画像-Fとの残差が減算器103にて計算される。さらに
この帯域画像-Fごとの差分は量子化器104(入出力特性
図3)にて代表値で置き換えられ、出力端子110より出
力される。また、この代表値から成る帯域画像-Fと、選
択器515の出力する帯域画像-Fの和が加算器106にて計算
される。これを予測画像-Fと呼ぶ。この予測画像-Fを用
い、構成要素群514は前述した動作により背景画像-Fを
生成する。さらに、予測画像-Fと画像変換器102の出力
する帯域画像-Fとを用い、構成要素群512は第1の実施
例で説明した動作により動き補償予測画像-Fを出力す
る。The subtractor 103 calculates the residual between this input image-F and the band image-F output by the selector 515. Further, the difference for each band image-F is replaced with a representative value in the quantizer 104 (input / output characteristic FIG. 3) and output from the output terminal 110. Further, the sum of the band image-F including the representative value and the band image-F output by the selector 515 is calculated by the adder 106. This is called prediction image-F. Using this predicted image-F, the constituent element group 514 generates the background image-F by the operation described above. Furthermore, using the predicted image-F and the band image-F output from the image converter 102, the component group 512 outputs the motion-compensated predicted image-F by the operation described in the first embodiment.
【0075】以上の背景画像-Fと動き補償予測画像-F
は、制御器516の動作により選択器515にてどちらか一方
が選択さる。この選択画像-Fと、入力画像-Fとの残差の
代表値が出力端子110より出力されるとともに、選択画
像-Fにこの残差を加算することで予測画像-Fを求める。The above background image-F and motion compensation prediction image-F
Is selected by the selector 515 according to the operation of the controller 516. The representative value of the residual between the selected image-F and the input image-F is output from the output terminal 110, and the predicted image-F is obtained by adding the residual to the selected image-F.
【0076】以上のようにして、出力端子110から残差
画像-F、出力端子111から動きベクトルを出力する。こ
れらは後段の符号化器にて符号化され、伝送される。ま
た、画像復号化器は構成要素群517から成り、伝送デー
タを復号化し、残差画像-Fと動きベクトルを得て、これ
らを基に、前述の動作に基づき加算器106の出力する予
測画像-Fを求め、これを画像変換器102と対になる画像
逆変換器に通すことで、再生画像を得る。As described above, the residual image-F is output from the output terminal 110 and the motion vector is output from the output terminal 111. These are encoded and transmitted by the encoder in the subsequent stage. Further, the image decoder is composed of the component group 517, decodes the transmission data, obtains the residual image-F and the motion vector, and based on these, the prediction image output from the adder 106 based on the above-mentioned operation. -F is obtained, and a reproduced image is obtained by passing this through an image inverse converter that is paired with the image converter 102.
【0077】[0077]
【発明の効果】以上のように第1の発明の画像符号化装
置を用いれば、画像変換器、逆変換器の個数を減らすこ
とができ、汎用プロセッサでのソフトウェア実現時に処
理時間を短縮することができる。また、ハードウェア実
現時には装置が不要となり、その分、装置コスト、消費
電力を下げることができる。As described above, by using the image coding apparatus of the first invention, the number of image converters and inverse converters can be reduced, and the processing time can be shortened when software is implemented by a general-purpose processor. You can Further, when hardware is realized, a device is unnecessary, and the device cost and power consumption can be reduced accordingly.
【0078】また、第2の発明の画像符号化装置では、
超低ビットレート符号化にて高帯域周波数が伝送できな
い場合の画質劣化を抑えることができる。Further, in the image coding apparatus of the second invention,
It is possible to suppress image quality deterioration when high band frequencies cannot be transmitted by ultra-low bit rate encoding.
【0079】また、第3の発明の画像符号化装置では、
背景画像生成時のしきい値設定を容易にし、周波数帯域
画像ごとに背景画像を生成する場合に比べて安定に背景
生成を行うことができる。Further, in the image coding apparatus of the third invention,
It is possible to easily set the threshold value when the background image is generated, and to stably generate the background as compared with the case where the background image is generated for each frequency band image.
【図1】本発明の第1の実施例における画像符号化装置
の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of an image coding apparatus according to a first embodiment of the present invention.
【図2】第1の実施例における動き推定器の動作を示す
図FIG. 2 is a diagram showing an operation of a motion estimator in the first embodiment.
【図3】量子化器の動作を示す図FIG. 3 is a diagram showing the operation of a quantizer.
【図4】本発明の第2の実施例における画像符号化装置
の構成を示すブロック図FIG. 4 is a block diagram showing a configuration of an image coding apparatus according to a second embodiment of the present invention.
【図5】本発明の第3の実施例における画像符号化装置
の構成を示すブロック図FIG. 5 is a block diagram showing a configuration of an image coding apparatus according to a third embodiment of the present invention.
【図6】従来例1における画像逆変換回路の構成を示す
ブロック図FIG. 6 is a block diagram showing the configuration of an image inverse conversion circuit in Conventional Example 1.
【図7】画像変換器の構成を示すブロック図FIG. 7 is a block diagram showing a configuration of an image converter.
【図8】画像逆変換器の構成を示すブロック図FIG. 8 is a block diagram showing the configuration of an image inverse converter.
【図9】課題(B2)を示す図FIG. 9 is a diagram showing a task (B2).
【図10】課題(B2)を示す図FIG. 10 is a diagram showing a task (B2).
102 画像変換器 103 減算器 104 量子化器 106 加算器 107 画像メモリ 108 動き推定器 109 動き補償器 204 量子化器 212 出力端子 213 選択器 513 画像メモリ 514 制御器 515 選択器 516 制御器 102 image converter 103 subtractor 104 quantizer 106 adder 107 image memory 108 motion estimator 109 motion compensator 204 quantizer 212 output terminal 213 selector 513 image memory 514 controller 515 selector 516 controller
Claims (3)
する画像変換手段と、周波数帯域ごとの画像を記憶する
画像メモリと、前記画像変換手段の出力する周波数帯域
ごとの画像と前記画像メモリの出力するそれらをもとに
局所領域での動きベクトルを算出する動き推定手段と、
前記動きベクトルをもとに、前記画像メモリの出力する
周波数帯域ごとの画像に対し動き補償を局所領域ごとに
行いこれを動き補償予測画像として出力する動き補償手
段とを備え、周波数帯域ごとの画像をもとに動きベクト
ルを算出し、これをもとに周波数帯域ごとの動き補償予
測画像を得ることを特徴とする画像符号化装置。1. An image conversion unit that decomposes an image into a plurality of images for each frequency band, an image memory that stores an image for each frequency band, an image for each frequency band output by the image conversion unit, and the image memory. Motion estimation means for calculating a motion vector in a local area based on those output by
An image for each frequency band is provided based on the motion vector, and motion compensation means for performing motion compensation for each local region on the image for each frequency band output from the image memory and outputting this as a motion-compensated predicted image. An image coding apparatus, characterized in that a motion vector is calculated based on the above, and a motion compensation prediction image for each frequency band is obtained based on this.
する画像変換手段と、周波数帯域ごとの画像を記憶する
画像メモリと、前記画像変換手段の出力する周波数帯域
ごとの画像と前記画像メモリの出力するそれらとの残差
を求める減算手段と、前記残差を代表値に変換する量子
化手段と、前記代表値から成る周波数帯域ごとの画像と
前記画像メモリの出力するそれらとの和を求める加算手
段と、前記和から成る周波数帯域ごとの画像と、値0か
ら成るそれらのどちらかを選択し、これを前記画像メモ
リへ出力する選択手段とを備え、前記代表値から成る周
波数帯域ごとの画像を符号化する符号化器からの量子化
幅変更信号に基づき、前記選択器の出力する画像を周波
数帯域ごとに変更することを特徴とする画像符号化装
置。2. An image conversion means for decomposing an image into a plurality of images for each frequency band, an image memory for storing the image for each frequency band, an image for each frequency band output by the image conversion means, and the image memory. Of subtracting means for obtaining the residual with them, the quantizing means for converting the residual into a representative value, the sum of the image for each frequency band consisting of the representative value and those output by the image memory. For each frequency band composed of the representative value, there is provided an addition means for obtaining, an image for each frequency band composed of the sum, and a selection means for selecting one of those having a value of 0 and outputting this to the image memory. An image encoding device for changing the image output from the selector for each frequency band based on a quantization width change signal from an encoder for encoding the image.
する画像変換手段と、周波数帯域ごとの画像を記憶する
画像メモリと、前記画像変換手段の出力する周波数帯域
ごとの画像と前記画像メモリの出力するそれらとの残差
を求める減算手段と、前記残差を代表値に変換する量子
化手段と、前記代表値から成る周波数帯域ごとの画像と
前記画像メモリの出力するそれらとの和を求める加算手
段と、前記和から成る周波数帯域ごとの画像と前記画像
メモリの出力するそれらを入力とし、これら入力の差の
絶対値の局所領域での総和を、周波数帯域ごとに総和し
たものを用い前記画像メモリに出力する画像として2つ
の入力のどちらかを選択する制御手段とを備えたことを
特徴とする画像符号化装置。3. An image conversion means for decomposing an image into a plurality of images for each frequency band, an image memory for storing an image for each frequency band, an image for each frequency band output by the image conversion means, and the image memory. Of subtracting means for obtaining the residual with them, the quantizing means for converting the residual into a representative value, the sum of the image for each frequency band consisting of the representative value and those output by the image memory. The addition means to be obtained, the image for each frequency band composed of the sum and those output from the image memory are used as inputs, and the sum of the absolute values of the differences between these inputs in the local region is used for each frequency band. An image coding apparatus, comprising: a control unit that selects one of two inputs as an image to be output to the image memory.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12244194A JPH07336687A (en) | 1994-06-03 | 1994-06-03 | Picture encoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12244194A JPH07336687A (en) | 1994-06-03 | 1994-06-03 | Picture encoding device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07336687A true JPH07336687A (en) | 1995-12-22 |
Family
ID=14835930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12244194A Pending JPH07336687A (en) | 1994-06-03 | 1994-06-03 | Picture encoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07336687A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008514115A (en) * | 2004-09-14 | 2008-05-01 | ギャリー デモス | High quality wideband multilayer image compression coding system |
-
1994
- 1994-06-03 JP JP12244194A patent/JPH07336687A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008514115A (en) * | 2004-09-14 | 2008-05-01 | ギャリー デモス | High quality wideband multilayer image compression coding system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3385077B2 (en) | Motion vector detection device | |
JP2801559B2 (en) | Motion compensation coding method and apparatus adapted to the magnitude of motion | |
JP5203379B2 (en) | Spatial convention guidance time prediction for video compression | |
JP5259396B2 (en) | Nonlinear prediction filter for hybrid video compression | |
JP2005507587A (en) | Spatial scalable compression | |
EP0644697A2 (en) | Method for half-pixel motion compensation in image decoding | |
JP2006246474A (en) | Prediction image generation method and apparatus using single coding mode for all color components, and image and video encoding and decoding methods and apparatuses using the same | |
KR20080069110A (en) | Method and apparatus for video encoding and decoding using adaptive interpolation filter | |
JP2004208320A (en) | Motion evaluation engine with parallel interpolation and search hardware | |
JP2007501555A (en) | Video encoding and decoding method and corresponding apparatus | |
JPH04245884A (en) | Prediction encoding system for picture | |
JP2900998B2 (en) | Block interpolation predictive encoding apparatus, decoding apparatus, encoding method and decoding method | |
JP2005318297A (en) | Method and device for encoding/decoding dynamic image | |
JP2009509411A (en) | Multi-stage link method for adaptive motion vector sampling in video compression | |
US5574663A (en) | Method and apparatus for regenerating a dense motion vector field | |
JPH01228384A (en) | Moving image coding system using area division | |
JP4559811B2 (en) | Information processing apparatus and information processing method | |
US6061401A (en) | Method and apparatus for selectively encoding/decoding a video signal | |
JPH07336687A (en) | Picture encoding device | |
JP2002523987A (en) | Digital image encoding method and encoding apparatus, and digital image decoding method and decoding apparatus | |
JP3701825B2 (en) | Moving picture coding method, moving picture coding apparatus, moving picture decoding method, moving picture decoding apparatus, and storage medium storing moving picture coding and decoding program | |
JPH07177519A (en) | Motion vector detection method | |
KR100240620B1 (en) | Method and apparatus to form symmetric search windows for bidirectional half pel motion estimation | |
JPH06153185A (en) | Motion compensation device and coder using the device | |
JPH10150665A (en) | Method for generating predictive image, and method and device for image encoding |