JPH07298270A - Inter-motion compensation frame prediction coder - Google Patents
Inter-motion compensation frame prediction coderInfo
- Publication number
- JPH07298270A JPH07298270A JP10915194A JP10915194A JPH07298270A JP H07298270 A JPH07298270 A JP H07298270A JP 10915194 A JP10915194 A JP 10915194A JP 10915194 A JP10915194 A JP 10915194A JP H07298270 A JPH07298270 A JP H07298270A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- image
- motion
- vector
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、テレビ会議、テレビ電
話、ケーブルテレビなどの信号処理に使用する動き補償
フレーム間予測符号化装置に関し、特に、効率の良い圧
縮符号化を可能にしたものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion-compensated interframe predictive coding apparatus used for signal processing of video conferences, videophones, cable televisions, etc., and particularly, enables efficient efficient compression coding. is there.
【0002】[0002]
【従来の技術】近年、デジタル信号処理技術が発達し、
動画像を圧縮符号化して伝送することが可能になり、テ
レビ会議やテレビ電話等が実用化されるに至っている。2. Description of the Related Art In recent years, digital signal processing technology has been developed,
It has become possible to compress and encode moving images for transmission, and video conferences and video phones have come into practical use.
【0003】動画像の符号化では、符号化効率を高める
ため、伝送済みの画素情報を用いて次に符号化する画素
の画素値を予測し、実際の画素値の代わりに、この予測
値との誤差を符号化する予測符号化が行なわれている。
中でも、動き補償フレーム間予測符号化方式は、連続す
るフレーム間で被写体の移動量を検出し、その移動量だ
け画面位置を平行移動したときの前フレームの対応画素
を予測に用いているため、予測精度が大幅に向上し、高
い圧縮率を得ることができる。In coding a moving image, in order to improve coding efficiency, the pixel value of a pixel to be coded next is predicted using the transmitted pixel information, and the predicted value is used instead of the actual pixel value. Predictive coding is performed to code the error of.
Among them, the motion-compensated interframe predictive coding method detects the amount of movement of the subject between consecutive frames and uses the corresponding pixel of the previous frame when the screen position is translated by that amount of movement for prediction. The prediction accuracy is significantly improved, and a high compression rate can be obtained.
【0004】また、画像信号の符号化では、画像信号に
離散コサイン変換(DCT)等を施して周波数領域の信
号に変換する直交変換符号化も行なわれている。相関性
の高い画像信号は、この変換により、スペクトルの低周
波成分に集中する。この変換だけでは、データ圧縮にな
らないが、低周波成分に対して多くのビットを割り当
て、電力の少ない高周波成分に対しては少ないビット数
で符号化することにより、平均で所要ビット数を低減す
ることができる。Further, in the coding of image signals, orthogonal transform coding is also performed in which the image signals are subjected to discrete cosine transform (DCT) or the like to transform them into frequency domain signals. By this conversion, highly correlated image signals are concentrated in the low frequency components of the spectrum. Although this conversion alone does not result in data compression, many bits are assigned to low-frequency components, and high-frequency components with low power are encoded with a small number of bits to reduce the required number of bits on average. be able to.
【0005】こうした各方式を組合せて実施する従来の
動き補償フレーム間予測符号化装置は、図3に示すよう
に、デジタル化された画像(入力画像)が入力する端子
1と、入力画像を一旦蓄えてからブロック単位で出力す
るフレームメモリ2と、入力画像とその予測画像との差
分(予測誤差)を出力する減算器3と、予測誤差をDC
T(離散コサイン変換)等の変換方式で周波数領域に変
換し、各周波数毎のパワーを表わす直交変換係数を出力
する直交変換部4と、直交変換係数を量子化する量子化
部5と、量子化された直交変換係数を逆量子化する逆量
子化部8と、入力した直交変換係数を逆直交変換して予
測誤差画像を得る逆直交変換部9と、逆直交変換部9か
ら入力した予測誤差画像と減算器3で使われた予測画像
とを加算して再生画像を出力する加算器10と、再生画像
を蓄えるフレームメモリ11と、フレームメモリ11から得
られた画像を物体毎の領域に分割してラベルを付ける領
域分割部17と、フレームメモリ11から入力された前フレ
ームの再生画像とフレームメモリ2から入力された入力
画像との間で領域分割部17の検出した領域がどの方向に
どれだけ移動したかを表わす動きベクトルを検出する動
きベクトル検出部13と、量子化部5から出力された量子
化データと動きベクトル検出部13から出力された動きベ
クトルや領域のラベル等とを多重化する符号多重部16
と、多重化された符号を可変長符号化する可変長符号化
部6と、符号化された動画像データを出力する出力端子
7とを備えている。As shown in FIG. 3, a conventional motion compensation interframe predictive coding apparatus which implements a combination of each of the above-described systems temporarily outputs the input image and a terminal 1 to which a digitized image (input image) is input. A frame memory 2 that outputs the data in block units after storing, a subtracter 3 that outputs a difference (prediction error) between an input image and its prediction image, and a prediction error DC
An orthogonal transform unit 4 that transforms into a frequency domain by a transform method such as T (discrete cosine transform) and outputs an orthogonal transform coefficient that represents power for each frequency; a quantizer 5 that quantizes the orthogonal transform coefficient; The inverse quantization unit 8 that inversely quantizes the converted orthogonal transform coefficient, the inverse orthogonal transform unit 9 that obtains a prediction error image by performing the inverse orthogonal transform of the input orthogonal transform coefficient, and the prediction that is input from the inverse orthogonal transform unit 9. The adder 10 that outputs the reproduced image by adding the error image and the predicted image used in the subtractor 3, the frame memory 11 that stores the reproduced image, and the image obtained from the frame memory 11 in the area for each object In which direction is the region detected by the region dividing unit 17 between the region dividing unit 17 for dividing and labeling and the reproduced image of the previous frame input from the frame memory 11 and the input image input from the frame memory 2. How much you moved A motion vector detecting section 13 for detecting a motion vector Wath, code multiplexing unit 16 for multiplexing a label or the like of motion vectors and area output from the quantized data and motion vector detection section 13 output from the quantization unit 5
And a variable length coding unit 6 for variable length coding the multiplexed code, and an output terminal 7 for outputting the coded moving image data.
【0006】この装置では、これから圧縮符号化される
デジタル化された入力画像が端子1から入力し、フレー
ムメモリ2に一旦蓄えられる。フレームメモリ2は、減
算器3には、予め決められたブロック単位で蓄えている
入力画像を出力し、また、動きベクトル検出部13には、
動きベクトルを検索するために必要な画素データを出力
する。In this apparatus, a digitized input image to be compressed and encoded is input from the terminal 1 and is temporarily stored in the frame memory 2. The frame memory 2 outputs the input image stored in a predetermined block unit to the subtractor 3, and the motion vector detection unit 13 outputs the input image.
It outputs the pixel data required to retrieve the motion vector.
【0007】減算器3には、フレームメモリ2からの入
力画像と、その入力画像に対する予測画像がフレームメ
モリ11から入力され、減算器3は、その差分である予測
誤差画像を直交変換部4に出力する。直交変換部4は、
入力した予測誤差をDCT等の変換方式で周波数領域に
変換し、各周波数毎のパワーを表わす直交変換係数を出
力する。量子化部5は、この入力した直交変換係数を可
変長符号化部6より与えられる量子化パラメータで量子
化し、量子化係数及びその時の量子化パラメータを符号
多重部16及び逆量子化部8に出力する。An input image from the frame memory 2 and a predicted image for the input image are input to the subtractor 3 from the frame memory 11, and the subtractor 3 inputs the difference, the prediction error image, to the orthogonal transform unit 4. Output. The orthogonal transformation unit 4
The input prediction error is converted into a frequency domain by a conversion method such as DCT, and an orthogonal transform coefficient representing the power of each frequency is output. The quantization unit 5 quantizes the input orthogonal transformation coefficient with the quantization parameter given by the variable length coding unit 6, and the quantization coefficient and the quantization parameter at that time are quantized to the code multiplexing unit 16 and the dequantization unit 8. Output.
【0008】逆量子化部8は、入力した量子化係数を量
子化時に用いた量子化パラメータで逆量子化し、逆直交
変換部9に出力する。逆直交変換部9は、入力した直交
変換係数を逆直交変換し予測誤差画像を得て、加算器10
に出力する。加算器10は、逆直交変換部9から入力した
予測誤差画像と減算器3で使われた予測画像とを加算し
て入力画像を再生し、フレームメモリ11に出力する。こ
の再生画像は、次フレームの領域分割、動きベクトル検
出及び予測画像作成に用いるためにフレームメモリ11に
蓄えられる。The dequantization unit 8 dequantizes the input quantized coefficient with the quantization parameter used at the time of quantization, and outputs it to the inverse orthogonal transform unit 9. The inverse orthogonal transform unit 9 performs an inverse orthogonal transform on the input orthogonal transform coefficient to obtain a prediction error image, and the adder 10
Output to. The adder 10 adds the prediction error image input from the inverse orthogonal transform unit 9 and the prediction image used in the subtractor 3 to reproduce the input image, and outputs it to the frame memory 11. This reproduced image is stored in the frame memory 11 for use in region division of the next frame, motion vector detection, and prediction image creation.
【0009】領域分割部17は、フレームメモリ11から得
た画像から、例えば物体のエッジ情報等を抽出し、それ
ぞれの物体毎に領域を分割する。そして、予め決められ
た手順で領域毎にラベルを付け、その結果を動きベクト
ル検出部13に出力する。動きベクトル検出部13は、フレ
ームメモリ2から入力する入力画像とフレームメモリ11
から入力する前フレームの再生画像とを用いて、領域分
割部17で検出された各領域の動きベクトルを検出する。
検出された動きベクトルは、対応する領域のラベルと共
に符号多重部16及びフレームメモリ11に出力される。The area dividing unit 17 extracts, for example, edge information of an object from the image obtained from the frame memory 11 and divides the area for each object. Then, a label is attached to each area according to a predetermined procedure, and the result is output to the motion vector detecting unit 13. The motion vector detection unit 13 includes an input image input from the frame memory 2 and the frame memory 11
The motion vector of each area detected by the area dividing unit 17 is detected using the reproduced image of the previous frame input from the.
The detected motion vector is output to the code multiplexing unit 16 and the frame memory 11 together with the label of the corresponding area.
【0010】フレームメモリ11は、動きベクトル検出部
13から入力した動きベクトルに基づいて予測画像を読出
し、これを減算器3及び加算器10に出力する。The frame memory 11 is a motion vector detecting section.
A predicted image is read out based on the motion vector input from 13, and this is output to the subtractor 3 and the adder 10.
【0011】符号多重部16は、量子化部5から出力され
た量子化係数と量子化パラメータ、及び動きベクトル検
出部16から出力された動きベクトルとその動きベクトル
に対応する領域のラベル、その他復号化に必要なパラメ
ータを多重化し、可変長符号化部6に出力する。The code multiplexing unit 16 includes a quantization coefficient and a quantization parameter output from the quantization unit 5, a motion vector output from the motion vector detection unit 16 and a label of a region corresponding to the motion vector, and other decoding. The parameters required for encoding are multiplexed and output to the variable length coding unit 6.
【0012】可変長符号化部6は、多重化された符号を
可変長符号化し出力端子7を通して外部に出力する。こ
の時、動きベクトルの符号量を圧縮するため、隣接する
領域の動きベクトルとの差分を可変長符号化することも
行なわれている。The variable length coding unit 6 performs variable length coding on the multiplexed code and outputs it to the outside through the output terminal 7. At this time, in order to compress the code amount of the motion vector, the difference between the motion vector and the motion vector of the adjacent area is also variable-length coded.
【0013】また、この可変長符号を用いる符号化方式
では、発生ビット量が時間的に変化するため、固定レー
トでデータ伝送を行なう伝送路にデータを供給している
バッファがオーバーフローしたりアンダーフローしたり
する虞れがある。可変長符号化部6は、こうした事態を
防ぐため、量子化パラメータを量子化部5に出力して出
力端子7から送出される圧縮符号の符号量を制御してい
る。即ち、発生した符号量が目標とする量より多い場合
には、量子化幅を広げる量子化パラメータを量子化部5
にフィードバックし、また、少ない場合には、量子化幅
を狭める量子化パラメータをフィードバックすることに
より、量子化部5の発生する符号量を調整している。In addition, in the coding system using the variable length code, the amount of generated bits changes with time, so that the buffer supplying data to the transmission line for transmitting data at a fixed rate overflows or underflows. There is a risk of doing it. In order to prevent such a situation, the variable length coding unit 6 outputs the quantization parameter to the quantization unit 5 and controls the code amount of the compression code sent from the output terminal 7. That is, when the generated code amount is larger than the target amount, the quantization parameter for expanding the quantization width is set to the quantization unit 5.
And the amount of code generated by the quantizer 5 is adjusted by feeding back a quantization parameter that narrows the quantization width when the amount is small.
【0014】従来の動き補償フレーム間予測符号化装置
では、このようにして動画像を圧縮符号化し、伝送して
いる。In the conventional motion-compensated interframe predictive coding apparatus, the moving image is compression-coded and transmitted in this way.
【0015】[0015]
【発明が解決しようとする課題】しかし、従来の動き補
償フレーム間予測符号化装置による符号化では、領域分
割部17で分割された画像の領域の数が多い場合に、動き
ベクトルの符号量が多くなり、そのため、画質に影響を
及ぼす量子化係数に割り当てられる符号量が減少し、そ
の結果、再生画像の画質が劣化するという問題点があ
る。However, in the coding by the conventional motion compensation interframe predictive coding apparatus, when the number of regions of the image divided by the region dividing unit 17 is large, the code amount of the motion vector is As a result, the number of codes assigned to the quantized coefficients that affect the image quality decreases, and as a result, the image quality of the reproduced image deteriorates.
【0016】本発明は、こうした従来の問題点を解決す
るものであり、画像を分割する領域の数が多い場合に
も、動きベクトルを効率良く圧縮符号化することがで
き、それにより優れた画質の画像再生を可能にする動き
補償フレーム間予測符号化装置を提供することを目的と
している。The present invention solves the above-mentioned conventional problems. Even when the number of regions into which an image is divided is large, the motion vector can be efficiently compression-coded, thereby providing excellent image quality. It is an object of the present invention to provide a motion-compensated inter-frame predictive coding device that enables image reproduction of the above.
【0017】[0017]
【課題を解決するための手段】そこで、本発明では、参
照フレームにおける動きベクトル分だけずらした位置を
参照画素として動画像信号の予測符号化を行なう動き補
償フレーム間予測符号化装置において、入力フレーム内
の各物体の画像中の領域を抽出する物体抽出手段と、抽
出された物体毎の動きベクトルを検出する動きベクトル
検出手段と、検出された動きベクトルと前フレームで検
出された同一物体の動きベクトルとを基に各物体の加速
度ベクトルを検出する加速度検出手段と、検出された加
速度ベクトルを予測符号化された情報と多重化する多重
化手段とを設け、多重化されたこの情報を可変長符号化
するように構成している。Therefore, according to the present invention, in a motion-compensated interframe predictive coding apparatus for predictive-coding a moving picture signal using a position shifted by a motion vector in a reference frame as a reference pixel, an input frame Object extracting means for extracting the region in the image of each object inside, motion vector detecting means for detecting the motion vector of each extracted object, the detected motion vector and the motion of the same object detected in the previous frame An acceleration detecting means for detecting the acceleration vector of each object based on the vector and a multiplexing means for multiplexing the detected acceleration vector with the information coded by prediction are provided, and the multiplexed information is variable length. It is configured to be encoded.
【0018】また、物体抽出手段で抽出された物体の
内、動きベクトルが同一である隣接した物体を統合する
物体統合手段を設け、統合した物体についての加速度ベ
クトルを1つに絞って多重化手段に送るように構成して
いる。Further, object integrating means for integrating adjacent objects having the same motion vector among the objects extracted by the object extracting means is provided, and the acceleration vector for the integrated object is narrowed down to one, and the multiplexing means is provided. It is configured to be sent to.
【0019】[0019]
【作用】このように、動きベクトルを、動きベクトルの
差分である加速度ベクトルに変換することにより、その
情報が圧縮され、高能率の符号化が可能になる。そのた
め、画質に対する影響の大きい量子化係数に多くの符号
量を割り当てることができ、再生画像の画質を向上させ
ることができる。As described above, by converting the motion vector into the acceleration vector which is the difference between the motion vectors, the information is compressed and high efficiency coding becomes possible. Therefore, a large amount of code can be assigned to the quantization coefficient that has a great influence on the image quality, and the image quality of the reproduced image can be improved.
【0020】また、同一の動きをする物体を統合するこ
とにより、動きベクトルに関する情報の一層の圧縮が可
能になる。Further, by integrating the objects having the same motion, it becomes possible to further compress the information regarding the motion vector.
【0021】[0021]
【実施例】本発明の実施例における動き補償フレーム間
予測符号化装置は、図1に示すように、物体のエッジ情
報等を基に画像から各物体を抽出する物体抽出部12と、
各物体の前フレームにおける動きベクトルと現フレーム
における動きベクトルとの差分を加速度ベクトルとして
出力する加速度検出部14と、動きベクトルが同じである
隣接する物体を1つの物体に纏め、こうした纏めた後の
各物体についての加速度ベクトルを符号多重部16に出力
する物体統合部15とを備えている。その他の構成は従来
の装置(図3)と変わりがない。BEST MODE FOR CARRYING OUT THE INVENTION As shown in FIG. 1, a motion compensation interframe predictive coding apparatus according to an embodiment of the present invention includes an object extracting unit 12 for extracting each object from an image based on edge information of the object, and the like.
The acceleration detection unit 14 that outputs the difference between the motion vector of the previous frame of each object and the motion vector of the current frame as an acceleration vector, and the adjacent objects that have the same motion vector are combined into one object. An object integration unit 15 that outputs an acceleration vector for each object to the code multiplexing unit 16. Other configurations are the same as those of the conventional device (FIG. 3).
【0022】この加速度検出部14は、図2に示すよう
に、動きベクトルとラベル情報とが入力する入力端子21
と、ラベル情報が入力したときに前フレームの対応する
(同じ)物体のラベルを出力するラベル変換部22と、ラ
ベル変換部22からラベルが出力されたときにそれに対応
する前フレームの動きベクトル値を出力するメモリ23
と、前フレームの動きベクトルと現フレームの動きベク
トルとの差分を計算する減算器24と、減算器24の計算し
た差分を加速度ベクトルとして出力する出力端子25とを
具備している。As shown in FIG. 2, the acceleration detecting section 14 has an input terminal 21 for inputting a motion vector and label information.
And the label conversion unit 22 that outputs the label of the corresponding (same) object in the previous frame when the label information is input, and the motion vector value of the corresponding previous frame when the label is output from the label conversion unit 22. Output memory 23
And a subtractor 24 for calculating the difference between the motion vector of the previous frame and the motion vector of the current frame, and an output terminal 25 for outputting the difference calculated by the subtractor 24 as an acceleration vector.
【0023】この動き補償フレーム間予測符号化装置の
入力端子1には、これから圧縮符号化されるデジタル化
された入力画像が入力し、フレームメモリ2に一旦蓄え
られた後、減算器3に予め決められたブロック単位で出
力され、また、動きベクトル検出部13に動きベクトルを
検索するために必要な画素データが出力される。The input terminal 1 of this motion compensation inter-frame predictive coding apparatus receives a digitized input image which is compression-coded from now on, is temporarily stored in the frame memory 2, and is then stored in the subtracter 3 in advance. Pixel data necessary for searching for a motion vector is output to the motion vector detection unit 13 in the determined block unit.
【0024】減算器3は、フレームメモリ2から入力し
た入力画像と、フレームメモリ11から入力した、その入
力画像に対する予測画像との差分を予測誤差として直交
変換部4に出力し、直交変換部4は、その予測誤差をD
CT等の変換方式で周波数領域に変換して各周波数毎の
パワーを表わす直交変換係数を出力し、量子化部5は、
この直交変換係数を可変長符号化部6より与えられる量
子化パラメータで量子化し、量子化係数及びその時の量
子化パラメータを符号多重部16及び逆量子化部8に出力
する。The subtracter 3 outputs the difference between the input image input from the frame memory 2 and the predicted image input from the frame memory 11 to the orthogonal transformation unit 4 as a prediction error, and the orthogonal transformation unit 4 Is the prediction error D
The quantization unit 5 transforms the signal into a frequency domain by a transformation method such as CT and outputs an orthogonal transformation coefficient representing the power of each frequency.
The orthogonal transform coefficient is quantized by the quantization parameter given by the variable length coding unit 6, and the quantized coefficient and the quantization parameter at that time are output to the code multiplexing unit 16 and the dequantization unit 8.
【0025】逆量子化部8は、量子化係数を量子化時に
用いた量子化パラメータで逆量子化し、逆直交変換部9
は、逆量子化で得られた直交変換係数を逆直交変換し、
加算器10は、逆直交変換で得られた予測誤差画像と減算
器3で使われた予測画像とを加算して入力画像を再生
し、フレームメモリ11は、この再生画像を次フレームの
領域分割、動きベクトル検出及び予測画像作成に用いる
ために蓄える。The inverse quantization unit 8 inversely quantizes the quantized coefficient with the quantization parameter used at the time of quantization, and the inverse orthogonal transform unit 9
Is an inverse orthogonal transform of the orthogonal transform coefficient obtained by inverse quantization,
The adder 10 reproduces the input image by adding the prediction error image obtained by the inverse orthogonal transform and the prediction image used by the subtractor 3, and the frame memory 11 divides this reproduced image into the regions of the next frame. , For use in motion vector detection and prediction image generation.
【0026】物体抽出部12は、フレームメモリ11から画
像を得ると、例えば物体のエッジ情報等を基に各物体を
抽出し、予め決められた手順で物体毎にラベルを付け、
その物体の領域とラベルとをラベル情報として動きベク
トル検出部13に出力する。動きベクトル検出部13は、フ
レームメモリ2から入力した入力画像とフレームメモリ
11から入力した前フレームの再生画像とから、物体抽出
部12で抽出された各物体の動きベクトルを検出する。検
出された動きベクトルは、対応する物体のラベル情報と
共に、加速度検出部14、物体統合部15及びフレームメモ
リ11のそれぞれに入力される。When the object extracting unit 12 obtains the image from the frame memory 11, the object extracting unit 12 extracts each object based on, for example, edge information of the object, and labels each object according to a predetermined procedure.
The area of the object and the label are output to the motion vector detection unit 13 as label information. The motion vector detection unit 13 is configured to detect the input image input from the frame memory 2 and the frame memory.
The motion vector of each object extracted by the object extraction unit 12 is detected from the reproduced image of the previous frame input from 11. The detected motion vector is input to each of the acceleration detection unit 14, the object integration unit 15, and the frame memory 11 together with the label information of the corresponding object.
【0027】フレームメモリ11は、検出された動きベク
トルを基に、既に蓄えている前フレームの再生画像から
予測画像を作成し、減算器3及び加算器10に出力する。The frame memory 11 creates a predicted image from the already stored reproduced image of the previous frame based on the detected motion vector, and outputs it to the subtractor 3 and the adder 10.
【0028】加速度検出部14では、動きベクトル検出部
13の検出した動きベクトルと物体抽出部12の検出した物
体のラベル情報とが端子21を通して入力すると、物体の
ラベル情報を受けたラベル変換部22が、前フレームの対
応する(同じ)物体のラベルをメモリ23に出力する。前
フレームの動きベクトルとラベル情報とを蓄積している
メモリ23は、ラベル変換部22からラベル情報が出力され
ると、そのラベルに対応する前フレームの動きベクトル
値を読み出して減算器24に出力する。The acceleration detecting section 14 includes a motion vector detecting section.
When the motion vector detected by 13 and the label information of the object detected by the object extraction unit 12 are input through the terminal 21, the label conversion unit 22 that has received the label information of the object labels the corresponding (same) object label in the previous frame. Is output to the memory 23. When the label information is output from the label conversion unit 22, the memory 23 that stores the motion vector of the previous frame and the label information reads the motion vector value of the previous frame corresponding to the label and outputs it to the subtractor 24. To do.
【0029】減算器24は、メモリ23から出力された前フ
レームの動きベクトルと、端子21から入力した現フレー
ムの動きベクトルとの差分を計算し、この値を加速度ベ
クトルとして端子25を通して物体統合部15に出力する。
また、メモリ23は、次フレームの加速度ベクトルの算出
のために、端子21から入力したラベル情報と動きベクト
ル値とを蓄える。The subtractor 24 calculates the difference between the motion vector of the previous frame output from the memory 23 and the motion vector of the current frame input from the terminal 21, and uses this value as the acceleration vector through the terminal 25 to obtain the object integration unit. Output to 15.
Further, the memory 23 stores the label information and the motion vector value input from the terminal 21 in order to calculate the acceleration vector of the next frame.
【0030】物体統合部15は、動きベクトル検出部13か
ら入力した個々の物体の動きベクトルを基に、動きベク
トルの等しい隣接する物体を1つの物体として統合し、
この統合処理後の各区分された物体についての加速度ベ
クトルとラベル情報とを符号多重部16に出力する。1つ
に統合された複数の物体については、それらが統合され
たことを表わす統合情報と、それらの物体の一つについ
ての加速度ベクトルとを符号多重部16に出力し、残りの
物体についての加速度ベクトルは、符号多重部16に送ら
ない。The object integrating unit 15 integrates adjacent objects having the same motion vector as one object based on the motion vector of each object input from the motion vector detecting unit 13,
The acceleration vector and label information for each divided object after this integration processing are output to the code multiplexing unit 16. For a plurality of objects that have been integrated into one, integrated information indicating that they have been integrated and an acceleration vector for one of those objects are output to the code multiplexing unit 16, and accelerations for the remaining objects are output. The vector is not sent to the code multiplexing unit 16.
【0031】符号多重部16は、量子化部5から出力され
た量子化係数と量子化パラメータ、及び物体統合部15か
ら出力された加速度ベクトルとその加速度ベクトルに対
応する物体のラベル情報、統合情報、その他復号化に必
要なパラメータを多重化して可変長符号化部6に出力
し、可変長符号化部6は、これらの多重化された情報を
可変長符号化し、出力端子7を通して外部に出力する。
同時に、可変長符号化部6は、量子化パラメータを量子
化部5に出力して、出力端子7から送出される圧縮符号
の符号量を制御する。The code multiplexing unit 16 includes the quantization coefficient and the quantization parameter output from the quantization unit 5, the acceleration vector output from the object integration unit 15, and the label information and integration information of the object corresponding to the acceleration vector. , And other parameters necessary for decoding are multiplexed and output to the variable length coding unit 6, and the variable length coding unit 6 performs variable length coding on these multiplexed information and outputs them to the outside through the output terminal 7. To do.
At the same time, the variable length coding unit 6 outputs the quantization parameter to the quantization unit 5 to control the code amount of the compression code sent from the output terminal 7.
【0032】このように実施例の動き補償フレーム間予
測符号化装置では、動きベクトルを基に加速度ベクトル
を計算し、これを符号化している。この加速度ベクトル
の符号化は、動きベクトルを直接符号化する場合に比べ
て、情報を圧縮することが可能になる。これは、通常の
物体では外部から力が加えられていることが少なく、こ
うした外部から力を受けていない物体の場合には、その
運動が等速直線運動になり、速度ベクトルの変化である
加速度が0になるからである。また、物体の運動が加速
度を有する場合でも、加速度ベクトルを各フレームの時
間差における動きベクトルの変化量と定義しているた
め、この2フレーム間の僅かな時間(NTSC信号の場
合、この時間は1/30秒である)に生じる物体の速度
変化は非常に小さいからである。As described above, in the motion compensation interframe predictive coding apparatus of the embodiment, the acceleration vector is calculated on the basis of the motion vector and is coded. This encoding of the acceleration vector makes it possible to compress information as compared with the case of directly encoding the motion vector. This is because an ordinary object is less likely to receive a force from the outside, and in the case of an object that does not receive a force from the outside, its motion becomes a uniform linear motion, and the acceleration, which is a change in the velocity vector. Is 0. Further, even when the motion of the object has acceleration, the acceleration vector is defined as the amount of change in the motion vector due to the time difference between the frames. Therefore, the short time between these two frames (in the case of the NTSC signal, this time is 1 This is because the velocity change of the object that occurs in / 30 seconds) is very small.
【0033】また、実施例の装置では、物体統合部15に
おいて、動きベクトルが同一の隣接物体を一つに統合し
ており、この統合を通じても、また符号量を減らすこと
ができる。物体抽出部12では、エッジ情報等の画像情報
から物体を検出しているため、実際には一つの物体であ
っても、二つの異なった物体として検出される場合があ
るが、こうした物体は物体統合部15で一つに統合され
る。また、個々の物体自体は静止しているが、カメラの
パニング等の動作によって、映像中の物体が動くような
場合には、それらの物体は統合され、符号量が圧縮され
る。なお、隣接する複数の物体を統合した場合には、受
信側では、その一つの物体についての動きベクトルを、
加速度ベクトルを基に求めることにより、他の物体の動
きベクトルを知ることができる。Further, in the apparatus of the embodiment, the object integrating unit 15 integrates adjacent objects having the same motion vector into one, and the code amount can be reduced through this integration. Since the object extraction unit 12 detects an object from image information such as edge information, even if it is actually one object, it may be detected as two different objects. They are integrated into one by the integration unit 15. Further, when the individual objects themselves are stationary, but the objects in the image move due to an operation such as panning of the camera, those objects are integrated and the code amount is compressed. In addition, when a plurality of adjacent objects are integrated, on the receiving side, the motion vector for that one object is
By obtaining it based on the acceleration vector, the motion vector of another object can be known.
【0034】このように実施例の動き補償フレーム間予
測符号化装置では、動きベクトルに関する情報を圧縮す
ることができるため、可変長符号化において、量子化係
数に多くの符号量を割り当てることが可能になり、その
結果、高画質の再生画像を伝送することができる。As described above, since the motion compensation interframe predictive coding apparatus of the embodiment can compress the information about the motion vector, it is possible to allocate a large amount of code to the quantization coefficient in the variable length coding. As a result, a high quality reproduced image can be transmitted.
【0035】[0035]
【発明の効果】以上の実施例の説明から明らかなよう
に、本発明の動き補償フレーム間予測符号化装置は、物
体毎の加速度ベクトルを計算し、これを符号化している
ため、動きベクトルに関する情報量を効率良く圧縮符号
化することができる。As is clear from the above description of the embodiments, the motion-compensated interframe predictive coding apparatus of the present invention calculates the acceleration vector for each object and codes the acceleration vector. The amount of information can be efficiently compression-coded.
【0036】また、動きベクトルが同一である物体を統
合することによって、符号化する加速度ベクトルの量を
減らすことができ、動きベクトルに関する情報の圧縮率
を更に高めることができる。Further, by integrating the objects having the same motion vector, the amount of the acceleration vector to be coded can be reduced and the compression rate of the information about the motion vector can be further increased.
【0037】その結果、画質に非常に影響する量子化係
数に割り当てる符号量を増やすことがき、高画質の再生
画像を伝送することができる。As a result, it is possible to increase the code amount assigned to the quantization coefficient that greatly affects the image quality, and it is possible to transmit a reproduced image of high quality.
【図1】本発明の動き補償フレーム間予測符号化装置の
一実施例を示すブロック図、FIG. 1 is a block diagram showing an embodiment of a motion compensation interframe predictive coding apparatus according to the present invention,
【図2】実施例の装置における加速度検出部の構成を示
すブロック図、FIG. 2 is a block diagram showing the configuration of an acceleration detection unit in the apparatus of the embodiment,
【図3】従来の動き補償フレーム間予測符号化装置の構
成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of a conventional motion compensation interframe predictive coding device.
1 入力端子 2、11 フレームメモリ 3、24 減算器 4 直交変換部 5 量子化部 6 可変長符号化部 7 出力端子 8 逆量子化部 9 逆直交変換部 10 加算器 12 物体抽出部 13 動きベクトル検出部 14 加速度検出部 15 物体統合部 16 符号多重部 17 領域分割部 21 入力端子 22 ラベル変換部 23 メモリ 25 出力端子 1 Input Terminal 2, 11 Frame Memory 3, 24 Subtractor 4 Orthogonal Transformation Section 5 Quantization Section 6 Variable Length Coding Section 7 Output Terminal 8 Inverse Quantization Section 9 Inverse Orthogonal Transformation Section 10 Adder 12 Object Extraction Section 13 Motion Vector Detection unit 14 Acceleration detection unit 15 Object integration unit 16 Code multiplexing unit 17 Region division unit 21 Input terminal 22 Label conversion unit 23 Memory 25 Output terminal
Claims (2)
けずらした位置を参照画素として動画像信号の予測符号
化を行なう動き補償フレーム間予測符号化装置におい
て、 入力フレーム内の各物体の画像中の領域を抽出する物体
抽出手段と、 抽出された物体毎の動きベクトルを検出する動きベクト
ル検出手段と、 検出された動きベクトルと前フレームで検出された同一
物体の動きベクトルとを基に各物体の加速度ベクトルを
検出する加速度検出手段と、 検出された前記加速度ベクトルを前記予測符号化された
情報と多重化する多重化手段とを設け、多重化された前
記情報を可変長符号化することを特徴とする動き補償フ
レーム間予測符号化装置。1. A motion-compensated inter-frame predictive coding apparatus for predictive-coding a moving picture signal by using a position shifted by a motion vector in a reference frame as a reference pixel, and determining a region in an image of each object in an input frame. An object extracting means for extracting, a motion vector detecting means for detecting a motion vector of each extracted object, and an acceleration vector of each object based on the detected motion vector and the motion vector of the same object detected in the previous frame. Is provided, and a multiplexing means for multiplexing the detected acceleration vector with the predictively coded information is provided, and the multiplexed information is variable-length coded. Motion compensation interframe predictive coding device.
動きベクトルが同一である隣接した物体を統合する物体
統合手段を設け、統合した物体についての加速度ベクト
ルを1つに絞って前記多重化手段に送ることを特徴とす
る請求項1に記載の動き補償フレーム間予測符号化装
置。2. The object extracted by the object extracting means,
2. The motion compensation according to claim 1, further comprising object integrating means for integrating adjacent objects having the same motion vector, and limiting the acceleration vector of the integrated object to one and sending it to the multiplexing means. Interframe predictive coding device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10915194A JPH07298270A (en) | 1994-04-26 | 1994-04-26 | Inter-motion compensation frame prediction coder |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10915194A JPH07298270A (en) | 1994-04-26 | 1994-04-26 | Inter-motion compensation frame prediction coder |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07298270A true JPH07298270A (en) | 1995-11-10 |
Family
ID=14502923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10915194A Pending JPH07298270A (en) | 1994-04-26 | 1994-04-26 | Inter-motion compensation frame prediction coder |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07298270A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5978510A (en) * | 1997-03-20 | 1999-11-02 | Hyundai Electronics Industries Co., Ltd. | Method and apparatus for predictively coding contour of video signal |
WO2011070730A1 (en) * | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | Video coding device and video decoding device |
GB2500909A (en) * | 2012-04-04 | 2013-10-09 | Snell Ltd | Selecting motion vectors on the basis of acceleration |
KR101420435B1 (en) * | 2007-12-24 | 2014-07-16 | 엘지디스플레이 주식회사 | Motion compensation method, motion compensation device, liquid crystal display device having the same, and driving method thereof |
-
1994
- 1994-04-26 JP JP10915194A patent/JPH07298270A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5978510A (en) * | 1997-03-20 | 1999-11-02 | Hyundai Electronics Industries Co., Ltd. | Method and apparatus for predictively coding contour of video signal |
KR101420435B1 (en) * | 2007-12-24 | 2014-07-16 | 엘지디스플레이 주식회사 | Motion compensation method, motion compensation device, liquid crystal display device having the same, and driving method thereof |
WO2011070730A1 (en) * | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | Video coding device and video decoding device |
GB2500909A (en) * | 2012-04-04 | 2013-10-09 | Snell Ltd | Selecting motion vectors on the basis of acceleration |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3072035B2 (en) | Two-stage video film compression method and system | |
JP3888597B2 (en) | Motion compensation coding apparatus and motion compensation coding / decoding method | |
EP0734165B1 (en) | Image processing system using pixel-by-pixel motion estimation and frame decimation | |
EP0874526B1 (en) | Motion compensation encoding apparatus and motion compensation encoding method for high-efficiency encoding of video information through selective use of previously derived motion vectors in place of motion vectors derived from motion estimation | |
US8259805B2 (en) | Method and apparatus for generating coded picture data and for decoding coded picture data | |
JPH11262018A (en) | Motion compensation coder, motion compensation coding method and motion compensation recording medium therefor | |
JPH10257502A (en) | Hierarchical image encoding method, hierarchical image multiplexing method, hierarchical image decoding method and device therefor | |
US20010038669A1 (en) | Precise bit control apparatus with look-ahead for mpeg encoding | |
KR100415494B1 (en) | Image encoding method and apparatus, recording apparatus, video signal encoding apparatus, processing apparatus and method, video data processing apparatus and method | |
JPS61118085A (en) | Coding system and device for picture signal | |
JPH08111870A (en) | Method and device for re-coding image information | |
JP2007143176A (en) | Compression method of motion vector | |
KR100202538B1 (en) | Mpeg video codec | |
WO2000001158A1 (en) | Encoder and encoding method | |
KR100394014B1 (en) | Apparatus for transcoding video | |
AU2001293994A1 (en) | Compression of motion vectors | |
JPH07298270A (en) | Inter-motion compensation frame prediction coder | |
JPH10276437A (en) | Method and device for encoding/decoding hierarchical moving image signal | |
KR100468384B1 (en) | Moving object based Motion estimation Wavelet picture Compression and Decompression system | |
JPH07222173A (en) | Picture processor | |
JP3542911B2 (en) | Video compression device | |
JPH0951538A (en) | Encoding method for image signal | |
EP0927954B1 (en) | Image signal compression coding method and apparatus | |
JPH10126794A (en) | Compressor for image signal between motion prediction frames | |
KR0181067B1 (en) | Moving picture encoder of having compatibility |