JPH0678298A - Motion compensation prediction device for interlace animation - Google Patents
Motion compensation prediction device for interlace animationInfo
- Publication number
- JPH0678298A JPH0678298A JP17468793A JP17468793A JPH0678298A JP H0678298 A JPH0678298 A JP H0678298A JP 17468793 A JP17468793 A JP 17468793A JP 17468793 A JP17468793 A JP 17468793A JP H0678298 A JPH0678298 A JP H0678298A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- field
- screen
- block
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Color Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、インターレース動画像
の符号化における動き補償予測装置に関する。本発明
は、インターレース動画像の高能率符号化装置などの画
像伝送や蓄積装置におけるブロック単位での動き補償予
測において情報量の削減をおこなうため、ブロック当り
1個の動きベクトルを用いることによって動きベクトル
情報量の削減を行い、同一パリティフィールド動き補償
画面、近傍フィールド動き補償画面、あるいはフィール
ド間補間動き補償画面のいずれかを選択することによっ
て符号化効率の向上を図る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion compensation prediction device for coding an interlaced moving image. The present invention reduces the amount of information in motion compensation prediction in block units in an image transmission device such as a high-efficiency coding device for interlaced moving images and a storage device. Therefore, by using one motion vector per block, The amount of information is reduced, and the coding efficiency is improved by selecting either the same parity field motion compensation screen, the near field motion compensation screen, or the inter-field interpolation motion compensation screen.
【0002】[0002]
【従来の技術】従来、テレビ会議などの動画像通信やC
D−ROMなどへの動画像蓄積を目的とした動画像の高
能率符号化方式においては、フレームあるいはフィール
ドの画面で、各画面を例えば16画素×16ラインのブ
ロックに分割して、面内符号化、あるいは動き補償によ
る参照画面と現画面の差分を符号化する面間符号化を用
いて高能率符号化を行っている。2. Description of the Related Art Conventionally, video communication such as video conference and C
In a high-efficiency encoding system for moving images for the purpose of storing moving images in a D-ROM or the like, in a frame or field screen, each screen is divided into blocks of, for example, 16 pixels × 16 lines, and in-plane coding is performed. High-efficiency coding is performed using inter-frame coding that codes the difference between the reference screen and the current screen by encoding or motion compensation.
【0003】図1に、一般的な符号化装置の構成を示
す。ここで、71は減算器であり、入力画面X1と予測
画面X2の差分を求めて予測誤差画面X3を生ずる。7
2は離散コサイン変換(DCT)やベクトル量子化器な
どの符号化器、73は量子化器、74は逆量子化器、7
5は逆離散コサイン変換(IDCT)や逆ベクトル量子
化器などの復号器である。また、76は加算器で復号器
75によって復元された予測誤差画面X5と予測画面X
2を加算して局部復号画面X6を発生する。該局部復号
画面X6は参照画面として用いられる。なお、前記参照
画面として、前記局部復号画面X6に変えて、符号化さ
れていない原画面、すなわち前記入力画面X1の前後の
画面を用いることも可能である。FIG. 1 shows the configuration of a general encoder. Here, 71 is a subtracter, which obtains a difference between the input screen X1 and the prediction screen X2 to generate a prediction error screen X3. 7
2 is an encoder such as a discrete cosine transform (DCT) or a vector quantizer, 73 is a quantizer, 74 is an inverse quantizer, 7
Decoder 5 is an inverse discrete cosine transform (IDCT) or inverse vector quantizer. Reference numeral 76 denotes an adder, which is the prediction error screen X5 and the prediction screen X restored by the decoder 75.
2 is added to generate the local decryption screen X6. The local decryption screen X6 is used as a reference screen. As the reference screen, it is possible to use the uncoded original screen, that is, the screens before and after the input screen X1, instead of the local decoding screen X6.
【0004】フレームメモリ77には局部復号画面X6
および入力画面X1が格納される。動き検出部78では
ブロック単位で動き検出を行う。フレームメモリ77か
ら該当の入力ブロックデータ10と動きをサーチする領
域の参照ブロックデータ11が動き検出部78に入力さ
れ、動き検出後、動きベクトルZVと選択フラグZMが
出力される。動き補償器79では、動き検出部78で得
られた動きベクトルZVと選択フラグZMを用いて、参
照ブロックデータ11から予測画面X2を作成し、出力
する。The frame memory 77 has a local decoding screen X6.
And the input screen X1 is stored. The motion detector 78 detects motion in block units. The corresponding input block data 10 and the reference block data 11 of the area where the motion is searched are input from the frame memory 77 to the motion detection unit 78, and after the motion detection, the motion vector ZV and the selection flag ZM are output. The motion compensator 79 creates and outputs the prediction screen X2 from the reference block data 11 using the motion vector ZV obtained by the motion detection unit 78 and the selection flag ZM.
【0005】量子化器73の出力は可変長符号化器80
で符号化され、多重化器81で動き検出部78で得られ
た動きベクトルZV、選択フラグZMと共に多重化さ
れ、符号化出力として出力される。The output of the quantizer 73 is a variable length encoder 80.
And is multiplexed with the motion vector ZV obtained by the motion detector 78 and the selection flag ZM by the multiplexer 81, and output as the encoded output.
【0006】図2は、従来の動き検出部78の構成の一
例を示したものである。フレーム動き検出器84はフレ
ームブロックの動きを検出し、予測誤差信号ERと動き
ベクトルVRを出力する。一方、フィールド動き検出器
85はフィールドブロックの動きを検出し、予測誤差信
号EFと動きベクトルVFを出力する。これらの予測誤
差信号ERとEFは比較器87で比較される。比較器8
7は予測誤差信号ERとEFの小さい方を選択するため
の選択フラグZMを選択器86に出力する。選択器86
はこれに応答して動作し、前記予測誤差信号が小さい方
の動き検出器を選択し、該選択された動き検出器からの
動きベクトルZVを出力する。このように、従来はフレ
ーム動き検出器とフィールド動き検出器から予測誤差信
号を求め、予測誤差信号の小さい方の動き検出器の動き
ベクトルを用いて動き補償を行い、符号化効率の向上を
図っている。FIG. 2 shows an example of the configuration of the conventional motion detecting section 78. The frame motion detector 84 detects the motion of the frame block and outputs the prediction error signal ER and the motion vector VR. On the other hand, the field motion detector 85 detects the motion of the field block and outputs the prediction error signal EF and the motion vector VF. The prediction error signals ER and EF are compared by the comparator 87. Comparator 8
7 outputs to the selector 86 a selection flag ZM for selecting the smaller of the prediction error signals ER and EF. Selector 86
Operates in response to this, selects the motion detector having the smaller prediction error signal, and outputs the motion vector ZV from the selected motion detector. Thus, conventionally, the prediction error signal is obtained from the frame motion detector and the field motion detector, and motion compensation is performed using the motion vector of the motion detector having the smaller prediction error signal to improve the coding efficiency. ing.
【0007】[0007]
【発明が解決しようとする課題】上述した動き検出部7
8を用いた符号化装置では、フレーム画面とフィールド
画面とに対して動き検出を行い、各々の予測誤差の小さ
い方の動き検出器を選択して動き補償を行っている。こ
の従来の符号化装置には次のような問題があった。The motion detecting section 7 described above.
In the coding apparatus using 8, the motion detection is performed on the frame screen and the field screen, and the motion detector having the smaller prediction error is selected to perform the motion compensation. This conventional encoder has the following problems.
【0008】(1)画像が加速度的な動きをした場合に
は、参照する画面が偶数ラインと奇数ラインで異なるこ
とになる。このため、フレーム動き検出器84が選択さ
れた時には、動き補償時の予測誤差が大きくなり、符号
化効率が低下する。(1) When an image moves in an accelerating manner, the screen to be referred to differs between even lines and odd lines. Therefore, when the frame motion detector 84 is selected, the prediction error at the time of motion compensation becomes large, and the coding efficiency decreases.
【0009】(2)画面が等速度的な動きをした場合に
は、各フィールドの動き量はほとんど同じになる。この
ため、フィールド動き検出器85が選択された時には、
フレーム画面での動き補償に比べて、動きベクトル量に
関する情報が2倍に増加し、その結果符号化効率が低下
する。(2) When the screen moves at a constant speed, the amount of motion in each field is almost the same. Therefore, when the field motion detector 85 is selected,
As compared with motion compensation on a frame screen, information about the amount of motion vectors is doubled, and as a result, coding efficiency is reduced.
【0010】よって本発明の目的は上述従来方式の欠点
である符号化効率および画質について、その向上を図る
ことにある。Therefore, an object of the present invention is to improve the coding efficiency and image quality, which are the drawbacks of the above-mentioned conventional method.
【0011】[0011]
【課題を解決するための手段】本発明の特徴は、入力画
面および参照画面のブロックごとに、同じパリティを持
つ入力画面と参照画面のフィールドブロック間で各フィ
ールドに対して同一のベクトルを用いて動きを検出し、
動きベクトルを求め、該動き検出からそれぞれのフィー
ルド予測誤差の合計を求める同一パリティフィールド動
き検出手段と、前記ブロックごとに、入力画面に時間的
に一番近い参照画面のフィールドブロック間で各フィー
ルドに対して同一のベクトルを用いて動きを検出し、動
きベクトルを求め、該動き検出からそれぞれのフィール
ド予測誤差の合計を求める近傍フィールド動き検出手段
と、前記ブロックごとに、参照画面の2つのフィールド
画面を合成した画面と入力画面との間で各フィールドに
対して同一のベクトルを用いて動きを検出し、動きベク
トルを求め、該動き検出からそれぞれのフィールド予測
誤差の合計を求めるフィールド間補間動き検出手段とを
具備した点に特徴がある。The feature of the present invention is that, for each block of the input screen and the reference screen, the same vector is used for each field between the field blocks of the input screen and the reference screen having the same parity. Detect motion,
The same parity field motion detecting means for obtaining a motion vector and for obtaining the sum of the respective field prediction errors from the motion detection, and for each block, in each field between the field blocks of the reference screen which is closest in time to the input screen. On the other hand, the same field is used to detect the motion, the motion vector is calculated, and the near field motion detection means for calculating the sum of the respective field prediction errors from the motion detection, and two field screens of the reference screen for each block. Motion detection using the same vector for each field between the combined screen and the input screen, the motion vector is obtained, and the sum of the respective field prediction errors is obtained from the motion detection. It is characterized by having means.
【0012】[0012]
【作用】本発明によると、入力画面をフィールドブロッ
ク単位で参照画面に対して動き検出を行う場合に、同じ
パリティのフィールド間で動き検出を行い、入力画面に
時間的に一番近い参照フィールドとの間で動き検出を行
い、さらに2つの参照フィールドによる合成フィールド
との間で動き検出を行い、動き検出後の3つの予測誤差
信号を比較し、比較結果をもとに動き補償の形態を決定
し、動きベクトルを選択し選択のフラグおよび動きベク
トルを出力する。According to the present invention, when motion detection is performed on the input screen in units of field blocks with respect to the reference screen, motion detection is performed between fields of the same parity, and a reference field closest in time to the input screen is obtained. Motion detection is performed between the two reference fields, the motion detection is performed between the two reference fields, and the three prediction error signals after the motion detection are compared, and the motion compensation form is determined based on the comparison result. Then, the motion vector is selected, and the selection flag and the motion vector are output.
【0013】本発明ではブロックあたり1個の動きベク
トルを用いて動きベクトル情報量の削減を行い、上記の
動き検出を適応的に用いることによって従来フレーム信
号のみの動き検出やフィールド信号のみの動き検出にお
ける符号化効率の低下を防ぎ、画質の向上および伝送情
報量の削減を実現することが可能である。According to the present invention, the motion vector information amount is reduced by using one motion vector per block, and the motion detection described above is adaptively used to detect the motion of only the conventional frame signal and the motion detection of only the field signal. It is possible to prevent a decrease in coding efficiency in, and to improve image quality and reduce the amount of transmitted information.
【0014】[0014]
【実施例】以下に、図3のブロック図を参照して、本発
明の一実施例を詳細に説明する。この図3の動き検出器
は、図1の符号化装置の動き検出部78として用いられ
るものである。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the block diagram of FIG. The motion detector of FIG. 3 is used as the motion detector 78 of the encoding device of FIG.
【0015】図3は本発明の一実施例の構成を示し、1
0は入力ブロックデータ、11は参照ブロックデータで
あり、共にインターレース画面となっている。該ブロッ
クデータ10,11は同一パリティフィールド動き検出
器12で動き検出が行われ、動きベクトルV1とブロッ
クの予測誤差E1が出力される。また近傍フィールド動
き検出器13でも動き検出が行われ、動きベクトルV2
および予測誤差E2が出力される。さらにフィールド間
補間動き検出器14でも動き検出が行われ、動きベクト
ルV3および予測誤差E3が出力される。FIG. 3 shows the structure of an embodiment of the present invention.
0 is input block data and 11 is reference block data, both of which are interlaced screens. The block data 10 and 11 are subjected to motion detection by the same parity field motion detector 12, and the motion vector V1 and the block prediction error E1 are output. Further, the near field motion detector 13 also detects the motion, and the motion vector V2
And the prediction error E2 is output. Further, the inter-field interpolation motion detector 14 also performs motion detection, and outputs the motion vector V3 and the prediction error E3.
【0016】同一パリティフィールド動き検出器12,
近傍フィールド動き検出器13およびフィールド間補間
動き検出器14から出力された予測誤差E1,E2およ
びE3は比較器15で比較される。比較器15は予測誤
差E1,E2およびE3のうちの一番小さいものを選択
し、いずれの予測誤差を選択したかを表す信号である選
択フラグZMを出力する。選択器16は選択フラグZM
に従って動きベクトルの選択を行い、一番小さい予測誤
差を出力した動き検出器からの動きベクトルを動きベク
トルZVとして出力する。Identical parity field motion detector 12,
The prediction errors E1, E2 and E3 output from the near field motion detector 13 and the inter-field interpolation motion detector 14 are compared by a comparator 15. The comparator 15 selects the smallest one of the prediction errors E1, E2 and E3 and outputs a selection flag ZM which is a signal indicating which prediction error is selected. Selector 16 has selection flag ZM
The motion vector is selected in accordance with the above, and the motion vector from the motion detector that has output the smallest prediction error is output as the motion vector ZV.
【0017】選択器16で選択フラグZMに基づき動き
ベクトルZVが選択された後、図1の動き補償器79は
該動きベクトルに対応する参照ブロックを予測信号とし
て用いて動き補償を行う。この時、輝度信号については
動きベクトルはそのままの値が用いられる。一方、色信
号については、後述の説明から明らかになるように、ブ
ロックサイズが水平方向で輝度の半分であるため、水平
方向の動きベクトルは半分にして用いられ、前記輝度信
号と色度信号とから予測信号が作成される。After the motion vector ZV is selected by the selector 16 based on the selection flag ZM, the motion compensator 79 of FIG. 1 performs motion compensation using the reference block corresponding to the motion vector as a prediction signal. At this time, the value of the motion vector is used as it is for the luminance signal. On the other hand, for the color signal, as will be apparent from the description below, since the block size is half the luminance in the horizontal direction, the horizontal motion vector is used in half, and the luminance signal and the chromaticity signal are used. A prediction signal is created from
【0018】なお、前記多重化器81から出力された符
号化出力を受信して復号化する、図示されていない復号
器側の処理概要を補足すると、該復号器は、符号化器か
ら送られてきた動き検出の種類および動きベクトル量に
より該当の参照ブロックを探し、動き補償を行い、予測
信号を作成する。Incidentally, supplementing the outline of the processing on the decoder side (not shown) for receiving and decoding the encoded output output from the multiplexer 81, the decoder is sent from the encoder. Based on the type of motion detection and the amount of motion vector, the reference block is searched for, motion compensation is performed, and a prediction signal is created.
【0019】以下に、本実施例の主要部の構成の具体例
を詳細に説明する。まず、図4を参照して、前記入力画
面のブロックデータの構成を詳細に説明する。入力ブロ
ックの大きさについては、輝度信号は16画素×16ラ
イン、2つの色差信号についてはそれぞれ8画素×16
ラインとし、これらをまとめてマクロブロックと呼ぶ。
符号化の一連の処理はこのマクロブロックごとに行われ
る。A specific example of the structure of the main part of this embodiment will be described in detail below. First, the configuration of the block data of the input screen will be described in detail with reference to FIG. Regarding the size of the input block, the luminance signal is 16 pixels × 16 lines, and the two color difference signals are each 8 pixels × 16 lines.
Lines are collectively called a macro block.
A series of encoding processes is performed for each macroblock.
【0020】図4に示されているように、前記ブロック
は、奇数ラインに存在する奇数フィールドのデータ
(○)と、偶数ラインに存在する偶数フィールドのデー
タ(□)とから構成されている。フレームブロックは、
奇数ラインと偶数ラインが交互に現れるデータから構成
され、フィールドブロックは、奇数ラインのデータのみ
を集めたデータ、あるいは偶数ラインのデータのみを集
めたデータから構成される。As shown in FIG. 4, the block is composed of odd field data (O) existing in odd lines and even field data (□) existing in even lines. The frame block is
The field block includes data in which odd lines and even lines alternate, and the field block includes data in which only odd line data is collected or data in which even line data is collected.
【0021】動き検出に用いる参照ブロックについて
は、輝度信号のみを用いる。ブロックの大きさは検索す
る範囲に応じて変化する。例えば、検索範囲が主および
副走査方向に±7画素の場合は30画素×30ラインと
なる。なお、動き補償後に得られる予測誤差データのサ
イズは、輝度信号、色差信号ともに図5の入力ブロック
と同様の構成となる。For the reference block used for motion detection, only the luminance signal is used. The block size changes depending on the search range. For example, if the search range is ± 7 pixels in the main and sub-scanning directions, it will be 30 pixels × 30 lines. The size of the prediction error data obtained after motion compensation is the same as that of the input block in FIG. 5 for both the luminance signal and the color difference signal.
【0022】図5(a)は、入力画面のブロックデータ
と参照画面のブロックデータを、垂直方向と時間軸方向
から示したものである。奇数フィールドf1のデータ
(○)は奇数ラインに存在し、また偶数フィールドf2
のデータ(□)は偶数ラインに存在する。FIG. 5A shows the block data of the input screen and the block data of the reference screen in the vertical direction and the time axis direction. The data (◯) in the odd field f1 exists in the odd line, and the even field f2
Data (□) exist on even lines.
【0023】次に、前記同一パリティフィールド動き検
出器12の一具体例を図6を参照して説明する。同一パ
リティフィールドは、奇数フィールド同士あるいは偶数
フィールド同士であることを意味する。入力されたブロ
ックデータ10および参照ブロックデータ11は、それ
ぞれ入力ブロックメモリ20と参照ブロックメモリ21
に一旦記憶される。アドレス発生回路26からのアドレ
スに従って入力ブロックメモリ20から動き検出を行う
領域の各フィールドデータと参照ブロックメモリ21か
らサーチ用の領域の各フィールドデータを取り出し、第
1,第2フィールド予測誤差演算回路23,24で誤差
の計算を行う。Next, a specific example of the same parity field motion detector 12 will be described with reference to FIG. The same parity field means that it is an odd field or an even field. The input block data 10 and reference block data 11 are input block memory 20 and reference block memory 21, respectively.
Is once stored in. According to the address from the address generating circuit 26, each field data of the area where motion detection is performed is extracted from the input block memory 20 and each field data of the search area is extracted from the reference block memory 21, and the first and second field prediction error calculation circuits 23 are extracted. , 24 calculates the error.
【0024】この場合、16画素×16ラインの入力ブ
ロック信号に対して、図7(a)のように、入力画面の
奇数フィールドf1および偶数フィールドf2に同一ベ
クトルMV1,MV2を用いて、奇数フィールドの入力
データは奇数フィールドの参照データとの間で、また偶
数フィールドの入力データは偶数フィールドの参照デー
タとの間での予測誤差信号が求められる。この予測誤差
信号は、差分絶対値の累積和あるいは差分二乗値の累積
和などにより求めることができる。第1、第2フィール
ド予測誤差演算回路23、24では、上記のようにし
て、同一パリティフィールド間でかつ同一ベクトルを用
いて予測誤差信号が求められる。In this case, for an input block signal of 16 pixels × 16 lines, the same vectors MV1 and MV2 are used for the odd field f1 and the even field f2 of the input screen as shown in FIG. A prediction error signal is calculated between the input data of 1 and the reference data of the odd field, and the input data of the even field and the reference data of the even field. This prediction error signal can be obtained by a cumulative sum of absolute differences or a cumulative sum of squared differences. In the first and second field prediction error calculation circuits 23 and 24, the prediction error signal is obtained between the same parity fields and using the same vector as described above.
【0025】最適ベクトル判定回路25は、第1、第2
フィールド予測誤差演算回路23、24で得られた2つ
の予測誤差信号の合計を求め、合計予測誤差として格納
する。最適ベクトル判定回路25は、アドレス発生回路
26により全てのサーチ点をサーチした後、各サーチ点
での合計予測誤差を比較して、誤差値が最小になる位置
を求め、動きベクトルV1と予測誤差E1を出力する。The optimum vector determination circuit 25 is composed of the first and second
The sum of the two prediction error signals obtained by the field prediction error calculation circuits 23 and 24 is calculated and stored as the total prediction error. The optimum vector determination circuit 25 searches all the search points by the address generation circuit 26, then compares the total prediction error at each search point to find the position where the error value is the minimum, and calculates the motion vector V1 and the prediction error. Outputs E1.
【0026】本実施例では、さらに、小数点精度の補間
画素ブロックに対して動き検出を行い、動き検出精度を
向上させることが可能である。図5(b)のように元の
画素信号A,BまたはC,Dに対して、例えば1/2画
素精度として同一フィールド内の上下ライン間にpまた
はqのような補間信号を作成して補間画素ブロックとす
ることができる。この場合、上下ライン間の補間信号と
しては、奇数ラインは奇数ライン間で、偶数ラインは偶
数ライン間で作成する方法で、p=(A+B)/2,q
=(C+D)/2,…となる。これらの計算で精度向上
のために四捨五入することが可能である。また上下ライ
ン間の補間を更に1/4画素精度として動き検出精度の
向上を図ることも可能である。この場合、図6(b)の
ようにs,t,u,v点についてs=(3×A+B)/
4のようにして補間画素を追加する。なお水平方向の画
素間の補間信号については1/2画素精度までとし、補
間画素は左右の画素の平均により作成する。In this embodiment, furthermore, it is possible to improve the accuracy of motion detection by performing motion detection on the interpolated pixel block with decimal point accuracy. As shown in FIG. 5B, with respect to the original pixel signals A, B or C, D, for example, an interpolation signal such as p or q is created between upper and lower lines in the same field with 1/2 pixel precision. It can be an interpolated pixel block. In this case, as the interpolation signal between the upper and lower lines, p = (A + B) / 2, q is created by a method of creating odd lines between odd lines and even lines between even lines.
= (C + D) / 2, ... These calculations can be rounded to improve accuracy. In addition, it is possible to further improve the motion detection accuracy by making the interpolation between the upper and lower lines further 1/4 pixel accuracy. In this case, s = (3 × A + B) / for the points s, t, u and v as shown in FIG.
Interpolation pixels are added as in 4. Note that the interpolation signal between pixels in the horizontal direction is up to 1/2 pixel precision, and the interpolation pixel is created by averaging the left and right pixels.
【0027】図6の場合、フィールド内補間回路22に
て各フィールド内の隣接ライン間および隣接画素間にお
いて補間画素を作成して、小数点精度の補間画素ブロッ
クとする。図8(b)では、隣接ライン間で補間画素
p,qを作成し、同一ベクトルMV1,MV2を用いて
予測誤差信号を求めて動き予測する様子を示している。In the case of FIG. 6, the intra-field interpolation circuit 22 creates interpolated pixels between adjacent lines and adjacent pixels in each field to obtain an interpolated pixel block with decimal point precision. FIG. 8B shows a state in which interpolation pixels p and q are created between adjacent lines, a prediction error signal is obtained using the same vectors MV1 and MV2, and motion prediction is performed.
【0028】次に、近傍フィールド動き検出器13の内
部の構成を、図8のブロック図を参照して説明する。入
力されたブロック信号10および参照ブロック信号11
は、それぞれ入力ブロックメモリ20と参照ブロックメ
モリ21に一旦記憶される。アドレス発生回路26から
のアドレスに従って、入力ブロックメモリ20から動き
検出を行う領域の各フィールドデータと、参照ブロック
メモリ21から入力フレームに時間的に近い位置にある
フィールド内のサーチ対象領域のデータとを取り出し、
第1、第2フィールド予測誤差演算回路23、24で誤
差の計算を行う。Next, the internal structure of the near field motion detector 13 will be described with reference to the block diagram of FIG. Input block signal 10 and reference block signal 11
Are temporarily stored in the input block memory 20 and the reference block memory 21, respectively. According to the address from the address generation circuit 26, the respective field data of the area in which the motion detection is performed from the input block memory 20 and the data of the search target area in the field at the position temporally close to the input frame from the reference block memory 21 are stored. take out,
The error is calculated in the first and second field prediction error calculation circuits 23 and 24.
【0029】この場合、16画素×16ラインの入力ブ
ロック信号に対して、図9(a)のように、入力画面の
奇数フィールドf1および偶数フィールドf2のいずれ
の入力データに対しても、平行のベクトルMV1,MV
2を用いて、近傍フィールドの参照データ(図9(a)
ではフィールドf2)との間で予測誤差信号を求める。
そして、最適ベクトル判定回路25では、第1、第2フ
ィールド予測誤差演算回路で得られた2つの予測誤差の
合計を求めて、合計予測誤差として格納する。各サーチ
点での合計予測誤差を比較して誤差値が最小となる位置
を求め、動きベクトルV2と予測誤差E2を出力する。
予測誤差信号としては、差分絶対値の累積和あるいは差
分二乗値の累積和等が利用できる。In this case, the input block signal of 16 pixels × 16 lines is parallel to both the input data of the odd field f1 and the even field f2 of the input screen as shown in FIG. 9A. Vectors MV1 and MV
2 using the reference data of the near field (FIG. 9A).
Then, the prediction error signal is obtained between the field f2).
Then, the optimum vector determination circuit 25 obtains the sum of the two prediction errors obtained by the first and second field prediction error calculation circuits and stores it as the total prediction error. The total prediction error at each search point is compared to find the position where the error value is the minimum, and the motion vector V2 and the prediction error E2 are output.
As the prediction error signal, the cumulative sum of absolute differences or the cumulative sum of squared differences can be used.
【0030】なお、各フィールドに対する動きベクトル
は、どちらか一方のベクトルを基本として、他方のベク
トルは時間的な距離比で換算した値を用いる。例えば、
図9(a)では、MV1を基本ベクトルとし、MV2と
しては該基本ベクトルMV1を時間的な距離比kで換算
したベクトルを用いる。すなわち、MV2=k×MV1
とする。As the motion vector for each field, one of the vectors is used as a basis, and the other vector uses a value converted by a temporal distance ratio. For example,
In FIG. 9A, MV1 is used as a basic vector, and as MV2, a vector obtained by converting the basic vector MV1 by a temporal distance ratio k is used. That is, MV2 = k × MV1
And
【0031】図9(a)では、距離比は1対2であるた
め、k=2となる。また、距離比は参照画面に応じて一
意的に確定するため、符号化する動きベクトルは一方の
ベクトルのみとする。In FIG. 9A, since the distance ratio is 1: 2, k = 2. Since the distance ratio is uniquely determined according to the reference screen, only one of the motion vectors is encoded.
【0032】なお、動き検出精度を向上させるために、
小数点精度の補間画素ブロックに対して動き検出を行う
ことが可能である。この場合、フィールド内補間回路2
2にて近傍フィールド内の隣接ライン間および隣接画素
間において補間画素を作成して、補間画素ブロックとす
る。図9(b)では、隣接ライン間で補間画素v,qを
作成して、動き予測する様子を示している。In order to improve the accuracy of motion detection,
Motion detection can be performed on the interpolated pixel block with decimal point precision. In this case, the inter-field interpolation circuit 2
In step 2, interpolation pixels are created between adjacent lines and between adjacent pixels in the neighboring field to form an interpolation pixel block. FIG. 9B shows a state in which interpolation pixels v and q are created between adjacent lines and motion prediction is performed.
【0033】次に、フィールド間補間動き検出器14の
内部の構成を、図10を参照して説明する。入力された
ブロック信号10および参照ブロック信号11は、それ
ぞれ入力ブロックメモリ20と参照ブロックメモリ21
に一旦記憶される。アドレス発生回路26からのアドレ
スに従って、入力ブロックメモリ20から動き検出を行
う領域の各フィールドデータと、参照ブロックメモリ2
1からサーチ用の領域の各フィールドデータとを取り出
し、参照フィールドデータはフィールド合成回路27に
てフィールド間でデータの合成が行われた後、予測デー
タとして、第1、第2フィールド予測誤差演算回路2
3、24で予測誤差の計算を行う。Next, the internal structure of the inter-field interpolation motion detector 14 will be described with reference to FIG. The input block signal 10 and reference block signal 11 are input block memory 20 and reference block memory 21, respectively.
Is once stored in. According to the address from the address generation circuit 26, each field data of the area where the motion is detected from the input block memory 20 and the reference block memory 2
Each field data in the search area is extracted from 1, and the reference field data is synthesized by the field synthesizing circuit 27 between the fields. Then, the first and second field prediction error calculating circuits are used as prediction data. Two
The prediction error is calculated at 3 and 24.
【0034】この場合、ブロック信号は16画素×16
ラインの入力ブロック信号に対して、図11(a)のよ
うに、参照画面中の奇数フィールドおよび偶数フィール
ドの両方のデータを合成した参照画素w,xと入力画面
の奇数フィールドおよび偶数フィールドとの間で、平行
のベクトルを用いて予測誤差信号を求める。そして、最
適ベクトル判定回路25では、第1、第2フィールド予
測誤差演算回路で得られた2つの予測誤差の合計を求め
て、合計予測誤差として格納する。各サーチ点での合計
予測誤差を比較して誤差値が最小となる位置を求め、動
きベクトルV3と予測誤差E3を出力する。参照画面の
偶数フィールドと奇数フィールドデータの合成には、単
純平均や、時間的な距離に応じて重み付けをしたデータ
の平均を利用することができる。この場合、動きベクト
ルは同一パリティ、また予測誤差信号としては差分絶対
値の累積和あるいは差分二乗値の累積和などが利用でき
る。In this case, the block signal is 16 pixels × 16
As shown in FIG. 11A, for the input block signal of the line, the reference pixel w, x obtained by combining the data of both the odd field and the even field in the reference screen and the odd field and the even field of the input screen are combined. In between, a prediction error signal is obtained using parallel vectors. Then, the optimum vector determination circuit 25 obtains the sum of the two prediction errors obtained by the first and second field prediction error calculation circuits and stores it as the total prediction error. The total prediction error at each search point is compared to find the position where the error value is the minimum, and the motion vector V3 and the prediction error E3 are output. For synthesizing the even field and odd field data of the reference screen, a simple average or an average of data weighted according to a temporal distance can be used. In this case, the motion vector can use the same parity, and the prediction error signal can use the cumulative sum of absolute differences or the cumulative sum of squared differences.
【0035】なお、各フィールドに対する動きベクトル
は、どちらか一方のベクトルを基本として、他方のベク
トルは時間的な距離比で換算した値を用いる。例えば、
図11(a)で、基本のベクトルを入力画面のf1と参
照画面のf1間とし、これをMV1とする。入力画面の
f1に必要な参照データは、MV1による参照画面のf
1でのデータとMV1を参照画面のf2に写影した位置
にあるf2のデータの合成を用いる。As a motion vector for each field, one of the vectors is used as a basis, and the other vector is a value converted by a temporal distance ratio. For example,
In FIG. 11A, the basic vector is set between f1 on the input screen and f1 on the reference screen, and this is designated as MV1. The reference data required for f1 of the input screen is f of the reference screen by MV1.
The combination of the data of 1 and the data of f2 at the position where MV1 is projected on f2 of the reference screen is used.
【0036】また、入力画面のf2と参照画面のf1間
のベクトルをMV2とすると、MV2に対しては、MV
1を時間的な距離比kで換算した値を用いる。すなわ
ち、MV2=k×MV1とする。図11(a)では、距
離比は2対3であるため、k=3/2となる。入力画面
のf2に必要な参照データは、MV2による参照画面の
f1でのデータとMV2を参照画面のf2に写影した位
置にあるf2のデータの合成を用いる。If the vector between f2 on the input screen and f1 on the reference screen is MV2, MV2 is MV2.
A value obtained by converting 1 into a temporal distance ratio k is used. That is, MV2 = k × MV1. In FIG. 11A, since the distance ratio is 2: 3, k = 3/2. The reference data required for f2 of the input screen is a combination of the data of f1 of the reference screen by MV2 and the data of f2 at the position where MV2 is mapped to f2 of the reference screen.
【0037】また、参照画面に応じて距離比が一意的に
確定するため、符号化する動きベクトルは一方のベクト
ルのみとする。なお、動き検出精度を向上させるため
に、小数点精度の補間画素ブロックに対して動き検出を
行うことが可能である。この場合、フィールド内補間回
路22にて各フィールド内の隣接ライン間および隣接画
素間において補間画素を作成して、補間画素ブロックと
する。図11(b)では、隣接ライン間および隣接画素
間で補間画素y,zを作成して、動き予測する様子を示
している。Since the distance ratio is uniquely determined according to the reference screen, only one of the motion vectors is coded. In addition, in order to improve the motion detection accuracy, it is possible to perform the motion detection for the interpolation pixel block with the decimal point accuracy. In this case, the inter-field interpolation circuit 22 creates an interpolated pixel between adjacent lines and adjacent pixels in each field to form an interpolated pixel block. FIG. 11B shows a state in which interpolation pixels y and z are created between adjacent lines and between adjacent pixels to perform motion prediction.
【0038】本発明の実施にあたっては種々の変形形態
が可能である。例えばブロックのサイズは、16画素×
16ラインに限らずに32画素×32ラインなど種々の
サイズが適用可能である。また色信号ブロックについて
は、例えば8画素×8ラインの場合には、動き検出で得
られた水平方向動きベクトルおよび垂直方向ベクトルの
両方を半分にして予測信号を作成するようにしてもよ
い。Various modifications are possible in carrying out the present invention. For example, the block size is 16 pixels ×
The size is not limited to 16 lines, and various sizes such as 32 pixels × 32 lines can be applied. For the color signal block, for example, in the case of 8 pixels × 8 lines, both the horizontal direction motion vector and the vertical direction vector obtained by the motion detection may be halved to create the prediction signal.
【0039】次に、本発明の第2実施例について説明す
る。この実施例は、図12のように、同一パリティフィ
ールド動き検出器12、近傍フィールド動き検出器13
およびフィールド間補間動き検出器14を、フレーム動
き検出器17やフィールド動き検出器18と組み合わせ
たものである。本実施例においては、前記各検出器1
2,13,14,17および18で検出された予測誤差
値E1,E2,E3,ERおよびEFを比較器15に入
力する。該比較器15は、これらの予測誤差値の中から
一番小さいものを選び、選択プラグZMを出力する。選
択器16は該選択フラグZMに基づいて最も小さい予測
誤差値をもつ動き検出器の動きベクトルV1,V2,V
3,VRまたはVFを選択し、ZVとして出力する。Next, a second embodiment of the present invention will be described. In this embodiment, as shown in FIG. 12, the same parity field motion detector 12 and the near field motion detector 13 are used.
The inter-field interpolation motion detector 14 is combined with the frame motion detector 17 and the field motion detector 18. In this embodiment, each of the detectors 1
The prediction error values E1, E2, E3, ER and EF detected at 2, 13, 14, 17 and 18 are input to the comparator 15. The comparator 15 selects the smallest prediction error value from these prediction error values and outputs the selected plug ZM. The selector 16 determines the motion vectors V1, V2, V of the motion detector having the smallest prediction error value based on the selection flag ZM.
3, VR or VF is selected and output as ZV.
【0040】ここで、フレーム動き検出器17の内部の
構成を、図13を参照して説明する。ここでは、入力ブ
ロックデータ10および参照ブロックデータ11はそれ
ぞれ入力ブロックメモリ20と参照ブロックメモリ21
に一旦記憶される。アドレス発生回路26からのアドレ
スに従って、入力ブロックメモリ20から動き検出を行
う領域のフレームデータと参照ブロックメモリ21から
サーチ用の領域のフレームデータを取り出し、フレーム
予測誤差演算回路29で誤差の計算を行う。Here, the internal structure of the frame motion detector 17 will be described with reference to FIG. Here, the input block data 10 and the reference block data 11 are the input block memory 20 and the reference block memory 21, respectively.
Is once stored in. In accordance with the address from the address generation circuit 26, the frame data of the area in which motion detection is performed is extracted from the input block memory 20 and the frame data of the area for search is extracted from the reference block memory 21, and the error is calculated by the frame prediction error calculation circuit 29. .
【0041】この場合、図14(a)のように、2つの
フィールド(○と●が奇数フィールドデータ、□と■が
偶数フィールドデータ)が交互に並んで構成されるフレ
ーム画面Fにおいて、入力画面のフレームと参照画面の
フレームとの間での予測誤差信号を求める。最適ベクト
ル判定回路25は、参照画面をアドレス発生回路26か
らのアドレスによりサーチして求められた各サーチ点で
の予測誤差信号を比較して、この誤差が最小となる位置
を求め、動きベクトルVRと予測誤差ERを出力する。In this case, as shown in FIG. 14A, in the frame screen F composed of two fields (O and ● are odd field data and □ and ■ are even field data) alternately arranged, the input screen is displayed. Prediction error signal between the frame and the frame of the reference screen is obtained. The optimum vector determination circuit 25 compares the prediction error signal at each search point obtained by searching the reference screen with the address from the address generation circuit 26, obtains the position where this error is the minimum, and calculates the motion vector VR. And the prediction error ER is output.
【0042】なお、動き検出精度を向上させるために、
小数点精度の補間画素ブロックに対して動き検出を行う
ことが可能である。この場合、フレーム内補間回路28
にて、同一フレーム内の隣接ライン間および隣接画素間
において、補間画素を作成して小数点精度の補間画素ブ
ロックとする。図14(b)は、隣接ライン間で補間画
素を作成して動き予測する様子を示している。In order to improve the accuracy of motion detection,
Motion detection can be performed on the interpolated pixel block with decimal point precision. In this case, the intra-frame interpolation circuit 28
Then, interpolation pixels are created between adjacent lines and between adjacent pixels in the same frame to form an interpolation pixel block with decimal point precision. FIG. 14B shows a state in which interpolation pixels are created between adjacent lines and motion prediction is performed.
【0043】次に、フィールド動き検出器17の内部の
構成を、図15を参照して説明する。ここでは、入力ブ
ロックデータ10および参照ブロックデータ11はそれ
ぞれ入力ブロックメモリ20と参照ブロックメモリ21
に一旦記憶される。アドレス発生回路26からのアドレ
スに従って、入力ブロックメモリ20から動き検出を行
う領域のフィールドデータと参照ブロックメモリ21か
らサーチ用の領域のフィールドデータを取り出し、第1
フィールド予測誤差演算回路23および第2フィールド
予測誤差演算回路24にて各フィールドの予測誤差の計
算を行う。Next, the internal structure of the field motion detector 17 will be described with reference to FIG. Here, the input block data 10 and the reference block data 11 are the input block memory 20 and the reference block memory 21, respectively.
Is once stored in. According to the address from the address generation circuit 26, the field data of the area where the motion detection is performed and the field data of the search area are retrieved from the reference block memory 21 from the input block memory 20,
The field prediction error calculation circuit 23 and the second field prediction error calculation circuit 24 calculate the prediction error of each field.
【0044】この場合、図16(a)のように、入力画
面の奇数フィールドf1および偶数フィールドf2にそ
れぞれ異なるベクトル(MV1,MV2)を用いて、奇
数フィールドの入力データは奇数フィールドあるいは偶
数フィールドの参照データとの間で、また偶数フィール
ドの入力データは偶数フィールドあるいは奇数フィール
ドの参照データとの間で予測誤差信号を求める。最適ベ
クトル判定回路25は、第1、第2フィールド予測誤差
演算回路で得られた2つの予測誤差の合計を求めて、合
計予測値として格納する。各サーチ点での合計予測誤差
を比較して、誤差値が最小となる位置を求め、入力フィ
ールドに対する動きベクトルVFと予測誤差EFを出力
する。In this case, as shown in FIG. 16A, different vectors (MV1, MV2) are used for the odd field f1 and the even field f2 of the input screen, and the input data of the odd field is the odd field or the even field. A prediction error signal is obtained between the reference data and the reference data of the even field or the odd field of the input data of the even field. The optimum vector determination circuit 25 finds the sum of the two prediction errors obtained by the first and second field prediction error calculation circuits and stores it as a total predicted value. The total prediction error at each search point is compared to find the position where the error value is the minimum, and the motion vector VF and the prediction error EF for the input field are output.
【0045】なお、動き検出精度を向上させるために、
小数点精度の補間画素ブロックに対して動き検出を行う
ことが可能である。この場合、フィールド内補間回路2
2にて、各フィールド内の隣接ライン間および隣接画素
間において、補間画素を作成して小数点精度の補間画素
ブロックとする。図16(b)は、隣接ライン間で補間
画素を作成して動き予測する様子を示している。In order to improve the accuracy of motion detection,
Motion detection can be performed on the interpolated pixel block with decimal point precision. In this case, the inter-field interpolation circuit 2
In step 2, interpolation pixels are created between adjacent lines and adjacent pixels in each field to form decimal point precision interpolation pixel blocks. FIG. 16B shows a state in which interpolation pixels are created between adjacent lines and motion prediction is performed.
【0046】本実施例によれば、フレーム動き検出器1
7とフィールド動き検出器18とが加えられているの
で、第1実施例に比べて、さらに予測精度を向上させる
ことが可能である。ただしこの場合、動き検出方式の選
択フラグZMの増加と演算時間の増加が見込まれる。According to this embodiment, the frame motion detector 1
Since 7 and the field motion detector 18 are added, it is possible to further improve the prediction accuracy as compared with the first embodiment. However, in this case, an increase in the selection flag ZM of the motion detection method and an increase in calculation time are expected.
【0047】次に、本発明の第3実施例について説明す
る。この実施例は、前記同一パリティフィールド動き検
出器12、近傍フィールド動き検出器13およびフィー
ルド間補間動き検出器14に、図17,図18に示され
ているような、逆パリティフィールド動き検出や遠方フ
ィールド動き検出を組み合わせたものである。Next, a third embodiment of the present invention will be described. In this embodiment, the same parity field motion detector 12, the near field motion detector 13 and the inter-field interpolation motion detector 14 are provided with the inverse parity field motion detector and the far field detector as shown in FIGS. It is a combination of field motion detection.
【0048】この場合、図17における逆パリティフィ
ールド動き検出は、図7の同一パリティフィールド動き
検出とは逆に、入力画面の奇数フィールドおよび偶数フ
ィールドに同一ベクトルを用いて、それぞれ奇数フィー
ルドの入力データは偶数フィールドの参照データとの間
で、また偶数フィールドの入力データは奇数フィールド
の参照データとの間での動き検出を行うものである。In this case, contrary to the same parity field motion detection shown in FIG. 7, the reverse parity field motion detection shown in FIG. 17 uses the same vector for the odd field and the even field of the input screen to input the input data of each odd field. Is for detecting the motion between the reference data of the even field and the input data of the even field for the reference data of the odd field.
【0049】さらに図18における遠方フィールド動き
検出は、図9の近傍フィールド動き検出とは逆に、入力
画面の奇数フィールドおよび偶数フィールドに同一ベク
トルを用いて、奇数フィールドおよび偶数フィールドい
ずれの入力データに対しても時間的に遠方のフィールド
の参照データ(図18ではフィールドf1)との間で動
き検出を行うものである。Further, in the far field motion detection in FIG. 18, contrary to the near field motion detection in FIG. 9, the same vector is used in the odd field and the even field of the input screen to input data of the odd field and the even field. On the other hand, the motion detection is performed with respect to the reference data (field f1 in FIG. 18) of the field far away in time.
【0050】また、本発明においては、参照画面と入力
画面の時間的な距離または位置は任意である。例えば6
フレーム離れた参照画面を参照したり、時間的に後に位
置する参照画面を参照することが可能である。後者の場
合、時間的に逆方向の動き補償を行うことになる。Further, in the present invention, the temporal distance or position between the reference screen and the input screen is arbitrary. Eg 6
It is possible to refer to a reference screen that is apart from the frame or to refer to a reference screen that is located later in time. In the latter case, motion compensation in the opposite direction in time is performed.
【0051】また、参照画面の数についても自由であ
る。例えば、入力画面に対して時間的に前後に位置する
複数の参照画面のそれぞれに本発明を用いて最適予測画
面を得る。そして、それぞれの最適予測画面に対して時
間フィルタを施して合成された新たな画面を、予測画面
とすることも可能である。The number of reference screens is also free. For example, an optimum prediction screen is obtained by using the present invention for each of a plurality of reference screens that are temporally positioned before and after the input screen. Then, a new screen that is synthesized by applying a temporal filter to each optimum prediction screen can be used as the prediction screen.
【0052】[0052]
【発明の効果】以上に説明したように、本発明では同一
パリティフィールド動き検出、近傍フィールド動き検
出、およびフィールド間補間動き検出を適応的に用いる
ことによって従来フレーム信号のみの動き補償で問題と
なっていた加速度的な動きや早い動きの画像に対しても
高い精度で動き検出が可能となる。また本発明ではいず
れの場合も必要なベクトルはブロック当り1つのベクト
ルだけなため、従来フィールド信号のみの動き補償で問
題となっていたベクトル量の負担についても半分に軽減
することができ、画質の向上および伝送情報量の削減を
実現することが可能である。効果の一例として、ISO
テスト動画像(Flower Garden,Bicy
cle)をCCIR601画像フォーマットにおいて、
4Mbit/sのビットレートで画質(S/N比)はフ
レーム動き補償とフィールド動き補償を適応的に用いた
方式に比較して0.5〜1.0dB向上、動きベクトル
情報伝送量は30〜60%削減できた。As described above, the present invention adaptively uses the same parity field motion detection, the near field motion detection, and the inter-field interpolation motion detection, which causes a problem in the motion compensation of the conventional frame signal only. It is possible to detect motion with high accuracy even for an image of accelerated motion or fast motion. Further, in the present invention, since only one vector is required per block in any case, it is possible to reduce the vector amount load, which has been a problem in the conventional motion compensation of only the field signal, to half. It is possible to improve and reduce the amount of transmitted information. As an example of the effect, ISO
Test moving image (Flower Garden, Bicy
cle) in the CCIR601 image format,
The image quality (S / N ratio) at a bit rate of 4 Mbit / s is improved by 0.5 to 1.0 dB as compared with the method that adaptively uses frame motion compensation and field motion compensation, and the amount of motion vector information transmission is 30 to It was possible to reduce by 60%.
【図1】従来のインターレース動画像の動き補償予測装
置のブロック図である。FIG. 1 is a block diagram of a conventional motion compensation prediction apparatus for interlaced moving images.
【図2】従来の動き検出部のブロック図である。FIG. 2 is a block diagram of a conventional motion detection unit.
【図3】本発明の一実施例の動き検出部のブロック図で
ある。FIG. 3 is a block diagram of a motion detecting unit according to an embodiment of the present invention.
【図4】入力画面のブロックデータの構成の一例を示す
説明図である。FIG. 4 is an explanatory diagram showing an example of a configuration of block data on an input screen.
【図5】入力画面のブロックデータと参照画面のブロッ
クデータの一部を、垂直方向と時間軸方向から示した画
面データの構成図である。FIG. 5 is a configuration diagram of screen data showing a part of the block data of the input screen and the block data of the reference screen in a vertical direction and a time axis direction.
【図6】同一パリティ動き検出器の一具体例を示すブロ
ック図である。FIG. 6 is a block diagram showing a specific example of the same parity motion detector.
【図7】同一パリティ動き検出器の動作原理の説明図で
ある。FIG. 7 is an explanatory diagram of an operation principle of the same parity motion detector.
【図8】近傍フィールド動き検出器の一具体例を示すブ
ロック図である。FIG. 8 is a block diagram showing a specific example of a near field motion detector.
【図9】近傍フィールド動き検出器の動作原理の説明図
である。FIG. 9 is an explanatory diagram of an operation principle of a near field motion detector.
【図10】フィールド間補間動き検出器の一具体例を示
すブロック図である。FIG. 10 is a block diagram showing a specific example of an inter-field interpolation motion detector.
【図11】フィールド間補間動き検出器の動作原理の説
明図である。FIG. 11 is an explanatory diagram of an operation principle of an inter-field interpolation motion detector.
【図12】本発明の第2実施例の動き検出部のブロック
図である。FIG. 12 is a block diagram of a motion detecting unit according to a second embodiment of the present invention.
【図13】フレーム動き検出器の一具体例を示すブロッ
ク図である。FIG. 13 is a block diagram showing a specific example of a frame motion detector.
【図14】フレーム動き検出器の動作原理の説明図であ
る。FIG. 14 is an explanatory diagram of the operation principle of the frame motion detector.
【図15】フィールド動き検出器の一具体例を示すブロ
ック図である。FIG. 15 is a block diagram showing a specific example of a field motion detector.
【図16】フィールド動き検出器の動作原理の説明図で
ある。FIG. 16 is an explanatory diagram of an operation principle of the field motion detector.
【図17】本発明の第3実施例に使用される逆パリティ
フィールド動き検出器の動作原理の説明図である。FIG. 17 is an explanatory diagram of the operating principle of the inverse parity field motion detector used in the third embodiment of the present invention.
【図18】遠方フィールド動き検出器の動作原理の説明
図である。FIG. 18 is an explanatory diagram of an operation principle of the far field motion detector.
10 入力画面 11 参照画面 12 同一パリティフィールド動き検出器 13 近傍フィールド動き検出器 14 フィールド間補間動き検出器 15 比較器 16 選択器 71 減算器 72 符号化器 73 量子化器 74 逆量子化器 75 復号器 76 加算器 77 フレームメモリ 78 動き検出部 79 動き補償器 80 可変長符号化器 81 多重化器 84 フレーム動き検出器 85 フィールド動き検出器 86 選択器 87 比較器 10 Input Screen 11 Reference Screen 12 Same Parity Field Motion Detector 13 Near Field Motion Detector 14 Interfield Interpolation Motion Detector 15 Comparator 16 Selector 71 Subtractor 72 Encoder 73 Quantizer 74 Inverse Quantizer 75 Decoding 76 Adder 77 Frame Memory 78 Motion Detection Unit 79 Motion Compensator 80 Variable Length Encoder 81 Multiplexer 84 Frame Motion Detector 85 Field Motion Detector 86 Selector 87 Comparator
Claims (7)
で動き補償を行うインターレース動画像の動き補償予測
装置において、 フィールドブロック単位に分解された入力画面および参
照画面を格納する手段と、 該ブロックごとに、同じパリティを持つ入力画面と参照
画面のフィールドブロック間で、各フィールドに対して
同一のベクトルを用いて動きを検出し、動きベクトルを
求め、該動き検出からそれぞれのフィールド予測誤差の
合計を求める同一パリティフィールド動き検出手段と、 該ブロックごとに、入力画面に時間的に一番近い参照画
面のフィールドブロック間で各フィールドに対して同一
のベクトルを用いて動きを検出し、動きベクトルを求
め、該動き検出からそれぞれのフィールド予測誤差の合
計を求める近傍フィールド動き検出手段と、 該ブロックごとに、参照画面の2つのフィールド画面を
合成した画面と入力画面との間で各フィールドに対して
同一のベクトルを用いて動きを検出し、動きベクトルを
求め、該動き検出からそれぞれのフィールド予測誤差の
合計を求めるフィールド間補間動き検出手段と、 前記各動き検出手段から出力された予測誤差を比較し、
一番小さい予測誤差を示す選択フラグと、該一番小さい
予測誤差を出力した動き検出手段からの動きベクトルを
選択する手段とを具備し、 該符号化された予測誤差に、いずれの動き検出手段から
の出力を選択したかを示す選択フラグおよび該選択フラ
グに対応した動きベクトルを付加して伝送するようにし
たことを特徴とするインターレース動画像の動き補償予
測装置。1. A motion compensation prediction apparatus for interlaced moving images, which performs motion compensation in block units using an input screen and a reference screen, and means for storing the input screen and the reference screen decomposed in field block units, and for each block. In addition, between the field blocks of the input screen and the reference screen having the same parity, motion is detected using the same vector for each field, the motion vector is obtained, and the total of the field prediction errors from the motion detection is calculated. The same parity field motion detection means to be obtained, and for each block, the motion is detected by using the same vector for each field between the field blocks of the reference screen that is closest in time to the input screen, and the motion vector is obtained. , Near-field motion detection that obtains the sum of the respective field prediction errors from the motion detection For each block, a motion is detected by using the same vector for each field between the output unit and the screen in which the two field screens of the reference screen are combined, and the input screen, and the motion vector is obtained. Inter-field interpolation motion detection means for obtaining the total of each field prediction error from the detection, comparing the prediction error output from each of the motion detection means,
A selection flag indicating the smallest prediction error and a means for selecting a motion vector from the motion detection means that has output the smallest prediction error, and which motion detection means is included in the encoded prediction error. A motion compensation prediction apparatus for an interlaced moving image, characterized in that a selection flag indicating whether or not an output from the above is selected and a motion vector corresponding to the selection flag are added and transmitted.
画像の動き補償予測装置において、 さらに、前記ブロックごとに、参照画面のフレーム画面
と入力画面のフレーム画面との間で予測誤差信号を求め
るフレーム動き検出手段を付加したことを特徴とするイ
ンターレース動画像の動き補償予測装置。2. The motion compensation prediction apparatus for an interlaced moving image according to claim 1, further comprising a frame for obtaining a prediction error signal between the frame screen of the reference screen and the frame screen of the input screen for each block. A motion-compensated prediction apparatus for interlaced video, characterized by adding motion detection means.
画像の動き補償予測装置において、 さらに、前記ブロックごとに、参照画面のフィールド画
面と入力画面のフィールド画面との間で予測誤差信号を
求めるフィールド動き検出手段を付加したことを特徴と
するインターレース動画像の動き補償予測装置。3. The motion compensation prediction apparatus for interlaced video according to claim 1, further comprising a field for obtaining a prediction error signal between the field screen of the reference screen and the field screen of the input screen for each block. A motion-compensated prediction apparatus for interlaced video, characterized by adding motion detection means.
画像の動き補償予測装置において、 さらに、前記ブロックごとに、入力画面の奇数フィール
ドおよび偶数フィールドに同一ベクトルを用いて、それ
ぞれ奇数フィールドの入力データは偶数フィールドの参
照データとの間で、また偶数フィールドの入力データは
奇数フィールドの参照データとの間での動き検出を行う
逆パリティフィールド動き検出手段を付加したことを特
徴とするインターレース動画像の動き補償予測装置。4. The motion-compensated prediction apparatus for interlaced video according to claim 1, further, using the same vector for the odd field and the even field of the input screen for each block, input data of the odd field respectively. Is added to the reference data of the even field, and the input data of the even field is added with the inverse parity field motion detection means for detecting the motion of the reference data of the odd field. Motion compensation prediction device.
画像の動き補償予測装置において、 さらに、前記ブロックごとに、入力画面の奇数フィール
ドおよび偶数フィールドに同一ベクトルを用いて、奇数
フィールドおよび偶数フィールドいずれの入力データに
対しても時間的に遠方のフィールドの参照データとの間
で動き検出を行う遠方フィールド動き検出手段を付加し
たことを特徴とするインターレース動画像の動き補償予
測装置。5. The motion-compensated prediction apparatus for interlaced moving pictures according to claim 1, further comprising using the same vector for the odd field and the even field of the input screen for each of the blocks so that either the odd field or the even field is used. A motion-compensated prediction apparatus for interlaced moving pictures, characterized in that a far-field motion detection means for detecting motion between time-distance field reference data is also added to the input data.
ンターレース動画像の動き補償予測装置において、 参照画面のブロックに対して、小数点精度の補間画素ブ
ロックを作成する手段を具備し、 動き検出精度の向上を図るようにしたことを特徴とする
インターレース動画像の動き補償予測装置。6. The motion-compensated prediction device for interlaced moving images according to claim 1, further comprising: a unit for creating an interpolated pixel block with decimal point precision for a block of a reference screen, A motion-compensated prediction device for interlaced video, characterized in that detection accuracy is improved.
画像の動き補償予測装置において、 動き検出を行う際に、第1段階として、参照画面のブロ
ックに対して、整数画素精度の動き検出を実行して動き
ベクトルを求め、第2段階で、前記第1段階で得られた
動きベクトルの開始位置の近傍にある小数点精度の補間
画素を用いて動き検出を行い、動き検出処理時間の短縮
化を図るようにしたことを特徴とするインターレース動
画像の動き補償予測装置。7. The motion-compensated prediction apparatus for interlaced video according to claim 6, wherein, when performing motion detection, as a first step, motion detection with integer pixel precision is performed on a block of a reference screen. Then, the motion vector is obtained, and in the second step, the motion detection is performed using the interpolation pixel of the decimal point precision in the vicinity of the start position of the motion vector obtained in the first step to shorten the motion detection processing time. A motion-compensated prediction device for interlaced moving images, characterized in that
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17468793A JP3201079B2 (en) | 1992-07-03 | 1993-06-23 | Motion compensated prediction method, coding method and apparatus for interlaced video signal |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19902092 | 1992-07-03 | ||
JP4-199020 | 1992-07-03 | ||
JP17468793A JP3201079B2 (en) | 1992-07-03 | 1993-06-23 | Motion compensated prediction method, coding method and apparatus for interlaced video signal |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12277798A Division JP3201344B2 (en) | 1992-07-03 | 1998-04-17 | Motion compensated prediction method and coding apparatus for interlaced video signal |
JP12277698A Division JP3201343B2 (en) | 1992-07-03 | 1998-04-17 | Motion compensation prediction device for interlaced video |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0678298A true JPH0678298A (en) | 1994-03-18 |
JP3201079B2 JP3201079B2 (en) | 2001-08-20 |
Family
ID=26496208
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP17468793A Expired - Lifetime JP3201079B2 (en) | 1992-07-03 | 1993-06-23 | Motion compensated prediction method, coding method and apparatus for interlaced video signal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3201079B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1309199A2 (en) * | 1994-04-11 | 2003-05-07 | General Instrument Corporation | Motion compensation for interlaced digital video signals |
WO2004049727A1 (en) * | 2002-11-25 | 2004-06-10 | Matsushita Electric Industrial Co., Ltd. | Encoding method and decoding method of moving image |
US7099515B2 (en) | 2003-09-07 | 2006-08-29 | Microsoft Corporation | Bitplane coding and decoding for AC prediction status information |
WO2007091459A1 (en) * | 2006-02-10 | 2007-08-16 | Ntt Electronics Corporation | Moving-vector detecting device and moving-vector detecting method |
US9866871B2 (en) | 2004-12-30 | 2018-01-09 | Microsoft Technology Licensing, Llc | Use of frame caching to improve packet loss recovery |
US9888237B2 (en) | 2002-01-25 | 2018-02-06 | Microsoft Technology Licensing, Llc | Video coding |
US9918085B2 (en) | 1999-03-12 | 2018-03-13 | Microsoft Technology Licensing, Llc | Media coding for loss recovery with remotely predicted data units |
US10063863B2 (en) | 2003-07-18 | 2018-08-28 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
US10116959B2 (en) | 2002-06-03 | 2018-10-30 | Microsoft Technology Licesning, LLC | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US10514449B2 (en) | 2013-01-28 | 2019-12-24 | Seiko Epson Corporation | Ultrasonic device, ultrasonic probe, electronic equipment, and ultrasonic imaging apparatus |
US10554985B2 (en) | 2003-07-18 | 2020-02-04 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
-
1993
- 1993-06-23 JP JP17468793A patent/JP3201079B2/en not_active Expired - Lifetime
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1309199A2 (en) * | 1994-04-11 | 2003-05-07 | General Instrument Corporation | Motion compensation for interlaced digital video signals |
EP1309199A3 (en) * | 1994-04-11 | 2003-12-10 | General Instrument Corporation | Motion compensation for interlaced digital video signals |
US9918085B2 (en) | 1999-03-12 | 2018-03-13 | Microsoft Technology Licensing, Llc | Media coding for loss recovery with remotely predicted data units |
US10284843B2 (en) | 2002-01-25 | 2019-05-07 | Microsoft Technology Licensing, Llc | Video coding |
US9888237B2 (en) | 2002-01-25 | 2018-02-06 | Microsoft Technology Licensing, Llc | Video coding |
US10116959B2 (en) | 2002-06-03 | 2018-10-30 | Microsoft Technology Licesning, LLC | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
US9681136B2 (en) | 2002-11-25 | 2017-06-13 | Godo Kaisha Ip Bridge 1 | Adaptive field/frame coding of B-frame with field/frame index |
US10097852B2 (en) | 2002-11-25 | 2018-10-09 | Godo Kaisha Ip Bridge 1 | Field/frame adaptive decoding with field/frame index |
US7881375B2 (en) | 2002-11-25 | 2011-02-01 | Panasonic Corporation | Field/frame adaptive coding and decoding method with field/frame index and apparatus for performing the same |
KR101040440B1 (en) * | 2002-11-25 | 2011-06-09 | 파나소닉 주식회사 | Encoding method and decoding method of moving image |
US7995651B2 (en) | 2002-11-25 | 2011-08-09 | Panasonic Corporation | Field/frame adaptive coding and decoding method with field/frame index and apparatus for performing the same |
US10412405B2 (en) | 2002-11-25 | 2019-09-10 | Godo Kaisha Ip Bridge 1 | Field/frame adaptive decoding with field/frame index |
US8155188B2 (en) | 2002-11-25 | 2012-04-10 | Panasonic Corporation | Field/frame adaptive decoding with field/frame index |
US8483275B2 (en) | 2002-11-25 | 2013-07-09 | Panasonic Corporation | Field/frame adaptive decoding with field/frame index |
WO2004049727A1 (en) * | 2002-11-25 | 2004-06-10 | Matsushita Electric Industrial Co., Ltd. | Encoding method and decoding method of moving image |
US9124862B2 (en) | 2002-11-25 | 2015-09-01 | Godo Kaisha Ip Bridge 1 | Field/frame adaptive decoding with field/frame index |
CN100428803C (en) * | 2002-11-25 | 2008-10-22 | 松下电器产业株式会社 | Method for encoding and decoding motion picture |
US9686552B2 (en) | 2002-11-25 | 2017-06-20 | Godo Kaisha Ip Bridge 1 | Adaptive field/frame decoding of B-frame with field/frame index |
US9712841B2 (en) | 2002-11-25 | 2017-07-18 | Godo Kaisha Ip Bridge 1 | Field/frame adaptive decoding with field/frame index |
AU2003275672C1 (en) * | 2002-11-25 | 2009-04-30 | Godo Kaisha Ip Bridge 1 | Moving Picture Coding Method and Moving Picture Decoding Method |
AU2003275672B2 (en) * | 2002-11-25 | 2008-08-28 | Godo Kaisha Ip Bridge 1 | Moving Picture Coding Method and Moving Picture Decoding Method |
US10091522B2 (en) | 2002-11-25 | 2018-10-02 | Godo Kaisha Ip Bridge 1 | Field/frame adaptive decoding with field/frame index |
US9998751B2 (en) | 2002-11-25 | 2018-06-12 | Godo Kaisha Ip Bridge 1 | Field/frame adaptive decoding of B-frame with field/frame index |
US10063863B2 (en) | 2003-07-18 | 2018-08-28 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
US10554985B2 (en) | 2003-07-18 | 2020-02-04 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
US10659793B2 (en) | 2003-07-18 | 2020-05-19 | Microsoft Technology Licensing, Llc | DC coefficient signaling at small quantization step sizes |
US7099515B2 (en) | 2003-09-07 | 2006-08-29 | Microsoft Corporation | Bitplane coding and decoding for AC prediction status information |
US9866871B2 (en) | 2004-12-30 | 2018-01-09 | Microsoft Technology Licensing, Llc | Use of frame caching to improve packet loss recovery |
WO2007091459A1 (en) * | 2006-02-10 | 2007-08-16 | Ntt Electronics Corporation | Moving-vector detecting device and moving-vector detecting method |
TWI404423B (en) * | 2006-02-10 | 2013-08-01 | Ntt Electronics Corp | Dynamic vector detection device and dynamic vector detection method |
US8126060B2 (en) | 2006-02-10 | 2012-02-28 | Ntt Electronics Corporation | Motion vector detection device and motion vector detecting method |
US10514449B2 (en) | 2013-01-28 | 2019-12-24 | Seiko Epson Corporation | Ultrasonic device, ultrasonic probe, electronic equipment, and ultrasonic imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP3201079B2 (en) | 2001-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | New fast algorithms for the estimation of block motion vectors | |
JP4514081B2 (en) | Motion vector extrapolation for transcoding a video sequence | |
JP4528662B2 (en) | Motion detection using adaptive space latest vector | |
JP3778721B2 (en) | Video coding method and apparatus | |
JP2000134585A (en) | Motion vector deciding method and method and circuit for number of frames of image signal conversion | |
KR20060047595A (en) | Motion vector estimation employing adaptive temporal prediction | |
KR100246167B1 (en) | Dual prime motion estimation system and method | |
JP4083266B2 (en) | Motion vector generation method and apparatus | |
JP4119092B2 (en) | Method and apparatus for converting the number of frames of an image signal | |
KR100955414B1 (en) | Unit for and method of estimating a current motion vector | |
JP3201079B2 (en) | Motion compensated prediction method, coding method and apparatus for interlaced video signal | |
JPH11298861A (en) | Method and device for converting frame number of image signal | |
JPH10322705A (en) | Motion detection and motion compensation prediction circuit | |
JPH0662389A (en) | Video signal encoder | |
JP2755851B2 (en) | Moving picture coding apparatus and moving picture coding method | |
WO2000005899A1 (en) | Image encoding system | |
JP3201343B2 (en) | Motion compensation prediction device for interlaced video | |
JP3201344B2 (en) | Motion compensated prediction method and coding apparatus for interlaced video signal | |
JP2925046B2 (en) | Motion compensation prediction method for moving images | |
JP2001086508A (en) | Method and device for moving image decoding | |
JPH08242457A (en) | Movement vector detecting method | |
JP3057966B2 (en) | Motion compensation prediction device for interlaced video | |
JP2883585B2 (en) | Moving picture coding apparatus and moving picture coding method | |
JP3800638B2 (en) | Image information conversion apparatus and method | |
JP3596137B2 (en) | Image signal encoding method and apparatus, and image signal decoding method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20010522 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |