[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006086707A - Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium - Google Patents

Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium Download PDF

Info

Publication number
JP2006086707A
JP2006086707A JP2004268305A JP2004268305A JP2006086707A JP 2006086707 A JP2006086707 A JP 2006086707A JP 2004268305 A JP2004268305 A JP 2004268305A JP 2004268305 A JP2004268305 A JP 2004268305A JP 2006086707 A JP2006086707 A JP 2006086707A
Authority
JP
Japan
Prior art keywords
image data
moving image
block
data
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004268305A
Other languages
Japanese (ja)
Inventor
Mitsuharu Oki
光晴 大木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004268305A priority Critical patent/JP2006086707A/en
Publication of JP2006086707A publication Critical patent/JP2006086707A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To compress at a high compression rate moving picture data of a high frame rate and to uncompress the compressed moving picture data. <P>SOLUTION: Each of a transmitter and a receiver detects a positional relation with a high correlation between a past reference image V<SB>P</SB>of a frame just preceding to a target block and a future reference image V<SB>T</SB>of a frame just after the target block, as to the target block, and obtains an estimate value of the target block on the basis of image data in a region R<SB>8201</SB>of the past reference image and image data in a region R<SB>8202</SB>of the future reference image within the positional relation. Then the transmitter compresses the target block by using the estimate value. On the other hand, the receiver uncompresses the target block by using the estimate value. The present invention can be applied to the case where moving pictures are compressed and uncompressed. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置および画像処理方法、プログラムおよびプログラム記録媒体、並びにデータ構造およびデータ記録媒体に関し、特に、例えば、高フレームレートの動画データを高圧縮し、また、復元することができるようにする画像処理装置および画像処理方法、プログラムおよびプログラム記録媒体、並びにデータ構造およびデータ記録媒体に関する。   The present invention relates to an image processing apparatus and an image processing method, a program and a program recording medium, and a data structure and a data recording medium. In particular, for example, high frame rate moving picture data can be highly compressed and restored. The present invention relates to an image processing apparatus, an image processing method, a program, a program recording medium, a data structure, and a data recording medium.

従来、動画(動画像)データは、毎秒30乃至60フレーム(30乃至60fps(Frame per second))程度のフレームレートで録画(記録)され、再生される。しかしながら、この程度のフレームレートでは、人間の視覚において、動被写体(動いている被写体)がぼけた画像に知覚されてしまうため、人間にとって、良好な画質が得られているとは言えなかった。   Conventionally, moving image (moving image) data is recorded (recorded) and reproduced at a frame rate of about 30 to 60 frames per second (30 to 60 fps (Frame per second)). However, at such a frame rate, a moving subject (moving subject) is perceived as a blurred image in human vision, and thus it cannot be said that good image quality is obtained for humans.

ところで、動画データを、240fps程度のフレームレートで記録し、再生すると、人間にとって良好な画質が得られることが知られている。   By the way, it is known that when moving image data is recorded and reproduced at a frame rate of about 240 fps, image quality good for human beings can be obtained.

240fpsのフレームレートの動画データは、240fpsの高フレームレートに対応した表示装置によって表示することができ、さらに、例えば、フレームを間引き、フレームレートを低下させることによって、30fpsや60fpsなどの低フレームレートの表示装置で表示することもできる。   Video data with a frame rate of 240 fps can be displayed on a display device that supports a high frame rate of 240 fps, and further, for example, by thinning out frames and reducing the frame rate, a low frame rate such as 30 fps or 60 fps It can also be displayed on the display device.

しかしながら、240fpsのフレームレートの動画データのフレームを単純に間引いた場合には、画像において、動きの滑らかさが損なわれることになる。   However, when the frames of moving image data having a frame rate of 240 fps are simply thinned out, the smoothness of the motion is lost in the image.

そこで、特許文献1には、高フレームレートの動画データの単純に間引くのではなく、高フレームレートの動画データの複数フレームの平均値を、低フレームレートの動画データとする方法が提案されている。さらに、特許文献1では、高フレームレートの動画データを、複数のフレームレートに対応する複数の階層に階層符号化する方法も提案されている。   Therefore, Patent Document 1 proposes a method in which an average value of a plurality of frames of high frame rate moving image data is used as low frame rate moving image data, instead of simply thinning out high frame rate moving image data. . Further, Patent Document 1 proposes a method of hierarchically encoding high frame rate moving image data into a plurality of layers corresponding to a plurality of frame rates.

ここで、例えば、120fpsの階層と、60fpsの階層との2階層の階層符号化が行われる場合には、例えば、120fpsの動画データの、あるフレームのデータD1と、次のフレームのデータD2との平均値(D1+D2)/2が、60fpsの階層の動画データとされ、データD1とD2のうちの一方のうちの、例えば、データD1だけが、120fpsの階層の動画データとされる。この場合、データD2は、60fpsの階層の動画データ(D1+D2)/2と、120fpsの階層の動画データD1とから求めることができる。 Here, for example, when two-layer encoding of a 120 fps layer and a 60 fps layer is performed, for example, data D 1 of a certain frame and data D of the next frame of 120 fps moving image data are used. average of 2 (D 1 + D 2) / 2 is set to the hierarchy of the moving image data of 60 fps, of one of the data D 1 and D 2, and the example, only the data D 1 is 120 fps hierarchy Video data. In this case, the data D 2 is the moving image data of 60fps hierarchy (D 1 + D 2) / 2, can be obtained from the moving picture data D 1 Metropolitan of 120fps hierarchy.

ところで、上述したように、240fpsなどの高フレームレートの動画データによれば、良好な画質を得ることができるが、240fpsの動画データは、従来の30fpsや60fpsの動画データに比較して、単純には、8倍や4倍の膨大なデータ量になる。このデータ量は、上述の階層符号化を行っても変わらない。そして、動画データのデータ量が膨大であることは、その動画データのデータ処理の負荷を大にし、また、動画データの伝送や記録に好ましいことではない。   As described above, high-frame-rate video data such as 240 fps can provide good image quality, but 240 fps video data is simpler than conventional 30-fps or 60-fps video data. The amount of data is 8 times or 4 times larger. This data amount does not change even when the above-described hierarchical encoding is performed. An enormous amount of moving image data increases the data processing load of the moving image data, and is not preferable for transmission or recording of moving image data.

特開2004-088244号公報。JP 2004-088244 A.

本発明は、このような状況に鑑みてなされたものであり、例えば、高フレームレートの動画データを高圧縮し、また、復元することができるようにするものである。   The present invention has been made in view of such a situation. For example, high-frame-rate moving image data can be highly compressed and restored.

本発明の第1の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、検出手段で検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮手段とを備えることを特徴とする。   The first image processing apparatus according to the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. Separating means for separating the remaining third moving image data excluding data, detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a positional relationship detected by the detecting means Using the estimation means for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data, and using the estimated value of the block, Compression means for compressing moving image data in units of blocks.

本発明の第1の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。   According to the first image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image. A separation step for separating the remaining third moving image data excluding data, a detection step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a positional relationship detected in the detection step. Using an estimation step for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data, and an estimated value of the block, A compression step of compressing the moving image data in units of blocks.

本発明の第1のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。   The first program of the present invention converts the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the second moving image data from the first moving image data. A separation step that separates into the remaining third moving image data, a detection step that detects a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a positional relationship that is detected in the detection step; An estimation step for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data, and the third moving image data using the estimated value of the block And a compression step of compressing each block in units of blocks.

本発明の第1のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。   The program recorded on the first program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step for separating the data from the remaining third moving image data excluding the second moving image data, a detecting step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a detecting step An estimation step for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from the plurality of frames of image data of the second moving image data in the detected positional relationship, and an estimated value of the block And a compression step of compressing the third moving image data in units of blocks.

本発明の第1のデータ構造は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含むことを特徴とする。   In the first data structure of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image data. Are separated from the remaining third moving image data, and a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and a plurality of frames of the second moving image data in a positional relationship having a high correlation are detected. A block estimated value obtained by dividing the frame of the third moving image data into blocks from the image data, and compressed data obtained by compressing the block using the block estimated value, and the second moving image Data.

本発明の第1のデータ記録媒体に記録されているデータは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含むことを特徴とする。   The data recorded on the first data recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The data is separated from the data to the remaining third moving image data excluding the second moving image data, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and the positional relationship having a high correlation is detected. Compression obtained by calculating an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data, and compressing the block using the estimated value of the block Data and second moving image data.

本発明の第2の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元手段と、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元手段とを備え、第1の復元手段は、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、検出手段で検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元手段とを有することを特徴とする。   The second image processing apparatus according to the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. The second moving image data is separated into the remaining third moving image data excluding the data, the positional relationship having a high correlation is detected in the plurality of frames of the second moving image data, and the plurality of second moving image data having the high positional relationship is detected. An estimated value of a block obtained by dividing the frame of the third moving image data from the image data of the frame is obtained, and the compressed data obtained by compressing the block using the estimated value of the block is converted into the second A first restoration unit that restores the third video data using the video data; and a second restoration unit that combines the second and third video data to restore the first video data, First restoration The stage includes a detecting unit that detects a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a plurality of frames of image data of the second moving image data that are in the positional relationship detected by the detecting unit. A block restoring unit that restores the third moving image data in units of blocks using an estimation unit that obtains an estimated value of a block obtained by dividing the frame of the three moving image data into blocks, a block estimated value, and compressed data; It is characterized by having.

本発明の第2の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元ステップとを含むことを特徴とする。   In the second image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and second moving image from the first moving image data. The second moving image data is separated into the remaining third moving image data excluding the data, the positional relationship having a high correlation is detected in the plurality of frames of the second moving image data, and the plurality of second moving image data having the high positional relationship is detected. An estimated value of a block obtained by dividing the frame of the third moving image data from the image data of the frame is obtained, and the compressed data obtained by compressing the block using the estimated value of the block is converted into the second A first restoration step for restoring the third movie data using the movie data; a second restoration step for synthesizing the second and third movie data to restore the first movie data; First The restoration step includes a detection step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a plurality of frames of image data of the second moving image data in the positional relationship detected in the detection step. A block for restoring the third moving image data in units of blocks using an estimation step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data into blocks, the estimated value of the block, and the compressed data And a restoration step.

本発明の第2のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元ステップとを含むことを特徴とする。   The second program of the present invention converts the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the second moving image data from the first moving image data. It is separated into the remaining third moving image data, and a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and a plurality of frames of the second moving image data having a high correlation are detected. An estimated value of a block obtained by dividing the frame of the third moving image data from the image data is obtained, and the compressed data obtained by compressing the block using the estimated value of the block is converted into the second moving image data. Using a first restoration step for restoring to the third moving image data, and a second restoration step for combining the second and third moving image data to restore the first moving image data. The restoration step includes a detection step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a plurality of frames of image data of the second moving image data in the positional relationship detected in the detection step. A block restoration that restores the third moving image data in units of blocks using an estimation step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data into blocks, the estimated value of the block, and the compressed data. And a step.

本発明の第2のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元ステップとを含むことを特徴とする。   The program recorded on the second program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The data is separated from the data to the remaining third moving image data excluding the second moving image data, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and the positional relationship having a high correlation is detected. Compression obtained by calculating an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data, and compressing the block using the estimated value of the block A first restoration step for restoring the data to the third movie data using the second movie data; and the second and third movie data are synthesized to restore the first movie data. A second restoration step, wherein the first restoration step is in a position relationship detected in the detection step and a position relationship detected in the detection step in a plurality of frames of the second moving image data. Using an estimation step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data, the estimated value of the block, and the compressed data; And a block restoration step for restoring the three moving image data in units of blocks.

本発明の第3の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出手段と、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測手段と、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮手段とを備えることを特徴とする。   The third image processing apparatus of the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. Separation means for separating the remaining third moving image data excluding data, and a block obtained by dividing a frame of the third moving image data into blocks, there is a correlation with the block in a plurality of frames of the second moving image data. A block is estimated from image data of a plurality of frames of the second moving image data in which the detection means for detecting one motion vector representing a high positional relationship and the positional relationship between the block and the block are obtained from the single motion vector. It is characterized by comprising estimation means for obtaining a value and compression means for compressing the third moving image data in units of blocks using the estimated value of the block.

本発明の第3の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。   According to the third image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image. The separation step for separating the third moving image data excluding the data and the block obtained by dividing the frame of the third moving image data into blocks are correlated with the blocks in the plurality of frames of the second moving image data. A detection step for detecting one motion vector representing a high positional relationship and a block estimation from image data of a plurality of frames of the second moving image data in which the positional relationship between the block and the block is a positional relationship obtained from the single motion vector A prediction step for obtaining a value, and a compression step for compressing the third moving image data in units of blocks using the estimated value of the block. To.

本発明の第3のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。   The third program of the present invention converts the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the second moving image data from the first moving image data. The separation step for separating the remaining third moving image data from the removed block and the block obtained by dividing the frame of the third moving image data into blocks are positions having a high correlation with the blocks in the plurality of frames of the second moving image data. From the detection step of detecting one motion vector representing the relationship and the positional relationship between the block and the block, the estimated value of the block is obtained from the image data of a plurality of frames of the second moving image data. And a compression step of compressing the third moving image data in units of blocks using the estimated value of the block. To.

本発明の第3のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。   The program recorded on the third program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A plurality of frames of the second moving image data with respect to a block obtained by dividing the third moving image data into blocks, and a separation step for separating the data into the remaining third moving image data excluding the second moving image data from the data; A plurality of frames of the second moving image data in which the detection step of detecting one motion vector representing a positional relationship having a high correlation with the block and the positional relationship with the block obtained from the single motion vector The third video data is compressed in units of blocks using an estimation step for obtaining an estimated value of the block from the data and the estimated value of the block. Characterized in that it comprises a compression step that.

本発明の第2のデータ構造は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含み、圧縮データは、1つの動きベクトルを含むことを特徴とする。   According to the second data structure of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data to the second moving image data. The block obtained by dividing the third moving image data frame into the remaining third moving image data excluding the block has a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data. One motion vector to be expressed is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is obtained from the one motion vector, and the block is estimated The compressed data obtained by compressing the block using the value and the second moving image data are included, and the compressed data includes one motion vector. And it features.

本発明の第2のデータ記録媒体に記録されているデータは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含み、圧縮データは、1つの動きベクトルを含むことを特徴とする。   The data recorded on the second data recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The blocks obtained by separating the third moving image data from the data into the remaining third moving image data and dividing the third moving image data into blocks are divided into blocks in a plurality of frames of the second moving image data. One motion vector representing a positional relationship having a high correlation is detected, and a block is estimated from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector A compressed value obtained by compressing the block using the estimated value of the block and the second moving image data, and the compressed data is 1 Characterized in that it comprises a motion vector.

本発明の第4の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元手段と、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元手段とを備え、第1の復元手段は、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出手段と、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測手段と、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元手段とを有することを特徴とする。   The fourth image processing apparatus of the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. Positional relationship in which the blocks obtained by dividing the third moving image data frame into blocks that are separated from the remaining third moving image data excluding the data have a high correlation with the blocks in the plurality of frames of the second moving image data Is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the single motion vector. 1st decompression | restoration means which decompress | restores the compressed data obtained by compressing a block using an estimated value to 3rd moving image data using 2nd moving image data , And a second restoration unit that synthesizes the second and third moving image data and restores the first moving image data. The first restoration unit uses the second moving image for one block from one motion vector. Detection means for obtaining a positional relationship having a high correlation with a block in a plurality of frames of data, and image data of a plurality of frames of second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector In addition, the present invention is characterized by comprising: an estimation means for obtaining an estimated value of a block; and a block restoration means for restoring a block using the estimated value of the block and the compressed data.

本発明の第4の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元ステップとを含むことを特徴とする。   According to the fourth image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image. Positional relationship in which the blocks obtained by dividing the third moving image data frame into blocks that are separated from the remaining third moving image data excluding the data have a high correlation with the blocks in the plurality of frames of the second moving image data Is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the single motion vector. A first restoration step for restoring the compressed data obtained by compressing the block using the estimated value to the third moving image data using the second moving image data. And a second restoration step of synthesizing the second and third moving image data and restoring the first moving image data, wherein the first restoration step is performed on the second block for the block from one motion vector. A detection step for obtaining a positional relationship having a high correlation with a block in a plurality of frames of the moving image data, and an image of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector It includes an estimation step for obtaining an estimated value of a block from data, and a block restoration step for restoring the block using the estimated value of the block and the compressed data.

本発明の第4のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元ステップとを含むことを特徴とする。   According to a fourth program of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and second moving image data from the first moving image data. The block obtained by separating the remaining third moving image data from the third moving image data and dividing the frame of the third moving image data into blocks represents a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data. One motion vector is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is obtained from the one motion vector, and the estimated value of the block The first restoration step of restoring the compressed data obtained by compressing the block to the third moving image data using the second moving image data. And a second restoration step of synthesizing the second and third moving image data and restoring the first moving image data, wherein the first restoration step uses a second motion vector for a block from one motion vector. A detection step for obtaining a positional relationship having a high correlation with a block in a plurality of frames of moving image data, and a plurality of frames of image data of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector And a block restoring step for restoring the block using the estimated value of the block and the compressed data.

本発明の第4のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元ステップとを含むことを特徴とする。   The program recorded on the fourth program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The blocks obtained by separating the third moving image data from the data into the remaining third moving image data and dividing the third moving image data into blocks are divided into blocks in a plurality of frames of the second moving image data. One motion vector representing a positional relationship having a high correlation is detected, and a block is estimated from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector A compressed value obtained by compressing the block using the estimated value of the block and the third moving image data using the second moving image data. A first restoration step for restoring data, and a second restoration step for synthesizing the second and third moving image data to restore the first moving image data. A detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data from the vector, and a positional relationship with the block determined by a single motion vector; And a block restoring step for restoring a block using the estimated value of the block and the compressed data from the image data of a plurality of frames of the moving image data.

本発明の第1の画像処理装置および第1の画像処理方法、並びに第1のプログラムおよび第1のプログラム記録媒体に記録されているプログラムにおいては、第1の動画データが、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離され、第2の動画データの複数フレームにおいて、相関が高い位置関係が検出される。さらに、その検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値が求められ、そのブロックの推測値を用いて、第3の動画データがブロック単位で圧縮される。   In the first image processing apparatus, the first image processing method, the first program, and the program recorded in the first program recording medium of the present invention, the first moving image data includes the first moving image data. The second moving image data is separated into second moving image data having a frame rate lower than the frame rate of the data and remaining third moving image data obtained by removing the second moving image data from the first moving image data. A positional relationship having a high correlation is detected in the frame. Further, an estimated value of a block obtained by dividing the frame of the third moving image data into blocks is obtained from the image data of the second moving image data in the detected positional relationship, and the block is estimated. Using the value, the third moving image data is compressed in units of blocks.

本発明の第1のデータ構造および第1のデータ記録媒体に記録されているデータには、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとが含まれる。   The data recorded on the first data structure and the first data recording medium of the present invention includes the first moving image data and the second moving image having a frame rate lower than the frame rate of the first moving image data. Data and the remaining third moving image data obtained by removing the second moving image data from the first moving image data, and detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data. The estimated value of the block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in a high positional relationship is obtained, and the block is calculated using the estimated value of the block. Compressed data obtained by compression and second moving image data are included.

本発明の第2の画像処理装置および第2の画像処理方法、並びに第2のプログラムおよび第2のプログラム記録媒体に記録されているプログラムにおいては、第3の動画データが復元され、さらに、第2と第3の動画データが合成されて、第1の動画データが復元される。この場合において、第3の動画データの復元については、第2の動画データの複数フレームにおいて、相関が高い位置関係が検出され、その位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値が求められる。そして、そのブロックの推測値と、圧縮データとを用いて、第3の動画データがブロック単位で復元される。   In the second image processing apparatus, the second image processing method, the second program, and the program recorded in the second program recording medium of the present invention, the third moving image data is restored, and The second moving image data and the third moving image data are combined to restore the first moving image data. In this case, for the restoration of the third moving image data, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and the image data of the plurality of frames of the second moving image data in the positional relationship is detected. Thus, an estimated value of a block obtained by dividing the frame of the third moving image data into blocks is obtained. Then, the third moving image data is restored in block units using the estimated value of the block and the compressed data.

本発明の第3の画像処理装置および第3の画像処理方法、並びに第3のプログラムおよび第3のプログラム記録媒体に記録されているプログラムにおいては、第1の動画データが、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離され、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルが検出される。そして、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値が求められ、そのブロックの推測値を用いて、第3の動画データがブロック単位で圧縮される。   In the third image processing apparatus, the third image processing method, the third program, and the program recorded on the third program recording medium of the present invention, the first moving image data includes the first moving image data. The second moving image data having a frame rate lower than the frame rate of the data and the remaining third moving image data obtained by removing the second moving image data from the first moving image data are separated into frames of the third moving image data. As for a block obtained by dividing the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected. Then, an estimated value of the block is obtained from the image data of a plurality of frames of the second moving image data, the positional relationship with the block being obtained from one motion vector, and using the estimated value of the block, The third moving image data is compressed in units of blocks.

本発明の第2のデータ構造および第2のデータ記録媒体に記録されているデータには、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとが含まれる。   In the data recorded on the second data structure and the second data recording medium of the present invention, the first moving image data is the second moving image having a frame rate lower than the frame rate of the first moving image data. For the block obtained by separating the data and the remaining third moving image data obtained by removing the second moving image data from the first moving image data and dividing the frame of the third moving image data into blocks, the second moving image One motion vector representing a positional relationship having a high correlation with a block in a plurality of frames of data is detected, and the positional relationship with the block is a positional relationship obtained from one motion vector. From the image data, an estimated value of the block is obtained, and the compressed data obtained by compressing the block using the estimated value of the block, the second moving image data, It is included.

本発明の第4の画像処理装置および第4の画像処理方法、並びに第4のプログラムおよび第4のプログラム記録媒体に記録されているプログラムにおいては、第3の動画データが復元され、さらに、第2と第3の動画データが合成されて、第1の動画データが復元される。この場合において、第3の動画データの復元については、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係が求められ、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値が求められる。そして、そのブロックの推測値と、圧縮データとを用いて、ブロックが復元される。   In the fourth image processing apparatus, the fourth image processing method, the fourth program, and the program recorded on the fourth program recording medium of the present invention, the third moving image data is restored, The second moving image data and the third moving image data are combined to restore the first moving image data. In this case, for the restoration of the third moving image data, a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is obtained from one motion vector, and the positional relationship with the block is determined. An estimated value of the block is obtained from the image data of a plurality of frames of the second moving image data having the positional relationship obtained from one motion vector. Then, the block is restored using the estimated value of the block and the compressed data.

本発明によれば、高フレームレートの動画データを高圧縮することができる。また、本発明によれば、そのように高圧縮された動画データを復元することができる。   According to the present invention, high frame rate moving image data can be highly compressed. Further, according to the present invention, it is possible to restore such highly compressed moving image data.

以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even though there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

請求項1に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図79の送信装置1)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離手段(例えば、図79の分離回路213)と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段(例えば、図94の相関最大位置検出部254)と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段(例えば、図94の平均値計算部255)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段(例えば、図94の減算部256)と
を備えることを特徴とする。
The image processing apparatus according to claim 1,
In an image processing apparatus (for example, the transmission apparatus 1 in FIG. 79) that processes moving image data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separating means (for example, a separation circuit 213 in FIG. 79) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data (for example, the maximum correlation position detecting unit 254 in FIG. 94)
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. (For example, the average value calculation unit 255 in FIG. 94)
Compression means (for example, a subtracting unit 256 in FIG. 94) for compressing the third moving image data in units of blocks using the estimated value of the block.

請求項3に記載の画像処理装置は、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出手段(例えば、図96の相関最大位置検出部274)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測手段(例えば、図96の平均値計算部275)と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮手段(例えば、図96の減算部276)と、
前記圧縮手段による前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮手段による前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択手段(例えば、図81の選択回路240)と
をさらに備えることを特徴とする。
An image processing apparatus according to claim 3 is provided.
Other detection means (for example, the maximum correlation position detection unit 274 in FIG. 96) for detecting one motion vector representing a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block. ,
Other estimation means for determining another estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship determined from the one motion vector (for example, The average value calculator 275) of FIG.
Other compression means (for example, the subtraction unit 276 in FIG. 96) that compresses the third moving image data in units of blocks using another estimated value of the block;
Selecting either one of the compressed data obtained by compressing the third moving image data by the compressing unit or the compressed data obtained by compressing the third moving image data by the other compressing unit; And selection means (for example, a selection circuit 240 in FIG. 81) that adds and outputs identification information for identifying the compressed data.

請求項7に記載の画像処理装置は、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1の動画データの主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に特定の幅を有する領域を通過帯域として、前記第1の動画データをフィルタリングするフィルタ手段(例えば、図79の帯域制限フィルタ部212)をさらに備え、
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする。
An image processing apparatus according to claim 7 is provided.
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data with a region having a specific width in the direction as a pass band (for example, a band limiting filter unit 212 in FIG. 79),
The separation unit separates the first moving image data after filtering by the filter unit into the second and third moving image data.

請求項8に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図95のステップS212)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図95のステップS213)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図95のステップS214)と
を含むことを特徴とする。
The image processing method according to claim 8 comprises:
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, step S212 in FIG. 95) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S213 in FIG. 95),
A compression step (for example, step S214 in FIG. 95) of compressing the third moving image data in units of blocks using the estimated value of the block.

請求項9に記載の画像処理方法は、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップ(例えば、図97のステップS223)と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップ(例えば、図97のステップS224)と、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップ(例えば、図109のステップS292およびS293)と
をさらに含むことを特徴とする。
The image processing method according to claim 9 comprises:
With respect to the block, another detection step (for example, step S222 in FIG. 97) for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, Step S223) of FIG. 97;
Another compression step (for example, step S224 in FIG. 97) for compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. And a selection step (for example, steps S292 and S293 in FIG. 109) for adding and outputting identification information for identifying the compressed data.

請求項10に記載のプログラムおよび請求項12に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理をコンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図95のステップS212)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図95のステップS213)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図95のステップS214)と
を含むことを特徴とする。
The program recorded in the program recording medium according to claim 10 and the program recording medium according to claim 12,
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, step S212 in FIG. 95) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S213 in FIG. 95),
A compression step (for example, step S214 in FIG. 95) of compressing the third moving image data in units of blocks using the estimated value of the block.

請求項11に記載のプログラムおよび請求項13に記載のプログラム記録媒体に記録されているプログラムは、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップ(例えば、図97のステップS223)と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップ(例えば、図97のステップS224)と、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップ(例えば、図109のステップS292およびS293)と
をさらに含むことを特徴とする。
The program according to claim 11 and the program recorded on the program recording medium according to claim 13 are:
With respect to the block, another detection step (for example, step S222 in FIG. 97) for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, Step S223) of FIG. 97;
Another compression step (for example, step S224 in FIG. 97) for compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. And a selection step (for example, steps S292 and S293 in FIG. 109) for adding and outputting identification information for identifying the compressed data.

請求項18に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図110の受信装置2)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段(例えば、図110の差分情報復元部364)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段(例えば、図110の合成部365)と
を備え、
前記第1の復元手段は、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段(例えば、図113の相関最大位置検出部377)と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段(例えば、図113の推測部378)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元手段(例えば、図113の加算部379)と
を有する
ことを特徴とする。
An image processing apparatus according to claim 18 is provided.
In an image processing device (for example, the receiving device 2 in FIG. 110) that processes moving image data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data (for example, FIG. 110 difference information restoration unit 364),
A second restoring means (for example, the synthesizing unit 365 in FIG. 110) that synthesizes the second and third moving image data and restores the first moving image data;
The first restoration means includes
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data (for example, the maximum correlation position detecting unit 377 in FIG. 113)
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. (For example, the estimation unit 378 in FIG. 113);
Block reconstruction means (for example, an adding unit 379 in FIG. 113) that restores the third moving image data in units of blocks using the estimated value of the block and the compressed data.

請求項21に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図116のステップS351や、図117のステップS361)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図116のステップS352や、図117のS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップ(例えば、図116のステップS353や、図117のステップS363)と
を含む
ことを特徴とする。
The image processing method according to claim 21,
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S351 in FIG. 116 or step S361 in FIG. 117) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S352 in FIG. 116 and S362 in FIG. 117)
A block restoration step (for example, step S353 in FIG. 116 or step S363 in FIG. 117) for restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data. It is characterized by.

請求項23に記載のプログラムおよび請求項25に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図116のステップS351や、図117のステップS361)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図116のステップS352や、図117のS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップ(例えば、図116のステップS353や、図117のステップS363)と
を含む
ことを特徴とする。
The program according to claim 23 and the program recorded on the program recording medium according to claim 25 are:
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S351 in FIG. 116 or step S361 in FIG. 117) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S352 in FIG. 116 and S362 in FIG. 117)
A block restoration step (for example, step S353 in FIG. 116 or step S363 in FIG. 117) for restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data. It is characterized by.

請求項27に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図79の送信装置1)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離手段(例えば、図79の分離回路213)と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出手段(例えば、図96の相関最大位置検出部274)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段(例えば、図96の平均値計算部275)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段(例えば、図96の減算部276)と
を備えることを特徴とする。
The image processing apparatus according to claim 27,
In an image processing apparatus (for example, the transmission apparatus 1 in FIG. 79) that processes moving image data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separating means (for example, a separation circuit 213 in FIG. 79) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
For a block obtained by dividing the third moving image data frame into blocks, a detecting means for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data (for example, 96, the maximum correlation position detector 274) of FIG.
Estimating means for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, the average of FIG. 96 Value calculation unit 275),
Compression means (for example, a subtracting unit 276 in FIG. 96) that compresses the third moving image data in units of blocks using the estimated value of the block.

請求項30に記載の画像処理装置は、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1の動画データの主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に特定の幅を有する領域を通過帯域として、前記第1の動画データをフィルタリングするフィルタ手段(例えば、図79の帯域制限フィルタ部212)をさらに備え、
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする。
An image processing apparatus according to claim 30 is provided.
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data with a region having a specific width in the direction as a pass band (for example, a band limiting filter unit 212 in FIG. 79),
The separation unit separates the first moving image data after filtering by the filter unit into the second and third moving image data.

請求項31に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図97のステップS223)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図97のステップS224)と
を含むことを特徴とする。
The image processing method according to claim 31,
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data into blocks (for example, , Step S222 in FIG. 97,
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, the step of FIG. 97 S223),
And a compression step (for example, step S224 in FIG. 97) of compressing the third moving image data in units of blocks using the estimated value of the block.

請求項32に記載のプログラム、および請求項33に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図97のステップS223)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図97のステップS224)と
を含むことを特徴とする。
The program according to claim 32 and the program recorded in the program recording medium according to claim 33 are:
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data into blocks (for example, , Step S222 in FIG. 97,
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, the step of FIG. 97 S223),
And a compression step (for example, step S224 in FIG. 97) of compressing the third moving image data in units of blocks using the estimated value of the block.

請求項36に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図110の受信装置2)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段(例えば、図110の差分情報復元部364)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段(例えば、図110の合成部365)と
を備え、
前記第1の復元手段は、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出手段(例えば、図113の相関最大位置検出部377)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段(例えば、図113の推測部378)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元手段(例えば、図113の加算部379)と
を有する
ことを特徴とする。
The image processing apparatus according to claim 36,
In an image processing device (for example, the receiving device 2 in FIG. 110) that processes moving image data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data (for example, FIG. 110 difference information restoration unit 364),
A second restoring means (for example, the synthesizing unit 365 in FIG. 110) that synthesizes the second and third moving image data and restores the first moving image data;
The first restoration means includes
From the one motion vector, detection means (for example, a maximum correlation position detection unit 377 in FIG. 113) for obtaining a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block;
Estimating means for obtaining an estimated value of the block from a plurality of frames of image data of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, FIG. 113) An estimation unit 378),
Block reconstruction means (for example, an adding unit 379 in FIG. 113) that restores the block using the estimated value of the block and the compressed data is provided.

請求項37に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップ(例えば、図117のステップS361)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図117のステップS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップ(例えば、図117のステップS363)と
を含む
ことを特徴とする。
The image processing method according to claim 37,
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S361 in FIG. 117) for obtaining a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data from the one motion vector;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, FIG. 117). Step S362)
A block restoration step (for example, step S363 in FIG. 117) for restoring the block by using the estimated value of the block and the compressed data is included.

請求項38に記載のプログラム、および請求項39に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップ(例えば、図117のステップS361)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図117のステップS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップ(例えば、図117のステップS363)と
を含む
ことを特徴とする。
The program according to claim 38 and the program recorded in the program recording medium according to claim 39 are:
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S361 in FIG. 117) for obtaining a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data from the one motion vector;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, FIG. 117). Step S362)
A block restoration step (for example, step S363 in FIG. 117) for restoring the block by using the estimated value of the block and the compressed data is included.

次に、本発明の実施の形態について説明する前に、動画について、理論的な事柄を述べておく。   Next, before describing the embodiment of the present invention, a theoretical matter will be described for moving images.

図1は、2次元平面(x,y)に時間方向(t)を加えた3次元空間における動画データを示している。   FIG. 1 shows moving image data in a three-dimensional space in which a time direction (t) is added to a two-dimensional plane (x, y).

図1において、画像P101は、ある時刻(フレーム)の画像であり、画像P102は、その次の時刻の画像であり、画像P103は、さらにその次の時刻の画像である。画像P104は、さらにその次の時刻の画像である。図示を省略したが、画像P101の前の時刻と、画像P104の後の時刻にも、画像が存在する。 In FIG. 1, an image P 101 is an image at a certain time (frame), an image P 102 is an image at the next time, and an image P 103 is an image at the next time. The image P 104 is an image at the next time. Although illustration is omitted, there are also images at a time before the image P 101 and a time after the image P 104 .

図1では、画像P101乃至P104には、時間の経過とともに、y方向に移動する物体(被写体)が写っている。 In FIG. 1, the images P 101 to P 104 show an object (subject) that moves in the y direction over time.

以上のような動画(動画データ)を、人間が見た場合、動画のフレームレートが、あるフレームレート以上であるときには、動画の隣接する2つのフレーム(の画像)の違いを認識することは出来ない。実際に被験者に視覚実験を行った結果、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレームレートは、240fps程度以上であることが分かっている。   When a movie such as the above (moving image data) is viewed by a human, when the frame rate of the moving image is higher than a certain frame rate, the difference between two adjacent frames (images) of the moving image can be recognized. Absent. As a result of actually conducting a visual experiment on the subject, it has been found that the frame rate at which a human cannot recognize the difference between two adjacent frames (images) is about 240 fps or more.

ここで、隣接する2つのフレームどうしの間の時間(フレーム周期)を、t0と表すこととすると、フレームレートは、1/t0と表すことができる。 Here, if the time (frame period) between two adjacent frames is expressed as t 0 , the frame rate can be expressed as 1 / t 0 .

なお、以下では、フレーム周期t0は、1/240秒程度として説明を行うが、フレーム周期t0は、1/240秒程度でなくても良く、例えば、1/120秒程度であっても良い。但し、フレーム周期t0が、例えば、1/120秒のように、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレーム周期(1/240秒程度)より長い場合には、後述する表示装置3(図24)で表示される動画について、その画質の劣化が、多少、知覚される。 In the following description, the frame period t 0 is about 1/240 seconds. However, the frame period t 0 may not be about 1/240 seconds, for example, about 1/120 seconds. good. However, when the frame period t 0 is longer than the frame period (about 1/240 seconds) in which a human cannot recognize the difference between two adjacent frames (images thereof), for example, 1/120 second. The image quality of the moving image displayed on the display device 3 (FIG. 24) described later is somewhat perceived.

次に、人間の空間方向の認識能力、即ち、近接した2つの点を1つの点ではなく2つの点であると認識(知覚)することができる限界の距離を、r0と表す。 Next, r 0 represents a human's recognition ability in the spatial direction, that is, a limit distance at which two adjacent points can be recognized (perceived) as two points instead of one point.

この場合、人間の視覚によって認識(知覚)することができる動画の範囲は、図2のように表すことができる。   In this case, the range of moving images that can be recognized (perceived) by human vision can be expressed as shown in FIG.

即ち、図2は、時間t方向の周波数軸Tと空間方向x,yの周波数軸X,Yとで定義される周波数ドメインを示している。   That is, FIG. 2 shows a frequency domain defined by the frequency axis T in the time t direction and the frequency axes X and Y in the spatial directions x and y.

なお、図が煩雑になるのを避けるため、図2では、空間方向xの周波数軸Xと空間方向yの周波数軸Yとを、1軸で表してある。即ち、図2では、左から右方向に、周波数軸XとYをとってある。また、図2では、上から下方向に、周波数軸Tをとってある。さらに、図2では、周波数軸T(縦方向)は、2π/(4t0)単位で区切ってあり、周波数軸X,Y方向(横方向)は、2π/r0単位で区切ってある。 In order to avoid complication of the figure, in FIG. 2, the frequency axis X in the spatial direction x and the frequency axis Y in the spatial direction y are represented by one axis. That is, in FIG. 2, the frequency axes X and Y are taken from left to right. In FIG. 2, the frequency axis T is taken from the top to the bottom. Further, in FIG. 2, the frequency axis T (vertical direction) is divided in units of 2π / (4t 0 ), and the frequency axes X and Y directions (lateral direction) are divided in units of 2π / r 0 .

ここで、周波数ドメインの、後述する他の図も、図2と同様になっている。   Here, other diagrams of the frequency domain, which will be described later, are the same as those in FIG.

人間は、図2に示す、横が2×2π/(2r0)で、縦が2×2π/(2r0)の、原点を中心とする領域R201の範囲外にある高周波数成分を認識することができない。そこで、すべての動画データは、領域R201内に存在することとして、以下、説明を行う。 Humans, shown in FIG. 2, in the horizontal is 2 × 2π / (2r 0) , the vertical of 2 × 2π / (2r 0) , recognizes the high frequency components are outside the range of the region R 201 centered at the origin Can not do it. Therefore, the following description will be made assuming that all moving image data exists in the region R201 .

なお、図2では、領域R201を、長方形状の領域として図示してあるが、領域R201は、実際には、直方体状の領域である。即ち、領域R201は、X方向が、−(π/r0)乃至+(π/r0)で、Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域である。 In FIG. 2, the region R 201 is illustrated as a rectangular region, but the region R 201 is actually a rectangular parallelepiped region. That is, the region R 201 has an X direction of − (π / r 0 ) to + (π / r 0 ), a Y direction of − (π / r 0 ) to + (π / r 0 ), and T The direction is a region in the range of − (π / t 0 ) to + (π / t 0 ).

次に、動画の各部分のデータの周波数ドメイン上の位置(分布)について説明する。   Next, the position (distribution) on the frequency domain of the data of each part of the moving image will be described.

動画において、ある部分では、そこに投影されている被写体は静止しており、別の部分では、そこに投影されている被写体は動いている。   In a moving image, a subject projected on a certain portion is stationary, and a subject projected on the moving portion is moving in another portion.

まず、静止している動画の部分(静止している被写体が投影されている動画の部分)は、時間方向に対して変化しない。   First, the stationary moving image portion (the moving image portion on which the stationary subject is projected) does not change with respect to the time direction.

図3は、そのような静止している動画の部分のデータが分布する周波数ドメイン上の領域R301を示している。 FIG. 3 shows a region R 301 on the frequency domain in which data of such a still moving image portion is distributed.

領域R301は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)で、T方向が−2π/(4t0)乃至+2π/(4t0)の領域になっている。 The region R 301 is a region in which the X and Y directions are −2π / (2r 0 ) to + 2π / (2r 0 ) and the T direction is −2π / (4t 0 ) to + 2π / (4t 0 ). .

なお、動画において完全に静止している部分のデータであれば、T=0であるが、つまり、領域R301はT方向の幅が0であるが、ここでは、被写体が多少動いている場合も考慮して、領域R301は、T方向の幅が0ではなく、2π/(2t0)になっている。また、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されるのは、図2で説明したように、動画データの周波数成分は、X,Y方向については、−2π/(2r0)乃至+2π/(2r0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 Note that if the data is a completely stationary part of the video, T = 0, that is, the region R 301 has a width in the T direction of 0, but here the subject is moving slightly. In consideration of the above, the region R 301 has a width in the T direction that is not 0 but 2π / (2t 0 ). The X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ) as described with reference to FIG. This is because it does not exist in a range exceeding the range of −2π / (2r 0 ) to + 2π / (2r 0 ) (outside the range of the region R 201 in FIG. 2).

ここで、周波数ドメインにおいて、静止している部分のデータは、T=0の直線(平面)の方向に分布するから、この方向は、静止している部分のデータの主成分(例えば、第1主成分)の方向である。   Here, in the frequency domain, the data of the stationary part is distributed in the direction of the straight line (plane) of T = 0, so this direction is the main component (for example, the first data of the stationary part). Main component) direction.

次に、図4は、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが分布する周波数ドメイン上の領域R401を示している。 Next, FIG. 4 shows a region R401 on the frequency domain in which data of a portion where a subject projected on a moving image moves at a speed (r 0 / t 0 ) / 2 is distributed.

ここで、以下、適宜、説明を簡単にするために、周波数ドメイン上の点を、X,Y方向の座標Aと、T方向の座標Bとの2つだけを用いて、(A,B)と表す。   Here, in order to simplify the explanation as appropriate, the points on the frequency domain are expressed by using only two coordinates A and B in the X and Y directions, and (A, B). It expresses.

領域R401は、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。   The region R401 extends from the origin (0,0) to the point (π / r0, −π / (2t0)) and has a width of 2π / (2t0) in the T direction. .

なお、被写体が変形することなく、速度(r0/t0)/2で正確に等速直線運動していれば、領域R401は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度が(r0/t0)/2から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 It should be noted that if the subject does not deform and moves accurately at a constant linear velocity at a speed (r 0 / t 0 ) / 2, the region R401 has a width in the T direction of 0. The width in the T direction is not 0 but 2π / (2t0) in consideration of some deformation and the movement speed slightly deviating from (r 0 / t 0 ) / 2.

また、領域R401は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、領域R301のX,Y方向の範囲が制限されているのと同一の理由による。 In the region R401, the X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ), but this is limited to the range of the region R 301 in the X and Y directions. For the same reason that has been done.

ここで、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが、原点(0,0)から点(π/r0,-π/(2t0))の方向上に分布するのは、次の理由による。 Here, the data of the portion where the subject projected on the moving image moves at a speed (r 0 / t 0 ) / 2 is obtained from the origin (0,0) to the point (π / r0, −π / (2t0) ) Is distributed for the following reason.

即ち、図5の波形R501は、ある時刻t1における被写体の空間方向xの分布を示している。 That is, the waveform R 501 in FIG. 5 shows the distribution of the subject in the spatial direction x at a certain time t 1 .

被写体が、例えば、速度(r0/t0)/2で、例えば、空間方向xに移動しているとき、その移動している被写体は、波形R501,R502,R503,R504,R505,R506,・・・で表すことができる。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, for example, in the spatial direction x, the moving subjects are waveform R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,...

ここで、波形R501は、ある時刻(フレーム)t1における被写体を表している。波形R502は、波形R501の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R501の位置から、r0/2だけ、x方向に移動している。以下、同様に、波形R503,R504,R505,R506は、それぞれ、時刻t1+2t0,t1+3t0,t1+4t0,t1+5t0における被写体を表している。 Here, the waveform R 501 represents the subject at a certain time (frame) t 1 . Waveform R 502 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 501, from the position of the waveform R 501, only r 0/2, moves in the x-direction Yes. Hereinafter, similarly, waveforms R 503 , R 504 , R 505 , and R 506 represent subjects at times t 1 + 2t 0 , t 1 + 3t 0 , t 1 + 4t 0 , and t 1 + 5t 0, respectively . Yes.

図5における波形を空間位置xと時間tの関数と考え、この波形をFunc(x,t)と定義する。図5の波形R501,R502,R503,R504,R505,R506,・・・から明らかなように、Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 5 is considered as a function of the spatial position x and time t, and this waveform is defined as Func (x, t). As is clear from the waveforms R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,..., Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0).

さて、xとtという2つの変数による関数Funcを2次元フーリエ変換した周波数ドメイン上のデータを(X,T)とすると、この(X,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、時間方向tの周期がTである成分を表している。 Assuming that the data on the frequency domain obtained by two-dimensional Fourier transform of the function Func with two variables x and t is (X, T), the component of (X, T) is apparent from the definition of Fourier transform. In addition, a component in which the period in the spatial direction x is X and the period in the time direction t is T is represented.

Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係より、(X,T)は、2次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0), (X, T) is a two-dimensional vector (r 0/2 , t 0 ) Can be said to be orthogonal.

今、図5を用いて説明したが、実際には、空間方向は2次元であり、時間軸も加えると3次元となり、3次元フーリエ変換を考えないといけない。そこで、図6を用いて再度説明する。図6では、図1と同様に、3次元上での説明を行うための図である。   Although described with reference to FIG. 5, the spatial direction is actually two-dimensional, and when the time axis is added, it becomes three-dimensional, and a three-dimensional Fourier transform must be considered. Then, it demonstrates again using FIG. FIG. 6 is a diagram for explaining three-dimensionally as in FIG. 1.

図6の2次元空間(x,y)上の波形R601は、ある時刻t1における被写体の空間方向(x,y)の分布を示している。 A waveform R 601 on the two-dimensional space (x, y) in FIG. 6 shows the distribution in the spatial direction (x, y) of the subject at a certain time t 1 .

被写体が、例えば、速度(r0/t0)/2で、移動しているとき、その移動している被写体は、波形R601,R602,R603,R604,・・・で表すことができる。なお、r0は、図5の説明とは違い、2次元空間(x,y)上の2次元ベクトルである。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, the moving subject is represented by waveforms R 601 , R 602 , R 603 , R 604,. Can do. Note that r 0 is a two-dimensional vector on a two-dimensional space (x, y) unlike the description of FIG.

ここで、波形R601は、ある時刻(フレーム)t1における被写体を表している。波形R602は、波形R601の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R601の位置から、r0/2だけ移動している。以下、同様に、波形R603,R604は、それぞれ、時刻t1+2t0,t1+3t0における被写体を表している。 Here, the waveform R 601 represents the subject at a certain time (frame) t 1 . Waveform R 602 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 601, from the position of the waveform R 601, is moved by r 0/2. Hereinafter, similarly, waveforms R 603 and R 604 represent subjects at times t 1 + 2t 0 and t 1 + 3t 0, respectively.

図6における波形を空間位置(x,y)と時間tの関数と考え、この波形をFunc((x,y),t)と定義する。図6の波形R601,R602,R603,R604,・・・から明らかなように、Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 6 is considered as a function of the spatial position (x, y) and time t, and this waveform is defined as Func ((x, y), t). As apparent from the waveforms R 601 , R 602 , R 603 , R 604 ,... In FIG. 6, Func ((x, y), t) = Func ((x, y) − ((r 0 / t 0 ) / 2) × t, 0).

さて、xとyとtという3つの変数による関数Funcを3次元フーリエ変換した周波数ドメイン上のデータを(X,Y,T)とすると、この(X,Y,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、空間方向yの周期がYであり、時間方向tの周期がTである成分を表している。   Now, if the data on the frequency domain obtained by three-dimensional Fourier transform of the function Func with three variables x, y and t is (X, Y, T), the component of (X, Y, T) is Fourier transform. As is clear from the definition of FIG. 4, a component in which the period in the spatial direction x is X, the period in the spatial direction y is Y, and the period in the time direction t is T is represented.

Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係より、(X,Y,T)は、3次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func ((x, y), t) = Func ((x, y)-((r 0 / t 0 ) / 2) × t, 0), (X, Y, T) is three-dimensional It can be said that it is orthogonal to the vector (r 0/2 , t 0 ).

図5および図6に示したように、(X,T)あるいは(X,Y,T)は、ベクトル(r0/2, t0)に直交するので、例えば、図7に示すように、周波数ドメイン上の点(2π/(2r0),−2π/(4t0))(図7において○印で示す位置)にデータが存在したり、点(2π/(4r0),−2π/(8t0))(図7において△印で示す位置)上にデータが存在する。 As shown in FIGS. 5 and 6, since (X, T) or (X, Y, T) is orthogonal to the vector (r 0/2 , t 0 ), for example, as shown in FIG. There is data at a point (2π / (2r 0 ), −2π / (4t 0 )) (position indicated by a circle in FIG. 7) on the frequency domain, or a point (2π / (4r 0 ), −2π / There is data on (8t 0 )) (the position indicated by Δ in FIG. 7).

即ち、速度(r0/t0)/2で移動している波形は、いずれも原点(0,0)と点(π/r0,-π/(2t0))とを通る直線(平面)R701上に分布する。 That is, each waveform moving at a speed (r 0 / t 0 ) / 2 is a straight line (plane) R passing through the origin (0,0) and the point (π / r0, -π / (2t0)). Distributed on 701 .

速度(r0/t0)/2で動いている部分の、他の周波数成分Xのデータ(波形)も、同様に、直線R701上に分布する。 Similarly, the data (waveform) of the other frequency component X of the portion moving at the speed (r 0 / t 0 ) / 2 is also distributed on the straight line R 701 .

速度(r0/t0)/2で動いている部分は、時間がt0だけ進むと、r0/2だけ空間方向の位置がずれるので、上述のように、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/(2t0))とを通る直線R701上に分布する。 The moving parts at a rate (r 0 / t 0) / 2 , when the time advances by t 0, since r 0/2 only spatial directions position shifts, as described above, in a frequency domain, the origin ( 0,0) and the point (π / r0, -π / ( 2t0) distributed on a straight line R 701 through a).

なお、周波数ドメインにおいて、速度(r0/t0)/2で動いている部分のデータは、直線(平面)R701の方向(π/r0,-π/(2t0))に分布するから、この方向(π/r0,-π/(2t0))は、速度(r0/t0)/2で動いている部分のデータの主成分の方向である。 In the frequency domain, the data of the portion moving at the speed (r 0 / t 0 ) / 2 is distributed in the direction of the straight line (plane) R 701 (π / r0, −π / (2t0)). This direction (π / r0, −π / (2t0)) is the direction of the principal component of the data of the portion moving at the speed (r 0 / t 0 ) / 2.

次に、図8は、動画に投影されている被写体が速度r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R801を示している。 Next, FIG. 8 shows a region R 8 01 on the frequency domain in which data of a portion in which a subject projected on a moving image moves at a speed r 0 / t 0 is distributed.

領域R801は、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。 The region R 8 01 is a region extending in the direction from the origin (0,0) to the point (π / r0, −π / t0) and having a width of 2π / (2t0) in the T direction. .

即ち、速度r0/t0で動いている部分は、時間がt0だけ進むと、r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed r 0 / t 0 is shifted in position in the spatial direction by r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -π / t0).

なお、被写体が変形することなく、速度r0/t0で正確に等速直線運動していれば、領域R801は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 Note that if the subject does not deform and moves accurately linearly at a constant velocity r 0 / t 0 , the region R 8 01 has a width of 0 in the T direction. In consideration of deformation and the movement speed slightly deviating from r 0 / t 0 , the width in the T direction is not 0 but 2π / (2t 0).

また、領域R801は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、図3の領域R301のX,Y方向の範囲が制限されているのと同一の理由による。 In the region R 8 01, the X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ), which is the same as the region R 301 in FIG. For the same reason that the range of directions is limited.

さらに、領域R801は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 Further, in the region R 8 01, the T direction is limited to a range of −2π / (2t 0 ) to + 2π / (2t 0 ), which is the frequency of the moving image data as described with reference to FIG. This is because the component does not exist in the T direction beyond the range of −2π / (2t 0 ) to + 2π / (2t 0 ) (outside the range of the region R 201 in FIG. 2).

ここで、周波数ドメインにおいて、速度r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-π/t0)とを通る直線の方向(π/r0,-π/t0)に分布するから、この方向(π/r0,-π/t0)は、速度r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the velocity r 0 / t 0 is the direction of the straight line (π / t) passing through the origin (0,0) and the point (π / r0, −π / t0). r0, -π / t0), this direction (π / r0, -π / t0) is the direction of the main component of the data of the portion moving at the speed r 0 / t 0 .

次に、図9は、動画に投影されている被写体が速度2r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R901を示している。 Next, FIG. 9 shows a region R 9 01 on the frequency domain data of the part object is projected onto a video is moving at about the speed 2r 0 / t 0 is distributed.

領域R901は、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。 Region R 9 01 is the point from the origin (0,0) (π / r0, -2π / t0) an area extending in the direction of, and is a region having a width of 2π / (2t0) in the T direction .

即ち、速度2r0/t0で動いている部分は、時間がt0だけ進むと、2r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-2π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed 2r 0 / t 0 is shifted in the spatial direction by 2r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -2π / t0).

なお、被写体が変形することなく、速度2r0/t0で正確に等速直線運動していれば、領域R901は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 Incidentally, without the subject is deformed, if exactly uniform linear motion at a speed 2r 0 / t 0, the region R 9 01, although the width of the T direction is 0, here, some of the subject In consideration of deformation and the movement speed slightly deviating from r 0 / t 0 , the width in the T direction is not 0 but 2π / (2t 0).

また、領域R901は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 In the region R 9 01, the T direction is limited to the range of −2π / (2t 0 ) to + 2π / (2t 0 ). This is because the frequency of the moving image data is as described with reference to FIG. This is because the component does not exist in the T direction beyond the range of −2π / (2t 0 ) to + 2π / (2t 0 ) (outside the range of the region R 201 in FIG. 2).

ここで、周波数ドメインにおいて、速度2r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-2π/t0)とを通る直線の方向(π/r0,-2π/t0)に分布するから、この方向(π/r0,-2π/t0)は、速度2r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the speed 2r 0 / t 0 is the direction of the straight line (π / 0) passing through the origin (0,0) and the point (π / r0, -2π / t0). r0, -2π / t0), this direction (π / r0, -2π / t0) is the direction of the main component of the data of the portion moving at the speed 2r 0 / t 0 .

以上、被写体が静止している場合と、被写体が速度(r0/t0)/2,r0/t0,2r0/t0程度で移動している場合それぞれについて、そのような被写体が投影されている動画の部分のデータの、周波数ドメイン上の分布について説明したが、他の速度で移動している部分のデータも、周波数ドメインにおいて、同様に分布する。 As described above, when the subject is stationary, and when the subject is moving at a speed (r 0 / t 0 ) / 2, r 0 / t 0 , 2r 0 / t 0 , such a subject is The distribution on the frequency domain of the data of the portion of the moving image being projected has been described, but the data of the portion moving at other speeds is similarly distributed in the frequency domain.

次に、人間の視覚効果について説明する。   Next, human visual effects will be described.

人間の目は、物体から発せられる光を時間方向に積分して認識している。この人間の目における積分機能(視覚の積分機能)は、ブロックの法則(Bloch’s Law)と言われている。人間の目における光の積分時間は、環境によって異なるが、大体1/60秒程度である。   The human eye recognizes the light emitted from the object by integrating it in the time direction. This integration function (visual integration function) in the human eye is called the Block's Law. The integration time of light in the human eye is approximately 1/60 seconds, although it varies depending on the environment.

ここで、t0を、上述のように、1/240秒程度とすると、人間の目における光の積分時間は、4×t0秒と表すことができる。 Here, if t 0 is about 1/240 seconds as described above, the integration time of light in the human eye can be expressed as 4 × t 0 seconds.

動画の中で静止している被写体が投影されている部分を、人間が視線を動かさずに注視して認識する画像は、視覚の積分機能により、静止している部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image in which a stationary subject is projected in a moving image is recognized by a human gaze without moving the line of sight. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.

このローパスフィルタの通過帯域は、周波数ドメイン上において、図10に示す領域R1001として表すことができる。 The pass band of this low-pass filter can be represented as a region R 1001 shown in FIG. 10 on the frequency domain.

図10の領域R1001は、X,Y方向の範囲が、図2の領域R201と同一の−2π/(2r0)乃至+2π/(2r0)であり、T方向の範囲が、-(2π/(4t0))/2乃至(2π/(4t0))/2の領域である。この領域R1001のT方向の幅は、2π/(4t0)であるが、これが、4t0の時間の積分を表す。 In the region R 1001 in FIG. 10, the range in the X and Y directions is −2π / (2r 0 ) to + 2π / (2r 0 ), which is the same as the region R 201 in FIG. 2, and the range in the T direction is − ( The region is 2π / (4t 0 )) / 2 to (2π / (4t 0 )) / 2. The width in the T direction of this region R 1001 is 2π / (4t 0 ), which represents the integration of the time of 4t 0 .

動画の静止している部分のデータは、図3に示したように、領域R301内に存在するが、人間は、その領域R301のうちの、領域R1001内の情報(データ)しか認識することができない。従って、領域R301のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 As shown in FIG. 3, the data of the still part of the moving image exists in the region R 301 , but the human recognizes only the information (data) in the region R 1001 in the region R 301. Can not do it. Therefore, information outside the region R 1001 in the region R 301 is useless information for humans.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が、その被写体が移動する方向に視線を動かしながら注視して認識する画像、即ち、人間が追従視により認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, while moving the line of sight in the direction in which the subject moves in the part of the moving image where the subject being projected is moving at a speed of “(r 0 / t 0 ) / 2” An image that is recognized by gazing, that is, an image that a human recognizes by following vision, uses data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the time direction by a visual integration function. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.

但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「(r0/t0)/2」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図11に示す領域R1101として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “(r 0 / t 0 ) / 2” with the passage of time. Therefore, the pass band of the low-pass filter is as shown in FIG. Can be represented as a region R 1101 shown in FIG.

図11の領域R1101は、図4の領域R401と同様に、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域である。さらに、領域R1101は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1101は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1101 in FIG. 11 is a region extending in the direction from the origin (0,0) to the point (π / r0, −π / (2t0)), similarly to the region R401 in FIG. Further, a region R 1101 is a region having a width of 2π / (4t0) in the T direction, and this represents an integration of time of 4t 0 . Note that the area R 1101 is limited to the area R 201 where the moving image data exists, as shown in FIG.

速度「(r0/t0)/2」程度で移動している部分のデータは、図4に示したように、領域R401内に存在するが、人間は、その領域R401のうちの、領域R1101内の情報しか認識することができない。従って、領域R401のうちの、領域R1101外の情報は、人間にとって無駄な情報である。 Speed "(r 0 / t 0) / 2 " data of the portion moving at a degree, as shown in FIG. 4, are present in the region R 401, human, of its region R 401 Only the information in the region R 1101 can be recognized. Therefore, information outside the region R 1101 in the region R 401 is useless information for humans.

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, the image in which the subject projected on the moving image moves at a speed of about “r 0 / t 0 ” by human follow-up is still the visual integration. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図12に示す領域R1201として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “r 0 / t 0 ” with the passage of time, so the pass band of the low-pass filter is the region R shown in FIG. 12 on the frequency domain. Can be represented as 1201 .

図12の領域R1201は、図8の領域R801と同様に、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域である。さらに、領域R1201は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1201は、図2に示した、動画データが存在する領域R201内に制限されている。 Region R 1201 in FIG. 12 is a region extending in the direction from the origin (0, 0) to the point (π / r 0, −π / t 0), similarly to the region R 8 01 in FIG. Further, the region R 1201 is a region having a width of 2π / (4t0) in the T direction, and this represents the integration of time of 4t 0 . Note that the region R 1201 is limited to the region R 201 where the moving image data exists as shown in FIG.

速度「r0/t0」程度で移動している部分のデータは、図8に示したように、領域R801内に存在するが、人間は、その領域R801のうちの、領域R1201内の情報しか認識することができない。従って、領域R801のうちの、領域R1201外の情報は、人間にとって無駄な情報である。 As shown in FIG. 8, the data of the portion moving at the speed “r 0 / t 0 ” is present in the region R 801 , but the human is the region R 1201 in the region R 801. Only the information inside can be recognized. Therefore, information outside the region R 1201 in the region R 801 is useless information for humans.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「2r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by humans following the moving part of the moving subject at a speed of about “2r 0 / t 0 ” in the moving image is still a visual integral. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “2r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「2r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図13に示す領域R1301として表すことができる。 However, in the follow-up view in this case, since the gazing point moves at a speed of about “2r 0 / t 0 ” with time, the pass band of the low-pass filter is the region R shown in FIG. 13 on the frequency domain. Can be represented as 1301 .

図13の領域R1301は、図9の領域R901と同様に、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域である。さらに、領域R1301は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1301は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1301 in FIG. 13 is a region extending in the direction from the origin (0,0) to the point (π / r0, −2π / t0), similarly to the region R 901 in FIG. Further, the region R 1301 is a region having a width of 2π / (4t0) in the T direction, and this represents the integration of time of 4t 0 . Note that the region R 1301 is limited to the region R 201 where the moving image data exists as shown in FIG.

速度「2r0/t0」程度で移動している部分のデータは、図9に示したように、領域R901内に存在するが、人間は、その領域R901のうちの、領域R1301内の情報しか認識することができない。従って、領域R901のうちの、領域R1301外の情報は、人間にとって無駄な情報である。 As shown in FIG. 9, the data of the portion moving at the speed “2r 0 / t 0 ” exists in the region R 901 , but the human is the region R 1301 in the region R 901. Only the information inside can be recognized. Therefore, information outside the region R 1301 in the region R 901 is useless information for humans.

次に、人間が固定視を行う場合について説明する。ここで、固定視とは、追従視とは違い、被写体の移動とは別の視線移動をする場合で、例えば、人間が視線を動かさないで(見ている方向を常に一定に保って)、動画を見る場合が該当する。   Next, a case where a human performs fixed vision will be described. Here, fixed vision is different from follow-up vision in the case of moving the line of sight different from the movement of the subject. For example, humans do not move the line of sight (keep the viewing direction constant) Applicable when watching a video.

動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “(r 0 / t 0 ) / 2” in a moving image is obtained by a visual integration function. This is equivalent to an image obtained by filtering data in a portion moving at a speed of “(r 0 / t 0 ) / 2” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of the low-pass filter can be represented by the same region on the frequency domain as that when a stationary portion is watched, that is, a region R 1001 in FIG.

ここで、図14は、周波数ドメインにおいて、速度「(r0/t0)/2」程度で動いている部分のデータが分布する領域R401(図4)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 14 shows a region R 401 (FIG. 4) in which data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the frequency domain is distributed, and a case where a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band of the low-pass filter is shown.

人間は、領域R401のうちの、領域R1001内の情報、つまり、領域R401とR1001とが重複する部分の領域R1401内の情報しか認識することができない。従って、領域R401のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 401, information in the region R 1001, that is, can not be a region R 401 and R 1001 are only recognized information in the region R 1401 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 401 is useless information for humans.

なお、図14において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R401とは重複しない部分の領域R1402とR1403(図中斜線を付して示す)が存在するが、いまの場合、この領域R1402とR1403には、動画データは存在しない。 In FIG. 14, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1402 and R 1403 (parts R 1402 and R 1403 in the figure) that do not overlap with the region R 401 where the moving image data exists. In this case, there is no moving image data in the regions R 1402 and R 1403 .

また、上述のように、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 Further, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “(r 0 / t 0 ) / 2”, the human gaze direction is the moving subject (moving subject). Therefore, even a slightly blurred image is recognized as a good moving image.

従って、図14の領域R1401内のデータを、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタ、即ち、図11の領域R1101を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1401 in FIG. 14 has a low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2”, that is, the region R 1101 in FIG. Even if it is filtered with a low-pass filter, it is recognized as a moving image with good image quality.

以上から、図15に示すように、領域R1401のうちの、領域R1101と重複する部分の領域R1501(図中黒色で塗りつぶして示す)内のデータがあれば、速度「(r0/t0)/2」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 15, if there is data in a region R 1501 of the region R 1401 that overlaps the region R 1101 (shown in black in the drawing), the speed “(r 0 / A portion moving at about t 0 ) / 2 ”is recognized as a moving image with good image quality.

従って、動画において、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R401内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタの通過帯域としての領域R1101との重複部分の領域R1501を除いた領域のデータは、無駄である(なくても、人間が認識する画質に、ほとんど影響しない)。 Therefore, in the case where a portion of a moving image moving at a speed of “(r 0 / t 0 ) / 2” is fixedly viewed by a human, the data of that portion, that is, the data in the region R 401 is fixed. Region R 1001 as the pass band of the low-pass filter when viewing is performed, and region R as the pass band of the low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2” The data in the area excluding the area R 1501 that overlaps the area 1101 is useless (even if it does not, it hardly affects the image quality recognized by humans).

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of the low-pass filter can be represented by the same region on the frequency domain as that when a stationary portion is watched, that is, a region R 1001 in FIG.

ここで、図16は、周波数ドメインにおいて、速度「r0/t0」程度で動いている部分のデータが分布する領域R801(図8)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 16 shows a region R 801 (FIG. 8) in which data of a portion moving at a speed of “r 0 / t 0 ” in the frequency domain is distributed, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.

人間は、領域R801のうちの、領域R1001内の情報、つまり、領域R801とR1001とが重複する部分の領域R1601内の情報しか認識することができない。従って、領域R801のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 801, information in the region R 1001, that is, can not be a region R 801 and R 1001 are only recognized information in the region R 1601 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 801 is useless information for humans.

なお、図16において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R801とは重複しない部分の領域R1602とR1603(図中斜線を付して示す)が存在するが、いまの場合、この領域R1602とR1603には、動画データは存在しない。 In FIG. 16, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a portion of regions R 1602 and R 1603 that do not overlap with the region R 801 where moving image data exists (in the drawing) In this case, there is no moving image data in these areas R 1602 and R 1603 .

また、上述のように、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “r 0 / t 0 ”, the direction of the human gaze is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.

従って、図16の領域R1601内のデータを、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタ、即ち、図12の領域R1201を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1601 in FIG. 16 is filtered by a low-pass filter when the gazing point moves at a speed of “r 0 / t 0 ”, that is, a low-pass filter having the region R 1201 in FIG. Even so, it is recognized as a moving image with good image quality.

以上から、図17に示すように、領域R1601のうちの、領域R1201と重複する部分の領域R1701(図中黒色で塗りつぶして示す)内のデータがあれば、速度「r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 17, if there is data in a region R 1701 (shown in black in the drawing) that overlaps the region R 1201 in the region R 1601 , the speed “r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.

従って、動画において、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R801内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1201との重複部分の領域R1701を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 801 . Region R 1001 as the pass band of the low-pass filter in the case where the gazing point moves and the region R 1201 as the pass band of the low-pass filter when the gazing point moves at a speed of about “r 0 / t 0 ” The data in the area excluding 1701 is useless.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “2r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.

このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of the low-pass filter can be represented by the same region on the frequency domain as that when a stationary portion is watched, that is, a region R 1001 in FIG.

ここで、図18は、周波数ドメインにおいて、速度「2r0/t0」程度で動いている部分のデータが分布する領域R901(図9)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 18 shows a region R 901 (FIG. 9) in which data of a portion moving at a speed of about “2r 0 / t 0 ” is distributed in the frequency domain, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.

人間は、領域R901のうちの、領域R1001内の情報、つまり、領域R901とR1001とが重複する部分の領域R1801内の情報しか認識することができない。従って、領域R901のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 901, information in the region R 1001, that is, can not be a region R 901 and R 1001 are only recognized information in the region R 1801 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 901 is useless information for humans.

なお、図18において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R901とは重複しない部分の領域R1802とR1803(図中斜線を付して示す)が存在するが、いまの場合、この領域R1802とR1803には、動画データは存在しない。 In FIG. 18, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1802 and R 1803 of portions that do not overlap with the region R 901 where moving image data exists (in the drawing) In this case, there is no moving image data in the regions R 1802 and R 1803 .

また、上述のように、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “2r 0 / t 0 ”, the direction of the human line of sight is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.

従って、図18の領域R1801内のデータを、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタ、即ち、図13の領域R1301を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Accordingly, the data in the region R 1801 in FIG. 18 is filtered by a low-pass filter when the point of interest moves at a speed of about “2r 0 / t 0 ”, that is, a low-pass filter having the region R 1301 in FIG. Even so, it is recognized as a moving image with good image quality.

以上から、図19に示すように、領域R1801のうちの、領域R1301と重複する部分の領域R1901(図中黒色で塗りつぶして示す)内のデータがあれば、速度「2r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 19, if there is data in a region R 1901 (shown in black in the drawing) that overlaps the region R 1301 in the region R 1801 , the speed “2r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.

従って、動画において、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R901内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1301との重複部分の領域R1901を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “2r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 901 . Region R 1001 as the pass band of the low-pass filter when the gazing point moves and the region R 1301 as the pass band of the low-pass filter when the gazing point moves at a speed of about “2r 0 / t 0 ” The data in the area excluding 1901 is useless.

以上の固定視と追従視の場合の、人間が認識することができる周波数ドメイン上の範囲(領域)についてまとめると、図20乃至図23に示すようになる。   The ranges (regions) on the frequency domain that can be recognized by humans in the case of fixed vision and follow-up vision are summarized as shown in FIGS.

即ち、図20は、動画の中で静止している物体(被写体)が投影されている部分について、人間が認識することができるデータが存在する領域を示している。   That is, FIG. 20 shows an area where there is data that can be recognized by humans in a portion where a stationary object (subject) is projected in a moving image.

動画の中で静止している物体が投影されている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図20に示すように、図10に示した領域R1001であり、領域R1001以外にあるデータは、無駄である。 As shown in FIG. 20, the region on the frequency domain of the data that can be recognized by humans for a portion where a stationary object is projected in the moving image is a region R 1001 shown in FIG. The data outside the area R 1001 is useless.

次に、図21は、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 21 shows data in which a person can recognize a portion of a moving image where a subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”. The area to be shown is shown.

動画の中で速度「(r0/t0)/2」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図11に示した領域R1101である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図15に示した領域R1501であり、この領域R1501は、図11に示した領域R1101に含まれる。 A region on the frequency domain of data that can be recognized by humans by following vision for a portion moving at a speed of “(r 0 / t 0 ) / 2” in the moving image is a region R shown in FIG. 1101 . Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1501 shown in FIG. 15, and this region R 1501 is included in the region R 1101 shown in FIG.

従って、速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図21に示すように、図11に示した領域R1101であり、領域R1101以外にあるデータは、無駄である。 Therefore, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “(r 0 / t 0 ) / 2” is shown in FIG. 11 as shown in FIG. a region R 1101, data in the region other than the region R 1101 is waste.

次に、図22は、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 22 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”. ing.

動画の中で速度「r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図12に示した領域R1201である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図17に示した領域R1701であり、この領域R1701は、図12に示した領域R1201に含まれる。 A region on the frequency domain of data that can be recognized by a human by tracking vision for a portion moving at a speed of “r 0 / t 0 ” in the moving image is a region R 1201 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1701 shown in FIG. 17, and this region R 1701 is included in the region R 1201 shown in FIG.

従って、速度「r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図22に示すように、図12に示した領域R1201であり、領域R1201以外にあるデータは、無駄である。 Therefore, as shown in FIG. 22, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “r 0 / t 0 ” is a region R 1201 shown in FIG. Yes , the data outside the area R 1201 is useless.

次に、図23は、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 23 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”. ing.

動画の中で速度「2r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図13に示した領域R1301である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図19に示した領域R1901であり、この領域R1901は、図13に示した領域R1301に含まれる。 A region on the frequency domain of the data that can be recognized by humans by following vision for a portion moving at a speed of “2r 0 / t 0 ” in the moving image is a region R 1301 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized with fixed vision is a region R 1901 shown in FIG. 19, and this region R 1901 is included in the region R 1301 shown in FIG.

従って、速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図23に示すように、図13に示した領域R1301であり、領域R1301以外にあるデータは、無駄である。 Therefore, as shown in FIG. 23, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “2r 0 / t 0 ” is a region R 1301 shown in FIG. Yes , data outside the area R 1301 is useless.

ここで、上述の場合には、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向の幅を、2π/(4t0)としたが、この幅は、視覚の積分機能による積分の時間に相当する幅であればよく、2π/(4t0)に限定されるものではない。 In the above case, the width in the T direction of the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 is 2π / (4t 0 ). However, this width may be a width corresponding to the integration time by the visual integration function, and is not limited to 2π / (4t 0 ).

動画の中で、他の速度で動いている部分のデータについても、同様のことが言える。   The same can be said for the data of the moving part of the video at other speeds.

以上のように、人間の視覚効果(視覚特性)、即ち、視覚の積分機能を利用して、周波数ドメイン上において、動画データを、人間が認識することができる領域のデータと、それ以外の無駄なデータとに分類することができる。   As described above, by utilizing the human visual effect (visual characteristics), that is, the visual integration function, on the frequency domain, moving image data can be recognized as data in a region that can be recognized by humans and other waste. Data.

そして、周波数ドメイン上において、動画データから、人間が認識することができる領域のデータだけを抽出すれば、即ち、それ以外の無駄なデータを削除すれば、画質を劣化させずに(人間が動画を見たときに認識する画質)、動画データを圧縮することができる。   Then, if only data in a region that can be recognized by humans is extracted from video data on the frequency domain, that is, if unnecessary data other than that is deleted, image quality is not degraded ( The image quality recognized when viewing the video), and the video data can be compressed.

そこで、図24は、動画データを、視覚の積分機能を利用して圧縮し、さらに、そのように圧縮された動画データを復号(伸張)する画像処理システムの構成例を示している。   FIG. 24 shows an example of the configuration of an image processing system that compresses moving image data using a visual integration function and decodes (decompresses) the compressed moving image data.

図24において、送信装置1には、例えば、1/t0=240fpsなどの高フレームレートの動画データが供給される。送信装置1は、そこに供給される動画データを、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などを通過帯域とするフィルタ(帯域通過フィルタまたは帯域制限フィルタ)でフィルタリングし、その結果得られる、人間が認識することができる周波数ドメイン上の領域のデータを出力する。送信装置1が出力するデータは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどの記録媒体11に記録され、あるいは、電話回線、地上波、衛星回線、インターネット、有線または無線LAN(Local Area Network)などの伝送媒体12を介して伝送される。 In FIG. 24, the transmission apparatus 1 is supplied with moving image data having a high frame rate such as 1 / t 0 = 240 fps. The transmission apparatus 1 filters the moving image data supplied to the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. Band-pass filter or band-limiting filter), and outputs the data in the frequency domain that can be recognized by humans. Data output from the transmission device 1 is recorded on a recording medium 11 such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto Optical) disk, DVD (Digital Versatile Disc), magnetic disk, or semiconductor memory. Alternatively, the data is transmitted via a transmission medium 12 such as a telephone line, a terrestrial wave, a satellite line, the Internet, a wired line, or a wireless LAN (Local Area Network).

受信装置2には、記録媒体11から再生されたデータ、あるいは、伝送媒体12を介して伝送されてくるデータが供給される。受信装置2は、そこに供給されるデータを受信して、所定の処理を施し、その結果得られる動画データを、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成される表示装置3に供給して表示させる。   The receiver 2 is supplied with data reproduced from the recording medium 11 or data transmitted via the transmission medium 12. The receiving device 2 receives the data supplied thereto, performs predetermined processing, and the moving image data obtained as a result is composed of, for example, a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like. It is supplied to the display device 3 and displayed.

なお、図24において、送信装置1、受信装置2、表示装置3は、それぞれ物理的に独立の装置として構成することができる。また、送信装置1および受信装置2は、図24において点線で囲んで示すように、全体として、物理的に1つの装置として構成することができる。さらに、送信装置1、受信装置2、および表示装置3の全体や、受信装置2および表示装置3を、物理的に1つの装置として構成することもできる。   In FIG. 24, the transmission device 1, the reception device 2, and the display device 3 can be configured as physically independent devices. Further, the transmitter 1 and the receiver 2 can be physically configured as one device as a whole as shown by being surrounded by a dotted line in FIG. Furthermore, the whole of the transmission device 1, the reception device 2, and the display device 3, or the reception device 2 and the display device 3 can be physically configured as one device.

次に、図25は、図24の送信装置1の第1の構成例を示している。   Next, FIG. 25 illustrates a first configuration example of the transmission device 1 of FIG.

バッファ部21には、送信装置1に供給された高フレームレートの動画データが供給される。バッファ部21は、そこに供給される動画データを順次記憶する。   The buffer unit 21 is supplied with the high frame rate moving image data supplied to the transmission apparatus 1. The buffer unit 21 sequentially stores the moving image data supplied thereto.

フィルタ部22は、バッファ部21に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部23から供給されるフィルタ情報にしたがってフィルタリングして、そのフィルタリングにより得られる動画データを、エンコード部24に供給する。   The filter unit 22 appropriately reads out the moving image data stored in the buffer unit 21, filters the moving image data according to the filter information supplied from the filter generation unit 23, which will be described later, and obtains the moving image data obtained by the filtering, This is supplied to the encoding unit 24.

フィルタ生成部23は、バッファ部21に記憶された動画データを適宜読み出し、その動画データの各部分をフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部22に供給する。   The filter generation unit 23 appropriately reads the moving image data stored in the buffer unit 21, generates filter information that is filter information for filtering each part of the moving image data, and supplies the filter information to the filter unit 22.

即ち、フィルタ生成部23は、主成分方向取得部31とフィルタ情報供給部32とから構成される。   That is, the filter generation unit 23 includes a principal component direction acquisition unit 31 and a filter information supply unit 32.

主成分方向取得部31は、バッファ部21から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部32に供給する。   The principal component direction acquisition unit 31 acquires the principal component direction which is the direction of the principal component on the frequency domain for each part of the moving image data read from the buffer unit 21, and filters the information on the principal component direction. The information is supplied to the information supply unit 32.

フィルタ情報供給部32は、主成分方向取得部31からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部22に出力する。 The filter information supply unit 32 is a region extending in the principal component direction in the frequency domain according to the information on the principal component direction from the principal component direction acquisition unit 31, and has a specific width in the direction of the frequency axis T in the time direction. For example, a region having 2π / (4t 0 ), that is, a region R 1001 in FIG. 20, a region R 1101 in FIG. 21, a region R 1201 in FIG. 22, and a region R 1301 in FIG. The pass band is determined, and the pass band is output to the filter unit 22 as filter information.

エンコード部24は、フィルタ部22から供給される動画データを、例えば、MPEG(Moving Picture Experts Group)1や2などの所定のエンコード(符号化)方法によってエンコードし、その結果得られるエンコードデータを出力する。このエンコードデータが、図24の記録媒体11に記録され、あるいは伝送媒体12を介して伝送される。   The encoding unit 24 encodes the moving image data supplied from the filter unit 22 by a predetermined encoding (encoding) method such as MPEG (Moving Picture Experts Group) 1 or 2, and outputs the encoded data obtained as a result. To do. This encoded data is recorded on the recording medium 11 of FIG. 24 or transmitted via the transmission medium 12.

次に、図26のフローチャートを参照して、図25の送信装置1の処理について説明する。   Next, processing of the transmission apparatus 1 in FIG. 25 will be described with reference to the flowchart in FIG.

バッファ部21には、フレームレート1/t0が、例えば、240fpsの高フレームレートの動画データが供給されて順次記憶される。 The buffer unit 21 is supplied with moving image data having a high frame rate of 240 fps, for example, at a frame rate of 1 / t 0 and sequentially stored.

そして、ステップS1において、フィルタ生成部23は、バッファ部21に記憶された動画データを読み出して、自身(フィルタ生成部23)に入力し、ステップS2に進む。   In step S1, the filter generation unit 23 reads the moving image data stored in the buffer unit 21, inputs the moving image data to itself (filter generation unit 23), and proceeds to step S2.

ステップS2では、フィルタ生成部23(の主成分方向取得部31およびフィルタ情報供給部32)が、ステップS1で入力された動画データの各部分について、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給する、後述する図31で説明する「必要な情報の通過帯域を求める処理」を行い、ステップS3に進む。 In step S2, a region in which the filter generation unit 23 (its principal component direction acquisition unit 31 and filter information supply unit 32) can recognize each part of the moving image data input in step S1 on the frequency domain. That is, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 are obtained as filter passbands, and the passbands are used as filter information. The “processing for obtaining a pass band of necessary information” described later with reference to FIG.

ステップS3では、フィルタ部22が、バッファ部21から、ステップS2でフィルタ生成部23から供給されたフィルタ情報のフィルタによるフィルタリングに用いるデータを読み出し、そのデータに対して、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。   In step S3, the filter unit 22 reads data used for filtering by the filter of the filter information supplied from the filter generation unit 23 in step S2 from the buffer unit 21, and the filter generation unit 23 in step S2 for the data. Downsampling is performed by thinning out the number of samples in the time direction to 1/4 while applying the filter of the passband represented by the filter information supplied from.

即ち、フィルタ部22は、バッファ部21から読み出したデータを、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタでフィルタリングしながら、時間方向のサンプリング間隔、即ち、フレーム周期が、元の動画データの4倍である4t0の低フレームレートの動画データを得て、エンコード部24に出力し、ステップS4に進む。 In other words, the filter unit 22 filters the data read from the buffer unit 21 with a filter in the passband represented by the filter information supplied from the filter generation unit 23 in step S2, while sampling in the time direction, that is, the frame period. However, moving image data having a low frame rate of 4t 0 , which is four times the original moving image data, is output to the encoding unit 24, and the process proceeds to step S4.

ステップS4では、エンコード部24が、フィルタ部22からの動画データをエンコードし、その結果得られるエンコードを出力する。   In step S4, the encoding unit 24 encodes the moving image data from the filter unit 22, and outputs the resulting encoding.

なお、ステップS1乃至S4の処理は、バッファ部21に記憶された動画の各部分のデータすべてについて行われる。   Note that the processing in steps S1 to S4 is performed for all the data of each part of the moving image stored in the buffer unit 21.

また、ステップS3におけるダウンサンプリングは、バッファ部21に記憶された動画データの4フレームごとに、1フレームのフィルタリング結果を出力する処理である。従って、バッファ部21に記憶された動画データの4フレームごとに、その4つのフレームのうちの1フレームついて、フィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタによるフィルタリングを行えば良い。   Further, the downsampling in step S3 is a process of outputting a filtering result of one frame for every four frames of moving image data stored in the buffer unit 21. Accordingly, for every four frames of the moving image data stored in the buffer unit 21, one frame out of the four frames may be filtered by a passband filter represented by the filter information supplied from the filter generation unit 23. .

以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、ダウンサンプリングを行うようにしたので、人間の目の視覚効果を考慮した動画データの削減を行うことができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the moving image data is filtered by the filter having the pass band and further down-sampling is performed, the moving image data can be reduced in consideration of the visual effect of the human eye.

即ち、人間が視覚によって認識することができる周波数ドメイン上の領域が、図2に示したように、X,Y方向が2×2π/(2r0)で、T方向が2×2π/(2t0)の、原点を中心とする領域R201であるとすると、人間が認識することができる最高の画質の動画は、フレームレートが1/t0で、空間方向の画素ピッチがr0の動画である。 That is, as shown in FIG. 2, the regions on the frequency domain that humans can visually recognize are 2 × 2π / (2r 0 ) in the X and Y directions and 2 × 2π / (2t in the T direction. 0 ) of the region R 201 centered on the origin, the highest quality video that can be recognized by humans is the video with a frame rate of 1 / t 0 and a pixel pitch r 0 in the spatial direction. It is.

そして、図10乃至図23で説明した視覚効果を考慮しない場合には、例えば、動画を時間方向にダウンサンプリングすることにより、そのフレームレートを1/t0よりも低下させると、そのフレームレートが低下した動画を表示した場合に、その動画を見た人間は、画質の劣化を認識する。 If the visual effects described with reference to FIGS. 10 to 23 are not considered, for example, if the frame rate is reduced below 1 / t 0 by down-sampling the moving image in the time direction, the frame rate is reduced. When a reduced moving image is displayed, a person who views the moving image recognizes the deterioration of the image quality.

これに対して、送信装置1では、図10乃至図23で説明した視覚効果を考慮した処理、即ち、周波数ドメイン上で人間が認識することができる領域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングするので、動画のフレームレートを1/(4t0)に低下させても、即ち、動画データのデータ量を1/4に削減しても、人間が画質の劣化を感じない動画を表示することができる。 On the other hand, in the transmission apparatus 1, the processing in consideration of the visual effect described with reference to FIGS. 10 to 23, that is, an area that can be recognized by a human on the frequency domain, for example, an area R 1001 in FIG. In addition, since the moving image data is filtered by a filter having the region R 1101 in FIG. 21, the region R 1201 in FIG. 22 and the region R 1301 in FIG. 23 as a pass band, the frame rate of the moving image is reduced to 1 / (4t 0 ). Even if it is reduced, that is, even if the data amount of the moving image data is reduced to ¼, it is possible to display a moving image in which humans do not feel deterioration in image quality.

即ち、図27乃至図30は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、高フレームレートの動画(フレームレートが1/t0の動画)のデータをフィルタリングしながら、時間方向に1/4のダウンサンプリングを行って得られる低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータの周波数ドメイン上の分布を示している。 That is, FIG. 27 to FIG. 30 show a high frame rate by a filter in which the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. videos while filtering data (frame rate video 1 / t 0), low frame rate video obtained by performing 1/4 down-sampling in the time direction (frame rate 1 / (4t 0) Video) distribution on the frequency domain.

まず、動画の中の静止している部分のデータは、フィルタ部22において、図20の領域R1001を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1001内にのみ存在する。 First, the data of the stationary part in the moving image is filtered by the filter unit 22 with a filter having a region R 1001 in FIG. 20 as a pass band. Therefore, the moving image data after filtering exists only in the region R 1001 .

領域R1001内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1001 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.

このため、図27に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, as shown in FIG. 27, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1001は、図10で説明したことから、X,Y方向が2π/r0で、T方向が2π/(4t0)の領域であるため、折り返し成分どうしは重ならない。 However, since the region R 1001 is a region in which the X and Y directions are 2π / r 0 and the T direction is 2π / (4t 0 ) as described with reference to FIG. 10, the aliasing components do not overlap.

なお、図27において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 27, the shaded part is the part where the down-sampled video data exists.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータは、フィルタ部22において、図21の領域R1101を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1101内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2” is stored in the region R 1101 of FIG. Filtered by a filter as a pass band. Therefore, the moving image data after filtering exists only in the region R 1101 .

領域R1101内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1101 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.

このため、図28に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 28, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1101は、図11で説明したことから、原点(0,0)と点(π/r0,-π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1101 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.

なお、図28において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 28, the shaded part is the part where the down-sampled moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータは、フィルタ部22において、図22の領域R1201を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1201内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image is moving at a speed of about “r 0 / t 0 ” has a region R 1201 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1201 .

領域R1201内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1201 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 with respect to the spatial directions x and y, and 4 × with respect to the time direction t. t Data sampled at 0 intervals.

このため、図29に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 29, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1201は、図12で説明したことから、原点(0,0)と点(π/r0,-2π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1201 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, -2π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.

なお、図29において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 29, the shaded portion is the portion where the down-sampled moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータは、フィルタ部22において、図23の領域R1301を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1301内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ” has a region R 1301 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1301 .

領域R1301内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1301 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.

このため、図30に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 30, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.

但し、領域R1301は、図13で説明したことから、原点(0,0)と点(π/r0,-2π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1301 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −2π / t0), as described in FIG. area, and, X, Y direction, - at (π / r 0) to + (π / r 0), T direction, - the range of (π / t 0) to + (π / t 0) Since it is a region, the aliasing components do not overlap.

なお、図30において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。   In FIG. 30, the shaded part is the part where the down-sampled moving image data exists.

以上の図27乃至図30に示したように、周波数ドメインにおいて、ダウンサンプリング後の動画データの折り返し成分どうしは重ならないということは、そのダウンサンプリング後の動画データから、元のデータ、即ち、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータを抽出することができることを意味し、換言すれば、ダウンサンプリング後の動画データが、人間の視覚特性を考慮した必要な情報(人間が認識することができる情報)を、正確に保持していることを意味する。 As shown in FIGS. 27 to 30 above, the fact that the aliasing components of the downsampled video data do not overlap in the frequency domain means that the original data, that is, 20 area R 1001 , area R 1101 in FIG. 21, area R 1201 in FIG. 22, and area R 1301 in FIG. 23 can be extracted. This means that necessary information (information that can be recognized by humans) taking into consideration human visual characteristics is accurately held.

なお、ダウンサンプリング後の動画データを、ダウンサンプリング前の動画データに復号(復元)するためには、動画の各部分のデータに、どのようなフィルタを適用したかの情報が必要となる。   Note that in order to decode (restore) the moving image data after downsampling into moving image data before downsampling, information on what kind of filter is applied to the data of each part of the moving image is required.

そこで、図25の送信装置1では、フィルタ情報供給部32からエンコード部24に対して、動画の各部分のデータに適用したフィルタのフィルタ情報としての通過帯域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301の情報や、その領域R1001,R1101,R1201,R1301の主成分方向の情報を供給し、エンコード部24では、その情報を、エンコードデータに多重化して出力するようにすることができる。 Therefore, in the transmission device 1 in FIG. 25, the filter information supply unit 32 transmits to the encoding unit 24 the passband as the filter information of the filter applied to the data of each part of the moving image, for example, the region R in FIG. 1001 , information on the area R 1101 in FIG. 21, area R 1201 in FIG. 22, area R 1301 in FIG. 23, and information on the principal component directions of the areas R 1001 , R 1101 , R 1201 , and R 1301 , In the encoding unit 24, the information can be multiplexed with the encoded data and output.

次に、図31のフローチャートを参照して、図26のステップS2でフィルタ生成部23が行う「必要な情報の通過帯域を求める処理」について説明する。   Next, with reference to the flowchart of FIG. 31, the “process for obtaining the passband of necessary information” performed by the filter generation unit 23 in step S2 of FIG. 26 will be described.

まず最初に、ステップS11において、フィルタ生成部23(図25)の主成分方向取得部31は、図26のステップS1で入力された動画データの各部分について、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部32に供給して、ステップS12に進む。なお、主成分方向は、例えば、空間方向x,yと、時間方向tとの3次元の方向について、フーリエ変換(3次元フーリエ変換)を行うことにより求めることができる。   First, in step S11, the principal component direction acquisition unit 31 of the filter generation unit 23 (FIG. 25) performs the frequency axis X in the spatial directions x and y for each part of the moving image data input in step S1 of FIG. , Y, and the principal component direction in the frequency domain defined by the frequency axis T in the time direction t are acquired, supplied to the filter information supply unit 32, and the process proceeds to step S12. The principal component direction can be obtained, for example, by performing Fourier transform (three-dimensional Fourier transform) on the three-dimensional direction of the spatial direction x, y and the time direction t.

ステップS12では、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS13に進む。 In step S12, the filter information supply unit 32 is a region extending in the principal component direction from the principal component direction acquisition unit 31 from the origin (0,0) in the frequency domain, and 2π / (4 × t in the T direction. 0 ), the X and Y directions are-(π / r 0 ) to + (π / r 0 ), and the T direction is-(π / t 0 ) to + (π / t 0 ). a range of area, i.e., and a region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, determined as the pass band of the filter, the flow proceeds to step S13.

ステップS13では、フィルタ情報供給部32は、ステップS12で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部22に供給し、「必要な情報の通過帯域を求める処理」を終了する。   In step S13, the filter information supply unit 32 supplies the filter pass band (information representing) obtained in step S12 to the filter unit 22 as filter information, and performs a “process for obtaining the pass band of necessary information”. finish.

以上のような「必要な情報の通過帯域を求める処理」によれば、例えば、動画像において静止している被写体が投影されている部分に対しては、図20の領域R1001をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「(r0/t0)/2」程度で動いている部分に対しては、図21の領域R1101をフィルタ情報として求めることができる。さらに、動画において投影されている被写体が速度「r0/t0」程度で動いている部分に対しては、図22の領域R1201をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「2r0/t0」程度で動いている部分に対しては、図23の領域R1301をフィルタ情報として求めることができる。動画においてその他の速度で被写体が移動している部分に対しても、人間が認識することができる周波数ドメイン上の範囲の領域をフィルタ情報として求めることができる。 According to the “process for obtaining the pass band of necessary information” as described above, for example, the region R 1001 in FIG. 20 is used as filter information for a portion where a stationary subject is projected in a moving image. Can be sought. Further, for a portion where the subject projected in the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R 1101 in FIG. 21 can be obtained as filter information. Furthermore, the region R 1201 in FIG. 22 can be obtained as filter information for a portion where the subject projected in the moving image moves at a speed of about “r 0 / t 0 ”. Further, for a portion where the subject projected in the moving image moves at a speed of about “2r 0 / t 0 ”, the region R 1301 in FIG. 23 can be obtained as filter information. Even in a portion of the moving image where the subject is moving at other speeds, a region in the frequency domain that can be recognized by humans can be obtained as filter information.

なお、本実施の形態では、フィルタ生成部23(図25)のフィルタ情報供給部32において、主成分方向取得部31から供給される主成分方向に延びる周波数ドメイン上の領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給するようにしたが、フィルタ情報供給部32では、複数の主成分方向それぞれに対する上述のような通過帯域としてのフィルタ情報をあらかじめ求めて記憶しておき、その記憶しているフィルタ情報の中から、主成分方向取得部31から供給される主成分方向に対応するものを選択して、フィルタ部22に供給するようにしても良い。   In the present embodiment, in the filter information supply unit 32 of the filter generation unit 23 (FIG. 25), the region on the frequency domain extending in the main component direction supplied from the main component direction acquisition unit 31 is defined as the passband of the filter. Although the pass band is supplied to the filter unit 22 as filter information, the filter information supply unit 32 obtains filter information as the pass band as described above for each of a plurality of principal component directions in advance. It may be stored and the filter information corresponding to the principal component direction supplied from the principal component direction acquisition unit 31 may be selected from the stored filter information and supplied to the filter unit 22.

また、フィルタ生成部23は、送信装置1とは別の、フィルタ情報を出力する独立の装置として構成することができる。   Further, the filter generation unit 23 can be configured as an independent device that outputs filter information different from the transmission device 1.

ところで、図31のステップS11では、3次元フーリエ変換によって、動画データの各部分の主成分方向を求めるようにしたが、3次元フーリエ変換の計算量は膨大であるため、ステップS11における、主成分方向を取得する処理に要する計算量も膨大となる。   By the way, in step S11 of FIG. 31, the principal component direction of each part of the moving image data is obtained by the three-dimensional Fourier transform. However, since the calculation amount of the three-dimensional Fourier transform is enormous, the principal component in step S11 The amount of calculation required for the process of acquiring the direction is enormous.

そこで、図32のフローチャートを参照して、図31のステップS11において、3次元フーリエ変換を行う場合よりも少ない計算量で主成分方向を取得する方法について説明する。   A method for acquiring the principal component direction with a smaller amount of calculation than in the case of performing the three-dimensional Fourier transform in step S11 of FIG. 31 will be described with reference to the flowchart of FIG.

まず最初に、ステップS21において、フィルタ生成部23(図25)の主成分方向取得部31は、バッファ部21に記憶された動画データの各フレームのデータを、例えば、横×縦が16×16画素などのブロックに分割し、ステップS22に進む。なお、ここでは、各ブロックの画像データが、上述の動画データの各部分のデータとなる。   First, in step S21, the principal component direction acquisition unit 31 of the filter generation unit 23 (FIG. 25) stores the data of each frame of the moving image data stored in the buffer unit 21, for example, horizontal × vertical is 16 × 16. Dividing into blocks such as pixels, the process proceeds to step S22. Here, the image data of each block is the data of each part of the above-described moving image data.

ここで、ブロックは、複数の画素で構成されている必要はなく、1画素であっても良い。   Here, the block does not need to be composed of a plurality of pixels, and may be one pixel.

ステップS22では、主成分方向取得部31は、ステップS21で得られた各ブロックを、順次、注目ブロックとし、注目ブロックについて、その注目ブロックのフレーム(以下、適宜、注目フレームという)の次のフレームとの相関を表す相関情報を求める。さらに、ステップS22では、主成分方向取得部31は、注目ブロックの相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置を求める。即ち、ステップS22では、主成分方向取得部31は、いわゆるブロックマッチング等により、注目ブロックの空間方向x,yの2次元の動きベクトルを検出する。   In step S22, the principal component direction acquisition unit 31 sequentially sets each block obtained in step S21 as a target block, and for the target block, a frame subsequent to the frame of the target block (hereinafter, referred to as a target frame as appropriate). Correlation information representing the correlation with is obtained. Further, in step S22, the principal component direction acquisition unit 31 obtains the position in the spatial direction on the frame next to the frame of interest where the correlation represented by the correlation information of the block of interest is the highest. That is, in step S22, the principal component direction acquisition unit 31 detects a two-dimensional motion vector in the spatial direction x, y of the block of interest by so-called block matching or the like.

ここで、相関情報としては、いわゆる相関係数を採用することができるが、ここでは、計算コストを考慮して、例えば、注目ブロックを、動きベクトルとの探索範囲内で空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある、注目フレームの次のフレームの画素との画素値の自乗誤差や差分絶対値の総和などを採用する。この場合、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置となる。   Here, as the correlation information, a so-called correlation coefficient can be adopted. Here, considering the calculation cost, for example, the target block is placed in the spatial direction x, y within the search range with the motion vector. , The square error of the pixel value of each pixel of the target block at the position shifted by u, v and the pixel of the next frame of the target frame at the same position as the pixel, the sum of absolute differences, etc. adopt. In this case, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the next frame of the frame of interest where the correlation represented by the correlation information is the highest.

なお、相関情報が表す相関が最大(相関情報の値が最小)になる空間方向の位置u,vを、それぞれ、u0,v0と表し、ステップS22で検出される空間方向x,yの動きベクトルを、(u0,v0)と表す。
す。
Note that the spatial direction positions u and v at which the correlation represented by the correlation information is maximum (correlation information value is minimum) are represented by u 0 and v 0 , respectively, in the spatial directions x and y detected in step S22. The motion vector is represented as (u 0 , v 0 ).
The

その後、ステップS22からS23に進み、主成分方向取得部31は、ステップS22で検出された動きベクトル(u0,v0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(u0,v0,t0)の方向と直交する方向を、主成分方向として検出し、フィルタ情報供給部32に供給して、処理を終了する。 Thereafter, the process proceeds from step S22 to S23, and the principal component direction acquisition unit 31 adds the frame period t 0 of the original moving image data to the motion vector (u 0 , v 0 ) detected in step S22 and the component in the time direction t. The direction orthogonal to the direction of the three-dimensional motion vector (u 0 , v 0 , t 0 ) added as is detected as the principal component direction, supplied to the filter information supply unit 32, and the process is terminated.

以上の処理によれば、ブロックの主成分方向が、その動きベクトル(u0,v0,t0)に垂直な平面(の拡がり方向)であるとして検出される。 According to the above processing, the principal component direction of the block is detected as a plane (expansion direction) perpendicular to the motion vector (u 0 , v 0 , t 0 ).

即ち、注目ブロックについて、動きベクトル(u0,v0,t0)が検出された場合、理想的には、空間方向x,yおよび時間方向tで定義される3次元空間において、動きベクトル(u0,v0,t0)の方向に、注目ブロックの画素値が続いているということ、つまり、注目ブロックのある点(x,y,t)における動画データの値は、mを整数として表される、x,y,tの3次元空間上の点(x+mu0,y+mv0,t+mt0)における動画データの値と同一であることになる。 That is, when a motion vector (u 0 , v 0 , t 0 ) is detected for the block of interest, ideally, in a three-dimensional space defined by the spatial direction x, y and the temporal direction t, the motion vector ( u 0 , v 0 , t 0 ) in the direction of the pixel value of the target block, that is, the value of the video data at the point (x, y, t) where the target block is This is the same as the value of the moving image data at the point (x + mu 0 , y + mv 0 , t + mt 0 ) on the three-dimensional space represented by x, y, t.

従って、時空間の注目ブロックのデータの周波数成分、即ち、時空間の注目ブロックのデータを周波数ドメイン上のデータに変換して得られるデータは、動きベクトル(u0,v0,t0)に垂直な平面上にのみ存在することになる。 Therefore, the frequency component of the data of the spatio-temporal block of interest, that is, the data obtained by converting the spatio-temporal block of interest data into the data on the frequency domain is the motion vector (u 0 , v 0 , t 0 ). It exists only on a vertical plane.

図32のフローチャートにしたがった方法では、このことを利用して、動きベクトル(u0,v0,t0)に垂直な平面を、主成分方向として検出している。従って、この場合、主成分方向を取得するためには、動きベクトルを検出すれば良く、3次元フーリエ変換を行う必要がないので、少ない計算量で、主成分方向を検出することができる。 In the method according to the flowchart of FIG. 32, this is used to detect a plane perpendicular to the motion vector (u 0 , v 0 , t 0 ) as the principal component direction. Therefore, in this case, in order to acquire the principal component direction, it is only necessary to detect a motion vector, and it is not necessary to perform a three-dimensional Fourier transform. Therefore, the principal component direction can be detected with a small amount of calculation.

なお、相関情報としては、例えば、相関係数を採用することができる。この場合、相関情報の値(相関係数)が最大の場合が、その相関情報が表す相関が最大の場合となる。   As the correlation information, for example, a correlation coefficient can be adopted. In this case, the correlation information value (correlation coefficient) is the maximum when the correlation represented by the correlation information is the maximum.

また、送信装置1(図25)のエンコード部24では、フィルタ部22からの動画データを、特にエンコードせずに、そのまま出力することもできる。   Further, the encoding unit 24 of the transmission device 1 (FIG. 25) can output the moving image data from the filter unit 22 as it is without encoding.

次に、図33は、図24の受信装置2の構成例を示している。   Next, FIG. 33 illustrates a configuration example of the receiving device 2 of FIG.

図25の送信装置1が出力するエンコードデータは、フレームレートが1/(4t0)の低フレームレートの動画データをエンコードしたものであり、この低フレームレートの動画データを、そのまま、その低フレームレートと同一のフレームレートを有する表示装置に供給して表示させたのでは、本来表示されるべき周波数成分の他、図28乃至図30に示した折り返し成分のうちの一部も表示され、その結果、表示装置で表示される動画の画質が劣化する。 The encoded data output from the transmission apparatus 1 in FIG. 25 is encoded low-frame-rate video data with a frame rate of 1 / (4t 0 ). When the image is supplied and displayed on a display device having the same frame rate as the rate, in addition to the frequency component that should be displayed, a part of the aliasing component shown in FIGS. 28 to 30 is also displayed. As a result, the image quality of the moving image displayed on the display device deteriorates.

そこで、受信装置2では、フレームレートが1/(4t0)の低フレームレートの動画データを、元のフレームレート1/t0にアップサンプリングし、その結果得られる、フレームレートが1/t0の高フレームレートの動画データを、表示装置3(図24)に供給することで、表示装置3に、高画質の(画質の劣化が認識されない)動画データを表示させるようになっている。なお、ここでは、表示装置3は、1/t0のフレームレートで動画を表示するようになっているものとする。 Therefore, the receiving apparatus 2 upsamples the low frame rate moving image data with the frame rate of 1 / (4t 0 ) to the original frame rate 1 / t 0 , and the resulting frame rate is 1 / t 0. The high-frame-rate moving image data is supplied to the display device 3 (FIG. 24), so that the display device 3 displays the high-quality moving image data (the deterioration of the image quality is not recognized). Here, it is assumed that the display device 3 is configured to display a moving image at a frame rate of 1 / t 0 .

受信装置2では、上述のように、表示装置3において高画質の動画を表示するために、送信装置1から供給される、フレームレートが1/(4t0)の低フレームレートの動画データに対して、所定の通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行う。 In the receiving device 2, as described above, in order to display a high-quality moving image on the display device 3, low-frame-rate moving image data with a frame rate of 1 / (4t 0 ) supplied from the transmitting device 1 is used. Thus, upsampling in the time direction is performed while applying a filter that allows a frequency component in a predetermined passband to pass.

即ち、デコード部50には、送信装置1(図24)から記録媒体11または伝送媒体12を介して、エンコードデータが供給される。デコード部50は、エンコードデータをデコードし、その結果得られる低フレームレートの動画データを、バッファ部51に供給する。   That is, the decoding unit 50 is supplied with encoded data from the transmission device 1 (FIG. 24) via the recording medium 11 or the transmission medium 12. The decoding unit 50 decodes the encoded data, and supplies the low frame rate moving image data obtained as a result to the buffer unit 51.

バッファ部51は、デコード部50から供給される低フレームレートの動画データを順次記憶する。   The buffer unit 51 sequentially stores the low frame rate moving image data supplied from the decoding unit 50.

フィルタ部52は、バッファ部51に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部53から供給されるフィルタ情報にしたがってフィルタリングしながらアップサンプリングし、そのフィルタリングおよびアップサンプリングにより得られる高フレームレートの動画データを出力する。フィルタ部52が出力する高フレームレートの動画データは、表示装置3(図24)に供給されて表示される。   The filter unit 52 appropriately reads out the moving image data stored in the buffer unit 51, up-samples the moving image data while filtering according to the filter information supplied from the filter generation unit 53 described later, and performs the filtering and up-sampling. The resulting high frame rate video data is output. The high frame rate moving image data output from the filter unit 52 is supplied to the display device 3 (FIG. 24) and displayed.

フィルタ生成部53は、バッファ部51に記憶された動画データを適宜読み出し、その動画データの各部分を用いてフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部52に供給する。   The filter generation unit 53 appropriately reads out the moving image data stored in the buffer unit 51, generates filter information that is filter information to be filtered using each portion of the moving image data, and supplies the filter information to the filter unit 52.

即ち、フィルタ生成部53は、主成分方向取得部61とフィルタ情報供給部62とから構成される。   That is, the filter generation unit 53 includes a main component direction acquisition unit 61 and a filter information supply unit 62.

主成分方向取得部61は、バッファ部51から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部62に供給する。   The principal component direction acquisition unit 61 acquires, for each part of the moving image data read from the buffer unit 51, a principal component direction that is the direction of the principal component on the frequency domain, and filters the information on the principal component direction. The information is supplied to the information supply unit 62.

フィルタ情報供給部62は、主成分方向取得部61からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部52に出力する。 The filter information supply unit 62 is an area extending in the principal component direction in the frequency domain according to the information of the principal component direction from the principal component direction acquisition unit 61, and has a specific width in the direction of the frequency axis T in the time direction. For example, a region having 2π / (4t 0 ), that is, a region R 1001 in FIG. 20, a region R 1101 in FIG. 21, a region R 1201 in FIG. 22, and a region R 1301 in FIG. The pass band is determined, and the pass band is output to the filter unit 52 as filter information.

次に、図34のフローチャートを参照して、図33の受信装置2の処理について説明する。   Next, processing of the receiving device 2 in FIG. 33 will be described with reference to the flowchart in FIG.

デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。 The decoding unit 50 is supplied with encoded data. The decoding unit 50 decodes the encoded data into moving image data with a frame rate of 1 / (4t 0 ) and a low frame rate, and supplies it to the buffer unit 51. The buffer unit 51 sequentially stores moving image data having a low frame rate of 1 / (4t 0 ) supplied from the decoding unit 50.

そして、ステップS31において、フィルタ生成部53は、バッファ部51に記憶された動画データのうちのある部分のデータ、即ち、例えば、図32のステップS21で説明したような16×16画素のブロックのデータを読み出して、自身(フィルタ生成部53)に入力し、ステップS32乃至S34に順次進む。   In step S31, the filter generation unit 53 generates a certain part of the moving image data stored in the buffer unit 51, that is, for example, a block of 16 × 16 pixels as described in step S21 of FIG. Data is read out and input to itself (filter generation unit 53), and the process proceeds to steps S32 to S34 in sequence.

ステップS32乃至S34では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、ステップS31で入力されたデータについて、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部52に供給する処理、即ち、上述した図31の「必要な情報の通過帯域を求める処理」と同様の処理を行う。   In steps S32 to S34, the filter generation unit 53 (the principal component direction acquisition unit 61 and the filter information supply unit 62) can recognize a region that can be recognized by humans on the frequency domain for the data input in step S31. A process for obtaining the pass band of the filter and supplying the pass band as filter information to the filter unit 52, that is, a process similar to the above-described "process for obtaining the pass band of necessary information" in FIG. 31 is performed.

即ち、ステップS32では、フィルタ生成部53の主成分方向取得部61は、ステップS31で入力された動画データについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS33に進む。   That is, in step S32, the principal component direction acquisition unit 61 of the filter generation unit 53 uses the frequency axes X and Y in the spatial directions x and y and the frequency axis T in the time direction t for the moving image data input in step S31. The principal component direction in the defined frequency domain is acquired and supplied to the filter information supply unit 62, and the process proceeds to step S33.

なお、ステップS32において主成分方向は、図31で説明したように、3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向(の情報)の供給を受けることにより、主成分方向を取得することもできる。   In step S32, the principal component direction can be obtained by performing a three-dimensional Fourier transform as described in FIG. 31, or can be obtained by detecting a motion vector as described in FIG. it can. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the transmission device 1, the decoding unit 50 separates the principal component direction from the encoded data, In the direction acquisition unit 61, the principal component direction can be acquired by receiving the supply of the principal component direction (information thereof) from the decoding unit 50.

さらに、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)に、エンコードデータに含まれる動画データのフレーム同期4t0を、時間方向tのコンポーネントとして加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,4t0)とし、図32で説明したように、その3次元の動きベクトル(u0,v0,4t0)に直交する平面を主成分方向とすることもできる。 Furthermore, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0) is the motion vector (u 0, v 0), the frame synchronization 4t of the moving image data included in the encoded data 0 is added as a component in the time direction t to obtain a three-dimensional motion vector (u 0 , v 0 , 4t 0 ) in the spatial direction x, y and the time direction t, and as shown in FIG. The plane orthogonal to the motion vector (u 0 , v 0 , 4t 0 ) can be the principal component direction.

即ち、図25の送信装置1のエンコード部24において、動画データが、少なくとも動き補償を利用する、例えば、MPEGなどのエンコード方法によってエンコードされる場合には、エンコードデータには、動き補償に用いられる動きベクトルが含まれる。そこで、デコード部50においてエンコードデータから動きベクトル(の情報)を抽出し、バッファ部51を介して、主成分方向取得部61に、エンコードデータに含まれる動きベクトルを供給するようにし、主成分方向取得部61では、その動きベクトルに直交する平面を、主成分方向として求める(検出する)ようにすることができる。   That is, in the encoding unit 24 of the transmission apparatus 1 of FIG. 25, when moving image data is encoded by an encoding method such as MPEG that uses at least motion compensation, the encoded data is used for motion compensation. Contains motion vectors. Therefore, the decoding unit 50 extracts the motion vector (information thereof) from the encoded data, and supplies the motion vector included in the encoded data to the principal component direction acquisition unit 61 via the buffer unit 51, thereby the principal component direction. The acquisition unit 61 can obtain (detect) a plane orthogonal to the motion vector as the principal component direction.

なお、MPEGでは、Iピクチャのブロック(マクロブロック)には、動きベクトルが存在しないが、Iピクチャの動きベクトルは、例えば、PまたはBピクチャのブロックの動きベクトルから推定するようにすればよい。   In MPEG, a motion vector does not exist in an I picture block (macroblock), but an I picture motion vector may be estimated from a motion vector of a P or B picture block, for example.

ステップS33では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS34に進む。 In step S33, the filter information supply unit 62 is a region extending in the principal component direction from the principal component direction acquisition unit 61 from the origin (0, 0) in the frequency domain, and is 2π / (4 × t in the T direction. 0 ), the X and Y directions are-(π / r 0 ) to + (π / r 0 ), and the T direction is-(π / t 0 ) to + (π / t 0 ). a range of area, i.e., and a region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, determined as the pass band of the filter, the flow proceeds to step S34.

ステップS34では、フィルタ情報供給部62は、ステップS33で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部52に供給し、ステップS35に進む。   In step S34, the filter information supply unit 62 supplies the filter passband (information representing) obtained in step S33 to the filter unit 52 as filter information, and the process proceeds to step S35.

ステップS35では、フィルタ部52が、バッファ部51から動画データを読み出し、その動画データに対して、ステップS34でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4倍にするアップサンプリングを行う。   In step S35, the filter unit 52 reads the moving image data from the buffer unit 51, and applies the filter of the passband represented by the filter information supplied from the filter generation unit 53 in step S34 to the moving image data. Upsampling is performed to quadruple the number of samples in the direction.

即ち、例えば、いま、ステップS31で入力された動画データが、低フレームレートの動画データのあるフレームのブロック(のデータ)であるとして、そのブロックを注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。   That is, for example, assuming that the moving image data input in step S31 is a block (data) of a certain frame of moving image data at a low frame rate, that block is the attention block, and the frame of the attention block is noted. Frame.

フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。 The filter unit 52 converts the moving image data read from the buffer unit 51 into a passband filter represented by the filter information supplied from the filter generation unit 53, for example, the region R 1001 in FIG. 20 or the region R 1101 in FIG. The data (pixel value) of each pixel of the block of interest is obtained by filtering with a filter that uses the region R 1201 in FIG. 22 and the region R 1301 in FIG. 23 as a pass band.

また、フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間t0に等分する3つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部52に供給することができる。 Further, the filter unit 52 filters the moving image data read from the buffer unit 51 in the passband represented by the filter information supplied from the filter generation unit 53, that is, for example, the region R1001 in FIG. 20 or the region in FIG. By filtering with R 1101 , a region R 1201 in FIG. 22 and a filter having a region R 1301 in FIG. 23 as a pass band, the time 4 t 0 from the frame of interest to the next frame is divided into three equal to the time t 0 . Data of pixels on the straight line extending in the direction of the three-dimensional motion vector of the block of interest through each pixel of the block of interest is obtained at each time. Note that the three-dimensional motion vector of the block of interest can be obtained by, for example, the principal component direction acquisition unit 61 and supplied to the filter unit 52 together with the filter information via the filter information supply unit 62.

フィルタ部52は、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/t0の高フレームレートの動画データを得て、ステップS35からS36に進む。 The filter unit 52 performs the above filtering and upsampling to obtain high frame rate moving image data with a frame rate of 1 / t 0 , and proceeds from step S35 to step S36.

ステップS36では、フィルタ部52は、ステップS35で得た高フレームレートの動画データを、表示装置3(図24)に出力して、処理を終了する。   In step S36, the filter unit 52 outputs the high frame rate moving image data obtained in step S35 to the display device 3 (FIG. 24), and ends the process.

なお、ステップS31乃至S34の処理は、バッファ部51に記憶された動画データの各部分すべてについて行われる。   Note that the processing in steps S31 to S34 is performed for all portions of the moving image data stored in the buffer unit 51.

以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、アップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、高画質の動画データ、つまり、元の高フレームレートの動画データと同様の画質の動画データを得て(元の高フレームレートの動画データと同様の画質を認識することができる動画データを復元して)表示することができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the video data is filtered by a filter that uses a passband, and further upsampling is performed, the amount of data is reduced in consideration of the visual effects of the human eye. , Obtain high-quality video data, that is, video data with the same image quality as the original high-frame-rate video data (restore video data that can recognize the same image quality as the original high-frame-rate video data Can be displayed).

即ち、図35乃至図38は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、図27乃至図30の低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータをフィルタリングしながら、時間方向に4倍のアップサンプリングを行って得られる高フレームレートの動画(フレームレートが1/t0の動画)のデータの周波数ドメイン上の分布を示している。 That is, FIGS. 35 to 38, respectively, the regions R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, the filter having a pass band to 27 A high frame rate video (frame rate is obtained by performing upsampling four times in the time direction while filtering the data of the low frame rate video (video with a frame rate of 1 / (4t 0 )) in FIG. 1 / t 0 (moving data) on the frequency domain.

まず、動画の中の静止している部分のデータに対しては、フィルタ部52において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 First, the data of the still portion in the moving image is up-sampled in the filter unit 52 while performing filtering by a filter having the region R 1001 in FIG. 20 as a pass band. Accordingly, the moving image data obtained by the filtering and upsampling has frequency components in the region R 1001 in FIG. 20, and is further sampled at intervals of r 0 with respect to the spatial directions x and y and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図35に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図27に示した場合の4倍になる。 Therefore, as shown in FIG. 35, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図35において、影を付してある部分が、動画データが存在する部分である。   In FIG. 35, the shaded portion is a portion where moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータに対しては、フィルタ部52において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図21の領域R1101内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Next, with respect to data of a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the filter unit 52 uses the area shown in FIG. Upsampling is performed while filtering with a filter having R 1101 as a pass band. Accordingly, the moving image data obtained by the filtering and upsampling has frequency components in the region R 1101 in FIG. 21, and is sampled at intervals of r 0 with respect to the spatial direction x, y, and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図36に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図28に示した場合の4倍になる。 Therefore, as shown in FIG. 36, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図36において、影を付してある部分が、動画データが存在する部分である。   In FIG. 36, the shaded portion is a portion where moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図22の領域R1201内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, the filter unit 52 passes the region R 1201 in FIG. Upsampling is performed while filtering with a band filter. Therefore, the moving image data obtained by the filtering and up-sampling has frequency components in the region R 1201 in FIG. 22, and is further sampled at intervals of r 0 with respect to the spatial directions x and y, and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図37に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図29に示した場合の4倍になる。 Therefore, as shown in FIG. 37, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図37において、影を付してある部分が、動画データが存在する部分である。   In FIG. 37, the shaded portion is a portion where moving image data exists.

次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図23の領域R1301内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。 Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the filter unit 52 passes the region R 1301 in FIG. Upsampling is performed while filtering with a band filter. Accordingly, the moving image data obtained by the filtering and upsampling has frequency components in the region R 1301 in FIG. 23, and is further sampled at intervals of r 0 with respect to the spatial directions x and y, and in the time direction t. On the other hand, the data is sampled at t 0 intervals.

このため、図38に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図30に示した場合の4倍になる。 Therefore, as shown in FIG. 38, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.

なお、図38において、影を付してある部分が、動画データが存在する部分である。   In FIG. 38, the shaded portion is a portion where moving image data exists.

図2で説明したように、人間が認識することができるのは、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域R201であり、図35乃至図38において、この領域R201内には、折り返し成分は存在しない。 As described in FIG. 2, humans can recognize that the X and Y directions are − (π / r 0 ) to + (π / r 0 ) and the T direction is − (π / t 0 ) to + (π / t 0 ) range R 201 , and in FIG. 35 to FIG. 38, there is no aliasing component in this region R 201 .

従って、フィルタ部52におけるフィルタリングおよびアップサンプリングにより得られる、1/t0の高フレームレートの動画データが、表示装置3に表示された場合に、その表示された動画に対して、人間は、元の動画(送信装置1に供給された動画)と同様の画質を認識することができる。 Therefore, when moving image data with a high frame rate of 1 / t 0 obtained by filtering and upsampling in the filter unit 52 is displayed on the display device 3, The same image quality as that of the moving image (the moving image supplied to the transmission device 1) can be recognized.

なお、上述したように、図25の送信装置1のエンコード部24では、エンコードデータに、フィルタ部22で用いられたフィルタのフィルタ情報を多重化することができるが、エンコードデータにフィルタ情報が多重化されている場合には、受信装置2(図33)は、フィルタ生成部53なしで構成することができる。この場合、受信装置2は、デコード部50において、エンコードデータからフィルタ情報を分離し、フィルタ部52に供給するように構成すればよい。   As described above, the encoding unit 24 of the transmission device 1 in FIG. 25 can multiplex the filter information of the filter used in the filter unit 22 into the encoded data, but the filter information is multiplexed into the encoded data. If it is configured, the receiving device 2 (FIG. 33) can be configured without the filter generation unit 53. In this case, the receiving device 2 may be configured such that the decoding unit 50 separates the filter information from the encoded data and supplies it to the filter unit 52.

また、上述の場合には、図24の送信装置1において1/t0の高フレームレートの動画データを処理して得られる1/(4t0)の低フレームレートの動画データを、受信装置2に入力し、受信装置2において、その低フレームレートの動画データを、1/t0の高フレームレートの動画データに変換することにより、表示装置3において、高画質(送信装置1に入力される動画と同様の画質)の動画を表示するようにしたが、受信装置2には、元々、1/(4t0)の低フレームレートの動画データを入力しても、表示装置3において、ある程度高画質の動画を表示することが可能である。 In the above case, 1 / (4t 0 ) low frame rate moving image data obtained by processing the high frame rate moving image data of 1 / t 0 in the transmitting device 1 of FIG. And the receiving device 2 converts the low-frame-rate moving image data into high-frame-rate moving image data of 1 / t 0 , so that the display device 3 has high image quality (input to the transmitting device 1). Although a moving image having the same image quality as the moving image is displayed, even if moving image data with a low frame rate of 1 / (4t 0 ) is originally input to the receiving device 2, the display device 3 has a certain amount of high quality. It is possible to display a moving image of image quality.

即ち、動画において、(ほぼ)静止している被写体が投影されている部分では、時間方向の周波数成分はほとんど存在しないから、上述の図10に示した領域R301から領域R1001を除いた領域における周波数成分はほとんど存在しない。 That is, in the moving image, in a portion where a (substantially) stationary subject is projected, there is almost no frequency component in the time direction, and thus the region obtained by removing the region R 1001 from the region R 301 shown in FIG. There are almost no frequency components in.

また、動画において、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分では、その動きの方向(空間方向x,yおよび時間方向tの3次元の動きの方向)に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図11に示した領域R401から領域R1101を除いた領域における周波数成分はほとんど存在しない。 In the moving image, in the part where the subject projected there is moving at a speed of “(r 0 / t 0 ) / 2”, the direction of the movement (spatial direction x, y and time direction t three-dimensional Since there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement of (1), there is almost no frequency component in the region excluding the region R 1101 from the region R 401 shown in FIG.

さらに、動画において、そこに投影されている被写体が速度「r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図12に示した領域R801から領域R1201を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement in the portion where the object projected there is moving at a speed of about “r 0 / t 0 ”. There are almost no frequency components in the region excluding the region R 1201 from the region R 801 shown in FIG.

また、動画において、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図13に示した領域R901から領域R1301を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, in the portion where the subject projected there is moving at a speed of about “2r 0 / t 0 ”, there is almost no frequency component in the direction perpendicular to the direction of the movement. There are almost no frequency components in the region excluding the region R 1301 from the region R 901 shown in FIG.

但し、実際には、動画においては、被写体の投影像は、時間の経過に伴って複雑に変化するため、動画において静止している部分であっても、図10に示した領域R301から領域R1001を除いた領域に、多少のデータ(周波数成分)が存在する。 However, in actuality, in the moving image, the projected image of the subject changes in a complicated manner with time, so even a portion that is stationary in the moving image is a region from the region R 301 shown in FIG. There is some data (frequency components) in the area excluding R1001 .

同様に、動画において速度「(r0/t0)/2」程度で動いている部分には、図11に示した領域R401から領域R1101を除いた領域に、多少のデータが存在し、また、動画において速度「r0/t0」程度で動いている部分には、図12に示した領域R801から領域R1201を除いた領域に、多少のデータが存在する。さらに、動画において速度「2r0/t0」程度で動いている部分には、図13に示した領域R901から領域R1301を除いた領域に、多少のデータが存在する。 Similarly, in the moving part of the moving image at a speed of “(r 0 / t 0 ) / 2”, there is some data in the area excluding the area R 1101 from the area R 401 shown in FIG. Further, in the moving part of the moving image at the speed “r 0 / t 0 ”, there is some data in the area excluding the area R 1201 from the area R 801 shown in FIG. Furthermore, in the moving part of the moving image at a speed of about “2r 0 / t 0 ”, there is some data in the area excluding the area R 1301 from the area R 901 shown in FIG.

このような領域R1001,R1101,R1201,R1301外に存在するデータを削除するために、送信装置1(図25)のフィルタ部22では、領域R1001,R1101,R1201,R1301を通過帯域とするフィルタによるフィルタリングを行っている。 In order to delete data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 , the filter unit 22 of the transmission device 1 (FIG. 25) uses the regions R 1001 , R 1101 , R 1201 , R Filtering is performed by a filter having a pass band of 1301 .

従って、受信装置2に入力される低フレームレートの動画データが、送信装置1の処理の結果得られたものでない場合には、領域R1001,R1101,R1201,R1301外に、多少のデータが存在することがあり得る。そして、領域R1001,R1101,R1201,R1301外に、データが存在する場合、受信装置2(図33)のフィルタ部52におけるフィルタリングおよびアップサンプリングによって得られる動画データについては、図2に示した人間が認識することができる領域R201内に折り返し成分が混入し、その折り返し成分によって、動画の画質は劣化する。 Therefore, when the low frame rate moving image data input to the receiving device 2 is not obtained as a result of the processing of the transmitting device 1, some data outside the regions R 1001 , R 1101 , R 1201 , R 1301 There can be data. Then, when data exists outside the regions R 1001 , R 1101 , R 1201 , and R 1301 , moving image data obtained by filtering and upsampling in the filter unit 52 of the receiving device 2 (FIG. 33) is shown in FIG. The aliasing component is mixed in the region R 201 that can be recognized by the human being, and the image quality of the moving image deteriorates due to the aliasing component.

しかしながら、領域R1001,R1101,R1201,R1301外に存在するデータは僅かであり、そのような僅かなデータによる折り返し成分に起因して生じる画質の劣化も僅かである。従って、受信装置2に対して、元々、1/(4t0)の低フレームレートの動画データを入力する場合には、送信装置1において得られる低フレームレートの動画データを入力する場合に比較して、多少の画質の劣化はあるが、それでも、元々、1/(4t0)の低フレームレートの動画データを、そのまま表示する場合に比較して、画質が改善された動画を表示することができる。 However, the data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 is very small, and image quality degradation caused by the aliasing component due to such a small amount of data is also small. Therefore, originally when moving image data with a low frame rate of 1 / (4t 0 ) is originally input to the receiving device 2, it is compared with when inputting moving image data with a low frame rate obtained by the transmitting device 1. Although there is some degradation in image quality, it is still possible to display movies with improved image quality compared to the case of displaying 1 / (4t 0 ) low frame rate movie data as it is. it can.

なお、受信装置2に入力される1/(4t0)の低フレームレートの動画データが、いわゆる電子シャッタを採用する撮像装置で撮像されたものである場合には、受信装置2(図33)のフィルタ情報供給部62において、その低フレームレートの動画データの撮像時の露光時間に対応してT方向の幅が制限された領域を、フィルタの通過帯域として決定することができる。 Note that when the 1 / (4t 0 ) low-frame-rate moving image data input to the receiving device 2 is captured by an imaging device that employs a so-called electronic shutter, the receiving device 2 (FIG. 33). In the filter information supply unit 62, a region in which the width in the T direction is limited corresponding to the exposure time at the time of capturing the moving image data at the low frame rate can be determined as the pass band of the filter.

即ち、1/(4t0)の低フレームレートの動画データの各フレームの撮像時の露光時間が、t0より大で、4t0より小であるt0'である場合には、各フレームに投影されている被写体の画像は、被写体からの光を、時間t0'だけ積分した値(受光量)に等しい。従って、被写体が動いている場合には、各フレームの画像には、時間t0'に対応するボケ(モーションブラー)が生じる。なお、t0が、例えば、1/240秒程度である場合には、t0'は、例えば、1/120秒程度である。 That is, 1 / the (4t 0) exposure time for the imaging of each frame of the moving image data of a low frame rate, with greater than t 0, when it is t 0 'is smaller than 4t 0 is on each frame The projected image of the subject is equal to a value (light reception amount) obtained by integrating light from the subject for a time t 0 ′. Therefore, when the subject is moving, blur (motion blur) corresponding to time t 0 ′ is generated in the image of each frame. When t 0 is about 1/240 seconds, for example, t 0 ′ is about 1/120 seconds, for example.

時間t0'だけの積分は、図39に示すような、周波数ドメインのT方向に、2π/t0'の幅を有する領域R3901を通過帯域とするローパスフィルタによるフィルタリングを行うことと等価であり、従って、電子シャッタにより、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであると言うことができる。 The integration of only time t 0 ′ is equivalent to performing filtering by a low-pass filter having a region R 3901 having a width of 2π / t 0 ′ in the frequency domain T direction as shown in FIG. Therefore, it can be said that the data of each frame of the moving image captured with the exposure time t 0 ′ by the electronic shutter is the data that has passed through the low-pass filter having the region R 3901 as the pass band.

なお、領域R3901は、T方向が、-π/t0'乃至π/t0'の範囲の2π/t0'の幅を有し、かつ、X,Y方向が、人間が認識することができる-π/r0乃至π/r0の範囲の2π/r0の幅を有する領域である。上述のように、例えば、t0が1/240秒で、t0'が1/120秒であり、従って、2t0=t0'である場合には、領域R3901は、T方向が、-π/(2t0)乃至π/(2t0)の範囲のπ/t0の幅を有する。 Note that the region R 3901 has a width of 2π / t 0 ′ in the range of −π / t 0 ′ to π / t 0 ′ in the T direction, and a human recognizes the X and Y directions. This is a region having a width of 2π / r 0 in the range of −π / r 0 to π / r 0 . As described above, for example, when t 0 is 1/240 seconds and t 0 ′ is 1/120 seconds, and therefore 2t 0 = t 0 ′, the region R 3901 has the T direction It has a width of π / t 0 in the range of −π / (2t 0 ) to π / (2t 0 ).

以上のように、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであるから、周波数ドメインにおいて、領域R3901以外には、データは存在しない。 As described above, the data of each frame of the imaged moving image exposure time as t 0 ', since the data that has passed through the low-pass filter having a pass band region R 3901, in the frequency domain, in addition to regions R 3901 There is no data.

従って、人間が認識することができる、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータであっても、図39の領域R3901外にあるデータは、ノイズ等の、動画本来のデータでないから、不要なデータとして削除するのが望ましい。 Therefore, for example, even the data in the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. Since the data outside the area R 3901 is not the original data of the moving image such as noise, it is desirable to delete it as unnecessary data.

そこで、受信装置2(図33)のフィルタ情報供給部62では、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向を図39の領域R3901によって制限した領域を、フィルタの通過帯域として決定することができる。 Therefore, in the filter information supply unit 62 of the receiving device 2 (FIG. 33), the T direction of the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. A region limited by 39 regions R 3901 can be determined as the passband of the filter.

例えば、いま、上述したように、2t0=t0'であるとすると、図20の領域R1001は、図39の領域R3901に含まれるから、フィルタ情報供給部62では、動画において被写体が静止している部分については、図20の領域R1001を、そのまま、フィルタの通過帯域として決定することができる。 For example, as described above, assuming that 2t 0 = t 0 ′, the region R 1001 in FIG. 20 is included in the region R 3901 in FIG. For the stationary part, the region R 1001 in FIG. 20 can be determined as it is as the pass band of the filter.

また、図21の領域R1101は、図40に示すように、その領域R1101のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4001において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図40の領域R4001を、フィルタの通過帯域として決定することができる。 In addition, as shown in FIG. 40, the region R 1101 in FIG. 21 has X, Y in the T direction in the region R 1101 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4001 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter information supply section 62, the subject being projected video speed "( For a portion moving at about “r 0 / t 0 ) / 2”, the region R 4001 in FIG. 40 can be determined as the passband of the filter.

さらに、図22の領域R1201は、図41に示すように、その領域R1201のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4101において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「r0/t0」程度で動いている部分については、図41の領域R4101を、フィルタの通過帯域として決定することができる。 Furthermore, as shown in FIG. 41, the region R 1201 in FIG. 22 has X, Y in the T direction in the region R 1201 in the range of −π / (2t 0 ) to π / (2t 0 ). Since the direction R overlaps with the region R 3901 in FIG. 39 in the region R 4101 in the range of −π / r 0 to π / r 0 , the filter information supply unit 62 uses the velocity “r For a portion moving at about “ 0 / t 0 ”, the region R 4101 in FIG. 41 can be determined as the passband of the filter.

また、図23の領域R1301は、図42に示すように、その領域R1301のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4201において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「2r0/t0」程度で動いている部分については、図42の領域R4201を、フィルタの通過帯域として決定することができる。 In addition, as shown in FIG. 42, the region R 1301 in FIG. 23 has X, Y in the T direction in the region R 1301 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4201 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter information supply unit 62, the object being projected video speed "2r For the portion moving at about “ 0 / t 0 ”, the region R 4201 in FIG. 42 can be determined as the passband of the filter.

受信装置2(図33)のフィルタ情報供給部62において、以上のようにフィルタの通過帯域を決定し、フィルタ部52でフィルタリングを行うことにより、領域R3901外にある、ノイズ等の、動画本来のデータでない不要なデータが除去されるので、S/N(Signal to Noise ratio)等が向上した動画データを得ることができる。 In the filter information supply unit 62 of the receiving apparatus 2 (FIG. 33), the pass band of the filter is determined as described above, and filtering is performed by the filter unit 52, so that the original moving image such as noise outside the region R 3901 is obtained. Since unnecessary data other than the above data is removed, moving image data with improved S / N (Signal to Noise ratio) and the like can be obtained.

ここで、受信装置2において、フィルタの通過帯域を、図39の領域R3901で制限する場合には、受信装置2に入力される低フレームレートの動画データの撮像時の露光時間t0'が必要となるが、この露光時間t0'は、例えば、受信装置2に入力される動画データに多重化する等して、受信装置2に入力することができる。 Here, in the receiving apparatus 2, when the pass band of the filter is limited by the region R 3901 in FIG. 39, the exposure time t 0 ′ at the time of capturing the low frame rate moving image data input to the receiving apparatus 2 is Although necessary, the exposure time t 0 ′ can be input to the receiving device 2 by multiplexing the moving image data input to the receiving device 2, for example.

なお、受信装置2に入力されるデータがエンコードされていない場合には、デコード部50は、そのデータをデコードすることなく、バッファ部51に供給する。   When the data input to the receiving device 2 is not encoded, the decoding unit 50 supplies the data to the buffer unit 51 without decoding the data.

ところで、例えば、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を検出し、その動きベクトル(u0,v0)から、注目ブロックの周波数ドメインでの主成分方向を求めることができる。即ち、主成分方向取得部31では、注目ブロックの動きベクトル(u0,v0)に、時間方向tのコンポーネントt0を加えた3次元の動きベクトル(u0,v0,t0)と直交する平面を、注目ブロックの周波数ドメインでの主成分方向として求めることができる。 By the way, for example, the principal component direction acquisition unit 31 of the transmission device 1 (FIG. 25) detects the motion vector (u 0 , v 0 ) of the block of interest to the next frame of the frame of interest, as described above. From the motion vector (u 0 , v 0 ), the principal component direction in the frequency domain of the block of interest can be obtained. That is, in the principal component direction acquisition unit 31, a three-dimensional motion vector (u 0 , v 0 , t 0 ) obtained by adding the component t 0 in the time direction t to the motion vector (u 0 , v 0 ) of the block of interest An orthogonal plane can be obtained as the principal component direction in the frequency domain of the block of interest.

この場合、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を、例えば、-2倍、-1倍、2倍、3倍したベクトルが、それぞれ、注目ブロックの、注目フレームの前の前のフレーム、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルに一致していれば、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、正確なものとなる。 In this case, for example, a vector obtained by multiplying the motion vector (u 0 , v 0 ) of the block of interest to the next frame of the frame of interest by, for example, -2, -1, 2 or 3 times, If it matches the motion vector to the previous frame, previous frame, next next frame, next next next frame of the frame of interest, it can be obtained from the motion vector (u 0 , v 0 ) The principal component direction of the block of interest is accurate.

しかしながら、動きベクトル(u0,v0)を、例えば、-2倍や、-1倍、2倍、3倍したベクトルが、注目ブロックの、注目フレームの前の前のフレームや、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルからずれている場合、そのずれに応じて、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、誤差を含み、不正確なものとなる。 However, a vector obtained by multiplying the motion vector (u 0 , v 0 ) by, for example, −2 times, −1 times, 2 times, or 3 times is the frame before the attention frame or the previous frame of the attention block. If the motion vector is shifted from the motion vector to the next next frame, the next next frame, the principal component direction of the target block obtained from the motion vector (u 0 , v 0 ) is It contains errors and is inaccurate.

即ち、図43は、送信装置1に供給される高フレームレートの動画データを示している。   That is, FIG. 43 shows high frame rate moving image data supplied to the transmission apparatus 1.

なお、図43においては、横軸を、空間方向xとして、動画データを示してある。また、動画には動被写体が投影されており、その動被写体は、空間方向xにのみ移動する(空間方向yへの移動はしない)ものとする。図43では、動被写体は、時間の経過とともに、左から右方向に移動している。   In FIG. 43, the moving image data is shown with the horizontal axis as the spatial direction x. In addition, a moving subject is projected on the moving image, and the moving subject moves only in the spatial direction x (does not move in the spatial direction y). In FIG. 43, the moving subject moves from left to right as time passes.

図43には、上から順に、時刻(フレーム)t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける画像データが示されている。 In FIG. 43, in order from the top, time (frames) t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + Image data in each of 4t 0 is shown.

いま、時刻tの画像データを基準とすると、その時刻tの画像データに対して、時刻t-4t0の画像データはK4だけ、時刻t-3t0の画像データはK3だけ、時刻t-2t0の画像データはK2だけ、時刻t-t0の画像データはK1だけ、時刻t+t0の画像データはH1だけ、時刻t+2t0の画像データはH2だけ、時刻t+3t0の画像データはH3だけ、時刻t+4t0の画像データはH4だけ、それぞれ、空間方向xにずれている。 If the image data at time t is used as a reference, the image data at time t-4t 0 is only K 4 , the image data at time t-3t 0 is only K 3 , and the time t Image data at -2t 0 is K 2 only, image data at time tt 0 is K 1 only, image data at time t + t 0 is H 1 only, image data at time t + 2t 0 is H 2 only, time t The image data at + 3t 0 is shifted by H 3 and the image data at time t + 4t 0 is shifted by H 4 in the spatial direction x.

従って、時刻tの画像データにおけるあるブロックR4300を注目ブロックとすると、その注目ブロックR4300と同一の画像データ(注目ブロックR4300に対応する画像データ)は、時刻t-4t0の画像データでは、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0の画像データでは、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0の画像データでは、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0の画像データでは、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0の画像データでは、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0の画像データでは、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0の画像データでは、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0の画像データでは、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 Therefore, when a certain block R 4300 in the image data at time t and the subject block, the same image data and the block of interest R 4300 (image data corresponding to the target block R 4300), the image data at time t-4t 0 is , from the target block R 4300 present in a region R 4314 of the position shifted by K 4 in the spatial direction x, the image data at time t-3t 0, from the target block R 4300 of position shifted in the spatial direction x by K 3 Exists in region R 4313 . Similarly, the same image data as the target block R 4300 is the image data at time tt 0 in the region R 4312 at a position shifted by K 2 in the spatial direction x from the target block R 4300 in the image data at time t−2t 0. In the data, the region R 4311 at a position shifted by K 1 in the spatial direction x from the target block R 4300 , and at the time t + t 0 image data at the position shifted by H 1 in the spatial direction x from the target block R 4300 . In the region R 4301 , in the image data at time t + 2t 0 , the image data at time t + 3t 0 is shifted from the target block R 4300 to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300. In the region R 4303 at a position shifted by H 3 in the spatial direction x, the image data at time t + 4t 0 exists in the region R 4304 at a position shifted by H 4 in the spatial direction x from the target block R 4300 , respectively. .

なお、図43において、動被写体の動きの大きさは一定ではなく、従って、K4からK3への増加率,K3からK2への増加率、K2からK1への増加率、K1から0への増加率、0からH1への増加率、H1からH2への増加率,H2からH3への増加率、H3からH4への増加率も一定にはなっていない。 In FIG. 43, the magnitude of the movement of the moving subject is not constant. Therefore, the rate of increase from K 4 to K 3 , the rate of increase from K 3 to K 2 , the rate of increase from K 2 to K 1 , The rate of increase from K 1 to 0, the rate of increase from 0 to H 1 , the rate of increase from H 1 to H 2 , the rate of increase from H 2 to H 3 and the rate of increase from H 3 to H 4 are also constant. It is not.

図43に示したように、被写体が移動している場合、注目ブロックR4300の動きベクトル(u0,v0)は、図44に示すように、ベクトル(H1,0)が求められる。従って、送信装置1(図25)の主成分方向取得部31では、この注目ブロックR4300の動きベクトル(H1,0)から、注目ブロックR4300の主成分方向が求められる。 As shown in FIG. 43, when the subject is moving, the motion vector (u 0 , v 0 ) of the block of interest R 4300 is obtained as shown in FIG. 44 as a vector (H 1 , 0). Therefore, the principal component direction acquisition unit 31 of the transmission device 1 (FIG. 25) obtains the principal component direction of the target block R 4300 from the motion vector (H 1 , 0) of the target block R 4300 .

そして、送信装置1のフィルタ情報供給部32では、その主成分方向から、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などが、フィルタ部22におけるフィルタリングを行うフィルタの通過帯域として決定される。 Then, in the filter information supply unit 32 of the transmission apparatus 1, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. Is determined as the pass band of the filter that performs filtering in the filter unit 22.

フィルタの通過帯域としての、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などは、上述したように、T方向に、2π/(4t0)の幅を有するため、このような通過帯域のフィルタによるフィルタリングでは、注目ブロックR4300のフレーム(注目フレーム)の前後4フレーム程度の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの範囲の画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの範囲の画像データなどを用いた演算(送信装置1のフィルタ部22にて行われる演算)によって、フィルタリング結果としての注目ブロックR4300の画像データが求められる。 As the pass band of the filter, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. / (4t 0 ), therefore, filtering by such a passband filter, image data of about 4 frames before and after the frame of the block of interest R 4300 (frame of interest), that is, for example, time t-4t 0 , T-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 range of image data or time t-3t 0 , T−2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 and other operations using image data in a range of 7 frames (performed by the filter unit 22 of the transmission apparatus 1) By calculation), the image data of the target block R 4300 as the filtering result is obtained.

即ち、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値は、例えば、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(H1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の2倍のベクトル(2H1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の3倍のベクトル(3H1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の4倍のベクトル(4H1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−1倍のベクトル(-H1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−2倍のベクトル(-2H1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−3倍のベクトル(-3H1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−4倍のベクトル(-4H1,0)だけずれた位置付近の画素値を用いて求められる。 That is, the block of interest position with R 4300 of pixels (x, y), the pixel value as a filtering result, for example, the position in the image data at time t + t 0 (x, y ) a motion vector (H 1 from Pixel value near the position shifted by 0), position shifted by the vector (2H 1 , 0) twice the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 2t 0 Near pixel value, pixel value near the position shifted by the vector (3H 1 , 0) three times the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 3t 0 A pixel value in the vicinity of a position shifted by a vector (4H 1 , 0) four times the motion vector (H 1 , 0) from the position (x, y) in the image data at t + 4t 0, in the image data at time tt 0 position (x, y) -1 times the vector (-H 1, 0) shifted by the pixel value of the vicinity of the position of the motion vector from the (H 1, 0), the position in the image data at time t-2t 0 (x, -2 times the motion vector (H 1, 0) from y) Vector (-2H 1, 0) only the pixel values of the shifted around position, the position in the image data at time t-3t 0 (x, y ) a motion vector (H 1, 0) from -3 fold vector (-3H 1, 0) -4 times the vector of pixel values around a position shifted by a position in the image data at time t-4t 0 (x, y ) from the motion vector (H 1, 0) (-4H 1, 0) It is obtained by using pixel values in the vicinity of the position shifted by a certain amount.

ここで、動きベクトル(H1,0)は、図44に示したように、注目ブロックR4300から、時刻t+t0の画像データにおける、注目ブロックR4300に対応する(注目ブロックR4300と同一の画像データが存在する)領域R4301の位置へのベクトルであるから、注目ブロックR4300から動きベクトル(H1,0)だけずれた時刻t+t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4301の位置に一致する。 Here, the motion vector (H 1, 0), as shown in FIG. 44, from the target block R 4300, the image data at time t + t 0, corresponding to the target block R 4300 and (attention block R 4300 Since this is a vector to the position of the region R 4301 (where the same image data exists), the position on the image data at time t + t 0 shifted by the motion vector (H 1 , 0) from the block of interest R 4300 It matches the position of the region R 4301 corresponding to the block R 4300 .

しかしながら、ベクトル(2H1,0)は、図45に示すように、動きベクトル(H1,0)を2倍したベクトルであるから、注目ブロックR4300からベクトル(2H1,0)だけずれた時刻t+2t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4302の位置に一致するとは限らない。 However, since the vector (2H 1 , 0) is a vector obtained by doubling the motion vector (H 1 , 0) as shown in FIG. 45, the vector (2H 1 , 0) is shifted from the target block R 4300 by the vector (2H 1 , 0). The position on the image data at time t + 2t 0 does not necessarily match the position of the region R 4302 corresponding to the block of interest R 4300 .

また、ベクトル(3H1,0)は、図46に示すように、動きベクトル(H1,0)を3倍したベクトルであるから、注目ブロックR4300からベクトル(3H1,0)だけずれた時刻t+3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4303の位置に一致するとは限らない。 Further, as shown in FIG. 46, the vector (3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by three, so that it is shifted from the target block R 4300 by the vector (3H 1 , 0). The position on the image data at time t + 3t 0 does not always match the position of the region R 4303 corresponding to the block of interest R 4300 .

さらに、ベクトル(4H1,0)は、図47に示すように、動きベクトル(H1,0)を4倍したベクトルであるから、注目ブロックR4300からベクトル(4H1,0)だけずれた時刻t+4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4304の位置に一致するとは限らない。 Furthermore, since the vector (4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by 4 as shown in FIG. 47, the vector (4H 1 , 0) is shifted from the target block R 4300 by the vector (4H 1 , 0). The position on the image data at time t + 4t 0 does not necessarily match the position of the region R 4304 corresponding to the target block R 4300 .

また、ベクトル(-H1,0)は、図48に示すように、動きベクトル(H1,0)を−1倍したベクトルであるから、注目ブロックR4300からベクトル(-H1,0)だけずれた時刻t-t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4311の位置に一致するとは限らない。 Further, as shown in FIG. 48, the vector (−H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −1. Therefore, the vector (−H 1 , 0) from the target block R 4300 The position on the image data at time tt 0 that is shifted by a certain amount does not necessarily match the position of the region R 4311 corresponding to the block of interest R 4300 .

さらに、ベクトル(-2H1,0)は、図49に示すように、動きベクトル(H1,0)を−2倍したベクトルであるから、注目ブロックR4300からベクトル(-2H1,0)だけずれた時刻t-2t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4312の位置に一致するとは限らない。 Furthermore, since the vector (-2H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by -2 as shown in FIG. 49, the vector (-2H 1 , 0) from the target block R 4300 The position on the image data at time t−2t 0 that is shifted by a certain amount does not always match the position of the region R 4312 corresponding to the block of interest R 4300 .

また、ベクトル(-3H1,0)は、図50に示すように、動きベクトル(H1,0)を−3倍したベクトルであるから、注目ブロックR4300からベクトル(-3H1,0)だけずれた時刻t-3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4313の位置に一致するとは限らない。 Further, since the vector (−3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −3 as shown in FIG. 50, the vector (−3H 1 , 0) from the target block R 4300 The position on the image data at time t-3t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4313 corresponding to the block of interest R 4300 .

さらに、ベクトル(-4H1,0)は、図51に示すように、動きベクトル(H1,0)を−4倍したベクトルであるから、注目ブロックR4300からベクトル(-4H1,0)だけずれた時刻t-4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4314の位置に一致するとは限らない。 Furthermore, since the vector (−4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −4 as shown in FIG. 51, the vector (−4H 1 , 0) from the target block R 4300 The position on the image data at time t-4t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4314 corresponding to the block of interest R 4300 .

このため、注目ブロックR4300に注目したフィルタリングにあたり、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれの画像データについては、注目ブロックR4300に対応する領域R4314,R4313,R4312,R4311,R4302,R4303,R4304からずれた位置の領域の画素値が用いられ、その結果、真の主成分方向に延びる周波数ドメイン上の領域(例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301)内の周波数成分のみのデータを、正確に得ることが困難な場合が生じ得る。 For this reason, in filtering focused on the target block R 4300 , the image data at times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 , The pixel values of the regions shifted from the regions R 4314 , R 4313 , R 4312 , R 4311 , R 4302 , R 4303 , R 4304 corresponding to the target block R 4300 are used, and as a result, the true main Data of only frequency components in a region on the frequency domain extending in the component direction (for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. 23), There may be cases where it is difficult to obtain accurately.

これは、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めることが、注目ブロックから次のフレームへの動きベクトルの単純な倍数によって、注目ブロックからその他のフレームへの動きベクトルを近似することに相当し、従って、被写体が一定速度で移動していないにもかかわらず、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めると、不正確な主成分方向が得られることに起因する。   This is because the motion vector from the target block to the next frame can be determined by using the motion vector from the target block to the next frame. Therefore, when the principal component direction is calculated using the motion vector from the block of interest to the next frame even though the subject is not moving at a constant speed, an incorrect principal component direction is obtained. This is due to the fact that

そこで、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表すベクトル(以下、適宜、平均動きベクトルという)を求め、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。   Therefore, in the principal component direction acquisition unit 31 of the transmission device 1 (FIG. 25), as described above, not only the correlation information indicating the correlation between the block of interest and the next frame, but also the block of interest and a plurality of frames before and after the block. By using a plurality of pieces of correlation information representing the correlation between the target block and each of the plurality of frames, a so-called average motion vector (hereinafter referred to as an average motion vector as appropriate) is obtained. The principal component direction with high accuracy can be obtained for the target block.

図52は、図25の主成分方向取得部31において、平均動きベクトルから主成分方向を求める場合の、その主成分方向取得部31の構成例を示している。   FIG. 52 shows a configuration example of the principal component direction acquisition unit 31 in the case where the principal component direction acquisition unit 31 in FIG. 25 obtains the principal component direction from the average motion vector.

バッファ部101には、バッファ部21(図25)から読み出された1/t0の高フレームレートの動画データが供給され、バッファ部101は、その動画データを一時記憶する。 The buffer unit 101 is supplied with the 1 / t 0 high frame rate moving image data read from the buffer unit 21 (FIG. 25), and the buffer unit 101 temporarily stores the moving image data.

ブロック抽出部102は、バッファ部101に記憶された動画データを、例えば、上述した16×16画素のブロックに分割し、順次、注目ブロックとして選択して、相関演算部103に供給する。   The block extraction unit 102 divides the moving image data stored in the buffer unit 101 into, for example, the above-described 16 × 16 pixel blocks, sequentially selects the target block, and supplies the selected block to the correlation calculation unit 103.

相関演算部103は、ブロック抽出部102から供給される注目ブロックのフレーム(注目フレーム)に対して時間的に前後の複数のフレーム(のデータ)を、バッファ部101から読み出し、注目ブロックと、複数のフレームそれぞれとの相関を表す相関情報を演算して、スケーリング合成部104に供給する。   The correlation calculation unit 103 reads, from the buffer unit 101, a plurality of frames (data) before and after the frame of the block of interest (the frame of interest) supplied from the block extraction unit 102. The correlation information representing the correlation with each of the frames is calculated and supplied to the scaling synthesis unit 104.

ここで、相関情報としては、例えば、図32のステップS22で説明した場合と同様に、注目ブロックを、空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある他のフレームの画素との画素値の差分絶対値の総和を採用することとする。この場合、上述したように、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、他のフレーム上の空間方向の位置となる。   Here, as the correlation information, for example, as in the case described in step S22 of FIG. 32, each pixel of the target block at a position where the target block is shifted by u and v in the spatial directions x and y, respectively. And the sum of absolute difference values of pixel values from pixels in other frames at the same position as the pixel. In this case, as described above, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the other frame where the correlation represented by the correlation information is the highest.

なお、相関演算部103において、注目ブロックとの相関情報を演算する対象のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲とすることができる。   Note that in the correlation calculation unit 103, the range of the frame for which the correlation information with the target block is calculated can be a range corresponding to the frame range used for filtering in the filter unit 22 (FIG. 25).

即ち、図43で説明したように、時刻tの画像データを基準とすると(時刻tを注目フレームとすると)、フィルタ部22でのフィルタリングでは、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの画像データなどが用いられる。相関演算部103において、相関情報を演算するフレームは、この9フレームや7フレームの画像データとほぼ同様の範囲の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データとすることができる。 That is, as described with reference to FIG. 43, when the image data at time t is used as a reference (when time t is the frame of interest), the filtering in the filter unit 22 performs time t-4t 0 , t-3t 0 , t− 9 frames of image data of 2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 , time t-3t 0 , t-2t 0 , tt 0 , t , T + t 0 , t + 2t 0 , t + 3t 0 , and the like are used. In the correlation calculation unit 103, the frame for calculating the correlation information is image data in a range almost similar to the image data of 9 frames or 7 frames, that is, for example, time t-4t 0 , t-3t 0 , t-2t. 0, tt 0, t, can be t + t 0, t + 2t 0, t + 3t 0, t + 4t 0 each image data.

なお、時刻tの画像データは、注目ブロックのフレーム(注目フレーム)であるから、その時刻tについては、相関情報を演算する必要はない。即ち、相関演算部103において、注目ブロックとの相関情報を演算する対象は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データである。 Note that since the image data at time t is a frame of the block of interest (frame of interest), there is no need to calculate correlation information for that time t. That is, the correlation calculation unit 103 calculates the correlation information with the block of interest at times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t The image data is + 3t 0 and t + 4t 0 respectively.

ここで、注目ブロックとの相関情報を演算する対象のフレームを、以下、適宜、相関演算対象フレームという。   Here, the frame for which the correlation information with the block of interest is calculated is hereinafter referred to as a correlation calculation target frame as appropriate.

スケーリング合成部104は、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、後述するように、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。そして、スケーリング合成部104は、その合成相関情報を、最小値検出部105に供給する。   The scaling synthesis unit 104 scales the correlation information obtained from each of the plurality of correlation calculation target frames supplied from the correlation calculation unit 103 in the spatial directions x and y as described later, and further, The correlation information is synthesized to obtain synthesized correlation information. Then, the scaling combining unit 104 supplies the combined correlation information to the minimum value detecting unit 105.

最小値検出部105は、スケーリング合成部104からの合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、その最大相関位置へのベクトルを、注目ブロックの平均動きベクトルとして求める。そして、最小値検出部105は、その平均動きベクトルに、バッファ部21(図25)から読み出された動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルの方向と直交する方向を、主成分方向として検出して出力する。 The minimum value detecting unit 105 detects a maximum correlation position that is a position in the spatial direction where the correlation represented by the combined correlation information from the scaling combining unit 104 is maximum, and calculates a vector to the maximum correlation position as an average motion of the target block. Ask as a vector. Then, the minimum value detection unit 105 adds the frame period t 0 of the moving image data read from the buffer unit 21 (FIG. 25) to the average motion vector as a component in the time direction t. A direction orthogonal to the direction is detected and output as the principal component direction.

次に、図53は、図43に示した注目ブロックR4300と、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データ(フレーム)との相関情報を示している。 Next, FIG. 53 shows the block of interest R 4300 shown in FIG. 43 and the times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t. Correlation information with each image data (frame) of + 3t 0 and t + 4t 0 is shown.

なお、図53に示した相関情報は、図52の相関演算部103で求められる。但し、上述したように、注目ブロックR4300と、注目フレームである時刻tの画像データとの相関情報は、演算する必要はない。 Note that the correlation information shown in FIG. 53 is obtained by the correlation calculation unit 103 in FIG. However, as described above, the correlation information between the block of interest R 4300 and the image data at time t, which is the frame of interest, does not need to be calculated.

また、図53において、相関情報としては、上述したように、画素値の差分絶対値の総和が採用されており、従って、相関情報は、下に凸の関数となり、相関情報の「値」が最小になる空間方向の位置が、相関情報が表す相関が最も高くなる空間方向の位置である。そして、注目ブロックから、その位置へのベクトルが、動きベクトルを表す。   In FIG. 53, as described above, the sum of the absolute differences of the pixel values is used as the correlation information. Therefore, the correlation information is a downward convex function, and the “value” of the correlation information is The position in the spatial direction that minimizes is the position in the spatial direction where the correlation represented by the correlation information is the highest. A vector from the target block to that position represents a motion vector.

図43で説明したように、注目ブロックR4300と同一の画像データは、時刻t-4t0では、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0では、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0では、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0では、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0では、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0では、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0では、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0では、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 As described in FIG. 43, the same image data and the block of interest R 4300 is at time t-4t 0, present in the block of interest R 4300 position of the region R 4314 shifted by K 4 in the spatial direction x from the time At t−3t 0 , it exists in a region R 4313 at a position shifted from the target block R 4300 by K 3 in the spatial direction x. Similarly, the same image data as the target block R 4300 is displayed at the time t-2t 0 in the region R 4312 at a position shifted by K 2 from the target block R 4300 in the spatial direction x, and at the time tt 0 , the target block R At time t + t 0 at a region R 4311 at a position shifted by K 1 in the spatial direction x from 4300 , at time t + 2t at a region R 4301 at a position shifted by H 1 in the spatial direction x from the target block R 4300 At 0 , it moves to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300 , and at time t + 3t 0 , it enters a region R 4303 at a position shifted by H 3 from the target block R 4300 in the spatial direction x. At time t + 4t 0 , each exists in a region R 4304 at a position displaced from the target block R 4300 by H 4 in the spatial direction x.

従って、時刻t-4t0における相関情報は、位置x=K4において最小となり、時刻t-3t0における相関情報は、位置x=K3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=K2において、時刻t-t0における相関情報は、x=K1において、時刻t+t0における相関情報は、位置x=H1において、時刻t+2t0における相関情報は、位置x=H2において、時刻t+3t0における相関情報は、位置x=H3において、時刻t+4t0における相関情報は、位置x=H4において、それぞれ最小となる。 Accordingly, the correlation information at time t-4t 0 is minimum at position x = K 4 , and the correlation information at time t-3t 0 is minimum at position x = K 3 . Similarly, the correlation information at time t-2t 0 is at position x = K 2 , the correlation information at time tt 0 is at x = K 1 , and the correlation information at time t + t 0 is at position x = H 1 . The correlation information at time t + 2t 0 is at position x = H 2 , the correlation information at time t + 3t 0 is at position x = H 3 , and the correlation information at time t + 4t 0 is at position x = H 4 In each, it becomes the minimum.

図52の主成分方向取得部31では、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似し、その一定の動きを表すベクトルが、平均動きベクトルとして求められる。 In the principal component direction acquisition unit 31 in FIG. 52, the motion of the target block R 4300 is approximated to be constant at the time from time t-4t 0 to t + 4t 0 , and the vector representing the constant motion is the average motion. Required as a vector.

そのため、主成分方向取得部31のスケーリング合成部104は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。 Therefore, the scaling synthesis unit 104 of the principal component direction acquisition unit 31 performs the times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , t Correlation information at each of + 4t 0 is scaled in the spatial directions x and y, and the correlation information after the scaling is combined to obtain combined correlation information.

即ち、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似した場合、例えば、時刻t+t0における相関情報を基準とすると、時刻t-4t0における相関情報は、時刻t+t0における相関情報に対し、位置(空間方向x,y)に関して−4倍のずれがある。時刻t-3t0における相関情報は、時刻t+t0における相関情報に対し、位置に関して−3倍のずれがある。以下、同様に、時刻t+t0における相関情報に対し、時刻t-2t0における相関情報は、位置に関して−2倍のずれが、時刻t-t0における相関情報は、位置に関して−1倍のずれが、時刻t+2t0における相関情報は、位置に関して2倍のずれが、時刻t+3t0における相関情報は、位置に関して3倍のずれが、時刻t+4t0における相関情報は、位置に関して4倍のずれが、それぞれある。 That is, when it is approximated that the motion of the target block R 4300 is constant at the time from time t-4t 0 to time t + 4t 0 , for example, when the correlation information at time t + t 0 is used as a reference, time t-4t The correlation information at 0 has a difference of −4 times with respect to the position (spatial direction x, y) with respect to the correlation information at time t + t 0 . The correlation information at time t-3t 0 is shifted by -3 times with respect to the correlation information at time t + t 0 . Similarly, the correlation information at time t-2t 0 is shifted by -2 times with respect to the position, and the correlation information at time tt 0 is shifted by -1 times with respect to the correlation information at time t + t 0 . However, the correlation information at time t + 2t 0 is twice as much as the position, the correlation information at time t + 3t 0 is three times as much as the position, and the correlation information at time t + 4t 0 is about the position. There is a 4x shift.

そこで、スケーリング合成部104は、時刻t-4t0における相関情報の位置のスケールを−1/4倍にする(反転縮小する)スケーリングを行う。同様に、スケーリング合成部104は、時刻t-3t0における相関情報の位置のスケールを−1/3倍にするスケーリングを、時刻t-2t0における相関情報の位置のスケールを−1/2倍にするスケーリングを、時刻t-t0における相関情報の位置のスケールを−1倍にする(反転する)スケーリングを、時刻t+2t0における相関情報の位置のスケールを1/2倍にする(縮小する)スケーリングを、時刻t+3t0における相関情報の位置のスケールを1/3倍にするスケーリングを、時刻t+4t0における相関情報の位置のスケールを1/4倍にするスケーリングを、それぞれ行う。 Therefore, the scaling synthesis unit 104 performs scaling by multiplying the scale of the position of the correlation information at time t-4t 0 by −1/4 (reversing and reducing). Similarly, the scaling composition unit 104 performs scaling to increase the scale of the position of the correlation information at time t-3t 0 by −1/3, and scales the position of the position of the correlation information at time t−2t 0 by −1/2. The scaling of the correlation information position at time tt 0 is multiplied by -1 (reversed), and the scaling of the correlation information position at time t + 2t 0 is halved (reduced). ) Scaling is performed so that the scale of the position of the correlation information at time t + 3t 0 is 3 times, and the scaling is performed to increase the scale of the position of the correlation information at time t + 4t 0 to ¼. .

なお、時刻t+t0における相関情報については、スケーリング合成部104は、何らスケーリングを行わないが、スケーリングを行わないことは、位置のスケールを1倍にするスケーリングを行っていると見ることもできる。 For the correlation information at time t + t 0 , the scaling composition unit 104 does not perform any scaling, but it may be seen that the fact that the scaling is not performed means that the position is scaled to 1 time. it can.

ここで、図54は、時刻t+t0における相関情報を基準として、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報をスケーリングした場合の、そのスケーリング後の相関情報を示している。 Here, FIG. 54 shows time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + based on the correlation information at time t + t 0 . The correlation information after scaling when the correlation information at 4t 0 is scaled is shown.

スケーリングにより、時刻t-4t0における相関情報は、位置x=-K4/4において最小となり、時刻t-3t0における相関情報は、位置x=-K3/3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=-K2/2において、時刻t-t0における相関情報は、x=-K1において、時刻t+2t0における相関情報は、位置x=H2/2において、時刻t+3t0における相関情報は、位置x=H3/3において、時刻t+4t0における相関情報は、位置x=H4/4において、それぞれ最小となる。 Scaling, correlation information at time t-4t 0 is becomes minimum at the position x = -K 4/4, the correlation information at time t-3t 0 is at the minimum position x = -K 3/3. Similarly, the correlation information at time t-2t 0, at the position x = -K 2/2, correlation information at time tt 0, at x = -K 1, the correlation information at time t + 2t 0, the position x in = H 2/2, correlation information at time t + 3t 0, at the position x = H 3/3, correlation information at time t + 4t 0, at position x = H 4/4, respectively become minimum.

なお、スケーリングは、時刻t+t0における相関情報を基準として行われるので、時刻t+t0における相関情報は、スケーリングの前でも後でも、位置x=H1において最小となる。 Since scaling is performed with reference to correlation information at time t + t 0, the correlation information at time t + t 0 is minimum at position x = H 1 before and after scaling.

図52の主成分方向取得部31では、スケーリング合成部104が、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を合成して、合成相関情報を求める。 In the principal component direction acquisition unit 31 in FIG. 52, the scaling synthesis unit 104 performs the time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0. , T + 4t 0 , the correlation information after scaling is synthesized to obtain synthesized correlation information.

図55は、図54の相関情報を合成することにより得られる合成相関情報を示している。   FIG. 55 shows combined correlation information obtained by combining the correlation information of FIG.

図55の合成相関情報は、図54に示した時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を加算する合成を行うことにより求めることができる。 The combined correlation information of FIG. 55 is the time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t shown in FIG. It can be obtained by performing a synthesis of adding the correlation information after scaling in each of 0 .

図52の主成分方向取得部31の最小値検出部105では、図55の合成相関情報が最小になる位置x=L1((x,y)=(L1,0))が、平均動きベクトル(L1,0)として求められる。 In the minimum value detection unit 105 of the principal component direction acquisition unit 31 in FIG. 52, the position x = L 1 ((x, y) = (L 1 , 0)) at which the composite correlation information in FIG. It is obtained as a vector (L 1 , 0).

なお、合成相関情報は、スケーリング後の相関情報を単純に加算する他、重み付け加算することにより求めることもできる。即ち、合成相関情報は、相関情報に対して、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算することにより求めることができる。この場合、注目ブロックの時刻tから近い時刻の画像を重要視した平均動きベクトルが求められることになる。   Note that the combined correlation information can be obtained by adding the weighted addition in addition to simply adding the correlation information after scaling. In other words, the combined correlation information can be obtained by adding to the correlation information the correlation information closer to the time t of the block of interest with a greater weight. In this case, an average motion vector in which an image at a time close to the time t of the block of interest is regarded as important is obtained.

最小値検出部105では、以上のようにして求められる平均動きベクトル(L1,0)から、注目ブロックの主成分方向が求められる。従って、注目ブロックについて、比較的精度の高い主成分方向を求めることができる。 The minimum value detection unit 105 obtains the principal component direction of the block of interest from the average motion vector (L 1 , 0) obtained as described above. Therefore, it is possible to obtain the principal component direction with relatively high accuracy for the block of interest.

即ち、上述のような平均動きベクトル(L1,0)から求められる主成分方向(つまり、(L1,0,t0)に垂直な平面)によれば、図25のフィルタ部22では、例えば、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値が、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(L1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた位置付近の画素値を、それぞれ用いて求められる。 That is, according to the principal component direction (that is, a plane perpendicular to (L 1 , 0, t 0 )) obtained from the average motion vector (L 1 , 0) as described above, the filter unit 22 in FIG. For example, the pixel value as a filtering result of a pixel at a certain position (x, y) of the target block R 4300 is a motion vector (L 1 , 0) from the position (x, y) in the image data at time t + t 0 The pixel value near the position shifted by a certain amount, the position near the position shifted by a vector (2L 1 , 0) twice the motion vector (L 1 , 0) from the position (x, y) in the image data at time t + 2t 0 Pixel value, pixel value near time t + 3t 0 position in image data at position (x, y), pixel value near position shifted by vector (3L 1 , 0) three times motion vector (L 1 , 0), time t + A pixel value in the vicinity of a position shifted by a vector (4L 1 , 0) that is four times the motion vector (L 1 , 0) from the position (x, y) in the image data at 4t 0 , and a position in the image data at time tt 0 ( x, y) Torr (L 1, 0) -1 times the vector (-L 1, 0) pixel values around a position shifted by a position in the image data at time t-2t 0 (x, y ) from the motion vector (L 1 , 0), the pixel value in the vicinity of the position shifted by -2 times the vector (−2L 1 , 0), the position of the motion vector (L 1 , 0) from the position (x, y) in the image data at time t-3t 0 -3 times the pixel value in the vicinity of the position shifted by the vector (-3L 1 , 0), from the position (x, y) in the image data at time t-4t 0 to -4 times the motion vector (L 1 , 0) Pixel values in the vicinity of the position shifted by the vector (−4L 1 , 0) are respectively obtained.

ここで、図56は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)だけずれた時刻t+t0の画像データにおける位置を示している。同様に、図57乃至図63は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた時刻t+2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた時刻t+3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた時刻t+4t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた時刻t-t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた時刻t-2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた時刻t-3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた時刻t-4t0の画像データにおける位置を、それぞれ示している。 Here, FIG. 56 shows the position in the image data at time t + t 0 that is shifted from the position (x, y) of the target block R 4300 by the motion vector (L 1 , 0). Similarly, FIG. 57 to FIG. 63 show that at time t + 2t 0 shifted from the position (x, y) of the target block R 4300 by a vector (2L 1 , 0) that is twice the motion vector (L 1 , 0). Position in the image data at time t + 3t 0 where the position in the image data is shifted from the position (x, y) of the target block R 4300 by a vector (3L 1 , 0) that is three times the motion vector (L 1 , 0) Is shifted from the position (x, y) of the target block R 4300 by a vector (4L 1 , 0) four times the motion vector (L 1 , 0) to the position in the image data at time t + 4t 0 The position in the image data at time tt 0 that is shifted from the position (x, y) of R 4300 by a vector (−L 1 , 0) that is −1 times the motion vector (L 1 , 0) is the position of the target block R 4300 . (x, y) position in the -2 times the vector (-2L 1, 0) image data at time t-2t 0 shifted by the motion vector (L 1, 0) from the position of the target block R 4300 (x , -3 times the vector of the motion vector from y) (L 1, 0) Le (-3L 1, 0) position in the image data at time t-3t 0 shifted by -4 times the vector of position (x, y) from the motion vector of the target block R 4300 (L 1, 0) ( The positions in the image data at time t-4t 0 shifted by −4L 1 , 0) are shown respectively.

図56乃至図63それぞれと、上述した図44乃至図51それぞれとを比較することにより、図56乃至図63における場合の方が、図44乃至図51における場合よりも、全体として、注目ブロックR4300に対応する領域R4301,R4302,R4303,R4304,R4311,R4312,R4313,R4314に近い位置の画素値を用いて、注目ブロックR4300のフィルタリングが行われることが分かる。 56 to 63 and FIG. 44 to 51 described above are compared with each other, and in the case of FIGS. 56 to 63, the attention block R as a whole is more than the case of FIGS. 4300 using the pixel values of the position close to the corresponding region R 4301, R 4302, R 4303 , R 4304, R 4311, R 4312, R 4313, R 4314 , a is understood that the filtering of the block of interest R 4300 is performed .

次に、図64乃至図67のフローチャートを参照して、図52の主成分方向取得部31が行う処理について説明する。   Next, processing performed by the principal component direction acquisition unit 31 in FIG. 52 will be described with reference to the flowcharts in FIGS.

なお、図64乃至図67のフローチャートにしたがった処理は、図31のステップS11の処理に対応する。   Note that the processing according to the flowcharts of FIGS. 64 to 67 corresponds to the processing of step S11 of FIG.

図52の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。   52, the moving image data read from the buffer unit 21 (FIG. 25) is supplied to the buffer unit 101, and the buffer unit 101 temporarily stores the moving image data.

そして、図64のステップS101において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図32のステップS21における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。   64, the block extraction unit 102 divides the moving image data stored in the buffer unit 101 into blocks of 16 × 16 pixels, for example, as in step S21 of FIG. To the unit 103. In the subsequent processing, the blocks obtained by the block extraction unit 102 are sequentially performed as the target block.

ここで、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.

ステップS101の処理後は、図65のステップS102に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め((u1,v1)を変えながら求め)、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部104に供給して、ステップS103に進む。 After the processing in step S101, the process proceeds to step S102 in FIG. 65, in which the correlation calculation unit 103 reads out the image data at time t + t 0 that is the image data of the frame next to the frame of interest from the buffer unit 101, and If, with the image data at time t + t 0, the function E 1 representing the sum of the absolute differences of each other corresponding pixel (u 1, v 1), the image data at time t + t 0 to correspond to the block of interest (X 0 + u 1 , y 0 + v 1 ) while changing the position (determined while changing (u 1 , v 1 )), and the function E 1 (u 1 , v 1 ) is obtained at time t + t The correlation information at 0 is supplied to the scaling synthesis unit 104, and the process proceeds to step S103.

ステップS103では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部104に供給して、ステップS104に進む。 In step S103, the correlation calculation unit 103 reads out the image data at time t + 2t 0 that is image data of the next frame after the frame of interest from the buffer unit 101, and reads the block of interest and the image at time t + 2t 0 . The function E 2 (u 2 , v 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t + 2t 0 (x 0 + u 2 , y 0 + v 2 ) is changed and the function E 2 (u 2 , v 2 ) is supplied as correlation information at time t + 2t 0 to the scaling synthesis unit 104, and the process proceeds to step S104.

ステップS104では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部104に供給して、ステップS105に進む。 In step S104, the correlation calculation unit 103 reads out the image data at time t + 3t 0 that is temporally previous image data by 3 frames of the frame of interest from the buffer unit 101, and the block of interest and time t + 3t 0. The function E 3 (u 3 , v 3 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data position of the image data at time t + 3t 0 (x 0 + u 3 , y 0 + v 3 ), and the function E 3 (u 3 , v 3 ) is supplied as correlation information at time t + 3t 0 to the scaling synthesis unit 104, and the process proceeds to step S105.

ステップS105では、注目フレームの4フレームだけ時間的に先の画像データである時刻t+4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E4(u4,v4)を、注目ブロックを対応させる時刻t+4t0の画像データの位置(x0+u4,y0+v4)を変えながら求め、その関数E4(u4,v4)を、時刻t+4t0における相関情報として、スケーリング合成部104に供給して、図66のステップS106に進む。 In step S105, image data at time t + 4t 0 that is temporally preceding image data by four frames of the target frame is read from the buffer unit 101, and the target block and the image data at time t + 4t 0 are The function E 4 (u 4 , v 4 ) representing the sum of absolute differences between corresponding pixels is set to the position (x 0 + u 4 , y 0 + v) of the image data at time t + 4t 0 to which the target block is associated. 4 ), and the function E 4 (u 4 , v 4 ) is supplied to the scaling synthesis unit 104 as correlation information at time t + 4t 0 , and the process proceeds to step S106 in FIG.

ステップS106では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部104に供給して、ステップS107に進む。 In step S106, correlation calculation section 103, the image data at time tt 0 is image data of a previous frame of the frame of interest, from the buffer unit 101, and the block of interest, the image data at time tt 0, the corresponding The function F 1 (r 1 , s 1 ) that represents the sum of absolute differences between pixels is changed by changing the position (x 0 + r 1 , y 0 + s 1 ) of the image data at time tt 0 to which the block of interest is associated. The function F 1 (r 1 , s 1 ) is obtained as correlation information at time tt 0 and supplied to the scaling synthesizer 104, and the process proceeds to step S107.

ステップS107では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部104に供給して、ステップS108に進む。 In step S107, the correlation calculation unit 103 reads out the image data at time t-2t 0 that is image data of the previous frame before the frame of interest from the buffer unit 101, and reads the block of interest and the image at time t-2t 0 . The function F 2 (r 2 , s 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t-2t 0 (x 0 + r 2 , y 0 + s 2 ) is changed and the function F 2 (r 2 , s 2 ) is supplied as correlation information at time t−2t 0 to the scaling synthesis unit 104, and the process proceeds to step S108.

ステップS108では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部104に供給して、ステップS109に進む。 In step S108, the correlation calculating unit 103, the image data at time t-3t 0 is image data before in time by three frames of the frame of interest, from the buffer unit 101, and the block of interest, the time t-3t 0 The function F 3 (r 3 , s 3 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data position of the image data at time t-3t 0 (x 0 + r 3 , y 0 + s 3 ), and the function F 3 (r 3 , s 3 ) is supplied to the scaling combiner 104 as correlation information at time t-3t 0 , and the process proceeds to step S109.

ステップS109では、相関演算部103は、注目フレームの4フレームだけ時間的に前の画像データである時刻t-4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F4(r4,s4)を、注目ブロックを対応させる時刻t-4t0の画像データの位置(x0+r4,y0+s4)を変えながら求め、その関数F4(r4,s4)を、時刻t-4t0における相関情報として、スケーリング合成部104に供給して、図67のステップS110に進む。 In step S109, the correlation calculation unit 103 reads out the image data at time t-4t 0 that is temporally previous image data by four frames of the target frame from the buffer unit 101, reads the target block, and the time t-4t 0. The function F 4 (r 4 , s 4 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data at the time t-4t 0 corresponding to the block of interest (x 0 + r 4 , y 0 + s 4 ), and the function F 4 (r 4 , s 4 ) is supplied to the scaling synthesis unit 104 as correlation information at time t-4t 0 , and step S110 in FIG. Proceed to

ステップS110では、スケーリング合成部104は、相関演算部103から供給された相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),E4(u4,v4),F1(r1,s1),F2(r2,s2),F3(r3,s3),F4(r4,s4)を、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準として、上述したようなスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部104は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(u4/4,v4/4)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)=(-r4/4,-s4/4)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),E4(4p,4q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q),F4(-4p,-4q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+E4(4p,4q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)+F4(-4p,-4q))を求める。 In step S <b> 110, the scaling composition unit 104 receives the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), supplied from the correlation calculation unit 103. E 4 (u 4 , v 4 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), F 4 (r 4 , s 4 ) Based on the scale of the position (u 1 , v 1 ) of the correlation information E 1 (u 1 , v 1 ), the above-mentioned scaling is performed, and further, the correlation information after the scaling is synthesized, and the synthesized correlation Find information E (p, q). That is, the scaling combining unit 104, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (u 4 / 4, v 4/4) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3, -s 3/3) = (- r 4/4 , -s 4/4 ), and further scaling correlation information E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q), Add E 4 (4p, 4q), F 1 (-p, -q), F 2 (-2p, -2q), F 3 (-3p, -3q), F 4 (-4p, -4q) Therefore, the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + E 4 (4p, 4q) + F 1 (- p, -q) + F 2 (-2p, -2q) + F 3 (-3p, -3q) + F 4 (-4p, -4q)).

なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。即ち、合成相関情報E(p,q)は、例えば、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)を演算することにより求めることができる。 Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above. That is, the combined correlation information E (p, q) is, for example, an expression 8 × E 1 (p, q) + 4 × E 2 in which correlation information at a time closer to the time t of the block of interest is added with a greater weight. (2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) + It can be obtained by calculating 2 × F 3 (−3p, −3q) + 1 × F 4 (−4p, −4q).

スケーリング合成部104は、ステップS110において、合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を、最小値検出部105に供給して、ステップS111に進む。   The scaling combining unit 104 obtains the combined correlation information E (p, q) in step S110, supplies the combined correlation information E (p, q) to the minimum value detecting unit 105, and proceeds to step S111. .

ステップS111では、最小値検出部105は、スケーリング合成部104からの合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(注目ブロックからの相対的な位置)(p,q)を、最大相関位置(p0,q0)として検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)を、最大相関位置(p0,q0)として検出し、その最大相関位置(p0,q0)へのベクトルを、平均動きベクトル(p0,q0)として、ステップS112に進む。 In step S111, the minimum value detection unit 105 has a position (relative position from the target block) in the spatial direction where the correlation represented by the combined correlation information E (p, q) from the scaling combining unit 104 is maximum (p, q) is detected as the maximum correlation position (p 0 , q 0 ), that is, the position (p, q) that minimizes the `` value '' of the combined correlation information E (p, q) is the maximum correlation position (p 0 , q 0 ), and the vector to the maximum correlation position (p 0 , q 0 ) is set as the average motion vector (p 0 , q 0 ), and the process proceeds to step S112.

ステップS112では、最小値検出部105は、ステップS111で検出された平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給して、処理を終了する。 In step S112, the minimum value detecting section 105, the average motion vector detected at step S111 (p 0, q 0) , 3 -dimensional frame period t 0 of the original video data was added as a component in the time direction t The direction orthogonal to the direction of the motion vector (p 0 , q 0 , t 0 ) is the principal component direction, and the three-dimensional motion vector (p 0 , q 0 , t 0 ) (FIG. 25) is supplied and the process is terminated.

この場合、フィルタ情報供給部32は、例えば、主成分方向取得部31の最小値検出部105から供給される3次元の動きベクトル(p0,q0,t0)を、そのままフィルタ情報として、フィルタ部22(図25)に供給する。 In this case, for example, the filter information supply unit 32 directly uses the three-dimensional motion vector (p 0 , q 0 , t 0 ) supplied from the minimum value detection unit 105 of the principal component direction acquisition unit 31 as filter information. It supplies to the filter part 22 (FIG. 25).

フィルタ部22では、図68に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。   In the filter unit 22, the process according to the flowchart shown in FIG. 68 is performed as the process of step S3 in FIG.

即ち、ステップS131において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)を受信することにより取得し、ステップS132に進む。 That is, in step S131, the filter unit 22 receives the three-dimensional motion vector (p 0 , q 0 , t 0 ) supplied as filter information from the filter information supply unit 32, and proceeds to step S132. .

ステップS132では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。 In step S132, the filter unit 22 calculates the pixel value C (t, x, y) of the pixel at the position (x, y) in the target block of the frame at time t, for example, the equation (1/16) × D ( t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2 / 16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , y + 3q 0 ) Perform filtering. Note that D (t, x, y) represents a pixel value at a position (x, y) at time t of moving image data used for filtering.

ここで、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、いわゆるタップ係数を、1/16,2/16,3/16,4/16,3/16,2/16,1/16とし、時間方向に7タップを有する(7フレームの画像データを用いたフィルタリングを行う)FIR(Finite Impulse Response)フィルタによるフィルタリングを行うことに等価である。このようなタップ係数のFIRフィルタは、ローパスフィルタである。 Here, the equation (1/16) × D (t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), the so-called tap coefficient is 1/16, 2/16, 3/16, 4/16, 3/16, 2/16, 1/16, and 7 taps in the time direction It is equivalent to performing filtering by a FIR (Finite Impulse Response) filter having (filtering using image data of 7 frames). Such a tap coefficient FIR filter is a low-pass filter.

なお、ステップS132において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。つまり、tは、例えば、4×t0の倍数である。 In step S132, filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling is performed to thin out the number of samples in the time direction to 1/4, that is, a ratio of one frame every four frames. Done in That is, t is a multiple of 4 × t 0 , for example.

ステップS132の処理後は、ステップS133に進み、フィルタ部22は、フィルタリング結果、即ち、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めた画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。 After the process of step S132, the process proceeds to step S133, and the filter unit 22 performs the filtering result, that is, the expression (1/16) × D (t−3t 0 , x−3p 0 , y−3q 0 ) + (2 / 16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x , y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), the pixel value C (t, x, y) obtained by calculating , y) is output to the encoding unit 24 as a pixel value.

なお、図68では、時間方向に7タップを有するFIRフィルタによるフィルタリングを行うようにしたが、その他、例えば、時間方向に9タップを有するFIRフィルタによるフィルタリングを行うようにしても良い。   In FIG. 68, the filtering is performed by the FIR filter having 7 taps in the time direction. However, for example, the filtering may be performed by the FIR filter having 9 taps in the time direction.

また、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、ローパスフィルタによるフィルタリングに等価であるが、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算と見ることもできる。 Also, the expression (1/16) × D (t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , The calculation of y + 3q 0 ) is equivalent to filtering by a low-pass filter, but it can also be regarded as weighted addition with a larger weight as it is closer to the frame of the target block.

このように、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算を行うことによって、フィルタリング結果としての画素値C(t,x,y)を求める場合には、合成相関情報E(p,q)を求めるための合成も、上述したように、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)の演算によって行うのが望ましい。 In this way, when the pixel value C (t, x, y) as a filtering result is obtained by performing weighted addition with a greater weight as it is closer to the frame of the target block, the combined correlation information E (p, In the synthesis for obtaining q), as described above, the correlation information at the time closer to the time t of the block of interest is added with a larger weight and added to the equation 8 × E 1 (p, q) + 4 × E 2 ( 2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) +2 It is desirable to perform the calculation by × F 3 (-3p, -3q) + 1 × F 4 (-4p, -4q)

以上のように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表す平均動きベクトルを求めるようにしたので、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。   As described above, not only the correlation information indicating the correlation between the block of interest and the next frame, but also the plurality of pieces of correlation information indicating the correlation between the block of interest and each of a plurality of frames before and after the block, Since an average motion vector representing an average motion for each of the frames is obtained, a highly accurate principal component direction can be obtained for the target block from the average motion vector.

さらに、平均動きベクトルを求めるときに用いる複数のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲、即ち、フィルタリングに用いられるフレーム(図68では、注目ブロックのフレームを中心とする7フレーム)とほぼ同様の範囲(図64乃至図67では、注目ブロックのフレームを中心とする9フレーム)であるので、フィルタ部22(図25)において、正確なフィルタリング結果(本来通過させるべき周波数成分だけのフィルタリング結果)を得ることが可能となる。   Further, the range of the plurality of frames used when obtaining the average motion vector is a range corresponding to the range of frames used for filtering in the filter unit 22 (FIG. 25), that is, a frame used for filtering (in FIG. 68, Since the range is almost the same as (7 frames centered on the frame of the target block) (9 frames centering on the frame of the target block in FIGS. 64 to 67), the filter unit 22 (FIG. 25) It is possible to obtain a filtering result (a filtering result of only frequency components that should be passed through).

なお、図68では、注目ブロックのフレームを中心とする7フレームを用いてフィルタリングを行い、図64乃至図67では、注目ブロックのフレームを中心とする9フレームを用いて平均動きベクトルを求めるようにしたが、その他、例えば、フィルタリングも平均動きベクトルの算出も、注目ブロックのフレームを中心とする7フレームまたは9フレームを用いて行うことが可能である。また、フィルタリングは、注目ブロックのフレームを中心とする9フレームを用いて行い、平均動きベクトルの算出は、注目ブロックのフレームを中心とする7フレームを用いて行うことも可能である。つまり、フィルタリングに用いるフレームの範囲と、平均動きベクトルの算出に用いるフレームの範囲とは、完全に一致していても良いし、異なっていても、ほぼ一致していれば良い。   In FIG. 68, filtering is performed using 7 frames centered on the frame of the target block, and in FIGS. 64 to 67, the average motion vector is obtained using 9 frames centered on the frame of the target block. However, for example, filtering and calculation of the average motion vector can be performed using 7 frames or 9 frames centering on the frame of the target block. Filtering can also be performed using 9 frames centered on the frame of the target block, and the average motion vector can be calculated using 7 frames centered on the frame of the target block. That is, the frame range used for filtering and the frame range used for calculating the average motion vector may be completely coincident with each other or may be almost coincident with each other.

以上のように、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲とほぼ同様の範囲の複数のフレームを用いて、平均動きベクトルを求めることにより、その平均動きベクトルから、複数のフレームの範囲において比較的正確な主成分方向を求めることができる。   As described above, by obtaining an average motion vector using a plurality of frames in a range substantially similar to the range of frames used for filtering in the filter unit 22 (FIG. 25), a plurality of average motion vectors are obtained from the average motion vector. A relatively accurate principal component direction can be obtained in the frame range.

次に、上述のように、平均動きベクトルによれば、基本的には、比較的正確な主成分方向を求めることができる。   Next, as described above, according to the average motion vector, a relatively accurate principal component direction can be basically obtained.

しかしながら、常時、複数のフレームすべてを用いて、平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られる場合があり、この場合、主成分方向の精度も劣化し、その結果、フィルタ22でのフィルタリング結果も、適切でない動画(受信装置2において、人間が画質の劣化を認識しない動画に復元することができない画像)となる。   However, if the average motion vector is always obtained using all of a plurality of frames, an average motion vector having a large error may be obtained. In this case, the accuracy in the principal component direction is also deteriorated. Also, the filtering result is an inappropriate moving image (an image that cannot be restored to a moving image in which a human does not recognize deterioration in image quality in the receiving device 2).

即ち、例えば、動画データにおいて、静止している被写体を背景として、その背景の手前側に、動いている被写体が前景として存在する場合、注目ブロックが背景のみを含むときには、他のフレーム(注目フレーム以外のフレーム)では、注目ブロックに対応する背景部分が、前景に隠れて見えない状態となっていることがある。この場合、注目ブロックに対応する背景部分が前景に隠れて見えない状態となっているフレームにおける、注目ブロックとの相関情報の値は、注目ブロックに対応する背景部分の位置で最小になるとは限らず、そのような相関情報を用いて、合成相関情報を算出し、さらに平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られることがある。   That is, for example, in moving image data, when a stationary object is used as a background and a moving object exists as a foreground on the front side of the background, when the block of interest includes only the background, another frame (frame of interest) In other frames, the background portion corresponding to the block of interest may be hidden behind the foreground and invisible. In this case, the value of the correlation information with the block of interest in the frame in which the background portion corresponding to the block of interest is hidden behind the foreground is not always the minimum at the position of the background portion corresponding to the block of interest. First, when the composite correlation information is calculated using such correlation information and the average motion vector is obtained, an average motion vector with a large error may be obtained.

具体的には、送信装置1に入力された動画データが、例えば、図69に示す被写体が投影された動画データであったとする。   Specifically, it is assumed that the moving image data input to the transmission device 1 is, for example, moving image data on which a subject shown in FIG. 69 is projected.

ここで、図69における横軸は、空間方向の位置xを表している。そして、図69上側は、背景である被写体P6901の波形を示しており、図69下側は、前景である被写体P6902の波形を示している。 Here, the horizontal axis in FIG. 69 represents the position x in the spatial direction. The upper side of FIG. 69 shows the waveform of the subject P 6901 as the background, and the lower side of FIG. 69 shows the waveform of the subject P 6902 as the foreground.

図69上側に示した被写体P6901は静止しており、図69下側に示した被写体P6902は、g/t0[m/s]の速さで、空間方向xに移動している。 The subject P 6901 shown on the upper side of FIG. 69 is stationary, and the subject P 6902 shown on the lower side of FIG. 69 is moving in the spatial direction x at a speed of g / t 0 [m / s].

なお、上述の場合には、平均動きベクトルの算出にあたり、時刻t-4t0乃至t+4t0の9時刻(9フレーム)の画像データを用いたが、以下では、時刻t-3t0乃至t+3t0の7時刻(7フレーム)の画像データを用いることとする。時刻t-3t0乃至t+3t0の時間は、6t0という短い時間なので、その時間における被写体P6902の速さは一定であるとみなす(近似する)ことができ、上述したg/t0は、その一定の速さを表す。 In the above-described case, image data at 9 times (9 frames) from time t-4t 0 to t + 4t 0 is used in calculating the average motion vector. However, hereinafter, time t-3t 0 to t Image data at 7 times (7 frames) of + 3t 0 is used. Since the time from time t-3t 0 to t + 3t 0 is as short as 6t 0 , the speed of the subject P 6902 at that time can be regarded as being constant (approximate), and g / t 0 described above Represents the constant speed.

図70および図71は、図69に示した被写体P6901とP6902とが投影された、時刻t-3t0乃至t+3t0の7時刻(7フレーム)それぞれの画像データを示している。 70 and 71 show image data at seven times (7 frames) from time t-3t 0 to t + 3t 0 on which the subjects P 6901 and P 6902 shown in FIG. 69 are projected.

なお、図70および図71には、上から順に、時刻t-3t0乃至t+3t0の7時刻それぞれの画像データを図示してある。図70および図71は、符号が付してある部分が異なることを除いて、同一の図である。 In FIG. 70 and FIG. 71, image data at seven times from time t-3t 0 to t + 3t 0 are illustrated in order from the top. FIG. 70 and FIG. 71 are the same figures except that the parts to which the reference numerals are attached are different.

上述した図64乃至図67のフローチャートにしたがった処理(以下、適宜、第1の動き検出処理という)によれば、例えば、時刻tにおける画像データが、ブロックに分割される(図64におけるステップS101)。図70および図71では、時刻tにおける画像データが、ブロックB1乃至B16の16のブロックに分割されている。 According to the processing according to the flowcharts of FIGS. 64 to 67 described above (hereinafter, referred to as first motion detection processing as appropriate), for example, the image data at time t is divided into blocks (step S101 in FIG. 64). ). In FIGS. 70 and 71, the image data at time t is divided into 16 blocks of the block B 1 to B 16.

例えば、いま、背景である被写体P6901のみが含まれるブロックB3が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB3と対応する領域は、注目ブロックB3と同一位置の領域B101であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 For example, if the first motion detection process is performed on the assumption that the block B 3 including only the subject P 6901 that is the background is the block of interest, as shown in FIG. 70, the image data at time t + t 0 , a region corresponding to the target block B 3 is because it is the block of interest B 3 and the region B 101 in the same position is determined at step S102 of FIG. 65, the correlation information at time t + t 0 E 1 (u 1, v The value of 1 ) is minimized when the position (u 1 , v 1 ) = (0,0).

同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB3と対応する領域は、それぞれ、注目ブロックB3と同一位置の領域B201,B301,B-101,B-201,B-301である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , the region corresponding to the target block B 3 is the same position as the target block B 3 , respectively. region B 201, B 301, B -101 , B -201, a B -301. Therefore, the correlation at time t + 2t 0 Info E 2 (u 2, v 2 ), the correlation information E 3 at time t + 3t 0 (u 3, v 3), the correlation at time tt 0 information F 1 (r 1, s 1 ), correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and correlation information F 3 (r 3 , s 3 ) at time t-3t 0 are all minimized. , (U 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0,0) It is.

従って、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(0,0)であり、その結果、注目ブロックB3については、3次元の動きベクトルとして、(0,0,t0)が求められる。 Therefore, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u) after scaling obtained in step S111 of FIG. 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), and F 3 (r 3 , s 3 ), the combined correlation information E (p, q) The minimum (p, q), that is, the average motion vector (p 0 , q 0 ) is (0,0). As a result, for the block of interest B 3 , (0, 0, t 0 ) is obtained.

この場合、図68では、注目ブロックB3の各画素について、領域B-301,B-201,B-101,B3,B101,B201,B301それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-301,B-201,B-101,B3,B101,B201,B301は、いずれも、注目ブロックB3に対応した領域であり、従って、領域B-301,B-201,B-101,B3,B101,B201,B301を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(0,0,t0)に直交する方向(注目ブロックB3のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域R1001(図20)内の周波数成分のみの適正なデータを得ることができる。 In this case, in FIG. 68, for each pixel of the block of interest B 3, area B -301, B -201, B -101 , to B 3, B 101, B 201 , B 301 pixel values of respective corresponding pixels Filtering for performing weighted addition with weights 1/16, 2/16, 3/16, 4/16, 3/16, 2/16, 1/16 is performed. Region B -301, B -201, B -101 , B 3, B 101, B 201, B 301 are both an area corresponding to the target block B 3, therefore, the region B -301, B -201 , B -101 , B 3 , B 101 , B 201 , B 301 , data of only frequency components that can be recognized by human vision, that is, (0,0, t 0 in this case) ) To obtain appropriate data of only the frequency component in the region R 1001 (FIG. 20) extending in the direction orthogonal to (the principal component direction of the data of the target block B 3 ) and having a width in the T direction of 2π / (4t 0 ). be able to.

次に、例えば、前景である被写体P6902のみが含まれるブロックB10が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB10と対応する領域は、注目ブロックB10からx方向にgだけずれた位置の領域B102であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(g,0)のときである。 Next, for example, if the first motion detection process is performed assuming that the block B 10 including only the subject P 6902 which is the foreground is the target block, as shown in FIG. 70, the image data at time t + t 0 is displayed. in the region corresponding to the block of interest B 10 is because it is the region B 102 of position shifted by g in the x-direction from the target block B 10, obtained in the step S102 of FIG. 65, the correlation information at time t + t 0 The value of E 1 (u 1 , v 1 ) is minimized when the position (u 1 , v 1 ) = (g, 0).

同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB10と対応する領域は、それぞれ、注目ブロックB10からx方向に2gだけずれた位置の領域B202、注目ブロックB10からx方向に3gだけずれた位置の領域B302、注目ブロックB10からx方向に-gだけずれた位置の領域B-102、注目ブロックB10からx方向に-2gだけずれた位置の領域B-202、注目ブロックB10からx方向に-3gだけずれた位置の領域B-302である。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , regions corresponding to the target block B 10 are respectively in the x direction from the target block B 10. the position of the region B 202 shifted by 2g, the block of interest B 10 position of the region B 302 shifted by 3g in the x direction from the block of interest B 10 position of the region B -102 shifted in the x direction by -g from attention area at a position shifted by -2g from the block B 10 in the x direction B -202, a region B -302 position shifted by -3g in the x direction from the target block B 10.

従って、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(2g,0)のときであり、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(3g,0)のときであり、時刻t-t0における相関情報F1(r1,s1)の値が最小になるのは、位置(r1,s1)が(-g,0)のときであり、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、位置(r2,s2)が(-2g,0)のときであり、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が、(-3g,0)のときである。 Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (2g, 0) and the time t + The value of the correlation information E 3 (u 3 , v 3 ) at 3t 0 is minimized when the position (u 3 , v 3 ) is (3g, 0), and the correlation information F 1 at time tt 0 (r 1, s 1) the value of the is minimized, positions (r 1, s 1) is (-g, 0) is when the correlation at time t-2t 0 information F 2 (r 2, The value of s 2 ) is minimized when the position (r 2 , s 2 ) is (-2g, 0), and the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 The value is minimized when the position (r 3 , s 3 ) is ( −3 g, 0).

以上から、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(g,0)であり、その結果、注目ブロックB10については、3次元の動きベクトルとして、(g,0,t0)が求められる。 From the above, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (after scaling) obtained in step S111 of FIG. u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), and the resultant correlation information E (p, q) (P, q), that is, the average motion vector (p 0 , q 0 ) is (g, 0). As a result, for the target block B 10 , (g , 0, t 0 ).

この場合、図68では、注目ブロックB10の各画素について、領域B-302,B-202,B-102,B10,B102,B202,B302それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-302,B-202,B-102,B10,B102,B202,B302は、いずれも、注目ブロックB10に対応した領域であり、従って、領域B-302,B-202,B-102,B10,B102,B202,B302を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(g,0,t0)に直交する方向(注目ブロックB10のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域内の周波数成分のみの適正なデータを得ることができる。 In this case, in FIG. 68, for each pixel of the block of interest B 10, region B -302, B -202, B -102 , relative to B 10, B 102, B 202 , B 302 pixel values of respective corresponding pixels Filtering for performing weighted addition with weights 1/16, 2/16, 3/16, 4/16, 3/16, 2/16, 1/16 is performed. Region B -302, B -202, B -102 , B 10, B 102, B 202, B 302 are both an area corresponding to the target block B 10, therefore, the region B -302, B -202 , B -102 , B 10 , B 102 , B 202 , B 302 , data of only frequency components that can be recognized by human vision, that is, (g, 0, t 0 in this case) ) Proper data of only frequency components in a region extending in a direction orthogonal to (a principal component direction of data of the target block B 10 ) and having a width in the T direction of 2π / (4t 0 ) can be obtained.

以上のように、注目ブロック、および他のフレームの注目ブロックに対応する領域のすべてが、背景である被写体P6901のみを含む場合や、前景である被写体P6902のみを含む場合には、注目ブロックのデータの主成分方向を正確に求め、その主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。 As described above, when all of the areas corresponding to the block of interest and the block of interest in other frames include only the subject P 6901 that is the background or only the subject P 6902 that is the foreground, the block of interest By accurately obtaining the principal component direction of the data and filtering based on the principal component direction, it is possible to obtain appropriate data of only frequency components that can be recognized by human vision.

これに対して、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、誤差の大きな平均動きベクトルが求められることがある。この場合、そのような平均動きベクトルからは、注目ブロックのデータの主成分方向を正確に求められず、その結果、主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができないことがある。   On the other hand, if the area corresponding to the target block or the target block in another frame includes a plurality of subjects with different speeds, that is, includes a boundary portion of a plurality of subjects with different speeds, A large average motion vector may be required. In this case, from such an average motion vector, the principal component direction of the data of the block of interest cannot be accurately determined, and as a result, only frequency components that can be recognized by human vision by filtering based on the principal component direction. It may not be possible to obtain appropriate data.

即ち、例えば、図71において、背景である被写体P6901のみを含むブロックB7が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB7と対応する領域は、注目ブロックB7と同一位置の領域B111であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 That is, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 7 including only the subject P 6901 as the background is the target block, the target block B in the image data at time t + t 0 is performed. Since the area corresponding to 7 is the area B 111 at the same position as the target block B 7 , the value of the correlation information E 1 (u 1 , v 1 ) at time t + t 0 obtained in step S102 of FIG. Is minimized when the position (u 1 , v 1 ) = (0,0).

同様に、時刻t+2t0,t+3t0,t-t0,t-2t0における画像データにおいて、注目ブロックB7と対応する領域は、それぞれ、注目ブロックB7と同一位置の領域B211,B311,B-111,B-211である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2)が、(0,0)のときである。 Similarly, in the image data at time t + 2t 0, t + 3t 0, tt 0, t-2t 0, a region corresponding to the block of interest B 7, which may each focus block B 7 in the same position of the region B 211, B 311, B -111, is a B -211. Therefore, the correlation at time t + 2t 0 Info E 2 (u 2, v 2 ), the correlation information E 3 at time t + 3t 0 (u 3, v 3), the correlation at time tt 0 information F 1 (r 1, s 1 ) and the value of the correlation information F 2 (r 2 , s 2 ) at the time t-2t 0 are minimized because the position (u 2 , v 2 ), (u 3 , v 3 ), This is when (r 1 , s 1 ) and (r 2 , s 2 ) are (0,0).

しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、図71では、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値が、位置(r3,s3)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may Originally, it should be region B -311 at the same position as the block of interest B 7, FIG. 71, moving The subject is hidden behind the subject P 6902 and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0).

そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.

この3次元の動きベクトル(p0,q0,t0)は、位置(r3,s3)が(0,0)のときに値が最小になるとは限らない相関情報F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB7のデータの主成分方向を正確に表しているとは限らない。 The three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum value when the position (r 3 , s 3 ) is (0,0). The correlation information F 3 (r 3 , s 3 ) is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the composite correlation information E (p, q) obtained using The direction orthogonal to the vector (p 0 , q 0 , t 0 ) does not always accurately represent the principal component direction of the data of the block of interest B 7 .

そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.

次に、例えば、図71において、背景である被写体P6901のみを含むブロックB14が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB14と対応する領域は、注目ブロックB14と同一位置の領域B112であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 Next, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 14 including only the subject P 6901 as the background is the target block, the target block is included in the image data at time t + t 0 . a region corresponding to the B 14 is because it is the region B 112 of the block of interest B 14 at the same position is determined at step S102 of FIG. 65, the correlation information at time t + t 0 E 1 of (u 1, v 1) The value is minimized when the position (u 1 , v 1 ) = (0,0).

同様に、時刻t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB14と対応する領域は、それぞれ、注目ブロックB14と同一位置の領域B-112,B-212,B-312である。従って、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。 Similarly, in the image data at time tt 0, t-2t 0, t-3t 0, a region corresponding to the block of interest B 14, respectively, the block of interest B 14 at the same position in the region B -112, B -212, B- 312 . Therefore, correlation information F 1 (r 1 , s 1 ) at time tt 0, correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and correlation information F 3 (r 3 , r at time t-3t 0 The value of s 3 ) is minimized when the positions (r 1 , s 1 ), (r 2 , s 2 ), and (r 3 , s 3 ) are (0, 0). .

しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値が、位置(u2,v2)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not necessarily the minimum when the position (u 2 , v 2 ) is (0,0).

同様に、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値が、位置(u3,v3)が(0,0)のときに最小になるとは限らない。 Similarly, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 are originally of interest but block B 14 and it should be region B 312 in the same position, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not necessarily the minimum when the position (u 3 , v 3 ) is (0,0).

そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.

この3次元の動きベクトル(p0,q0,t0)は、位置(u2,v2)が(0,0)のときに値が最小になるとは限らない相関情報F2(u2,v2)と、位置(u3,v3)が(0,0)のときに値が最小になるとは限らない相関情報F3(u3,v3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB14のデータの主成分方向を正確に表しているとは限らない。 This three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0), and the correlation information F 2 (u 2 , v 2 ) and the correlation information F 3 (u 3 , v 3 ), the value of which is not necessarily the minimum when the position (u 3 , v 3 ) is (0,0) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 14 accurately represents.

そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.

次に、例えば、図71において、背景である被写体P6901と前景である被写体P6902とを含むブロックB9が注目ブロックであるとして、第1の動き検出処理を行うと、注目ブロックB9は、静止している被写体P6901と、動いている被写体P6902との両方を含むため、即ち、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、そのような注目ブロックB9に対応する領域は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも存在しない。 Next, for example, in FIG. 71, if the block B 9 including the subject P 6901 that is the background and the subject P 6902 that is the foreground is the target block, and the first motion detection process is performed, the target block B 9 is Since both the stationary subject P 6901 and the moving subject P 6902 are included, that is, the moving subject P 6902 is stationary at the position of the stationary subject P 6901 . Since P 6901 is hidden, the areas corresponding to such a target block B 9 are time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t It does not exist in any of the image data at -3t 0 .

このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおける、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となる For this reason, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Positions (u 1 , v 1 ), (u 2 ) most similar to the block of interest B 9 in the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 )

そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.

この3次元の動きベクトル(p0,q0,t0)は、注目ブロックB9と最も類似する位置において最小になる相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB9のデータの主成分方向を正確に表しているとは限らない。 This three-dimensional motion vector (p 0 , q 0 , t 0 ) has the minimum correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v) at the position most similar to the target block B 9. 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 9 accurately represents.

そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.

以上のように、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、第1の動き検出処理では、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求めることができず、そのような主成分方向に基づくフィルタリングが行われることによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となることがあった。   As described above, when the region corresponding to the block of interest or the block of interest in another frame includes a plurality of subjects having different speeds, that is, if the region includes boundary portions of a plurality of subjects having different speeds, the first In this motion detection processing, the average motion vector, and thus the principal component direction of the data of the block of interest, cannot be obtained accurately, and the filtering based on such principal component direction is performed, so that it is recognized by human vision. It may be difficult to obtain appropriate data of only frequency components that can be obtained.

そこで、図72は、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合であっても、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求める処理(以下、適宜、第2の動き検出処理という)を行う図25の主成分方向取得部31の構成例を示している。   Therefore, FIG. 72 shows the average motion vector, and thus the principal component direction of the data of the target block, even when the region corresponding to the target block or the target block of another frame includes a plurality of subjects having different velocities. 25 shows an example of the configuration of the principal component direction acquisition unit 31 in FIG. 25 that performs a process for accurately obtaining (hereinafter referred to as a second motion detection process as appropriate).

なお、図中、図52における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図72の主成分方向取得部31は、スケーリング合成部104と最小値検出部105に代えて、それぞれスケーリング合成部124と最小値検出部125が設けられている他は、図52における場合と同様に構成されている。   In the figure, portions corresponding to those in FIG. 52 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the principal component direction acquisition unit 31 in FIG. 72 is different from the scaling synthesis unit 104 and the minimum value detection unit 105 in that the scaling synthesis unit 124 and the minimum value detection unit 125 are provided in the case of FIG. It is configured in the same way.

スケーリング合成部124は、図52のスケーリング合成部104と同様に、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。但し、スケーリング合成部124では、スケーリング後の相関情報を合成する数(合成する相関情報の数)を変えて、複数の合成相関情報が求められる。そして、スケーリング合成部124は、複数の合成相関情報を、最小値検出部125に供給する。   Similar to the scaling synthesis unit 104 in FIG. 52, the scaling synthesis unit 124 scales the correlation information obtained from each of the correlation calculation target frames supplied from the correlation calculation unit 103 in the spatial directions x and y, Further, the correlation information after scaling is synthesized to obtain synthesized correlation information. However, the scaling combining unit 124 obtains a plurality of pieces of combined correlation information by changing the number of pieces of correlation information after scaling (the number of pieces of correlation information to be combined). Then, the scaling synthesis unit 124 supplies the plurality of synthesis correlation information to the minimum value detection unit 125.

最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報それぞれの「値」の最小値を求める。さらに、最小値検出部125は、複数の合成相関情報から、最小値が最小の合成相関情報を、最大合成相関情報として求める。   The minimum value detecting unit 125 obtains maximum combined correlation information that is the combined correlation information having the maximum correlation among the plurality of combined correlation information from the scaling combining unit 124. That is, the minimum value detection unit 125 obtains the minimum value of “value” of each of the plurality of combined correlation information from the scaling combining unit 124. Further, the minimum value detection unit 125 obtains the composite correlation information having the minimum minimum value as the maximum composite correlation information from the plurality of composite correlation information.

さらに、最小値検出部125は、最大合成相関情報が表す相関が最大となる空間方向の位置を、即ち、最大合成相関情報の「値」を最小にする空間方向の位置を、最大相関位置として検出し、その最大相関位置へのベクトルを、平均動きベクトルとして求める。そして、最小値検出部125は、平均動きベクトルに、バッファ部21(図25)に記憶されている動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルを求め、その3次元の動きベクトルの方向と直交する方向を、注目ブロックの主成分方向として検出して出力する。 Further, the minimum value detection unit 125 sets the position in the spatial direction where the correlation represented by the maximum combined correlation information is maximum, that is, the position in the spatial direction that minimizes the “value” of the maximum combined correlation information as the maximum correlation position. The vector to the maximum correlation position is detected as an average motion vector. Then, the minimum value detection unit 125 obtains a three-dimensional motion vector obtained by adding the frame period t 0 of the moving image data stored in the buffer unit 21 (FIG. 25) to the average motion vector as a component in the time direction t. The direction orthogonal to the direction of the three-dimensional motion vector is detected and output as the principal component direction of the block of interest.

また、最小値検出部125は、合成相関情報を求めるのに用いられた複数のフレームのうちの、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表す後述するカーネルサイズを、注目ブロックの動きベクトル(平均動きベクトル)の有効範囲、つまり、注目ブロックの主成分方向の有効範囲として、さらに求め、注目ブロックの主成分方向とともに出力する。   Further, the minimum value detection unit 125 represents a range of frames used for calculating the correlation information synthesized to obtain the maximum synthesized correlation information among a plurality of frames used to obtain the synthesized correlation information. The kernel size to be calculated is further obtained as the effective range of the motion vector (average motion vector) of the target block, that is, the effective range of the main component direction of the target block, and is output together with the main component direction of the target block.

次に、図73乃至図77のフローチャートを参照して、主成分方向取得部31が図72に示したように構成される場合の図25のフィルタ生成部23の処理について説明する。   Next, the processing of the filter generation unit 23 in FIG. 25 when the principal component direction acquisition unit 31 is configured as shown in FIG. 72 will be described with reference to the flowcharts in FIGS. 73 to 77.

なお、図73乃至図77のフローチャートにしたがったステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理は、第2の動き検出処理であり、図31のステップS11の処理に対応する。また、ステップS173乃至S175の処理は、図31のステップS12の処理に対応し、ステップS176の処理は、図31のステップS13の処理に対応する。   Of the processes of steps S151 to S176 according to the flowcharts of FIGS. 73 to 77, the processes of steps S151 to S172 are second motion detection processes and correspond to the process of step S11 of FIG. Further, the processing in steps S173 to S175 corresponds to the processing in step S12 in FIG. 31, and the processing in step S176 corresponds to the processing in step S13 in FIG.

第2の動き検出処理では、速度が異なる複数の被写体が投影された動画の、いわば性質を利用して、注目ブロックとの相関情報を演算する複数のフレームのうちの、注目ブロックと対応する領域を有するフレームについて求められた相関情報だけを合成して合成相関情報を得て、その合成相関情報を用いて、注目ブロックの正確な主成分方向を得ることができる平均動きベクトルを求める。   In the second motion detection process, an area corresponding to the target block among a plurality of frames for calculating correlation information with the target block using the so-called property of a moving image on which a plurality of subjects with different speeds are projected. Only the correlation information obtained for a frame having a frame is combined to obtain combined correlation information, and an average motion vector capable of obtaining an accurate principal component direction of the block of interest is obtained using the combined correlation information.

即ち、例えば、図69乃至図71に示したように、静止している被写体P6901の手前側に、動いている被写体P6902が存在する時刻t-3t0乃至t+3t0の7フレームの間の時間は、6t0という短い時間であるので、動いている被写体P6902の速度は、一定であると近似することができる。 That is, for example, as shown in FIG. 69 to FIG. 71, seven frames from time t-3t 0 to t + 3t 0 where the moving subject P 6902 exists on the front side of the stationary subject P 6901 are shown. Since the time between them is as short as 6t 0 , it can be approximated that the speed of the moving subject P 6902 is constant.

そして、時刻tの画像データのあるブロックを注目ブロックとした場合に、その注目ブロックに対して、動いている被写体P6902が、遠ざかっていくケースでは、時刻tよりも時間的に後の時刻(未来の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB7が注目ブロックである場合には、その注目ブロックB7に対して、被写体P6902が遠ざかっていくが、この場合、時刻tよりも時間的に後の時刻t+t0,t+2t0,t+3t0それぞれにおいて、注目ブロックB7に対応する領域B111,B211,B311が存在する。 Then, when a block having image data at time t is set as a target block, in the case where the moving subject P 6902 moves away from the target block, a time later than time t ( In the image data at a future time), there is an area corresponding to the block of interest. That is, for example, in FIG. 71, when the block B 7 is the target block, the subject P 6902 moves away from the target block B 7 , but in this case, the time later than the time t At times t + t 0 , t + 2t 0 , and t + 3t 0 , areas B 111 , B 211 , and B 311 corresponding to the block of interest B 7 exist.

また、注目ブロックに対して、動いている被写体P6902が、近づいてくるケースでは、時刻tよりも時間的に前の時刻(過去の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB14が注目ブロックである場合には、その注目ブロックB14に対して、被写体P6902が近づいてくるが、この場合、時刻tよりも時間的に前の時刻t-t0,t-2t0,t-3t0それぞれにおいて、注目ブロックB14に対応する領域B-112,B-212,B-312が存在する。 In addition, in the case where the moving subject P 6902 approaches the block of interest, there is an area corresponding to the block of interest in the image data at a time prior to the time t (past time). To do. That is, for example, in FIG. 71, when the block B 14 is the target block, the subject P 6902 approaches the target block B 14 , but in this case, the time before the time t At times tt 0 , t-2t 0 , and t-3t 0 , there are regions B −112 , B −212 , and B −312 corresponding to the block of interest B 14 .

なお、注目ブロックに、静止している被写体P6901と、動いている被写体P6902とが存在するケースでは、時刻tの前後の時刻の画像データにおいて、注目ブロックと対応する領域は存在しない。即ち、例えば、図71において、ブロックB9が注目ブロックである場合には、注目ブロックB9には、静止している被写体P6901と、動いている被写体P6902とが存在するが、この場合、時刻tよりも前の時刻t-t0,t-2t0,t-3t0と、後の時刻t+t0,t+2t0,t+3t0のうちのいずれにも、注目ブロックB9と対応する領域は存在しない。 Note that in the case where the subject block includes a stationary subject P 6901 and a moving subject P 6902 , there is no region corresponding to the subject block in the image data at times before and after time t. That is, for example, in FIG. 71, when the block B 9 is the target block, the target block B 9 includes a stationary subject P 6901 and a moving subject P 6902. In this case, , The block of interest B 9 at any of the times tt 0 , t-2t 0 , t-3t 0 before the time t and the times t + t 0 , t + 2t 0 , t + 3t 0 after the time t There is no corresponding area.

第2の動き検出処理では、以上のような、速度が異なる複数の被写体が投影された動画の性質を利用した処理が行われる。   In the second motion detection process, a process using the nature of a moving image in which a plurality of subjects with different speeds is projected as described above is performed.

即ち、図72の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。   That is, in the principal component direction acquisition unit 31 in FIG. 72, the moving image data read from the buffer unit 21 (FIG. 25) is supplied to the buffer unit 101, and the buffer unit 101 temporarily stores the moving image data.

そして、図73のステップS151において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図64のステップS101における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。   In step S151 in FIG. 73, the block extraction unit 102 divides the moving image data stored in the buffer unit 101 into, for example, blocks of 16 × 16 pixels, as in step S101 in FIG. To the unit 103. In the subsequent processing, the blocks obtained by the block extraction unit 102 are sequentially performed as the target block.

ここで、図64乃至図67における場合と同様に、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, as in FIGS. 64 to 67, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.

ステップS151の処理後は、ステップS152に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部124に供給して、ステップS153に進む。 After the processing in step S151, the process proceeds to step S152, in which the correlation calculation unit 103 reads the image data at time t + t 0 that is the image data of the frame next to the frame of interest from the buffer unit 101, The function E 1 (u 1 , v 1 ) representing the sum of absolute differences between corresponding pixels with the image data at t + t 0 is expressed as the position of the image data at time t + t 0 ( x 0 + u 1 , y 0 + v 1 ), and the function E 1 (u 1 , v 1 ) is supplied to the scaling synthesis unit 124 as correlation information at time t + t 0 The process proceeds to S153.

ステップS153では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部124に供給して、ステップS154に進む。 In step S153, the correlation calculation unit 103 reads the image data at time t + 2t 0 that is the image data of the next frame after the frame of interest from the buffer unit 101, and reads the block of interest and the image at time t + 2t 0 . The function E 2 (u 2 , v 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t + 2t 0 (x 0 + u 2 , y 0 + v 2 ) is changed and the function E 2 (u 2 , v 2 ) is supplied as correlation information at time t + 2t 0 to the scaling synthesis unit 124, and the process proceeds to step S154.

ステップS154では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部124に供給して、図74のステップS155に進む。 In step S154, the correlation calculation unit 103 reads out the image data at time t + 3t 0 that is temporally preceding image data by three frames of the target frame from the buffer unit 101, and sets the target block and time t + 3t 0. A function E 3 (u 3 , v 3 ) representing the sum of absolute differences between corresponding pixels with the image data of the image data position of the image data at time t + 3t 0 (x 0 + u 3 , y 0 + v 3 ), and the function E 3 (u 3 , v 3 ) is supplied to the scaling combiner 124 as correlation information at time t + 3t 0 , and step S155 in FIG. Proceed to

ステップS155では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部124に供給して、ステップS156に進む。 In step S155, the correlation calculation unit 103 reads the image data at time tt 0 that is the image data of the frame before the frame of interest from the buffer unit 101, and corresponds the block of interest to the image data at time tt 0. Change the position (x 0 + r 1 , y 0 + s 1 ) of the image data at the time tt 0 to associate the block of interest with the function F 1 (r 1 , s 1 ) that represents the sum of absolute differences between pixels. The function F 1 (r 1 , s 1 ) is obtained as correlation information at time tt 0 and supplied to the scaling synthesizer 124, and the process proceeds to step S156.

ステップS156では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部124に供給して、ステップS157に進む。 In step S156, the correlation calculation unit 103 reads the image data at the time t-2t 0 that is the image data of the previous frame before the target frame from the buffer unit 101, and reads the target block and the image at the time t-2t 0 . The function F 2 (r 2 , s 2 ) representing the sum of absolute differences between corresponding pixels with the data is expressed as the position of the image data at the time t-2t 0 (x 0 + r 2 , y 0 + s 2 ) is changed, and the function F 2 (r 2 , s 2 ) is supplied as the correlation information at time t−2t 0 to the scaling combiner 124, and the process proceeds to step S157.

ステップS157では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部124に供給して、ステップS158に進む。 In step S157, the correlation calculating unit 103, the image data at time t-3t 0 is image data before in time by three frames of the frame of interest, from the buffer unit 101, and the block of interest, the time t-3t 0 of the image data, the function F 3 (r 3, s 3 ) which represents the sum of the absolute differences of each other corresponding pixel, the position of the image data at time t-3t 0 to correspond to the block of interest (x 0 + r 3 , y 0 + s 3 ), and the function F 3 (r 3 , s 3 ) is supplied to the scaling combiner 124 as correlation information at time t-3t 0 , and the process proceeds to step S158.

ステップS158では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちのすべてについて、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S <b> 158, the scaling synthesis unit 124 includes six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), the position of the correlation information E 1 (u 1 , v 1 ) Scaling is performed with the scale of (u 1 , v 1 ) as a reference, and further, the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3, performs scaling with -s 3/3), further, the correlation information after the scaling E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q), F 1 (-p, -q), F 2 (-2p, -2q), F 3 (-3p, -3q), the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q) + F 2 (-2p, -2q) + F 3 (-3p, -3q)).

なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。   Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above.

以上のように、スケーリング合成部124は、ステップS158において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)のすべてを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての、合計で6つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である6によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L33を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/6+L33)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS158からS159に進む。 As described above, the scaling synthesizer 124, in step S158, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Correlation information E 3 (u 3 , v 3 ) at time t + 3t 0, correlation information F 1 (r 1 , s 1 ) at time tt 0 , correlation information F 2 (r 2 , s at time t-2t 0 2 ), combined correlation information E (p, q) that combines all the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 , that is, after time t of the frame of interest After obtaining the combined correlation information E (p, q), which is a total of 6 correlation information for each of the 3 frames and the previous 3 frames in time, the combined correlation information E (p, q) is obtained. The obtained correlation information is normalized by dividing the combined correlation information E (p, q) by six, which is the number of correlation information combined. It is added to the value L 33 By the final synthesized correlation information E (p, q) (= {E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q ) + F 2 (−2p, −2q) + F 3 (−3p, −3q)} / 6 + L 33 ). Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S158 to S159.

ステップS159では、最小値検出部125は、ステップS158でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p33,q33)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p33,q33)を検出し、位置(p,q)が最大相関位置(p33,q33)である場合の合成相関情報E(p33,q33)の「値」、即ち、最小値E33とともに記憶して、図75のステップS160に進む。 In step S159, the minimum value detecting unit 125 supplies the three frames that are temporally subsequent to the time t of the frame of interest and the three frames that are temporally previous, supplied from the scaling composition unit 124 in step S158. (P 33 , q 33 ), which is the position (p, q) in the spatial direction where the correlation represented by the combined correlation information E (p, q), which is obtained by synthesizing the correlation information, is maximized, that is, the combined correlation information E Detect (p 33 , q 33 ), which is the position (p, q) that minimizes the `` value '' of (p, q), and position (p, q) is the maximum correlation position (p 33 , q 33 ) Stored together with the “value” of the composite correlation information E (p 33 , q 33 ) in some cases, that is, the minimum value E 33 , proceeds to step S160 in FIG.

ステップS160では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q))を求める。 In step S <b> 160, the scaling synthesis unit 124 includes six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), five correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), correlation information E 1 (u 1 , v 1 ) Is scaled with reference to the scale of the position (u 1 , v 1 ), and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (- r 1, -s 1) = (- r 2/2, performs scaling with -s 2/2), further, the correlation information E 1 after the scaling (p, q), E 2 (2p, 2q ), E 3 (3p, 3q), F 1 (-p, -q), and F 2 (-2p, -2q) are added to obtain the combined correlation information E (p, q) (= E 1 (p , q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (−p, −q) + F 2 (−2p, −2q)).

以上のように、スケーリング合成部124は、ステップS160において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の5つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L23を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)}/5+L23)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS160からS161に進む。 As described above, the scaling synthesizer 124, in step S160, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Correlation information E 3 (u 3 , v 3 ) at time t + 3t 0, correlation information F 1 (r 1 , s 1 ) at time tt 0 , correlation information F 2 (r 2 , s at time t-2t 0 2 ), the combined correlation information E (p, q), that is, the sum of the three frames after the time t and the two frames before the time t of the frame of interest. The composite correlation information E (p, q) obtained by synthesizing the five correlation information in the above is obtained, and then the composite correlation information E is calculated by 5 which is the number of correlation information synthesized in obtaining the composite correlation information E (p, q). Normalization is performed by dividing (p, q) .Further, by adding a predetermined offset value L 23 to the normalized combined correlation information E (p, q), the final combined correlation information E ( p, q) (= {E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q) + F 2 (-2p, -2q)} / 5 + L 23 ) Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S160 to S161.

ステップS161では、最小値検出部125は、ステップS160でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p23,q23)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p23,q23)を検出し、位置(p,q)が最大相関位置(p23,q23)である場合の合成相関情報E(p23,q23)の「値」、即ち、最小値E23とともに記憶して、ステップS162に進む。 In step S161, the minimum value detector 125 supplies each of the three frames that are temporally subsequent to the time t of the frame of interest and the two frames that are temporally previous, supplied from the scaling composition unit 124 in step S160. (P 23 , q 23 ), which is the position (p, q) in the spatial direction at which the correlation represented by the combined correlation information E (p, q), which is obtained by combining the correlation information, is maximized, that is, the combined correlation information E (p 23 , q 23 ), which is the position (p, q) that minimizes the (value) of (p, q), is detected, and the position (p, q) is the maximum correlation position (p 23 , q 23 ) Stored together with the “value” of the composite correlation information E (p 23 , q 23 ) in some cases, that is, the minimum value E 23 , proceeds to step S162.

ステップS162では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q))を求める。 In step S <b> 162, the scaling combining unit 124 includes six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), four correlation information E 1 (u 1 , v 1 ), E 2 (u 2, v 2) , E 3 (u 3, v 3), the F 1 (r 1, s 1 ), the position of the correlation information E 1 (u 1, v 1 ) (u 1, v 1) Is scaled with reference to the scale, and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (u 3/3, v 3/3) = (- r 1 , -s 1 ), and scaling information E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q), F 1 (- By adding (p, -q), the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q) + F 1 (- p, -q)).

以上のように、スケーリング合成部124は、ステップS162において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)の4つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L13を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)}/4+L13)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS162からS163に進む。 As described above, the scaling synthesizer 124, in step S162, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Combined correlation information E (p, q) obtained by combining four pieces of correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 and correlation information F 1 (r 1 , s 1 ) at time tt 0 , That is, the combined correlation information E (p, q) obtained by combining a total of four pieces of correlation information for each of the three frames that are temporally subsequent to the time t of the frame of interest and the one frame that is temporally previous. After obtaining, the composite correlation information E (p, q) is normalized by dividing the composite correlation information E (p, q) by 4 which is the number of correlation information synthesized in obtaining the composite correlation information E (p, q). By adding a predetermined offset value L 13 to the composite correlation information E (p, q) of the final composite correlation information E (p, q) (= {E 1 (p, q) + E 2 ( 2p, 2q) + E 3 (3p, 3q) + F 1 (-p, -q)} / 4 + L 13 ) Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S162 to S163.

ステップS163では、最小値検出部125は、ステップS162でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p13,q13)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p13,q13)を検出し、位置(p,q)が最大相関位置(p13,q13)である場合の合成相関情報E(p13,q13)の「値」、即ち、最小値E13とともに記憶して、ステップS164に進む。 In step S163, the minimum value detecting unit 125 supplies the three frames that are temporally subsequent to the time t of the frame of interest and the one frame that is temporally previous supplied from the scaling composition unit 124 in step S162. (P 13 , q 13 ), which is the position (p, q) in the spatial direction at which the correlation represented by the combined correlation information E (p, q), which is obtained by combining the correlation information, is maximized, that is, the combined correlation information E (p 13 , q 13 ), which is the position (p, q) that minimizes the (value) of (p, q), is detected, and the position (p, q) is the maximum correlation position (p 13 , q 13 ) The value is stored together with the “value” of the composite correlation information E (p 13 , q 13 ) in some cases, that is, the minimum value E 13 , and the process proceeds to step S164.

ステップS164では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q))を求める。 In step S164, the scaling synthesis unit 124 receives the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), three correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ) and E 3 (u 3 , v 3 ) are scaled based on the scale of the position (u 1 , v 1 ) of the correlation information E 1 (u 1 , v 1 ), and Then, the scaled correlation information is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = With (u 3/3, v 3 /3) By performing scaling and further adding the correlation information E 1 (p, q), E 2 (2p, 2q), E 3 (3p, 3q) after the scaling, the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q)) is obtained.

以上のように、スケーリング合成部124は、ステップS164において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)の3つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L03を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)}/3+L03)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS164からS165に進む。 As described above, the scaling synthesizer 124, in step S164, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Combined correlation information E (p, q) obtained by combining three pieces of correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 , that is, 3 later in time with respect to time t of the frame of interest This is the number of pieces of correlation information synthesized for obtaining the combined correlation information E (p, q) after obtaining the combined correlation information E (p, q) obtained by combining a total of three pieces of correlation information for each frame. 3 is normalized by dividing the composite correlation information E (p, q) by 3 and, further, by adding a predetermined offset value L 03 to the composite correlation information E (p, q) after normalization, Synthetic correlation information E (p, q) (= {E 1 (p, q) + E 2 (2p, 2q) + E 3 (3p, 3q)} / 3 + L 03 ) is obtained. Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S164 to S165.

ステップS165では、最小値検出部125は、ステップS164でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p03,q03)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p03,q03)を検出し、位置(p,q)が最大相関位置(p03,q03)である場合の合成相関情報E(p03,q03)の「値」、即ち、最小値E03とともに記憶して、図76のステップS166に進む。 In step S165, the minimum value detection unit 125 synthesizes the correlation information supplied from the scaling synthesis unit 124 in step S164 and synthesizes the correlation information for each of the three frames after the time t of the frame of interest. (P 03 , q 03 ), which is the position (p, q) in the spatial direction where the correlation represented by E (p, q) is maximum, is detected, that is, the “value” of the combined correlation information E (p, q) (P 03 , q 03 ), which is a position (p, q) that minimizes the position of the signal, is detected, and the combined correlation information E (p (p, q) is the maximum correlation position (p 03 , q 03 ) 03 , q 03 ), ie, the minimum value E 03 , and the process proceeds to step S166 in FIG.

ステップS166では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S <b> 166, the scaling synthesis unit 124 includes the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), five correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), correlation information E 1 (u 1 , v 1 ) Is scaled with reference to the scale of the position (u 1 , v 1 ), and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (u 2/2, v 2/2) = (- r 1, -s 1) = (- r 2 / 2, -s 2/2) = (- r 3/3, performs scaling with -s 3/3), further, the correlation information E 1 after the scaling (p, q), E 2 (2p , 2q), F 1 (−p, −q), F 2 (−2p, −2q), and F 3 (−3p, −3q), the combined correlation information E (p, q) (= E 1 (p, q) + E 2 (2p, 2q) + F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)) is obtained.

以上のように、スケーリング合成部124は、ステップS166において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L32を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/5+L32)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS166からS167に進む。 As described above, the scaling synthesizer 124, in step S166, the correlation information E 1 at time t + t 0 (u 1, v 1), the correlation information E 2 at time t + 2t 0 (u 2, v 2) , Correlation information F 1 (r 1 , s 1 ) at time tt 0, correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , correlation information F 3 (r 3 , s at time t-3t 0 3 ) combined correlation information E (p, q), that is, a total of five for each of the two frames later in time with respect to the time t of the frame of interest and the three frames earlier in time. The composite correlation information E (p, q) obtained by synthesizing the correlation information is obtained, and then the composite correlation information E (p, q) is obtained by 5 which is the number of correlation information synthesized in obtaining the composite correlation information E (p, q). q) is divided by normalization, and the final combined correlation information E (p, q is added by adding a predetermined offset value L 32 to the normalized combined correlation information E (p, q). ) (= {E 1 (p, q ) + E 2 (2p, 2q) + F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)} / 5 + L 32 ). Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S166 to S167.

ステップS167では、最小値検出部125は、ステップS166でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p32,q32)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p32,q32)を検出し、位置(p,q)が最大相関位置(p32,q32)である場合の合成相関情報E(p32,q32)の「値」、即ち、最小値E32とともに記憶して、ステップS168に進む。 In step S167, the minimum value detection unit 125 supplies each of the two frames that are temporally subsequent to the time t of the frame of interest and the three frames that are temporally previous supplied from the scaling composition unit 124 in step S166. (P 32 , q 32 ), which is the position (p, q) in the spatial direction where the correlation represented by the combined correlation information E (p, q) that is obtained by combining the correlation information of Detect (p 32 , q 32 ), which is the position (p, q) that minimizes the `` value '' of (p, q), and position (p, q) is the maximum correlation position (p 32 , q 32 ) Stored together with the “value” of the composite correlation information E (p 32 , q 32 ) in some cases, that is, the minimum value E 32 , proceeds to step S168.

ステップS168では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S168, the scaling synthesis unit 124 receives the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), four correlation information E 1 (u 1 , v 1 ), F 1 (r 1, s 1) , F 2 (r 2, s 2), F 3 (r 3, s 3) for the correlation information E 1 (u 1, v 1) the position of the (u 1, v 1) Is scaled with reference to the scale, and the correlation information after the scaling is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (u 1, v 1) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3 performs scaling with -s 3/3), further, its the scaled correlation information E 1 (p, q), F 1 (-p, -q), F 2 (-2p, -2q) and F 3 (-3p, -3q) are added to obtain the combined correlation information E (p, q) (= E 1 (p, q) + F 1 (-p, -q) + F 2 (-2p, -2q) + F 3 (-3p, -3q)) is obtained.

以上のように、スケーリング合成部124は、ステップS168において、時刻t+t0における相関情報E1(u1,v1)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L31を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/4+L31)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS168からS169に進む。 As described above, the scaling synthesizer 124, in step S168, the correlation at time t + t 0 information E 1 (u 1, v 1 ), the correlation information at time tt 0 F 1 (r 1, s 1), the time Synthetic correlation information E (p, q) obtained by synthesizing correlation information F 2 (r 2 , s 2 ) at t-2t 0 and correlation information F 3 (r 3 , s 3 ) at time t-3t 0 , that is, attention After obtaining combined correlation information E (p, q), which is a total of four pieces of correlation information for one frame later in time with respect to time t of the frame and three frames earlier in time. Then, the composite correlation information E (p, q) is normalized by dividing the composite correlation information E (p, q) by 4 which is the number of correlation information synthesized in obtaining the composite correlation information E (p, q). By adding a predetermined offset value L 31 to the information E (p, q), the final combined correlation information E (p, q) (= {E 1 (p, q) + F 1 (−p, -q) + F 2 (-2p, -2q) + F 3 (-3p, -3q)} / 4 + L 31 ) obtain. Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S168 to S169.

ステップS169では、最小値検出部125は、ステップS168でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p31,q31)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p31,q31)を検出し、位置(p,q)が最大相関位置(p31,q31)である場合の合成相関情報E(p31,q31)の「値」、即ち、最小値E31とともに記憶して、ステップS170に進む。 In step S169, the minimum value detecting unit 125 supplies each of one frame that is temporally subsequent to the time t of the frame of interest and the three frames that are temporally previous, supplied from the scaling composition unit 124 in step S168. (P 31 , q 31 ), which is the position (p, q) in the spatial direction at which the correlation represented by the combined correlation information E (p, q), which is obtained by combining the correlation information, is maximized, that is, the combined correlation information E (p 31 , q 31 ), which is the position (p, q) that minimizes the (value) of (p, q), is detected, and the position (p, q) is the maximum correlation position (p 31 , q 31 ) Stored together with the “value” of the composite correlation information E (p 31 , q 31 ) in some cases, that is, the minimum value E 31 , proceeds to step S170.

ステップS170では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。 In step S <b> 170, the scaling composition unit 124 includes the six pieces of correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ) supplied from the correlation calculation unit 103. ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), three correlation information F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ) and F 3 (r 3 , s 3 ) are scaled with reference to the scale of the position (u 1 , v 1 ) of the correlation information E 1 (u 1 , v 1 ), Then, the scaled correlation information is synthesized to obtain synthesized correlation information E (p, q). That is, the scaling synthesizer 124, the position (p, q) = (- r 1, -s 1) = (- r 2/2, -s 2/2) = (- r 3/3, -s 3 / Scaling is performed by 3), and the correlation information F 1 (-p, -q), F 2 (-2p, -2q), and F 3 (-3p, -3q) after the scaling is added. Thus, the composite correlation information E (p, q) (= F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)) is obtained.

以上のように、スケーリング合成部124は、ステップS170において、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L30を加算することにより、最終的な合成相関情報E(p,q)(={F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/3+L30)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS170からS171に進む。 As described above, in step S170, the scaling composition unit 124 calculates the correlation information F 1 (r 1 , s 1 ) at time tt 0 , the correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and the time The combined correlation information E (p, q) obtained by synthesizing the correlation information F 3 (r 3 , s 3 ) at t-3t 0 , that is, for each of the three frames temporally prior to the time t of the frame of interest After obtaining the combined correlation information E (p, q) obtained by combining the three pieces of correlation information in total, the number of pieces of correlation information combined in determining the combined correlation information E (p, q) is 3 to determine the combined correlation information. normalized by dividing the information E (p, q), further synthesized correlation information E after the normalization (p, q) in, by adding a predetermined offset value L 30, final synthesized correlation information E (p, q) (= {F 1 (−p, −q) + F 2 (−2p, −2q) + F 3 (−3p, −3q)} / 3 + L 30 ) is obtained. Then, the scaling combining unit 124 supplies the final combined correlation information E (p, q) to the minimum value detecting unit 125, and proceeds from step S170 to S171.

ステップS171では、最小値検出部125は、ステップS170でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p30,q30)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p30,q30)を検出し、位置(p,q)が最大相関位置(p30,q30)である場合の合成相関情報E(p30,q30)の「値」、即ち、最小値E30とともに記憶して、図77のステップS172に進む。 In step S171, the minimum value detection unit 125 synthesizes the correlation information supplied from the scaling synthesis unit 124 in step S170 and synthesizes the correlation information for each of the previous three frames with respect to time t of the frame of interest. (P 30 , q 30 ) is detected as the position (p, q) in the spatial direction where the correlation represented by E (p, q) is maximum, that is, the `` value '' of the combined correlation information E (p, q) (P 30 , q 30 ), which is the position (p, q) that minimizes, and the position (p, q) is the maximum correlation position (p 30 , q 30 ). 30 , q 30 ), ie, the minimum value E 30 , and the process proceeds to step S 172 in FIG. 77.

ステップS172では、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の3フレームの6つの相関情報を合成した合成相関情報E(p,q)の最小値E33(ステップS159)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の2フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E23(ステップS161)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の1フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E13(ステップS163)、注目フレームの時刻tに対して時間的に後の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E03(ステップS165)、注目フレームの時刻tに対して時間的に後の2フレームと時間的に前の3フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E32(ステップS167)、注目フレームの時刻tに対して時間的に後の1フレームと時間的に前の3フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E31(ステップS169)、注目フレームの時刻tに対して時間的に前の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E30(ステップS171)のうちの最小のものを与える合成相関情報を、最大合成相関情報として求める。 In step S <b> 172, the minimum value detection unit 125 obtains the maximum combined correlation information that is the combined correlation information with the maximum correlation among the plurality of combined correlation information from the scaling combining unit 124. In other words, the minimum value detection unit 125 synthesizes the combined correlation information E (p, q) obtained by synthesizing the six correlation information of the three frames later in time and the previous three frames with respect to the time t of the frame of interest. The minimum value E 33 (step S159), the combined correlation information E (p, q) obtained by synthesizing the five correlation information of the temporally subsequent three frames and the temporally previous two frames with respect to the time t of the frame of interest. The minimum value E 23 (step S161), the combined correlation information E (p, q) obtained by synthesizing the four correlation information of the temporally subsequent three frames and the temporally previous one frame with respect to the time t of the frame of interest. Minimum value E 13 (step S163), minimum value E 03 of combined correlation information E (p, q) obtained by synthesizing three pieces of correlation information of three frames later in time with respect to time t of the frame of interest (step S165) , 2 frames later in time and 3 frames earlier in time with respect to time t of the frame of interest The minimum value E 32 (step S167) of the combined correlation information E (p, q) obtained by synthesizing the five pieces of correlation information of the first frame, one frame later in time with respect to the time t of the frame of interest, and the previous three in time The minimum value E 31 of the combined correlation information E (p, q) obtained by combining the four pieces of correlation information of the frame (step S169), and the three correlation information of the previous three frames with respect to the time t of the target frame are combined. The combined correlation information that gives the minimum value of the minimum values E 30 (step S171) of the combined correlation information E (p, q) is obtained as the maximum combined correlation information.

ここで、最大合成相関情報となった合成相関情報を求めるのに、注目フレームの時刻tに対して時間的に後のkフレームと時間的に前のhフレームの相関情報の、合計でk+hの相関情報を合成したとすると(ここでは、k,h=0,1,2,3)、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものは、Ehkで表すことができる。 Here, in order to obtain the combined correlation information that has become the maximum combined correlation information, the sum of the correlation information of the k frame temporally subsequent to the time t of the target frame and the temporally previous h frame is k + If the correlation information of h is synthesized (here, k, h = 0,1,2,3), among the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 Can be expressed as E hk .

ステップS172では、さらに、最小値検出部125は、最大合成相関情報の「値」を最小にする空間方向の位置、即ち、最大合成相関情報の最小値Ehkを与える空間方向の位置(phk,qhk)を、最小値E33,E23,E13,E03,E32,E31,E30それぞれとともに記憶した位置(p33,q33),(p23,q23),(p13,q13),(p03,q03),(p32,q32),(p31,q31),(p30,q30)の中から選択することにより検出し、最大相関位置(p0,q0)とする。 In step S172, the minimum value detecting unit 125 further minimizes the “value” of the maximum combined correlation information, that is, the position in the spatial direction that gives the minimum value E hk of the maximum combined correlation information (p hk , q hk ), together with the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 , the stored positions (p 33 , q 33 ), (p 23 , q 23 ), ( p 13 , q 13 ), (p 03 , q 03 ), (p 32 , q 32 ), (p 31 , q 31 ), (p 30 , q 30 ) Let it be the position (p 0 , q 0 ).

そして、最小値検出部125は、最大相関位置(p0,q0)を、平均動きベクトル(p0,q0)として、その平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)を求め、その3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給するとともに、最大合成相関情報の最小値Ehkを、フィルタ情報供給部32に供給する。さらに、最小値検出部125は、最大合成相関情報の最小値Ehkのサフィックスである(h,k)を、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表すカーネルサイズとして、フィルタ情報供給部32に供給して、ステップS172からS173に進む。 Then, the minimum value detection unit 125 sets the maximum correlation position (p 0 , q 0 ) as the average motion vector (p 0 , q 0 ), and uses the original motion picture data as the average motion vector (p 0 , q 0 ). The three-dimensional motion vector (p 0 , q 0 , t 0 ) obtained by adding the frame period t 0 of the current as a component in the time direction t is obtained, and the three-dimensional motion vector (p 0 , q 0 , t 0 ) Assuming that the direction orthogonal to the direction is the principal component direction, a three-dimensional motion vector (p 0 , q 0 , t 0 ) is supplied to the filter information supply unit 32 (FIG. 25), and the maximum combined correlation information The minimum value E hk is supplied to the filter information supply unit 32. Further, the minimum value detection unit 125 uses (h, k), which is the suffix of the minimum value E hk of the maximum combined correlation information, and the range of frames used for calculating the correlation information combined to obtain the maximum combined correlation information. Is supplied to the filter information supply unit 32, and the process proceeds from step S172 to S173.

ここで、上述したオフセット値L33(ステップS158),L23(ステップS160),L13(ステップS162),L03(ステップS164),L32(ステップS166),L31(ステップS168),L30(ステップS170)は、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たす小さな定数である。 Here, the offset values L 33 (step S158), L 23 (step S160), L 13 (step S162), L 03 (step S164), L 32 (step S166), L 31 (step S168), L described above. 30 (step S170), the formula L 33 ≦ L 32 ≦ L 31 ≦ L 30, and a small constant satisfying the formula L 33 ≦ L 23 ≦ L 13 ≦ L 03.

ステップS173では、フィルタ情報供給部32(図25)は、図72の主成分方向取得部31(の最小値検出部125)からの最大合成相関情報の最小値Ehkが、所定の閾値ε以下(未満)であるかどうかを判定する。ここで、ステップS173で用いられる閾値εは、オフセット値L33,L23,L13,L03,L32,L31,L30よりも大きな値で、例えば、シミュレーションなどによって決定することができる。また、閾値εは、ユーザの操作に応じて設定することも可能である。 In step S173, the filter information supply unit 32 (FIG. 25) determines that the minimum value E hk of the maximum combined correlation information from the principal component direction acquisition unit 31 (its minimum value detection unit 125) in FIG. It is determined whether it is (less than). Here, the threshold value ε used in step S173 is larger than the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 and can be determined by, for example, simulation. . Further, the threshold value ε can be set according to a user operation.

ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下であると判定された場合、即ち、最大合成相関情報の最小値Ehkがある程度小さく、従って、注目ブロックと対応する領域が、時刻tの前または後のフレームに存在する場合、ステップS174に進み、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定するとともに、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)を、そのままカーネルサイズとして決定し、ステップS176に進む。 If it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is equal to or smaller than the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is small to some extent, and therefore corresponds to the block of interest. When the region exists in the frame before or after time t, the process proceeds to step S174, and the filter information supply unit 32 performs the principal component from the principal component direction acquisition unit 31 from the origin (0, 0) in the frequency domain. A region extending in the direction, having a width of 2π / (4 × t 0 ) in the T direction, and the X and Y directions being − (π / r 0 ) to + (π / r 0 ), and the T direction Are in the range of − (π / t 0 ) to + (π / t 0 ), that is, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region in FIG. R 1301 is determined as the pass band of the filter, and the minimum value detection of the principal component direction acquisition unit 31 in FIG. (H, k) from the unit 125) is directly determined as the kernel size, and the process proceeds to step S176.

一方、ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下でないと判定された場合、即ち、最大合成相関情報の最小値Ehkが大きく、従って、注目ブロックと対応する領域が、時刻tの前および後のフレームのいずれにも存在しない場合、ステップS175に進み、フィルタ情報供給部32は、ステップS174における場合と同様に、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域を、フィルタの通過帯域として決定する。さらに、ステップS175では、フィルタ情報供給部32は、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)に代えて、(h,k)=(0,0)を、カーネルサイズとして決定し、ステップS176に進む。 On the other hand, if it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is not less than or equal to the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is large, and therefore corresponds to the target block. When the region does not exist in any of the frames before and after time t, the process proceeds to step S175, and the filter information supply unit 32 starts from the origin (0, 0) in the frequency domain as in step S174. , A region extending in the principal component direction from the principal component direction acquisition unit 31 and having a width of 2π / (4 × t 0 ) in the T direction, and the X and Y directions being − (π / r 0 ) to A region where + (π / r 0 ) and the T direction is in the range of − (π / t 0 ) to + (π / t 0 ) is determined as the passband of the filter. Further, in step S175, the filter information supply unit 32 replaces (h, k) from the principal component direction acquisition unit 31 (the minimum value detection unit 125 thereof) in FIG. 72 with (h, k) = (0, 0) is determined as the kernel size, and the process proceeds to step S176.

ステップS176では、フィルタ情報供給部32は、ステップS174またはS175で決定したフィルタの通過帯域を表すフィルタ情報として、例えば、3次元の動きベクトル(p0,q0,t0)を、フィルタ部22(図25)に供給するとともに、カーネルサイズ(h,k)を、フィルタ部22に供給し、処理を終了する。 In step S176, the filter information supply unit 32 uses, for example, a three-dimensional motion vector (p 0 , q 0 , t 0 ) as filter information indicating the pass band of the filter determined in step S174 or S175, and the filter unit 22. (FIG. 25) and the kernel size (h, k) are supplied to the filter unit 22 and the process is terminated.

図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、次のようなフィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を求めることができる。 According to the processing according to the flowcharts shown in FIG. 73 to FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) as the following filter information and the kernel size (h , k).

例えば、図70に示した動画データにおいて、ブロックB3が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B101,B201,B301,B-101,B-201,B-301が存在し、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値は、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が(0,0)のときに最小になり、ほぼ0となる。 For example, in the moving image data shown in FIG. 70, when the block B 3 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t at 0, respectively image data in t-3t 0, block of interest B 3 with the corresponding region B 101, B 201, B 301 , B -101, B -201, B -301 is present, the time t + t 0 Correlation information E 1 (u 1 , v 1 ), correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 , correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 , time tt correlation information in 0 F 1 of (r 1, s 1), the correlation information F 2 at time t-2t 0 (r 2, s 2), the correlation information F 3 at time t-3t 0 (r 3, s 3) The values for all are (u 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0, 0) is the smallest and almost zero.

この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(0,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(0,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) that gives the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (0,0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (0,0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (0,0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Further, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (0, 0), and the minimum value E 03 is almost equal to equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 of FIG. 76 is (0,0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (0,0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 in FIG. 76 is (0, 0), and the minimum value E 30 is almost equal to equal to the offset value L 30.

オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB3については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. Since ≦ L 13 ≦ L 03 is satisfied, for the target block B 3 , the minimum value E 33 that is substantially the offset value L 33 is basically the minimum value E 33 , E 23 , E in step S172 of FIG. 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and ( 0 , 0) is obtained as the average motion vector (p 0 , q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3,3) is obtained as the kernel size (h, k). .

さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さい(以下である)ので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB3については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, the offset value L 33, as described above, since the smaller the threshold ε in step S173 (or less is), the minimum value E 33 of substantially the offset value L 33 is the minimum value E 33, E 23, E 13 , E 03 , E 32 , E 31 , E 30 regarding the target block B 3 detected as the smallest one in step S 174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0, t 0) as (0, 0, with t 0) is obtained, the kernel size (h, k) as the (3,3) is obtained.

これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB3は、(0,0,t0)という速度(時間t0の間に、空間方向に(0,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 3 is (0,0, t 0) of the speed (time t 0 It is shown that it is moving at a speed (moving by (0,0)) in the spatial direction.

従って、カーネルサイズ(h,k)は、3次元の動きベクトル(p0,q0,t0)、ひいては、その3次元の動きベクトル(p0,q0,t0)から求められる注目ブロックの主成分方向の有効範囲を表しているということができる。 Accordingly, the kernel size (h, k) is determined from the three-dimensional motion vector (p 0 , q 0 , t 0 ), and thus the target block obtained from the three-dimensional motion vector (p 0 , q 0 , t 0 ). It can be said that it represents the effective range of the principal component direction.

次に、例えば、図70に示した動画データにおいて、ブロックB10が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B102,B202,B302,B-102,B-202,B-302が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(g,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(2g,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(3g,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(-g,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(-2g,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が、(-3g,0)のときに、それぞれ最小になり、ほぼ0となる。 Then, for example, in the moving image data shown in FIG. 70, when the block B 10 is the target block, as described above, the time t + t 0, t + 2t 0, t + 3t 0, tt 0, in each image data in the t-2t 0, t-3t 0, region B 102 corresponding to a target block B 3, B 202, B 302 , B -102, B -202, is B -302 exist, time t + The value of the correlation information E 1 (u 1 , v 1 ) at t 0 is the correlation information E 2 (u 2 , u at time t + 2t 0 when the position (u 1 , v 1 ) is (g, 0). v is the value of 2), the value of the position (u 2, v 2) is (2 g, 0 when), correlation information at time t + 3t 0 E 3 (u 3, v 3) , the position (u 3 , v 3 ) is (3g, 0), the value of correlation information F 1 (r 1 , s 1 ) at time tt 0 is when position (r 1 , s 1 ) is (-g, 0) Further, the value of the correlation information F 2 (r 2 , s 2 ) at time t-2t 0 is the correlation information at time t-3t 0 when the position (r 2 , s 2 ) is (-2g, 0). the value of F 3 (r 3, s 3 ) , the position (r 3, s 3), - when the (3 g, 0) , Each becomes a minimum, it is substantially zero.

この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(g,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(g,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(g,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(g,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(g,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(g,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(g,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) giving the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (g, 0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (g, 0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (g, 0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Furthermore, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (g, 0), and the minimum value E 03 is almost equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 of FIG. 76 is (g, 0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (g, 0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 in FIG. 76 is (g, 0), and the minimum value E 30 is almost equal to equal to the offset value L 30.

オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB10については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(g,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. since satisfy ≦ L 13 ≦ L 03, for the block of interest B 10, in step S172 of FIG. 77, basically, the minimum value E 33, which is substantially offset value L 33 is the minimum value E 33, E 23, E 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and (g, 0) is obtained as the average motion vector (p 0 , q 0 ). In step S172, (g, 0, t 0 ) is obtained as a three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3, 3) is obtained as a kernel size (h, k). .

さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB10については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, as described above, since the offset value L 33 is smaller than the threshold value ε in step S173, the minimum value E 33 that is substantially the offset value L 33 becomes the minimum value E 33 , E 23 , E 13 , E 03 , E With respect to the target block B 10 detected as the smallest of 32 , E 31 , and E 30 , in step S174 in FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (G, 0, t 0 ) is obtained, and (3, 3) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB10は、(g,0,t0)という速度(時間t0の間に、空間方向に(g,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 10 is (g, 0, t 0) of the speed (time t 0 It is shown that it is moving at a speed (moving by (g, 0)) in the space direction.

次に、例えば、図71に示した動画データにおいて、ブロックB7が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0における画像データそれぞれにおいて、注目ブロックB7と対応する領域B111,B211,B311,B-111,B-211が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。 Next, for example, in the moving image data shown in FIG. 71, when the block B 7 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , in each image data in the t-2t 0, region B 111, B 211 corresponding to a target block B 7, B 311, B -111 , and B -211 is present, the correlation information at time t + t 0 E 1 (u 1 , v 1 ) is the position (u 1 , v 1 ) is (0,0) and the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is the position ( When u 2 , v 2 ) is (0,0), the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is the position (u 3 , v 3 ) at (0,0 ), The value of the correlation information F 1 (r 1 , s 1 ) at time tt 0 is the correlation information at time t-2t 0 when the position (r 1 , s 1 ) is (0,0). The value of F 2 (r 2 , s 2 ) is minimized when the position (r 2 , s 2 ) is (0, 0), and is almost zero.

しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに最小になるとは限らない。即ち、相関情報F3(r3,s3)の値は、(0,0)とは限らないある位置(r3,s3)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may originally, but it should be region B -311 at the same position as the block of interest B 7, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0). That is, the value of the correlation information F 3 (r 3 , s 3 ) is minimum at a certain position (r 3 , s 3 ) that is not necessarily (0, 0). Become.

この場合、図74のステップS158において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図76のステップS166において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)は、(0,0)とは限らないある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は、(0,0)とは限らないある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, the minimum value E 33 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S158 in FIG. The position (p 33 , q 33 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 33 is considerably larger than the offset value L 33 . Similarly, the minimum value E 32 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S166 of FIG. The position (p 32 , q 32 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 32 is considerably larger than the offset value L 32 . Further, in step S168 of FIG. 76, the minimum value E 31 is also set for the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 as well. The given position (p 31 , q 31 ) is a position that is not necessarily (0, 0), and the minimum value E 31 is considerably larger than the offset value L 31 . Further, in step S170 of FIG. 76, the time t-3t 0 correlation information F 3 in (r 3, s 3) is also a synthetic correlation function E obtained (p, q) for even the minimum value E 30 The given position (p 30 , q 30 ) is a certain position that is not necessarily (0, 0), and the minimum value E 30 is considerably larger than the offset value L 30 .

一方、図75のステップS160において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)については、その最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。同様に、図75のステップS162において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS164において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。 On the other hand, in step S160 of FIG. 75, for a time t-3t correlation in 0 information F 3 (r 3, s 3 ) determined without using the synthesized correlation function E (p, q), the minimum value E 23 The given position (p 23 , q 23 ) is (0, 0), and the minimum value E 23 is substantially equal to the offset value L 23 . Similarly, the minimum value E 13 of the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S162 in FIG. The position (p 13 , q 13 ) that gives is (0, 0), and the minimum value E 13 is substantially equal to the offset value L 13 . Further, in step S164 of FIG. 75, the minimum value E03 is also set for the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 . The given position (p 03 , q 03 ) is (0, 0), and the minimum value E 03 is substantially equal to the offset value L 03 .

オフセット値L23,L13,L03は、上述したことから、式L23≦L13≦L03を満たすので、注目ブロックB7については、図77のステップS172において、基本的に、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(2,3)が求められる。 Since the offset values L 23 , L 13 , and L 03 satisfy the formula L 23 ≦ L 13 ≦ L 03 from the above description, the target block B 7 is basically substantially offset in step S172 of FIG. The minimum value E 23 having the value L 23 is detected as the minimum of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 and the average motion vector (p 0 , (0,0) is obtained as q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (2,3) is obtained as the kernel size (h, k). .

さらに、オフセット値L23は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB7については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(2,3)が得られる。 Further, the offset value L 23, as described above, is smaller than the threshold value ε in step S173, the minimum value E 23, which is substantially offset value L 23 is the minimum value E 33, E 23, E 13 , E 03, E With respect to the target block B 7 detected as the smallest of 32 , E 31 , and E 30, the three-dimensional motion vector (p 0 , q 0 , t 0 ) that becomes the filter information in step S174 of FIG. (0,0, t 0 ) is obtained, and (2,3) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻t-2t0からt+3t0の間は、注目ブロックB7は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 7 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-2t 0 to t + 3t 0. It shows that there is.

次に、例えば、図71に示した動画データにおいて、ブロックB14が注目ブロックである場合には、上述したように、時刻t+t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB14と対応する領域B112,B-112,B-212,B-312が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。 Then, for example, in the moving image data shown in FIG. 71, when the block B 14 is the target block, as described above, at time t + t 0, tt 0, t-2t 0, t-3t 0 In each image data, there are regions B 112 , B −112 , B −212 , and B −312 corresponding to the block of interest B 14, and the value of the correlation information E 1 (u 1 , v 1 ) at time t + t 0 When the position (u 1 , v 1 ) is (0,0), the value of the correlation information F 1 (r 1 , s 1 ) at time tt 0 is the position (r 1 , s 1 ) is (0 , 0), the value of the correlation information F 2 (r 2 , s 2 ) at time t-2t 0 is the time t-3t when the position (r 2 , s 2 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) at 0 is minimum and almost 0 when the position (r 3 , s 3 ) is (0,0).

しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに最小になるとは限らない。即ち、相関情報E2(u2,v2)の値は、(0,0)とは限らないある位置(u2,v2)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. For this reason, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0). That is, the value of the correlation information E 2 (u 2 , v 2 ) is minimum at a certain position (u 2 , v 2 ) that is not necessarily (0,0). Become.

さらに、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに最小になるとは限らない。即ち、相関情報E3(u3,v3)の値は、(0,0)とは限らないある位置(u3,v3)において最小になり、さらに、その値は、ある程度大きな値となる。 Further, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 is originally but should a region B 312 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not always the minimum when the position (u 3 , v 3 ) is (0,0). That is, the value of the correlation information E 3 (u 3 , v 3 ) is minimum at a certain position (u 3 , v 3 ) that is not necessarily (0,0). Become.

この場合、図74のステップS158において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)は(0,0)とは限らないある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は、(0,0)とは限らないある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は、(0,0)とは限らないある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。 In this case, in step S158 of FIG. 74, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. For the resultant correlation function E (p, q), the position (p 33 , q 33 ) giving the minimum value E 33 is not necessarily (0,0), and the minimum value E 33 is offset. It becomes considerably to a value greater than the value L 33. Similarly, in step S160 in FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also used. The position (p 23 , q 23 ) that gives the minimum value E 23 is also a position that is not necessarily (0,0), and the minimum value E 23 is an offset value. It becomes a much larger value than L 23. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 13 , q 13 ) giving the minimum value E 13 is not always (0,0), and the minimum value E 13 is an offset value. It becomes a much larger value than L 13. Further, in step S164 of FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 03 , q 03 ) giving the minimum value E 03 is not always (0,0), and the minimum value E 03 is an offset value. It is considerably larger than L 03 .

また、図76のステップS166において、時刻t+3t0における相関情報E3(u3,v3)は用いられないが、時刻t+2t0における相関情報E2(u2,v2)を用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。 In step S166 of FIG. 76, the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is not used, but the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is used. The position (p 32 , q 32 ) that gives the minimum value E 32 of the composite correlation function E (p, q) obtained by using the position is not always (0,0), and the minimum value E 32 becomes considerably larger than the offset value L 32.

一方、図76のステップS168において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)については、その最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。同様に、図76のステップS170において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 On the other hand, in step S168 in FIG. 76, neither correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 nor correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is used. The position (p 31 , q 31 ) giving the minimum value E 31 is (0,0), and the minimum value E 31 is almost equal to the offset value L 31 . Will be equal. Similarly, in step S170 of FIG. 76, both correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are used. The position (p 30 , q 30 ) that gives the minimum value E 30 is (0, 0), and the minimum value E 30 is almost equal to the offset value L 30. Is equal to

オフセット値L31,L30は、上述したことから、式L31≦L30を満たすので、注目ブロックB14については、図77のステップS172において、基本的に、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,1)が求められる。 Since the offset values L 31 and L 30 satisfy the expression L 31 ≦ L 30 from the above description, the block B 14 of interest is basically the minimum that substantially becomes the offset value L 31 in step S172 of FIG. The value E 31 is detected as the smallest of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 , and ( 0 as the average motion vector (p 0 , q 0 )) , 0) is required. Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3,1) is obtained as the kernel size (h, k). .

さらに、オフセット値L31は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB14については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,1)が得られる。 Further, the offset value L 31, as described above, since less than the threshold value ε in step S173, the minimum value E 31, which is substantially offset value L 31 is the minimum value E 33, E 23, E 13 , E 03, E For the target block B 14 detected as the smallest of 32 , E 31 , and E 30 , in step S174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (0,0, t 0 ) is obtained, and (3,1) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+t0の間は、注目ブロックB14は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 14 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-3t 0 to t + t 0. It shows that there is.

次に、例えば、図71に示した動画データにおいて、ブロックB9が注目ブロックである場合には、上述したように、注目ブロックB9では、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも、注目ブロックB9と対応する領域は存在しない。 Next, for example, in the moving image data shown in FIG. 71, when the block B 9 is the target block, as described above, the target block B 9 moves at a position where the subject P 6901 is stationary. Since the stationary subject P 6902 hides the stationary subject P 6901 , the time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t− There is no region corresponding to the target block B 9 in any of the image data at 3t 0 .

このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データの、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となるが、その値は、ある程度大きな値となる。 Therefore, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) The position (u 1 , v 1 ), (u 2 ) of the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 that is most similar to the target block B 9 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are the smallest, but the value is somewhat large Value.

この場合、図74のステップS158において求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、ある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)はある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)はある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)はある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。また、図76のステップS166において求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)はある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)はある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)はある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, for the combined correlation function E (p, q) obtained in step S158 of FIG. 74, the position (p 33 , q 33 ) giving the minimum value E 33 is a certain position, and the minimum value E 33 is It becomes considerably larger than the offset value L 33. Similarly, for the combined correlation function E (p, q) obtained in step S160 of FIG. 75, the position (p 23 , q 23 ) giving the minimum value E 23 is a certain position, and the minimum value E 23 is an offset. It becomes a much larger value than the value L 23. Also, with respect to the composite correlation function E (p, q) obtained in step S162 in FIG. 75, the position (p 13 , q 13 ) giving the minimum value E 13 is a certain position, and the minimum value E 13 is the offset value. It becomes a much larger value than L 13. Further, with respect to the composite correlation function E (p, q) obtained in step S164 of FIG. 75, the position (p 03 , q 03 ) giving the minimum value E 03 is a certain position, and the minimum value E 03 is an offset value. It is considerably larger than L 03 . Also, for the combined correlation function E (p, q) obtained in step S166 of FIG. 76, the position (p 32 , q 32 ) giving the minimum value E 32 is a certain position, and the minimum value E 32 is the offset value. It becomes considerably to a value greater than L 32. Further, with respect to the composite correlation function E (p, q) obtained in step S168 in FIG. 76, the position (p 31 , q 31 ) that gives the minimum value E 31 is a certain position, and the minimum value E 31 Much larger than L 31 . Also, with respect to the composite correlation function E (p, q) obtained in step S170 of FIG. 76, the position (p 30 , q 30 ) that gives the minimum value E 30 is a certain position, and the minimum value E 30 It becomes considerably to a value greater than L 30.

従って、最小値E33,E23,E13,E03,E32,E31,E30は、いずれもかなり大きな値となり、図77のステップS172において、その中のいずれが最小のものとして選択されたとしても、ステップS173における閾値εより大きくなり(以上となり)、注目ブロックB9については、図77のステップS175において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(p0',q0',t0)が得られるとともに、カーネルサイズ(h,k)として(0,0)が得られる。 Accordingly, the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , and E 30 are all large values, and any of them is selected as the minimum in step S172 of FIG. even if they are, larger than the threshold ε in step S173 (it becomes higher), for the block of interest B 9, in step S175 of FIG. 77, three-dimensional motion vectors, which are filter information (p 0, q 0, t 0 ) Is obtained as (p 0 ′, q 0 ′, t 0 ), and (0,0) is obtained as the kernel size (h, k).

これは、時刻t-ht0からt+kt0、つまり、時刻tのタイミングだけにおいて、注目ブロックB9は、(p0',q0',t0)という速度で移動しているということを示している。換言すれば、カーネルサイズ(h,k)が(0,0)ということは、注目ブロックB9に対応する領域が、他のどの時刻における画像データ内にも存在しないということである。 This means that the target block B 9 is moving at a speed of (p 0 ′, q 0 ′, t 0 ) only from time t-ht 0 to t + kt 0 , that is, at the timing of time t. Is shown. In other words, the kernel size (h, k) being (0, 0) means that the area corresponding to the target block B 9 does not exist in the image data at any other time.

なお、(p0',q0')は、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものを与える位置(p,q)を表す。また、カーネルサイズ(h,k)が(0,0)のときの(p,q)はダミーデータであり、使用されることはない。 Note that (p 0 ', q 0 ') is a position (p, q) that gives the smallest one of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30. To express. Further, (p, q) when the kernel size (h, k) is (0,0) is dummy data and is not used.

以上のように、図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が求められ、これにより、注目ブロックについて、「時刻t-ht0からt+kt0の間は、注目ブロックは(p0,q0,t0)という速度で移動している」という結果を得ることが出来る。 As described above, according to the processing according to the flowcharts shown in FIGS. 73 to 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) as the filter information and the kernel size ( h, k) is obtained, and as a result, for the block of interest, the block of interest is moving at a speed of (p 0 , q 0 , t 0 ) from time t-ht 0 to t + kt 0 Can be obtained.

なお、オフセット値L33,L23,L13,L03,L32,L31,L30が、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすことにより、基本的には、図77のステップS172において、最小値E33,E23,E13,E03,E32,E31,E30のうちの、hやkの大きい最小値Ehkが選択されやすくなる。これにより、動画データにノイズが含まれ、注目ブロックと、他のフレームの注目ブロックに対応する領域との間に、多少の画素値の違いがあっても、注目ブロックが(p0,q0,t0)という速度で移動しているという範囲(時間)を、過小評価してしまうことを防止することができる。 The offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23 ≦ L 13. By satisfying ≦ L 03 , basically, in step S 172 of FIG. 77, h or k of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 A large minimum value E hk is easily selected. As a result, even if there is a slight difference in pixel values between the block of interest and the region corresponding to the block of interest in another frame, the block of interest will be (p 0 , q 0 , t 0 ) can be prevented from underestimating the range (time) of moving at a speed of (t 0 ).

次に、図25の主成分方向取得部31が図72に示したように構成されるフィルタ生成部23が、図73乃至図77にしたがった処理を行うことにより、フィルタ生成部23(のフィルタ情報供給部32)からフィルタ部22に対して、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が供給される場合、フィルタ部22では、図78に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。 Next, the filter generation unit 23 in which the principal component direction acquisition unit 31 of FIG. 25 is configured as shown in FIG. 72 performs the processing according to FIGS. When the three-dimensional motion vector (p 0 , q 0 , t 0 ) and the kernel size (h, k) as filter information are supplied from the information supply unit 32) to the filter unit 22, the filter unit 22 Then, the process according to the flowchart shown in FIG. 78 is performed as the process of step S3 of FIG.

即ち、ステップS191において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を受信することにより取得し、ステップS192に進む。 That is, in step S191, the filter unit 22 receives the three-dimensional motion vector (p 0 , q 0 , t 0 ) and the kernel size (h, k) supplied as filter information from the filter information supply unit 32. The process proceeds to step S192.

ステップS192では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)のうちの、カーネルサイズ(h,k)に応じた時刻(フレーム)の範囲の画素値を用いた演算により求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。 In step S192, the filter unit 22 calculates the pixel value C (t, x, y) of the pixel at the position (x, y) in the target block of the frame at time t, for example, from time t-3t 0 to t + 3t. pixel values of the pixels in the 0 D (t-3t 0, x-3p 0, y-3q 0), D (t-2t 0, x-2p 0, y-2q 0), D (tt 0, xp 0, yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D Of (t + 3t 0 , x + 3p 0 , y + 3q 0 ), filtering is performed by calculation using pixel values in a time (frame) range corresponding to the kernel size (h, k). Note that D (t, x, y) represents a pixel value at a position (x, y) at time t of moving image data used for filtering.

即ち、ステップS192では、フィルタ部22は、フィルタリング、つまり、注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)の演算を、カーネルサイズ(h,k)によって表される、動きベクトル(p0,q0,t0)の有効範囲内のフレームの画素値のみを用いて行う。 That is, in step S192, the filter unit 22 performs the filtering, that is, the calculation of the pixel value C (t, x, y) of the pixel at the position (x, y) in the target block according to the kernel size (h, k). represented by, carried out using only the pixel values of frames within the effective range of the motion vector (p 0, q 0, t 0).

具体的には、ステップS192では、フィルタ部22は、カーネルサイズ(h,k)が(3,3)である場合、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(1)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。この場合、図68のステップS132における場合と同様にして、注目ブロックの主成分方向に延びる、T方向の幅が2π/(4t0)の領域を通過帯域とするフィルタによるフィルタリングが行われる。 Specifically, in step S192, when the kernel size (h, k) is (3, 3), the filter unit 22 determines the pixel value D (t−t) of the pixels at times t−3t 0 to t + 3t 0 . 3t 0 , x-3p 0 , y-3q 0 ), D (t-2t 0 , x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (1). In this case, in the same manner as in step S132 of FIG. 68, filtering is performed using a filter that extends in the principal component direction of the block of interest and has a region with a width in the T direction of 2π / (4t 0 ).

Figure 2006086707
・・・(1)
Figure 2006086707
... (1)

また、フィルタ部22は、カーネルサイズ(h,k)が(2,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)は用いずに、時刻t-2t0乃至t+3t0における画素の画素値D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(2)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 In addition, when the kernel size (h, k) is (2,3), the filter unit 22 has a pixel value D (t-3t 0 , x-3p 0 , y-3q 0 ) at time t-3t 0 . ) Without using the pixel values D (t-2t 0 , x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ) at times t-2t 0 to t + 3t 0 , D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (2).

Figure 2006086707
・・・(2)
Figure 2006086707
... (2)

さらに、フィルタ部22は、カーネルサイズ(h,k)が(1,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、および時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)は用いずに、時刻t-t0乃至t+3t0における画素の画素値D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(3)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 Further, when the kernel size (h, k) is (1,3), the filter unit 22 outputs the pixel value D (t-3t 0 , x-3p 0 , y-3q 0 ) of the pixel at time t-3t 0 . ), and time t-2t pixel value of the pixel at 0 D (t-2t 0, x-2p 0, y-2q 0) is not used, the time tt 0 to t + 3t pixel value of the pixel at 0 D ( tt 0 , xp 0 , yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, according to equation (3), the pixel value C (t, x, y) of the block of interest is calculated Do.

Figure 2006086707
・・・(3)
Figure 2006086707
... (3)

また、フィルタ部22は、カーネルサイズ(h,k)が(0,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)、および時刻t-t0における画素の画素値D(t-t0,x-p0,y-q0)は用いずに、時刻t乃至t+3t0における画素の画素値D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(4)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 In addition, when the kernel size (h, k) is (0,3), the filter unit 22 has a pixel value D (t-3t 0 , x-3p 0 , y-3q 0 ) at time t-3t 0 . ), Pixel value D (t-2t 0 , x-2p 0 , y-2q 0 ) of the pixel at time t-2t 0 , and pixel value D (tt 0 , xp 0 , yq 0 ) of the pixel at time tt 0 Is not used, and the pixel values D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 ) at times t to t + 3t 0 are used. , x + 2p 0 , y + 2q 0 ), D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), for example, according to equation (4), the pixel value C (t, Calculate x, y).

Figure 2006086707
・・・(4)
Figure 2006086707
... (4)

同様に、フィルタ部22は、カーネルサイズ(h,k)が(3,2)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)は用いずに、時刻t-3t0乃至t+2t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0)を用い、例えば、式(5)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 Similarly, when the kernel size (h, k) is (3, 2), the filter unit 22 uses the pixel value D (t + 3t 0 , x + 3p 0 , y + 3q) at the time t + 3t 0 . 0 ) is not used, and pixel values D (t-3t 0 , x-3p 0 , y-3q 0 ), D (t-2t 0 , x-2p 0 ) at times t-3t 0 to t + 2t 0 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D (t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), D (t + 2t 0 , x + 2p 0 , y + 2q 0 ), for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (5).

Figure 2006086707
・・・(5)
Figure 2006086707
... (5)

さらに、フィルタ部22は、カーネルサイズ(h,k)が(3,1)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、および時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)は用いずに、時刻t-3t0乃至t+t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0)を用い、例えば、式(6)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 Further, when the kernel size (h, k) is (3, 1), the filter unit 22 uses the pixel value D (t + 3t 0 , x + 3p 0 , y + 3q 0 ) at time t + 3t 0 . ), And the pixel value D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) of the pixel at time t + 2t 0 , and the pixel value of the pixel at time t-3t 0 to t + t 0 D (t-3t 0 , x-3p 0 , y-3q 0 ), D (t-2t 0 , x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D ( t, x, y), D (t + t 0 , x + p 0 , y + q 0 ), for example, according to equation (6), the pixel value C (t, x, y) of the block of interest Perform the operation.

Figure 2006086707
・・・(6)
Figure 2006086707
... (6)

また、フィルタ部22は、カーネルサイズ(h,k)が(3,0)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)、および時刻t+t0における画素の画素値D(t+t0,x+p0,y+q0)は用いずに、時刻t-3t0乃至tにおける画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y)を用い、例えば、式(7)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。 In addition, when the kernel size (h, k) is (3,0), the filter unit 22 has a pixel value D (t + 3t 0 , x + 3p 0 , y + 3q 0 ) at time t + 3t 0 . ), The pixel value D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) of the pixel at time t + 2t 0 , and the pixel value D (t + t 0 , x + of the pixel at time t + t 0 p 0, y + q 0) without the pixel value D of the pixel at time t-3t 0 to t (t-3t 0, x -3p 0, y-3q 0), D (t-2t 0, x-2p 0 , y-2q 0 ), D (tt 0 , xp 0 , yq 0 ), D (t, x, y), for example, according to the equation (7), the pixel value C ( t, x, y) is calculated.

Figure 2006086707
・・・(7)
Figure 2006086707
... (7)

一方、カーネルサイズ(h,k)が(0,0)である場合は、注目ブロックと同一の(画像の)領域(注目ブロックに対応する領域)が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合であり、この場合、時間方向のフィルタリングは、画質の劣化をもたらすので、注目ブロックのフレーム(注目フレーム)、即ち、時刻tにおける画素の画素値D(t,x,y)のみを用い、例えば、式(8)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。なお、式(8)は、フィルタリングを行わないことと等価である。 On the other hand, when the kernel size (h, k) is (0,0), the same area (image area) as the target block (area corresponding to the target block) is set to other times t-3t 0 , t- 2t 0 , tt 0 , t + t 0 , t + 2t 0 , and t + 3t 0 are not present in this case. In this case, temporal filtering results in degradation of image quality. (Frame of interest), that is, using only the pixel value D (t, x, y) of the pixel at time t, for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (8). Do. Equation (8) is equivalent to not performing filtering.

Figure 2006086707
・・・(8)
Figure 2006086707
... (8)

ここで、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合としては、例えば、注目ブロック内に投影されている被写体の移動速度が、人間が認識することができないほど高速である場合や、注目ブロック内に投影されている被写体が、時刻tのフレーム(注目フレーム)にだけ突然現れた場合などがある。 Here, as a case where the region corresponding to the block of interest does not exist in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , For example, when the moving speed of the subject projected in the block of interest is so high that humans cannot recognize it, or the subject projected in the block of interest is in the frame at time t (frame of interest). There are cases where it only appears suddenly.

また、相関情報や合成相関情報の最小値を求めることは、いわゆるブロックマッチングにより動きベクトルを検出することに相当するが、注目ブロック内に投影されている被写体が、ブロックマッチングにおける探索範囲を超えて移動してしまっている場合も、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合に該当する。 Finding the minimum value of correlation information or composite correlation information is equivalent to detecting a motion vector by so-called block matching, but the subject projected in the target block exceeds the search range in block matching. Even if it has moved, the area corresponding to the block of interest is displayed in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 . Applicable when it does not exist.

なお、ステップS192において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。   In step S192, the filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling that thins out the number of samples in the time direction to 1/4, that is, the ratio of one frame every four frames. Done in

ステップS192の処理後は、ステップS193に進み、フィルタ部22は、フィルタリング結果、即ち、ステップS192におけるフィルタリング結果(式(1)乃至(8)のうちのいずれかの演算結果)である画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。   After the process of step S192, the process proceeds to step S193, and the filter unit 22 outputs the pixel value C that is the filtering result, that is, the filtering result in step S192 (the calculation result of any one of the expressions (1) to (8)). (t, x, y) is output to the encoding unit 24 as a pixel value at the position (x, y) at time t.

以上のように、第2の動き検出処理(図73乃至図77のステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理)では、第1の動き検出処理と同様に、フィルタの通過帯域のT方向の幅である2π/(4t0)に相当する複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームへの、いわば平均的な動きを表す平均動きベクトルを求めるが、その際に、注目ブロックに対応する領域が存在しないフレームについての相関情報を用いないようにしたので、注目ブロックの平均的な動きを正確に表す平均動きベクトルを求めることができ、さらに、注目ブロックについて、正確な主成分方向を求めることができる。 As described above, in the second motion detection process (the processes in steps S151 to S172 of the processes in steps S151 to S176 in FIGS. 73 to 77), the filter passes as in the first motion detection process. By using multiple pieces of correlation information representing the correlation with each of multiple frames corresponding to the width in the T direction of the band, 2π / (4t 0 ), the average movement from the target block to multiple frames can be said. The average motion vector that represents the average motion of the target block is calculated because the correlation information is not used for the frame in which the region corresponding to the target block does not exist. Furthermore, an accurate principal component direction can be obtained for the block of interest.

また、第2の動き検出処理では、カーネルサイズ(h,k)を出力し、フィルタ部22でのフィルタリングにおいては、そのカーネルサイズ(h,k)に対応した範囲のフレームの画素だけを用いるようにしたので、即ち、注目ブロックに対応する領域が存在しないフレームの画素を用いないようにしたので、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。   In the second motion detection process, the kernel size (h, k) is output, and only the pixels of the frame in the range corresponding to the kernel size (h, k) are used for filtering in the filter unit 22. In other words, since the pixel of the frame in which the region corresponding to the block of interest does not exist is not used, appropriate data of only frequency components that can be recognized by human vision can be obtained.

次に、例えば、図25に示した送信装置1では、上述したように、フレームレート1/t0の動画データを対象に、人間の視覚特性を考慮した必要な情報のみを残すフィルタリングを行うとともに、ダウンサンプリングを行うことで、データ量を削減することができる。 Next, for example, in the transmission device 1 shown in FIG. 25, as described above, filtering is performed on moving image data with a frame rate of 1 / t 0 so as to leave only necessary information in consideration of human visual characteristics. By performing downsampling, the amount of data can be reduced.

さらに、図33に示した受信装置2では、送信装置1が出力するフレームレート1/(4t0)の動画データを対象に、フィルタリングとアップサンプリングを行うことで、理想的には、人間が画質の劣化を感じないフレームレート1/t0の動画データを得ることができる。 Furthermore, in the receiving apparatus 2 shown in FIG. 33, by performing filtering and upsampling on the moving image data of the frame rate 1 / (4t 0 ) output from the transmitting apparatus 1, ideally, human beings have image quality. It is possible to obtain moving image data with a frame rate of 1 / t 0 that does not feel deterioration of the image.

ところで、受信装置2では、フレームレート1/(4t0)の動画データをアップサンプリングすることによって、その動画データの2つのフレームの間に、3フレームが補間され、これにより、フレームレート1/t0の動画データが得られる。このアップサンプリングにより補間されるフレーム(以下、適宜、補間フレームという)の画像データは、フレームレート1/(4t0)の動画データのみから求められるため、実際には、多少の画質の劣化が生じることがある。 By the way, in the receiving device 2, by up-sampling the moving image data at the frame rate 1 / (4t 0 ), 3 frames are interpolated between the two frames of the moving image data, whereby the frame rate 1 / t. 0 video data is obtained. Since image data of a frame to be interpolated by this upsampling (hereinafter referred to as an interpolated frame as appropriate) is obtained only from moving image data at a frame rate of 1 / (4t 0 ), in reality, some image quality degradation occurs. Sometimes.

そこで、送信装置1では、フレームレート1/(4t0)の動画データの他に、その動画データの2つのフレームの間に補間される補間フレームの画質の劣化を補う、いわば補足データを得て出力するようにすることができる。 Therefore, in the transmission apparatus 1, in addition to the moving image data at the frame rate 1 / (4t 0 ), the supplemental data that compensates for the deterioration of the image quality of the interpolation frame interpolated between the two frames of the moving image data is obtained. Can be output.

図79は、フレームレート1/t0の動画データから、フレームレート1/(4t0)の動画データと、補足データとを得て出力する図24の送信装置1の構成例を示している。 Figure 79 is the video data of the frame rate 1 / t 0, and shows the video data of the frame rate 1 / (4t 0), a configuration example of a transmitting apparatus 1 of FIG. 24 which outputs to obtain the supplemental data.

なお、以下においては、フレーム周期t0を、例えば、1/240秒とする。この場合、送信装置1に供給(入力)されるフレームレート1/t0の動画データは、フレームレートが240fpsの動画データである。また、フレームレートが240fpsの動画データなどを、以下、適宜、240fps動画データなどと記載する。 In the following, the frame period t 0 is, for example, 1/240 seconds. In this case, the moving image data with the frame rate 1 / t 0 supplied (input) to the transmission device 1 is moving image data with a frame rate of 240 fps. In addition, moving image data with a frame rate of 240 fps is hereinafter referred to as 240 fps moving image data as appropriate.

図79の送信装置1において、入力端子211には、240fps動画データが入力される。入力端子211は、帯域制限フィルタ部212に接続されており、入力端子211に入力された240fps動画データは、帯域制限フィルタ部212に供給される。   In the transmission device 1 of FIG. 79, 240 fps moving image data is input to the input terminal 211. The input terminal 211 is connected to the band limiting filter unit 212, and the 240 fps moving image data input to the input terminal 211 is supplied to the band limiting filter unit 212.

帯域制限フィルタ部212は、例えば、図25に示したバッファ部21、フィルタ部22、およびフィルタ生成部23で構成されている。帯域制限フィルタ部212では、入力端子211からの240fps動画データを対象に、上述したような人間の視覚特性を考慮した必要な情報のみを残すフィルタリングが行われる。但し、帯域制限フィルタ部212を構成するフィルタ部22(図25)では、1/4のダウンサンプリングは行われない。従って、帯域制限フィルタ部212から出力される動画データは、240fps動画データのフレームレートが1/4になったフレームレート1/(4t0)の動画データ(60fps動画データ)ではなく、240fps動画データである。 The band limiting filter unit 212 includes, for example, the buffer unit 21, the filter unit 22, and the filter generation unit 23 illustrated in FIG. In the band limiting filter unit 212, filtering is performed on the 240 fps moving image data from the input terminal 211 so as to leave only necessary information in consideration of human visual characteristics as described above. However, 1/4 downsampling is not performed in the filter unit 22 (FIG. 25) constituting the band limiting filter unit 212. Therefore, the moving image data output from the band limiting filter unit 212 is not the moving image data (60 fps moving image data) of the frame rate 1 / (4t 0 ) in which the frame rate of the 240 fps moving image data is 1/4, but the 240 fps moving image data. It is.

なお、帯域制限フィルタ部212を構成するフィルタ生成部23(図25)の主成分方向取得部31は、例えば、図72に示したように構成することができる。この場合、フィルタ生成部23では、図73乃至図77で説明した処理が行われ、帯域制限フィルタ部212を構成するフィルタ部22(図25)に対して、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)とが出力される(図77のステップS176)。そして、帯域制限フィルタ部212を構成するフィルタ部22では、図78で説明したように、カーネルサイズ(h,k)に応じたフィルタリングが行われる。但し、帯域制限フィルタ部212を構成するフィルタ部22では、上述したように、ダウンサンプリングは行われない。即ち、240fps動画データの4フレームごとに1フレームのフィルタリングが行われるのではなく、240fps動画データの各フレーム(の各画素)についてフィルタリングが行われる。 Note that the principal component direction acquisition unit 31 of the filter generation unit 23 (FIG. 25) constituting the band limiting filter unit 212 can be configured as shown in FIG. 72, for example. In this case, the filter generation unit 23 performs the processing described with reference to FIGS. 73 to 77, and provides the filter unit 22 (FIG. 25) constituting the band-limiting filter unit 212 with a three-dimensional motion vector as filter information. (p 0 , q 0 , t 0 ) and the kernel size (h, k) are output (step S176 in FIG. 77). Then, as described with reference to FIG. 78, filtering according to the kernel size (h, k) is performed in the filter unit 22 constituting the band limiting filter unit 212. However, as described above, downsampling is not performed in the filter unit 22 constituting the band limiting filter unit 212. That is, one frame is not filtered for every four frames of 240 fps moving image data, but filtering is performed for each frame (each pixel) of 240 fps moving image data.

ここで、帯域制限フィルタ部212での処理は、入力端子211からの240fps動画データから、人間には認識することができない周波数成分を除去するものであり、いわば240fps動画データを圧縮するための前段階の処理(プリプロセス)と考えることも出来る。帯域制限フィルタ部212は、図79の送信装置1において必須のブロックというわけではなく、従って、図79の送信装置1は、帯域制限フィルタ部212を設けずに構成することができる。この場合、入力端子211からの240fps動画データは、帯域制限フィルタ部212の後段に設けられている分離回路213に対して、直接入力される。   Here, the processing in the band limiting filter unit 212 is to remove frequency components that cannot be recognized by humans from the 240 fps moving image data from the input terminal 211, so to speak, before the 240 fps moving image data is compressed. It can also be thought of as stage processing (preprocessing). The band limiting filter unit 212 is not an indispensable block in the transmission device 1 of FIG. 79, and therefore the transmission device 1 of FIG. 79 can be configured without providing the band limiting filter unit 212. In this case, the 240 fps moving image data from the input terminal 211 is directly input to the separation circuit 213 provided at the subsequent stage of the band limiting filter unit 212.

図79では、帯域制限フィルタ部212が出力する240fps動画データは、その後段の分離回路213に供給される。   In FIG. 79, the 240 fps moving image data output from the band limiting filter unit 212 is supplied to the subsequent separation circuit 213.

分離回路213は、帯域制限フィルタ部212からの240fps動画データ(第1の動画データ)を、その240fps動画データのフレームレートよりも低いフレームレートの、例えば、60fps動画データ(第2の動画データ)と、240fps動画データから60fps動画データを除いた残りの動画データ(第3の動画データ)とに分離する。即ち、分離回路213は、帯域制限フィルタ部212からの240fps動画データの4フレームごとに1フレームを選択することで、その240fps動画データから、60fps動画データを分離する。つまり、分離回路213は、図25のフィルタ部22における1/4のダウンサンプリングの結果得られるのと同様の60fps動画データを得る。さらに、分離回路213は、帯域制限フィルタ部212からの240fps動画データから、60fps動画データを分離した残りの動画データを得る。   The separation circuit 213 converts the 240 fps moving image data (first moving image data) from the band limiting filter unit 212 to a frame rate lower than the frame rate of the 240 fps moving image data, for example, 60 fps moving image data (second moving image data). And the remaining video data (third video data) obtained by removing the 60 fps video data from the 240 fps video data. That is, the separation circuit 213 selects one frame for every four frames of 240 fps moving image data from the band limiting filter unit 212, thereby separating 60 fps moving image data from the 240 fps moving image data. That is, the separation circuit 213 obtains 60 fps moving image data similar to that obtained as a result of 1/4 downsampling in the filter unit 22 of FIG. Further, the separation circuit 213 obtains the remaining moving image data obtained by separating the 60 fps moving image data from the 240 fps moving image data from the band limiting filter unit 212.

ここで、240fps動画データから、60fps動画データを分離した残りの動画データを、以下、適宜、240-60fps動画データという。   Here, the remaining moving image data obtained by separating 60 fps moving image data from 240 fps moving image data is hereinafter referred to as 240-60 fps moving image data as appropriate.

分離回路213において得られた60fps動画データは、圧縮回路214に供給される。また、分離回路213において得られた240-60fps動画データは、圧縮の対象の画像としてのターゲット(target)画像として、差分情報抽出部217に供給される。   The 60 fps moving image data obtained in the separation circuit 213 is supplied to the compression circuit 214. The 240-60 fps moving image data obtained in the separation circuit 213 is supplied to the difference information extraction unit 217 as a target image as an image to be compressed.

圧縮回路214は、分離回路213から供給される60fps動画データを、例えば、MPEGなどの既知のエンコード方法、その他の任意のエンコード方法によりエンコード(圧縮)し、その結果得られるビットストリームを出力する。このビットストリームは、解凍回路216と出力端子215に供給され、これにより、出力端子215からは、60fps動画データのエンコード(圧縮)結果としてのビットストリームが出力される。ここで、圧縮回路214は、図25のエンコード部24に相当し、従って、圧縮回路214が出力するビットストリームは、エンコードデータに相当する。   The compression circuit 214 encodes (compresses) the 60 fps moving image data supplied from the separation circuit 213 by, for example, a known encoding method such as MPEG, or any other encoding method, and outputs a bit stream obtained as a result. This bit stream is supplied to the decompression circuit 216 and the output terminal 215, whereby a bit stream as a result of encoding (compression) of 60 fps moving image data is output from the output terminal 215. Here, the compression circuit 214 corresponds to the encoding unit 24 in FIG. 25, and therefore the bit stream output from the compression circuit 214 corresponds to encoded data.

解凍回路216は、圧縮回路214からのビットストリームをデコード(解凍)(伸張)し、即ち、ローカルデコードし、そのローカルデコードの結果得られる60fps動画データを、ターゲット画像の圧縮にあたって参照するリファレンス(reference)画像として、差分情報抽出部217に供給する。   The decompression circuit 216 decodes (decompresses) (decompresses) the bit stream from the compression circuit 214, that is, performs local decoding, and references the 60 fps moving image data obtained as a result of the local decoding in compressing the target image. ) The image is supplied to the difference information extraction unit 217 as an image.

なお、圧縮回路214が、例えば、MPEGエンコードなどの、データのエンコードにあたってローカルデコードを行うエンコード方法によるエンコードを行う場合には、圧縮回路214において行われるローカルデコードの結果得られる60fps動画データを、リファレンス画像として、圧縮回路214から差分情報抽出部217に供給するようにすることができる。この場合、解凍回路216は、設ける必要がない。   When the compression circuit 214 performs encoding by an encoding method that performs local decoding in encoding data, such as MPEG encoding, for example, the 60 fps moving image data obtained as a result of local decoding performed in the compression circuit 214 is used as a reference. An image can be supplied from the compression circuit 214 to the difference information extraction unit 217. In this case, the decompression circuit 216 need not be provided.

差分情報抽出部217は、分離回路213からのターゲット画像である240-60fps動画データを、解凍回路216からのリファレンス画像である60fps動画データを用いて圧縮し、その圧縮によって得られるデータ(以下、適宜、差分圧縮データという)を、出力端子218に供給する。即ち、差分情報抽出部217は、リファレンス画像から、ターゲット画像の推測値を求め、その推測値を用いて、ターゲット画像を圧縮する。具体的には、差分情報抽出部217は、ターゲット画像と、その推測値との差分をとることで、ターゲット画像を圧縮する。そして、ターゲット画像とその推測値との差分をとることで、ターゲット画像を圧縮することにより得られるデータである差分圧縮データは、差分情報抽出部217から出力端子218に供給される。これにより、出力端子218からは、240-60fps動画データの圧縮結果としての差分圧縮データが出力される。   The difference information extraction unit 217 compresses the 240-60 fps moving image data, which is the target image from the separation circuit 213, using the 60 fps moving image data, which is the reference image from the decompression circuit 216, and data obtained by the compression (hereinafter, referred to as the following) (Referred to as differentially compressed data as appropriate) is supplied to the output terminal 218. That is, the difference information extraction unit 217 obtains an estimated value of the target image from the reference image, and compresses the target image using the estimated value. Specifically, the difference information extraction unit 217 compresses the target image by taking the difference between the target image and the estimated value. Then, by taking the difference between the target image and its estimated value, the difference compressed data that is data obtained by compressing the target image is supplied from the difference information extraction unit 217 to the output terminal 218. Thereby, the differential compression data as a compression result of 240-60fps moving image data is output from the output terminal 218.

ここで、以上のように、図79の送信装置1では、60fps動画データのエンコード(圧縮)結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが、出力端子215と218とから、独立に出力される。ビットストリームと差分圧縮データとは、そのまま別々に、あるいは、多重化され、図24の記録媒体11に記録され、あるいは、伝送媒体12を介して伝送される。   Here, as described above, in the transmission device 1 of FIG. 79, the bit stream as the result of encoding (compression) of 60 fps moving picture data and the differential compressed data as the compression result of 240-60 fps moving picture data are output terminal 215. And 218 are output independently. The bit stream and the differentially compressed data are separately separately or multiplexed and recorded on the recording medium 11 of FIG. 24 or transmitted via the transmission medium 12.

なお、出力端子218から出力される、240-60fps動画データの圧縮結果としての差分圧縮データが、上述した補間フレームの画質の劣化を補う補足データである。   The differentially compressed data output from the output terminal 218 as the compression result of the 240-60 fps moving image data is supplementary data that compensates for the above-described degradation of the image quality of the interpolation frame.

次に、図80は、分離回路213に入力される240fps動画データと、分離回路213から出力される60fps動画データ、および240-60fps動画データを示している。なお、図80において、横軸は時間を表している。   Next, FIG. 80 shows 240 fps moving image data input to the separation circuit 213, 60 fps moving image data and 240-60 fps moving image data output from the separation circuit 213. In FIG. 80, the horizontal axis represents time.

図80の一番上のフレームf1,f2,・・・,f13は、図79の分離回路213に入力される240fps動画データを示している。240fps動画データにおいて、あるフレームfiと次のフレームfi+1との時間間隔は、1/240秒である(iは整数)。 The top frames f 1 , f 2 ,..., F 13 in FIG. 80 show 240 fps moving image data input to the separation circuit 213 in FIG. In 240fps video data, the time interval between the frames f i + 1 following the given frame f i of a 1/240 seconds (i is an integer).

なお、フレームf1の前と、フレームf13の後にも、フレームは続くが、図80では、図示を省略してある。 Although the frame continues before the frame f 1 and after the frame f 13 , the illustration is omitted in FIG.

図79の分離回路213は、図80の一番上に示した240fps動画データを、図80の上から2番目に示す60fps動画データと、図80の一番下に示す240-60fps動画データとに分離する。   The separation circuit 213 of FIG. 79 converts the 240 fps moving image data shown at the top of FIG. 80 into the 60 fps moving image data shown second from the top of FIG. 80 and the 240-60 fps moving image data shown at the bottom of FIG. To separate.

即ち、分離回路213は、240fps動画データの4フレームf4i+1,f4i+2,f4i+3,f4i+4ごとの、例えば、1フレームf4i+1を選択することにより、図80の上から2番目に示すようなフレーム・・・,f1,f5,f9,f13,・・・からなる60fps動画データを得る。 That is, the separation circuit 213 selects, for example, one frame f 4i + 1 for every four frames f 4i + 1 , f 4i + 2 , f 4i + 3 , and f 4i + 4 of the 240 fps moving image data. 60 fps moving image data consisting of frames..., F 1 , f 5 , f 9 , f 13 ,.

また、分離回路213は、240fps動画データから、60fps動画データを除いた残りの、図80の一番下に示すようなフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・からなる240-60fps動画データを得る。 Further, the separation circuit 213 removes the 60 fps moving image data from the 240 fps moving image data, and the remaining frames shown in the bottom of FIG. 80..., F 2 , f 3 , f 4 , f 6 , f 7 , F 8 , f 10 , f 11 , f 12 ,...

60fps動画データにおいては、あるフレームと次のフレームとの時間間隔は、1/60秒である。また、240-60fps動画データは、1秒あたりのフレーム数が、240-60=180フレームの動画データである。   In 60 fps video data, the time interval between one frame and the next is 1/60 second. Further, 240-60fps moving image data is moving image data with 240-60 = 180 frames per second.

図79の差分情報抽出部217には、図80の上から2番目に示す60fps動画データがリファレンス画像として供給されるとともに、図80の一番下に示す240-60fps動画データがターゲット画像として供給される。差分情報抽出部217では、ターゲット画像である240-60fps動画データのフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・(の画像データ)が、リファレンス画像である60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・(の画像データ)を用いて圧縮される。 The second 60 fps moving image data from the top of FIG. 80 is supplied as a reference image to the difference information extraction unit 217 of FIG. 79, and the 240-60 fps moving image data shown at the bottom of FIG. 80 is supplied as a target image. Is done. In difference information extraction unit 217, a frame ... of 240-60fps video data which is the target image, f 2, f 3, f 4, f 6, f 7, f 8, f 10, f 11, f 12, · .. (Image data) is compressed using frames of 60 fps moving image data as reference images,..., F 1 , f 5 , f 9 , f 13 ,.

なお、図79の圧縮回路214において、分離回路213からの60fps動画データに対して、完全に可逆のエンコードが行われる場合には、分離回路213で得られる60fps動画データと、解凍回路216から差分情報抽出部217に供給されるリファレンス画像としての60fps動画データとは一致する。しかしながら、圧縮回路214において、分離回路213からの60fps動画データに対して行われるエンコードが完全に可逆でない場合には、分離回路213で得られる60fps動画データと、解凍回路216から差分情報抽出部217に供給されるリファレンス画像としての60fps動画データとには、厳密には違いがある。但し、ここでは、その違いを問題とする必要はないので、以下では、分離回路213で得られる60fps動画データと、解凍回路216から差分情報抽出部217に供給される60fps動画データとは、一致するものとして説明を行う。即ち、厳密には、・・・,f1,f5,f9,f13,・・・(の画像データ)に対してエンコード(図79の圧縮回路214によるエンコード)とデコード(解凍回路216によるデコード)を行ったものが、リファレンス画像である。しかし、ここでは、単に、リファレンス画像は図80の上から2番目に示す60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・(の画像データ)であるとして説明を行う。 In the compression circuit 214 of FIG. 79, when the 60 fps moving image data from the separation circuit 213 is completely reversibly encoded, the difference between the 60 fps moving image data obtained by the separation circuit 213 and the decompression circuit 216 is obtained. The 60 fps moving image data as the reference image supplied to the information extraction unit 217 matches. However, in the compression circuit 214, when the encoding performed on the 60 fps moving image data from the separation circuit 213 is not completely reversible, the 60 fps moving image data obtained by the separation circuit 213 and the difference information extraction unit 217 from the decompression circuit 216 are obtained. Strictly speaking, there is a difference from the 60 fps moving image data serving as a reference image supplied to. However, since it is not necessary to consider the difference here, in the following, the 60 fps moving image data obtained by the separation circuit 213 and the 60 fps moving image data supplied from the decompression circuit 216 to the difference information extraction unit 217 match. The explanation will be given on the assumption that That is, strictly speaking,..., F 1 , f 5 , f 9 , f 13 ,... (Image data) are encoded (encoded by the compression circuit 214 in FIG. 79) and decoded (decompression circuit 216). The reference image has been subjected to (decoding by). However, here, the reference image is simply the frame of the 60 fps moving image data shown in the second part from the top of FIG. 80..., F 1 , f 5 , f 9 , f 13 ,. Will be described.

次に、図81は、図79の差分情報抽出部217の構成例を示している。   Next, FIG. 81 shows a configuration example of the difference information extraction unit 217 of FIG.

差分情報抽出部217は、大きく分けて、ターゲット記憶部221、リファレンス記憶部222、およびデータ処理部223から構成されている。   The difference information extraction unit 217 is roughly composed of a target storage unit 221, a reference storage unit 222, and a data processing unit 223.

ターゲット記憶部221には、分離回路213(図79)からターゲット画像としての240-60fps動画データが供給される。ターゲット記憶部221は、分離回路213からのターゲット画像としての240-60fps動画データを一時記憶する。   The target storage unit 221 is supplied with 240-60 fps moving image data as a target image from the separation circuit 213 (FIG. 79). The target storage unit 221 temporarily stores 240-60 fps moving image data as a target image from the separation circuit 213.

ターゲット記憶部221に記憶されたターゲット画像の各フレーム(の画像データ)は、ブロック分割される。そして、そのブロック分割によって得られる各ブロックが、順次、注目ブロックとされ、その注目ブロック(の画像データ)は、ターゲット記憶部221から読み出され、入力端子233からデータ処理部223に入力される。なお、ブロックのサイズは、例えば、上述した場合と同様に、16×16画素などを採用することができる。また、ブロックを構成する画素数は、複数画素であってもよいし、1画素であってもよい。   Each frame (image data) of the target image stored in the target storage unit 221 is divided into blocks. Each block obtained by the block division is sequentially set as a target block, and the target block (image data thereof) is read from the target storage unit 221 and input to the data processing unit 223 from the input terminal 233. . Note that, for example, 16 × 16 pixels can be adopted as the block size, as in the case described above. In addition, the number of pixels constituting the block may be a plurality of pixels or one pixel.

リファレンス記憶部222には、解凍回路216(図79)からリファレンス画像としての60fps動画データが供給される。リファレンス記憶部222は、解凍回路216からのリファレンス画像としての60fps動画データを一時記憶する。   The reference storage unit 222 is supplied with 60 fps moving image data as a reference image from the decompression circuit 216 (FIG. 79). The reference storage unit 222 temporarily stores 60 fps moving image data as a reference image from the decompression circuit 216.

リファレンス記憶部222に記憶されたリファレンス画像のフレームのうちの、注目ブロックのフレームの直前のフレーム(の画像データ)は、パストリファレンス(past reference)画像として読み出され、入力端子231からデータ処理部223に入力される。また、リファレンス記憶部222に記憶されたリファレンス画像のフレームのうちの、注目ブロックのフレームの直後のフレーム(の画像データ)は、フューチャリファレンス(future reference)画像として読み出され、入力端子232からデータ処理部223に入力される。   Of the frames of the reference image stored in the reference storage unit 222, the frame immediately before the frame of the target block is read as a past reference image, and the data processing unit is input from the input terminal 231. 223 is input. In addition, a frame (image data) immediately after the frame of the target block among the frames of the reference image stored in the reference storage unit 222 is read as a future reference image, and data is input from the input terminal 232. Input to the processing unit 223.

ここで、ターゲット記憶部221には、図80の一番下に示したターゲット画像である240-60fps動画データのフレームf2,f3,f4,f6,f7,f8,f10,f11,f12等が一時記憶される。また、リファレンス記憶部222には、図80の上から2番目に示したリファレンス画像である60fps動画データのフレームf1,f5,f9,f13等が一時記憶される。 Here, the target storage unit 221 stores frames f 2 , f 3 , f 4 , f 6 , f 7 , f 8 , f 10 of 240-60 fps moving image data, which is the target image shown at the bottom of FIG. , F 11 , f 12 etc. are temporarily stored. Further, the reference storage unit 222 temporarily stores frames f 1 , f 5 , f 9 , f 13 and the like of 60 fps moving image data, which is the second reference image from the top in FIG.

そして、例えば、ターゲット記憶部221に記憶されたターゲット画像のフレームf2,f3,f4のうちのいずれかのフレームのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf2,f3,f4の直前と直後のフレームf1とf5が、それぞれパストリファレンス画像とフューチャリファレンス画像として、リファレンス記憶部222から読み出される。 For example, when the block of one of the frames f 2 , f 3 , and f 4 of the target image stored in the target storage unit 221 is the target block, the frames f 1 and f of the reference image 5, of f 9, f 13, the frame f 1 and f 5 immediately before and after the frame f 2, f 3, f 4 of the target image, as a past reference image and Futuresse reference image respectively, the reference storage unit 222 Read from.

また、例えば、ターゲット記憶部221に記憶されたターゲット画像のフレームf6,f7,f8のうちのいずれかのフレームのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf6,f7,f8の直前と直後のフレームf5とf9が、それぞれパストリファレンス画像とフューチャリファレンス画像として、リファレンス記憶部222から読み出される。 Further, for example, when the block of one of the frames f 6 , f 7 , and f 8 of the target image stored in the target storage unit 221 is the target block, the frames f 1 and f of the reference image Among the frames f 5 , f 9 , and f 13 , the frames f 5 and f 9 immediately before and after the frames f 6 , f 7 , and f 8 of the target image are used as a past reference image and a feature reference image, respectively, as a reference storage unit 222. Read from.

さらに、例えば、ターゲット記憶部221に記憶されたターゲット画像のフレームf10,f11,f12のうちのいずれかのフレームのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf10,f11,f12の直前と直後のフレームf9とf13が、それぞれパストリファレンス画像とフューチャリファレンス画像として、リファレンス記憶部222から読み出される。 Further, for example, when the block of one of the frames f 10 , f 11 , and f 12 of the target image stored in the target storage unit 221 is the target block, the frames f 1 and f of the reference image 5, of f 9, f 13, frame f 9 and f 13 of immediately before and after the frame f 10, f 11, f 12 of the target image, as a past reference image and Futuresse reference image respectively, the reference storage unit 222 Read from.

データ処理部223は、入力端子231乃至233、6つの差分データ計算部234乃至239、選択回路240、および出力端子241で構成され、入力端子233から入力される注目ブロックを、入力端子231から入力されるパストリファレンス画像、または入力端子232から入力されるフューチャリファレンス画像を用いて圧縮し、その結果得られる差分圧縮データを、出力端子241から、図79の出力端子218に出力する。   The data processing unit 223 includes input terminals 231 to 233, six difference data calculation units 234 to 239, a selection circuit 240, and an output terminal 241. The target block input from the input terminal 233 is input from the input terminal 231. The compressed past reference image or the feature reference image input from the input terminal 232 is compressed, and the differential compressed data obtained as a result is output from the output terminal 241 to the output terminal 218 of FIG.

即ち、データ処理部223は、ターゲット画像を、ブロック単位で圧縮する。   That is, the data processing unit 223 compresses the target image in units of blocks.

具体的には、データ処理部223において、入力端子231から入力されたパストリファレンス画像は、6つの差分データ計算部234乃至239のうちの、4つの差分データ計算部234乃至237に供給される。また、入力端子232から入力されたフューチャリファレンス画像は、6つの差分データ計算部234乃至239のうちの、4つの差分データ計算部234乃至236、および238に供給される。さらに、入力端子233から入力された注目ブロックは、6つの差分データ計算部234乃至239のすべてに供給される。   Specifically, in the data processing unit 223, the past reference image input from the input terminal 231 is supplied to four difference data calculation units 234 to 237 among the six difference data calculation units 234 to 239. The feature reference image input from the input terminal 232 is supplied to four difference data calculation units 234 to 236 and 238 among the six difference data calculation units 234 to 239. Further, the target block input from the input terminal 233 is supplied to all of the six difference data calculation units 234 to 239.

差分データ計算部234は、入力端子231からのパストリファレンス画像と、入力端子232からのフューチャリファレンス画像とを用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第1の差分データ(圧縮データ)を、選択回路240に供給する。   The difference data calculation unit 234 compresses the block of interest from the input terminal 233 using the past reference image from the input terminal 231 and the feature reference image from the input terminal 232, and the first result to be described later is the compression result. Difference data (compressed data) is supplied to the selection circuit 240.

差分データ計算部235も、入力端子231からのパストリファレンス画像と、入力端子232からのフューチャリファレンス画像とを用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第2の差分データ(他の圧縮データ)を、選択回路240に供給する。   The difference data calculation unit 235 also compresses the block of interest from the input terminal 233 using the past reference image from the input terminal 231 and the feature reference image from the input terminal 232, and a second result to be described later is obtained as a result of the compression. Difference data (other compressed data) is supplied to the selection circuit 240.

差分データ計算部236も、入力端子231からのパストリファレンス画像と、入力端子232からのフューチャリファレンス画像とを用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第3の差分データを、選択回路240に供給する。   The difference data calculation unit 236 also compresses the block of interest from the input terminal 233 using the past reference image from the input terminal 231 and the feature reference image from the input terminal 232, and a third result to be described later is obtained as a result of the compression. Are supplied to the selection circuit 240.

差分データ計算部237は、入力端子231からのパストリファレンス画像を用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第4の差分データを、選択回路240に供給する。   The difference data calculation unit 237 compresses the block of interest from the input terminal 233 using the past reference image from the input terminal 231, and supplies fourth difference data, which will be described later, to the selection circuit 240 as the compression result. .

差分データ計算部238は、入力端子232からのフューチャリファレンス画像を用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第5の差分データを、選択回路240に供給する。   The difference data calculation unit 238 compresses the target block from the input terminal 233 using the feature reference image from the input terminal 232, and supplies fifth difference data, which will be described later, to the selection circuit 240 as a compression result. .

差分データ計算部239は、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第6の差分データを、選択回路240に供給する。   The difference data calculation unit 239 compresses the target block from the input terminal 233, and supplies sixth difference data, which will be described later, as the compression result to the selection circuit 240.

選択回路240は、6つの差分データ計算部234乃至239からそれぞれ供給される第1乃至第6の差分データの中から、注目ブロックの圧縮結果として最適なものを選択する。ここで、第1乃至第6の差分データのうちの、選択回路240において選択されたものを、以下、適宜、選択差分データという。   The selection circuit 240 selects the optimum compression result of the block of interest from the first to sixth difference data supplied from the six difference data calculation units 234 to 239, respectively. Here, of the first to sixth difference data, the one selected by the selection circuit 240 is hereinafter referred to as selection difference data as appropriate.

選択回路240は、選択差分データに、その選択差分データが、第1乃至第6の差分データのうちのいずれであるかを識別するための識別情報としての、後述するケースID(Identification)を付加し、注目ブロックの圧縮結果である差分圧縮データとして、出力端子241から出力する。   The selection circuit 240 adds a case ID (Identification), which will be described later, as identification information for identifying which of the first to sixth difference data the selection difference data is to the selection difference data. Then, it is output from the output terminal 241 as differential compressed data that is the compression result of the block of interest.

次に、差分データ計算部234乃至239それぞれにおける注目ブロックの圧縮および復元の方法と、注目ブロックの圧縮により得られる第1乃至第6の差分データについて説明する。   Next, a method of compressing and restoring the target block in each of the difference data calculation units 234 to 239 and first to sixth difference data obtained by compression of the target block will be described.

図82は、ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 FIG. 82 shows a target image V T , a past reference image V P , and a future reference image V F (frames thereof).

いま、sが、1,2,3のうちのいずれかの値をとる変数であるとして、ターゲット画像VTとフューチャリファレンス画像VFとの時間間隔を、s/240秒と表すと、ターゲット画像VTとパストリファレンス画像VPとの時間間隔は、(4-s)/240秒と表すことができる。 Now, s is as a variable which takes one of three values 1, 2, 3, the time interval between the target image V T and Futuresse reference image V F, when expressed as s / 240 seconds, the target image time interval between V T and Pasto reference image V P can be expressed as (4-s) / 240 seconds.

ここで、ターゲット画像VTが、例えば、図80の一番下に示した240-60fps動画データのフレームf2であるとすると、パストリファレンス画像VPとフューチャリファレンス画像VFは、それぞれ、図80の上から2番目に示した60fps動画データのフレームf1とf5であり、この場合、変数sは3である。 Here, if the target image V T is, for example, the frame f 2 of the 240-60 fps moving image data shown at the bottom of FIG. 80, the past reference image V P and the future reference image V F are respectively shown in FIG. The frames f 1 and f 5 of the 60 fps moving image data shown second from the top of 80 are shown. In this case, the variable s is 3.

また、ターゲット画像VTが、例えば、図80の一番下に示した240-60fps動画データのフレームf3であるとすると、パストリファレンス画像VPとフューチャリファレンス画像VFは、それぞれ、図80の上から2番目に示した60fps動画データのフレームf1とf5であり、この場合、変数sは2である。 Further, if the target image V T is, for example, the frame f 3 of the 240-60 fps moving image data shown at the bottom of FIG. 80, the past reference image V P and the feature reference image V F are respectively shown in FIG. The frames f 1 and f 5 of the 60 fps moving image data shown second from the top, in this case, the variable s is 2.

さらに、ターゲット画像VTが、例えば、図80の一番下に示した240-60fps動画データのフレームf4であるとすると、パストリファレンス画像VPとフューチャリファレンス画像VFは、それぞれ、図80の上から2番目に示した60fps動画データのフレームf1とf5であり、この場合、変数sは1である。他の場合も同様に、変数sは、1,2,3のうちのいずれかである。 Further, assuming that the target image V T is, for example, the frame f 4 of the 240-60 fps moving image data shown at the bottom of FIG. 80, the past reference image V P and the feature reference image V F are respectively shown in FIG. The frames f 1 and f 5 of the 60 fps moving image data shown second from the top are shown. In this case, the variable s is 1. Similarly, in other cases, the variable s is one of 1, 2, and 3.

ターゲット画像VTに対して、上述したパストリファレンス画像VPとフューチャリファレンス画像VFとが存在する場合、ターゲット画像VTの注目ブロックは、そのパストリファレンス画像VPとフューチャリファレンス画像VFを、いわばヒントとして圧縮をすることができ、その圧縮結果の復元も同様に、パストリファレンス画像VPとフューチャリファレンス画像VFをヒントとして行うことができる。 The target image V T, if the Pasto reference image V P described above and Futuresse reference image V F is present, the block of interest of the target image V T is the Past reference image V P and Futuresse reference image V F, so to speak can be compressed as a hint, can be carried out similarly restoration of the compressed result, the Past reference image V P and Futuresse reference image V F as a hint.

即ち、パストリファレンス画像VPにおいて、ターゲット画像VTの注目ブロックの位置(例えば、注目ブロックの左上の位置)から、ベクトルmv8201だけずれた位置の、注目ブロックと同一のサイズの領域R8201が、注目ブロック(の画像データ)と類似している場合、注目ブロックの各画素の画素値(画像データ)と、領域R8201の対応する画素の画素値との差分をとることにより、各画素の画素値の差分は、ほとんど0となることから、注目ブロックの画像データとして、そのほとんど0である差分を採用することにより、注目ブロックの画像データのデータ量を削減、即ち、注目ブロックを圧縮することができる。 That is, in the PAST reference image V P, the position of the target block of the target image V T (e.g., the position of the upper left of the target block) from the position shifted by vector mv 8201, a region R 8201 of the target block and the same size If it is similar to the target block (image data thereof), the difference between the pixel value (image data) of each pixel of the target block and the pixel value of the corresponding pixel in the region R 8201 is obtained. Since the difference between the pixel values is almost 0, by adopting the difference that is almost 0 as the image data of the block of interest, the data amount of the image data of the block of interest is reduced, that is, the block of interest is compressed. be able to.

同様に、フューチャリファレンス画像VFにおいて、ターゲット画像VTの注目ブロックの位置から、ベクトルmv8202だけずれた位置の、注目ブロックと同一のサイズの領域R8202が、注目ブロックと類似している場合には、注目ブロックの各画素の画素値と、領域R8202の対応する画素の画素値との差分をとることにより、各画素の画素値の差分は、ほとんど0となることから、注目ブロックの画像データとして、そのほとんど0である差分を採用することにより、注目ブロックの画像データのデータ量を削減、即ち、注目ブロックを圧縮することができる。 Similarly, in Futuresse reference image V F, when the position of the target block of the target image V T, the position shifted by vector mv 8202, region R 8202 of the target block and the same size, which are similar to the block of interest Since the difference between the pixel value of each pixel of the target block and the pixel value of the corresponding pixel in the region R 8202 is almost zero, the difference between the pixel values of each pixel is almost zero. By adopting a difference that is almost zero as the image data, it is possible to reduce the amount of image data of the block of interest, that is, to compress the block of interest.

差分データ計算部234乃至239(図81)は、基本的には、上述したように、注目ブロックと、パストリファレンス画像VPまたはフューチャリファレンス画像VFとの差分をとる方法により、注目ブロックを圧縮する。 Differential data calculation unit 234 through 239 (FIG. 81) are basically as described above, the block of interest, the method of taking the difference between a past reference image V P or Futuresse reference image V F, compressing the block of interest To do.

ここで、以下においては、240fps動画データとして、例えば、図83に示す被写体が投影された動画データを考える。   Here, in the following, as the 240 fps moving image data, for example, moving image data on which a subject shown in FIG. 83 is projected is considered.

なお、図83における横軸は、空間方向の位置x,yを表している。即ち、図83においては、図が煩雑になるのを避けるため、x,yの2つの空間方向を、1軸で表している。後述する図84乃至図93においても同様である。   Note that the horizontal axis in FIG. 83 represents the position x, y in the spatial direction. That is, in FIG. 83, the two spatial directions x and y are represented by one axis in order to avoid making the diagram complicated. The same applies to FIGS. 84 to 93 described later.

図83において、その上側は、背景である被写体P8301の波形を示しており、下側は、前景である被写体P8302の波形を示している。 In FIG. 83, the upper side shows the waveform of the subject P 8301 as the background, and the lower side shows the waveform of the subject P 8302 as the foreground.

図83上側に示した被写体P8301は静止しており、図83下側に示した被写体P8302は、ある空間方向に移動している。 The subject P 8301 shown at the upper side of FIG. 83 is stationary, and the subject P 8302 shown at the lower side of FIG. 83 is moving in a certain spatial direction.

図84は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 FIG. 84 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.

図84においては、例えば、被写体P8302が、ゆっくりと一定速度で移動しており、被写体P8302の動きベクトル、即ち、240fps動画データにおけるフレーム周期である1/240秒あたりの、被写体P8302の空間方向x,yの移動量を表すベクトルが(U,V)であるとする。 In FIG. 84, for example, the subject P 8302 is has moved slowly at a constant speed, the motion vector of the subject P 8302, i.e., per 1/240 second is a frame period in 240fps video data, the subject P 8302 It is assumed that the vector representing the movement amount in the spatial direction x, y is (U, V).

上述したように、パストリファレンス画像VPとターゲット画像VTとの時間間隔は、(4-s)/240秒であり、ターゲット画像VTとフューチャリファレンス画像VFとの時間間隔は、s/240秒である。 As described above, the time interval between a past reference image V P and the target image V T, (4-s) was / 240 seconds, the time interval between the target image V T and Futuresse reference image V F, s / 240 seconds.

そして、被写体P8302が、ゆっくりと一定速度で移動している場合には、ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFのすべてに、被写体P8302が存在し、さらに、パストリファレンス画像VP上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(-(4-s)U,-(4-s)V)だけずれた位置にあり、フューチャリファレンス画像VF上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(sU,sV)だけずれた位置にある。 When the subject P 8302 is slowly moving at a constant speed, the subject P 8302 exists in all of the target image V T , the past reference image V P , and the future reference image V F , and The subject P 8302 on the past reference image V P is at a position shifted from the subject P 8302 on the target image V T by a vector (-(4-s) U,-(4-s) V). subject P 8302 on the image V F from the subject P 8302 on a target image V T, is the position shifted by vector (sU, sV).

従って、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB8401を、注目ブロックとして注目すると、パストリファレンス画像VPにおいて、注目ブロックB8401からベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックB8401と同一サイズの領域R8401の画像データは、(理想的には)注目ブロックB8401と同一になっている。また、フューチャリファレンス画像VFにおいても、注目ブロックB8401からベクトル(sU,sV)だけずれた位置の、注目ブロックB8401と同一サイズの領域R8402の画像データは、(理想的には)注目ブロックB8401と同一になっている。 Accordingly, in the target image V T, for example, a certain block B 8401 including only the subject P 8302, when attention as the subject block, in Past reference image V P, from the target block B 8401 vector (- (4-s) U , The image data of the region R 8401 having the same size as the target block B 8401 at a position shifted by- (4-s) V) is (ideally) the same as the target block B 8401 . Also in Futuresse reference image V F, a vector from the target block B 8401 (sU, sV) of position shifted by the image data of the target block B 8401 same size as the region R 8402 is (ideally) of interest It is the same as block B 8401 .

即ち、パストリファレンス画像VPの領域R8401、注目ブロックB8401、およびフューチャリファレンス画像VFの領域R8402の画像データは、(理想的には)同一になっている。 That is, the image data of Pasto reference image V P of region R 8401, the block of interest B 8401, and the region R 8402 of Futuresse reference image V F is made the same (ideally).

差分データ計算部234(図81)では、以上のような図84に示した場合に適した第1の差分データが求められる。   The difference data calculation unit 234 (FIG. 81) obtains first difference data suitable for the case shown in FIG. 84 as described above.

即ち、差分データ計算部234(図81)では、例えば、パストリファレンス画像VPの領域R8401と、フューチャリファレンス画像VFの領域R8402との画像データの平均値(領域R8401内の各画素の画素値と、領域R8402内の対応する画素の画素値との平均値)が演算され、その平均値を、注目ブロックB8401の推測値として、注目ブロックB8401とその推測値との差分(注目ブロックB8401の各画素の画素値と、その画素の画素値の推測値との差分)が演算される。この差分は、ほとんど0となるので、注目ブロックB8401のデータ量を削減することができる。差分データ計算部234は、以上のような注目ブロックB8401とその推測値との差分を、注目ブロックB8401の圧縮結果である第1の差分データとして出力する。 That is, the difference data calculating unit 234 (FIG. 81), for example, each pixel in the region R 8401 Past reference image V P, the average value of the image data of the area R 8402 of Futuresse reference image V F (region R 8401 and pixel value, the average value between the pixel value of the corresponding pixel in the region R 8402) is calculated, the difference of the average value, as estimated value of the block of interest B 8401, the block of interest B 8401 and its estimated value (The difference between the pixel value of each pixel of the target block B 8401 and the estimated value of the pixel value of the pixel) is calculated. Since this difference is almost 0, the data amount of the target block B 8401 can be reduced. The difference data calculation unit 234 outputs the difference between the target block B 8401 and its estimated value as the first difference data that is the compression result of the target block B 8401 .

ところで、第1の差分データを、元の注目ブロックB8401に復元するには、注目ブロックB8401からパストリファレンス画像VPへの動きベクトルとなるベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8401からフューチャリファレンス画像VFへの動きベクトルとなるベクトル(sU,sV)との2つの動きベクトルが必要となる。 Incidentally, the first difference data, to restore to the original block of interest B 8401 is a motion vector from the target block B 8401 to Pasto reference image V P vector (- (4-s) U , - (4 and -s) V), the motion vector from the target block B 8401 to Futuresse reference image V F vector (sU, two motion vectors with sV) is required.

しかしながら、第1の差分データに、2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)とを付加した場合には、その2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)の分だけ、データ量が増加することになる。   However, when two motion vectors (-(4-s) U,-(4-s) V) and (sU, sV) are added to the first difference data, the two motion vectors ( -(4-s) U,-(4-s) V) and (sU, sV) increase the amount of data.

そこで、差分データ計算部234では、次のようにして、注目ブロックB8401の推測値を求めるのに用いる領域R8401およびR8402(への動きベクトル)を求めることにより、動きベクトルなしで復元することができる第1の差分データを求める。 Therefore, the difference data calculation unit 234 performs restoration without a motion vector by obtaining regions R 8401 and R 8402 (to which motion vectors are used) used to obtain the estimated value of the block of interest B 8401 as follows. First differential data that can be obtained is obtained.

即ち、いまの場合、被写体P8302が一定速度(速度=0の場合も含む)で移動していることを前提とするので、注目ブロックB8401から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8401、注目ブロックB8401から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8402、および注目ブロックB8401(の対応する画素)は、図84に示すように、時空間において一直線上に並ぶ。 That is, in this case, since it is assumed that the subject P 8302 is moving at a constant speed (including the case of speed = 0), the motion vector from the target block B 8401 (- (4-s ) U, - Region R 8401 on past reference image V P shifted by (4-s) V), region R 8402 on feature reference image V F shifted by motion vector (sU, sV) from target block B 8401 , and target block As shown in FIG. 84, B 8401 (corresponding pixels) are arranged in a straight line in space-time.

従って、注目ブロックB8401から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8401と、注目ブロックB8401から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8402は、いずれも、時空間において、注目ブロックB8401を通る直線上に存在する。 Therefore, the motion vector from the target block B 8401 (- (4-s ) U, - (4-s) V) a region R 8401 on which shifted by PAST reference image V P, the motion vector from the target block B 8401 (sU , sV), the region R 8402 on the feature reference image V F is located on a straight line passing through the block of interest B 8401 in time and space.

そして、パストリファレンス画像VP上の領域R8401と、フューチャリファレンス画像VF上の領域R8402の画像データは、上述したように、(理想的には)同一であるから、その領域R8401とR8402との(画像データ)の相関は、時空間において、注目ブロックB8401を通る直線上に存在するパストリファレンス画像VP上の領域と、フューチャリファレンス画像VF上の領域との相関の中で、最も高くなる。 Then, a region R 8401 on Pasto reference image V P, diffuser image data of a region R 8402 on tea reference image V F, as described above, (ideally) Since identical, and the area R 8401 correlation (image data) of the R 8402, in time and space, and the region on the Pasto reference image V P that exists on a straight line passing through the block of interest B 8401, in a correlation with Futuresse reference image V F on the region And get the highest.

従って、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、注目ブロックB8401を通る時空間の直線上にある領域から、相関が最も高い領域の位置関係を検出すれば、その位置関係にあるパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域とが、それぞれ領域R8401とR8402となる。 Accordingly, in the past reference image V P and the future reference image V F , if the positional relationship of the region having the highest correlation is detected from the region on the space-time straight line passing through the target block B 8401 , the past relationship image having the highest correlation is detected. a region of the reference image V P, and the area of Futuresse reference image V F, the respective regions R 8401 and R 8402.

即ち、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を検出することにより、注目ブロックB8401から領域R8401への動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8401から領域R8402への動きベクトル(sU,sV)がなくても、領域R8401とR8402を求めることができる。 That is, in the PAST reference image V P and Futuresse reference image V F, by detecting the positional relationship of the correlation is the highest region, the motion vector from the target block B 8401 to the area R 8401 (- (4-s ) U, -(4-s) V) and the regions R 8401 and R 8402 can be obtained without the motion vector (sU, sV) from the target block B 8401 to the region R 8402 .

差分データ計算部234(図81)は、以上のような原理を利用して、動きベクトルなしで復元することができる第1の差分データを求める。   The difference data calculation unit 234 (FIG. 81) obtains first difference data that can be restored without a motion vector by using the principle as described above.

具体的には、差分データ計算部234は、注目ブロックを通る時空間の直線上にあるパストリファレンス画像VPの領域Ipとフューチャリファレンス画像VFの領域Ifとの相関を表す相関情報e1(U',V')を、例えば、式(9)にしたがって求める。 Specifically, the difference data calculation unit 234 correlates the correlation information e 1 (representing the correlation between the region Ip of the past reference image V P and the region If of the future reference image V F on a space-time straight line passing through the block of interest. U ′, V ′) is obtained, for example, according to equation (9).

Figure 2006086707
・・・(9)
Figure 2006086707
... (9)

ここで、式(9)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表す。また、Ip(x-(4-s)U',y-(4-s)V')は、パストリファレンス画像VPにおける位置(x-(4-s)U',y-(4-s)V')にある画素の画素値を表す。さらに、If(x+sU',y+sV')は、フューチャリファレンス画像VFにおける位置(x+sU',y+sV')にある画素の画素値を表す。また、式(9)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in equation (9), (x, y ) represents the position of the pixel of the target block in the target image V T. Ip (x- (4-s) U ′, y- (4-s) V ′) is a position (x- (4-s) U ′, y- (4-s) in the past reference image V P. ) Represents the pixel value of the pixel in V ′). Furthermore, If (x + sU ', y + sV') represents the position (x + sU ', y + sV') pixel value of the pixel in the Futuresse reference image V F. Also, Σ in equation (9) represents summation for all the pixels constituting the block of interest.

なお、式(9)の相関情報e1(U',V')は、パストリファレンス画像VPの領域Ipと、フューチャリファレンス画像VFの領域Ifとの画素値の差分絶対値の総和であり、従って、パストリファレンス画像VPの領域Ipとフューチャリファレンス画像VFの領域Ifとの相関が高いほど、相関情報e1(U',V')の「値」は、小さくなる。 Incidentally, the correlation information e 1 of the formula (9) (U ', V ') is an sum of absolute differences of the pixel values of the region Ip Past reference image V P, a region If the Futuresse reference image V F , therefore, the higher the correlation between the region If region Ip and Futuresse reference image V F of Pasto reference image V P, the "value" of the correlation information e 1 (U ', V' ) is reduced.

差分データ計算部234は、式(9)の相関情報e1(U',V')を、考えられる全ての(U',V')について計算する。ここで、考えられる全ての(U',V')とは、例えば、位置(x-(4-s)U',y-(4-s)V')がパストリファレンス画像VP上にあり、かつ、位置(x+sU',y+sV')がフューチャリファレンス画像VF上にある場合(範囲)の、(U',V')である。なお、式(9)の相関情報e1(U',V')の計算は、その他、あらかじめ定められた範囲の(U',V')についてだけ行うようにしてもよい。 The difference data calculation unit 234 calculates the correlation information e 1 (U ′, V ′) in Expression (9) for all possible (U ′, V ′). Here, all the possible (U ′, V ′) are, for example, positions (x- (4-s) U ′, y- (4-s) V ′) on the past reference image V P. and a position (x + sU ', y + sV') If is on Futuresse reference image V F of (range), (U ', V' ). In addition, the calculation of the correlation information e 1 (U ′, V ′) in Expression (9) may be performed only for (U ′, V ′) within a predetermined range.

差分データ計算部234は、各値の(U',V')について計算した相関情報e1(U',V')から最小値を検出し、その相関情報e1(U',V')の最小値を与える(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表すベクトル(U,V)として検出する。 The difference data calculation unit 234 detects the minimum value from the correlation information e 1 (U ′, V ′) calculated for each value (U ′, V ′), and the correlation information e 1 (U ′, V ′). gives the minimum value of (U ', V'), and in Past reference image V P and Futuresse reference image V F, is detected as a vector (U, V) representing the positional relationship of the correlation is the highest region.

ここで、以上のような、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表すベクトル(U,V)を、以下、適宜、位置関係ベクトル(U,V)という。 Here, in the past reference image V P and the feature reference image V F as described above, the vector (U, V) representing the positional relationship of the region having the highest correlation is appropriately referred to as the positional relationship vector (U, V). ).

差分データ計算部234は、位置関係ベクトル(U,V)の検出後、その位置関係ベクトル(U,V)が表す位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。 Differential data calculation unit 234, the positional relationship vector (U, V) after the detection of, from the image data with its positional relation vector (U, V) Past reference image V P and Futuresse reference image V F in the positional relationship indicated by the Then, the estimated value of the target block is obtained.

即ち、差分データ計算部234は、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックからベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。 That is, the difference data calculation unit 234 has an area of the same size as the target block on the past reference image V P shifted from the target block by a vector (− (4-s) U, − (4-s) V), from the target block vector (sU, sV) shifted on Futuresse reference image V F was obtains a region of the block of interest and the same size, the image of the region of the Pasto reference image V P, and Futuresse reference image V F of the area The average value of the data is obtained as an estimated value of the block of interest.

そして、差分データ計算部234は、注目ブロックとその推測値との差分を演算し、注目ブロックの圧縮結果である第1の差分データとして出力する。   Then, the difference data calculation unit 234 calculates the difference between the block of interest and its estimated value, and outputs it as first difference data that is the compression result of the block of interest.

このような第1の差分データは、注目ブロックからパストリファレンス画像VPへの動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックからフューチャリファレンス画像VFへの動きベクトル(sU,sV)がなくても(第1の差分データに動きベクトルが付加されていなくても)、元の注目ブロックに復元することができる。 Such first difference data, the motion vector from the target block to Pasto reference image V P (- (4-s ) U, - (4-s) V) and, from the target block to Futuresse reference image V F Even if there is no motion vector (sU, sV) (even if no motion vector is added to the first difference data), the original block of interest can be restored.

即ち、例えば、図85に示すように、ターゲット画像VT上のあるブロックB8501を注目ブロックとして、その注目ブロックB8501を復元する場合には、その注目ブロックB8501につき、式(9)の相関情報e1(U',V')を、考えられる全ての(U',V')について計算する。 That is, for example, as shown in FIG. 85, the block B 8501 with a top target image V T as the target block, when restoring the block of interest B 8501 is attached to the block of interest B 8501, formula (9) Correlation information e 1 (U ′, V ′) is calculated for all possible (U ′, V ′).

具体的には、例えば、図85に示すように、(U',V')=(U1',V1')として、相関情報e1(U1',V1')を計算する。さらに、例えば、図86に示すように、(U',V')=(U2',V2')として、相関情報e1(U2',V2')を計算する。 Specifically, for example, as shown in FIG. 85, correlation information e 1 (U 1 ′, V 1 ′) is calculated as (U ′, V ′) = (U 1 ′, V 1 ′). Further, for example, as shown in FIG. 86, correlation information e 1 (U 2 ′, V 2 ′) is calculated as (U ′, V ′) = (U 2 ′, V 2 ′).

ここで、図85では、(U',V')=(U1',V1')とすることにより、相関情報e1(U1',V1')の計算対象となるパストリファレンス画像VPの領域Ipが、動いている被写体P8302のある部分の領域R8501になっている。さらに、図85では、相関情報e1(U1',V1')の計算対象となるフューチャリファレンス画像VFの領域Ifが、やはり、動いている被写体P8302の同一部分の領域R8502になっている。領域R8501とR8502との相関は高いから、相関情報e1(U1',V1')の値は、小さくなる。なお、図85において、パストリファレンス画像VPの領域R8501は、注目ブロックB8501から、ベクトル(-(4-s)U1',-(4-s)V1')だけずれた位置にあり、その領域R8501内の画素の画素値Ip(x-(4-s)U1',y-(4-s)V1')が、式(9)の相関情報e1(U1',V1')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8502は、注目ブロックB8501から、ベクトル(sU1',sV1')だけずれた位置にあり、その領域R8502内の画素値If(x+sU1',y+sV1')が、式(9)の相関情報e1(U1',V1')の計算に用いられる。 Here, in FIG. 85, by setting (U ′, V ′) = (U 1 ′, V 1 ′), the past reference image that is a target of calculation of the correlation information e 1 (U 1 ′, V 1 ′). A region Ip of V P is a region R 8501 in a part of the moving subject P 8302 . Further, in FIG. 85, the correlation information e 1 (U 1 ', V 1') area If the Futuresse reference image V F as a calculation target of, again, the region R 8502 of the same portion of the subject P 8302 in motion It has become. Since the correlation between the regions R 8501 and R 8502 is high, the value of the correlation information e 1 (U 1 ′, V 1 ′) is small. In FIG. 85, the region R 8501 of the past reference image V P is shifted from the target block B 8501 by a vector (− (4-s) U 1 ′, − (4-s) V 1 ′). Yes , the pixel value Ip (x- (4-s) U 1 ′, y- (4-s) V 1 ′) of the pixel in the region R 8501 is the correlation information e 1 (U 1 ) in Expression (9). ', V 1 '). Further, the region R 8502 of the future reference image V F is located at a position shifted from the target block B 8501 by the vector (sU 1 ′, sV 1 ′), and the pixel value If (x + sU 1 in the region R 8502 ', Y + sV 1 ') is used to calculate the correlation information e 1 (U 1 ', V 1 ') in equation (9).

一方、図86では、(U',V')=(U2',V2')とすることにより、相関情報e1(U2',V2')の計算対象となるパストリファレンス画像VPの領域Ipが、静止している被写体P8301のある部分の領域R8601になっている。さらに、図86では、相関情報e1(U2',V2')の計算対象となるフューチャリファレンス画像VFの領域Ifが、静止している被写体P8301の他の部分の領域R8602になっている。領域R8601とR8602との相関はそれほど高くなく、相関情報e1(U2',V2')の値は、それほど小さくならない。なお、図86において、パストリファレンス画像VPの領域R8601は、注目ブロックB8501から、ベクトル(-(4-s)U2',-(4-s)V2')だけずれた位置にあり、その領域R8601内の画素の画素値Ip(x-(4-s)U2',y-(4-s)V2')が、式(9)の相関情報e1(U2',V2')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8602は、注目ブロックB8501から、ベクトル(sU2',sV2')だけずれた位置にあり、その領域R8602内の画素値If(x+sU2',y+sV2')が、式(9)の相関情報e1(U2',V2')の計算に用いられる。 On the other hand, in FIG. 86, by setting (U ′, V ′) = (U 2 ′, V 2 ′), the past reference image V that is the calculation target of the correlation information e 1 (U 2 ′, V 2 ′). P regions Ip has been in the region R 8601 of the portion of the subject P 8301 which is stationary. Further, in FIG. 86, the correlation information e 1 (U 2 ', V 2') regions If the Futuresse reference image V F which is an object of calculation of the area R 8602 of the other part of the subject P 8301 at rest It has become. The correlation between the regions R 8601 and R 8602 is not so high, and the value of the correlation information e 1 (U 2 ′, V 2 ′) is not so small. In FIG. 86, the region R 8601 of the past reference image V P is shifted from the target block B 8501 by a vector (− (4-s) U 2 ′, − (4-s) V 2 ′). Yes , the pixel value Ip (x- (4-s) U 2 ′, y- (4-s) V 2 ′) of the pixel in the region R 8601 is the correlation information e 1 (U 2 ) in Expression (9). ', V 2 '). Further, the region R 8602 of the future reference image V F is located at a position shifted from the target block B 8501 by the vector (sU 2 ′, sV 2 ′), and the pixel value If (x + sU 2 in the region R 8602 ', Y + sV 2 ') is used to calculate the correlation information e 1 (U 2 ', V 2 ') in equation (9).

いま、注目ブロックB8501について計算された相関情報e1(U',V')を最小にする(U',V')が、図85に示した(U1',V1')であったとする。この場合、注目ブロックB8501が、図84に示したブロックB8401であったとすると、図85の領域R8501とR8502は、それぞれ、図84の領域R8401とR8402に一致する。 Now, (U ′, V ′) that minimizes the correlation information e 1 (U ′, V ′) calculated for the target block B 8501 is (U 1 ′, V 1 ′) shown in FIG. Suppose. In this case, if the target block B 8501 is the block B 8401 shown in FIG. 84, the regions R 8501 and R 8502 in FIG. 85 match the regions R 8401 and R 8402 in FIG. 84, respectively.

従って、第1の差分データを求めるときに用いられた推測値を、図84の領域R8401とR8402とそれぞれ同一の図85の領域R8501とR8502から得ることができ、その推測値を、第1の差分データに加算することにより、注目ブロックB8501(B8401)を復元することができる。 Therefore, the estimated value used when obtaining the first difference data can be obtained from the regions R 8501 and R 8502 in FIG. 85 which are the same as the regions R 8401 and R 8402 in FIG. 84, respectively. The block of interest B 8501 (B 8401 ) can be restored by adding to the first difference data.

ここで、以上のような、第1の差分データを元のブロックに復元する方法は、画像圧縮の分野において、従来にはない、まったく新しい方法であり、例えば、60fps動画データなどの低フレームレートの動画データから、240fps動画データなどの高フレームレートの動画データを復元する場合に使用することができる。この復元の方法を要約すると、次のようになる。   Here, the method of restoring the first difference data to the original block as described above is a completely new method that has not been conventionally used in the field of image compression. For example, a low frame rate such as 60 fps moving image data is used. It can be used to restore high frame rate video data such as 240 fps video data from the video data. The following summarizes the restoration method.

即ち、復元したい高フレームレートの動画データの中の1枚(フレーム)の画像に注目する。この注目した「復元したい画像」に対して時間的に近くにある複数(例えば2枚)の「低フレームレートの動画データを構成する画像」を取り出し、その取り出された複数の画像同士において相関が高い位置関係にある部分を求め、その部分から注目している「復元したい画像」を復元する。   That is, attention is focused on one (frame) image in the high frame rate moving image data to be restored. A plurality of (for example, two) “images constituting moving image data with a low frame rate” that are close in time to the noticed “image to be restored” are extracted, and the correlation between the extracted images is correlated. A portion having a high positional relationship is obtained, and the “image to be restored” focused on from that portion is restored.

なお、第1の差分データを復元する方法は、例えば、MPEG2などに用いられているBピクチャのデコードとは異なる。   Note that the method of restoring the first difference data is different from, for example, decoding of a B picture used for MPEG2 or the like.

即ち、IピクチャとPピクチャのみから構成される動画データを、「低フレームレートの動画データ」と考え、さらにBピクチャを加えた動画データを、「高フレームレートの動画データ」と考えると、第1の差分データを復元する方法は、Bピクチャのデコード方法と、一見、同じように思える。   That is, moving image data composed only of I and P pictures is considered as “low frame rate moving image data”, and moving image data added with a B picture is considered as “high frame rate moving image data”. The method of restoring the difference data of 1 seems to be the same as the method of decoding a B picture.

しかしながら、MPEG2におけるBピクチャは、そのBピクチャ内の各ブロック(マクロブロック)について、そのブロックと類似しているテクスチャが、IピクチャまたはPピクチャのどの部分に存在しているかを、「動きベクトル」という情報で明示的に保持している。   However, a B picture in MPEG2 indicates, for each block (macroblock) in the B picture, in which part of the I picture or P picture a texture similar to that block exists, a “motion vector” This information is explicitly held.

一方、第1の差分データは、そのような「動きベクトル」の情報は保持していない。さらに、第1の差分データの復元は、低フレームレートの動画データの複数フレーム、即ち、例えば、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関の高い領域の位置関係を探索(検出)し、その位置関係にある領域を用いて行われる。 On the other hand, the first difference data does not hold such “motion vector” information. Furthermore, restoration of the first difference data, a plurality of frames of moving image data of a low frame rate, i.e., for example, in the Past reference image V P and Futuresse reference image V F, searches the positional relationship between the high correlation region (detection) However, it is performed using the region in the positional relationship.

このように、第1の差分データを復元する方法は、「動きベクトル」の情報を保持していない点、および低フレームレートの動画データの複数フレームにおいて相関の高い領域の位置関係を検出し、その位置関係にある領域を用いて行われる点において、Bピクチャのデコード方法とは大きく異なる。   As described above, the method of restoring the first difference data detects the positional relationship between the areas that do not hold the “motion vector” information and the areas having high correlation in the plurality of frames of the low-frame-rate moving image data, The method is greatly different from the B picture decoding method in that the processing is performed using regions in the positional relationship.

次に、図81の差分データ計算部235で求められる第2の差分データについて説明する。   Next, the second difference data obtained by the difference data calculation unit 235 in FIG. 81 will be described.

差分データ計算部235では、注目ブロックについて、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す1つの動きベクトルが検出され、注目ブロックとの位置関係が、その1つの動きベクトルから求められる位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部235では、注目ブロックとその推測値との差分が、第2の差分データとして出力される。 In the difference data calculating section 235, for the target block, is detected one motion vector representing the correlation is high positional relationship between the target blocks in the PAST reference image V P and Futuresse reference image V F, the positional relationship between the target block, a positional relationship obtained from one motion vector that, from the image data of the region of Pasto reference image V P and Futuresse reference image V F, estimate of the block of interest is determined. Then, the difference data calculation unit 235 outputs the difference between the block of interest and its estimated value as second difference data.

即ち、図87は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 87 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.

図87においては、例えば、被写体P8302が、図84における場合と同様に、一定速度で移動している。但し、図87では、被写体P8302は、図84における場合よりもやや速い速度で移動している。なお、図87でも、被写体P8302の動きベクトル、即ち、240fps動画データにおけるフレーム周期である1/240秒あたりの、被写体P8302の空間方向x,yの移動量を表すベクトルが(U,V)であるとする。 In FIG. 87, for example, the subject P 8302 is moving at a constant speed as in the case of FIG. However, in FIG. 87, the subject P 8302 is moving at a slightly higher speed than in the case of FIG. Also in FIG. 87, the motion vector of the subject P 8302, i.e., per 1/240 second is a frame period in 240fps video data, the spatial direction x of the object P 8302, a vector representing the movement amount of y (U, V ).

被写体P8302が、図84における場合よりもやや速い一定速度で移動している場合も、ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFのすべてに、被写体P8302が存在し、さらに、パストリファレンス画像VP上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(-(4-s)U,-(4-s)V)だけずれた位置にあり、フューチャリファレンス画像VF上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(sU,sV)だけずれた位置にある。 Subject P 8302 is also moving at a slightly higher constant rate than in FIG. 84, the target image V T, Past reference image V P, and all Futuresse reference image V F, there is a subject P 8302 Furthermore, the subject P 8302 on the past reference image V P is at a position shifted from the subject P 8302 on the target image V T by a vector (− (4-s) U, − (4-s) V). subject P 8302 on Futuresse reference image V F from the subject P 8302 on a target image V T, is the position shifted by vector (sU, sV).

従って、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB8701を、注目ブロックとして注目すると、パストリファレンス画像VPにおいて、注目ブロックB8701からベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックB8701と同一サイズの領域R8701の画像データは、(理想的には)注目ブロックB8701と同一になっている。また、フューチャリファレンス画像VFにおいても、注目ブロックB8701からベクトル(sU,sV)だけずれた位置の、注目ブロックB8701と同一サイズの領域R8702の画像データは、(理想的には)注目ブロックB8701と同一になっている。 Accordingly, in the target image V T, for example, a certain block B 8701 including only the subject P 8302, when attention as the subject block, in Past reference image V P, from the target block B 8701 vector (- (4-s) U , The image data of the region R 8701 having the same size as the target block B 8701 at a position shifted by- (4-s) V) is (ideally) the same as the target block B 8701 . Also in Futuresse reference image V F, a vector from the target block B 8701 (sU, sV) of position shifted by the image data of the target block B 8701 same size as the region R 8702 is (ideally) of interest It is the same as block B 8701 .

即ち、パストリファレンス画像VPの領域R8701、注目ブロックB8701、およびフューチャリファレンス画像VFの領域R8702の画像データは、(理想的には)同一になっている。 That is, the image data of Pasto reference image V P of region R 8701, the block of interest B 8701, and the region R 8702 of Futuresse reference image V F is made the same (ideally).

差分データ計算部235(図81)では、以上のような図87に示した場合に適した第2の差分データが求められる。   The difference data calculation unit 235 (FIG. 81) obtains second difference data suitable for the case shown in FIG. 87 as described above.

即ち、差分データ計算部235(図81)でも、例えば、差分データ計算部234における場合と同様に、パストリファレンス画像VPの領域R8701と、フューチャリファレンス画像VFの領域R8702との画像データの平均値が演算され、その平均値を、注目ブロックB8701の推測値として、注目ブロックB8701とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB8701のデータ量を削減することができる。差分データ計算部235は、以上のような注目ブロックB8701とその推測値との差分を、注目ブロックB8701の圧縮結果である第2の差分データとして出力する。 That is, even in the difference data calculation unit 235 (FIG. 81), for example, as in the case of the difference data calculation unit 234, image data of the region R 8701 of the past reference image V P and the region R 8702 of the future reference image V F the average value of is calculated, the average value, as estimated value of the block of interest B 8701, the difference between the target block B 8701 and its estimated value is calculated. Since this difference is almost zero, the data amount of the target block B 8701 can be reduced. The difference data calculation unit 235 outputs the difference between the attention block B 8701 and the estimated value as described above as second difference data that is a compression result of the attention block B 8701 .

ところで、第2の差分データを、元の注目ブロックB8701に復元するには、上述した第1の差分データを復元する場合と同様に、注目ブロックB8701からパストリファレンス画像VPへの動きベクトルとなるベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8701からフューチャリファレンス画像VFへの動きベクトルとなるベクトル(sU,sV)との2つの動きベクトルが必要となる。 Meanwhile, the second difference data, to restore to the original block of interest B 8701, as in the case of restoring the first differential data described above, the motion vector from the target block B 8701 to Pasto reference image V P Two motion vectors, a vector (-(4-s) U,-(4-s) V) and a vector (sU, sV) that is a motion vector from the target block B 8701 to the future reference image V F Is required.

しかしながら、第2の差分データに、2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)とを付加した場合には、その2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)の分だけ、データ量が増加することになる。   However, when two motion vectors (-(4-s) U,-(4-s) V) and (sU, sV) are added to the second difference data, the two motion vectors ( -(4-s) U,-(4-s) V) and (sU, sV) increase the amount of data.

そこで、差分データ計算部235では、次のようにして、注目ブロックB8701の推測値を求めるのに用いる領域R8701およびR8702(への動きベクトル)を求めることにより、1つの動きベクトルだけで復元することができる第2の差分データを求める。 Therefore, the difference data calculation unit 235 obtains the regions R 8701 and R 8702 (motion vectors to) used for obtaining the estimated value of the block of interest B 8701 as follows, by using only one motion vector. Second differential data that can be restored is obtained.

即ち、上述したように、いまの場合、被写体P8302が一定速度で移動していることを前提とするので、注目ブロックB8701から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8701、注目ブロックB8701から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8702、および注目ブロックB8701(の対応する画素)は、図87に示すように、時空間において一直線上に並ぶ。 That is, as described above, in this case, since it is assumed that the subject P 8302 is moving at a constant speed, the motion from the target block B 8701 vector (- (4-s) U , - (4-s ) V) shifted by PAST reference image V region of the P R 8701, the block of interest B 8701 from the motion vector (sU, sV) shifted by Futuresse reference image V region on F R 8702, and the block of interest B 8701 (the As shown in FIG. 87, the corresponding pixels are aligned in a straight line in the space-time.

従って、注目ブロックB8701から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8701と、注目ブロックB8701から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8702は、いずれも、時空間において、注目ブロックB8701を通る直線上に存在する。 Therefore, the motion vector from the target block B 8701 (- (4-s ) U, - (4-s) V) a region R 8701 on which shifted by PAST reference image V P, the motion vector from the target block B 8701 (sU , sV), the region R 8702 on the feature reference image V F is located on a straight line passing through the block of interest B 8701 in time and space.

また、注目ブロックB8701と、パストリファレンス画像VP上の領域R8701との画像データは、上述したように、(理想的には)同一であるから、注目ブロックB8701と領域R8701との相関は、注目ブロックB8701とパストリファレンス画像VP上の領域との相関の中で最も高くなる。さらに、注目ブロックB8701と、フューチャリファレンス画像VF上の領域R8702との画像データも、上述したように、(理想的には)同一であるから、注目ブロックB8701と領域R8702との相関は、注目ブロックB8701とフューチャリファレンス画像VF上の領域との相関の中で最も高くなる。 Further, the block of interest B 8701, the image data of the area R 8701 on Pasto reference image V P, as described above, (ideally) from the same, the block of interest B 8701 and the region R 8701 correlation becomes highest in the correlation between the target block B 8701 and Pasto reference image V P on the region. Further, the block of interest B 8701, also image data of a region R 8702 on Futuresse reference image V F, as described above, (ideally) from the same, the block of interest B 8701 and the region R 8702 correlation becomes highest in the correlation between the target block B 8701 and Futuresse reference image V F on the region.

従って、パストリファレンス画像VPとフューチャリファレンス画像VFそれぞれにおいて、注目ブロックB8701との相関が最も高い領域を検出すれば、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域とが、それぞれ領域R8701とR8702となる。 Therefore, if a region having the highest correlation with the target block B 8701 is detected in each of the past reference image V P and the feature reference image V F , the past reference image V P region, the future reference image V F region, Are regions R 8701 and R 8702 , respectively.

ところで、パストリファレンス画像VP上の領域R8701は、注目ブロックB8701から動きベクトル(-(4-s)U,-(4-s)V)だけずれた位置にあり、フューチャリファレンス画像VF上の領域R8702は、注目ブロックB8701から動きベクトル(sU,sV)だけずれた位置にある。 By the way, the region R 8701 on the past reference image V P is located at a position shifted from the target block B 8701 by a motion vector (− (4-s) U, − (4-s) V), and the future reference image V F The upper region R 8702 is located at a position shifted from the target block B 8701 by a motion vector (sU, sV).

従って、パストリファレンス画像VP上の領域R8701の位置も、フューチャリファレンス画像VF上の領域R8702の位置も、1つの動きベクトル(U,V)から求めることができる。 Therefore, the position of the region R 8701 on Pasto reference image V P also, the position of the region R 8702 on Futuresse reference image V F, can be obtained from one motion vector (U, V).

即ち、注目ブロックB8701から領域R8701への動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8701から領域R8702への動きベクトル(sU,sV)との、合計で2つの動きベクトルがなくても、1つの動きベクトル(U,V)から、領域R8701とR8702を求めることができる。 That is, the motion vector from the target block B 8701 to the area R 8701 (- (4-s ) U, - (4-s) V) and the motion vector from the target block B 8701 to the area R 8702 (sU, sV) Thus, even if there are no two motion vectors in total, the regions R 8701 and R 8702 can be obtained from one motion vector (U, V).

差分データ計算部235(図81)は、以上のような原理を利用して、1つの動きベクトル(U,V)から復元することができる第2の差分データを求める。   The difference data calculation unit 235 (FIG. 81) obtains second difference data that can be restored from one motion vector (U, V) using the principle as described above.

具体的には、差分データ計算部235は、注目ブロックを通る時空間の直線上にあるパストリファレンス画像VPの領域Ip、またはフューチャリファレンス画像VFの領域Ifそれぞれと、注目ブロックとの相関を表す相関情報e2(U',V')を、例えば、式(10)にしたがって求める。 Specifically, the difference data calculation unit 235 calculates the correlation between the region Ip of the past reference image V P or the region If of the future reference image V F on the straight line in the space-time passing through the block of interest and the block of interest. The correlation information e 2 (U ′, V ′) to be expressed is obtained according to, for example, the equation (10).

Figure 2006086707
・・・(10)
Figure 2006086707
... (10)

ここで、式(10)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表す。また、Ip(x-(4-s)U',y-(4-s)V')は、パストリファレンス画像VPにおける位置(x-(4-s)U',y-(4-s)V')にある画素の画素値を表す。さらに、If(x+sU',y+sV')は、フューチャリファレンス画像VFにおける位置(x+sU',y+sV')にある画素の画素値を表す。また、Ic(x,y)は、ターゲット画像VTにおける位置(x,y)における画素の画素値(注目ブロックの画素の画素値)を表す。また、式(10)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in the formula (10), (x, y ) represents the position of the pixel of the target block in the target image V T. Ip (x- (4-s) U ′, y- (4-s) V ′) is a position (x- (4-s) U ′, y- (4-s) in the past reference image V P. ) Represents the pixel value of the pixel in V ′). Furthermore, If (x + sU ', y + sV') represents the position (x + sU ', y + sV') pixel value of the pixel in the Futuresse reference image V F. Further, Ic (x, y) represents the position in the target image V T (x, y) pixel value of the pixel in the (pixel value of the pixel of the target block). Further, Σ in Expression (10) represents summation for all the pixels constituting the block of interest.

なお、式(10)の相関情報e2(U',V')は、パストリファレンス画像VPの領域Ipと注目ブロックとの画素値の差分絶対値と、フューチャリファレンス画像VFの領域Ifと注目ブロックとの画素値の差分絶対値との加算値の総和であり、従って、パストリファレンス画像VPの領域Ipと注目ブロックとの相関や、フューチャリファレンス画像VFの領域Ifと注目ブロックとの相関が高いほど、相関情報e2(U',V')の「値」は、小さくなる。 Incidentally, the correlation information e 2 of the formula (10) (U ', V ') is the absolute difference of pixel values between the target block and the area Ip Past reference image V P, a region If the Futuresse reference image V F block of interest is the sum of the sum of the difference absolute values of the pixel values and, hence, correlation and the block of interest and the region Ip Past reference image V P, the area If the block of interest Futuresse reference image V F The higher the correlation, the smaller the “value” of the correlation information e 2 (U ′, V ′).

差分データ計算部235は、式(10)の相関情報e2(U',V')を、考えられる全ての(U',V')について計算する。ここで、考えられる全ての(U',V')とは、例えば、位置(x-(4-s)U',y-(4-s)V')がパストリファレンス画像VP上にあり、かつ、位置(x+sU',y+sV')がフューチャリファレンス画像VF上にある場合の、(U',V')である。なお、式(10)の相関情報e2(U',V')の計算は、その他、あらかじめ定められた範囲の(U',V')についてだけ行うようにしてもよい。 The difference data calculation unit 235 calculates the correlation information e 2 (U ′, V ′) in Expression (10) for all possible (U ′, V ′). Here, all the possible (U ′, V ′) are, for example, positions (x- (4-s) U ′, y- (4-s) V ′) on the past reference image V P. and a position (x + sU ', y + sV') when is on Futuresse reference image V F, (U ', V '). In addition, the calculation of the correlation information e 2 (U ′, V ′) in Expression (10) may be performed only for (U ′, V ′) within a predetermined range.

即ち、差分データ計算部235は、例えば、図88に示すように、(U',V')=(U1',V1')として、式(10)の相関情報e2(U1',V1')を計算する。さらに、差分データ計算部235は、例えば、図89に示すように、(U',V')=(U2',V2')として、式(10)の相関情報e2(U2',V2')を計算する。 That is, for example, as shown in FIG. 88, the difference data calculation unit 235 sets (U ′, V ′) = (U 1 ′, V 1 ′) to correlate information e 2 (U 1 ′) in Expression (10). , V 1 '). Further, for example, as shown in FIG. 89, the difference data calculation unit 235 sets (U ′, V ′) = (U 2 ′, V 2 ′) as the correlation information e 2 (U 2 ′) in Expression (10). , V 2 ').

ここで、図88では、(U',V')=(U1',V1')とすることにより、相関情報e2(U1',V1')の計算対象となるパストリファレンス画像VPの領域Ipが、動いている被写体P8302のうちの注目ブロックB8701における部分と同一の領域R8801になっている。さらに、図88では、相関情報e2(U1',V1')の計算対象となるフューチャリファレンス画像VFの領域Ifが、やはり、動いている被写体P8302のうちの注目ブロックにおける部分と同一の領域R8802になっている。従って、注目ブロックB8701と、領域R8801またはR8802それぞれとの相関は、いずれも高いから、相関情報e2(U1',V1')の値は、小さくなる。なお、図88において、パストリファレンス画像VPの領域R8801は、注目ブロックB8701から、ベクトル(-(4-s)U1',-(4-s)V1')だけずれた位置にあり、その領域R8801内の画素の画素値Ip(x-(4-s)U1',y-(4-s)V1')が、式(10)の相関情報e2(U1',V1')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8802は、注目ブロックB8701から、ベクトル(sU1',sV1')だけずれた位置にあり、その領域R8802内の画素値If(x+sU1',y+sV1')が、式(10)の相関情報e2(U1',V1')の計算に用いられる。 Here, in FIG. 88, by setting (U ′, V ′) = (U 1 ′, V 1 ′), the past reference image that is a target of calculation of the correlation information e 2 (U 1 ′, V 1 ′). area Ip of V P has become the same region R 8801 and the partial block of interest B 8701 of the subject P 8302 is moving. Further, in FIG. 88, the correlation information e 2 (U 1 ', V 1') area If the Futuresse reference image V F as a calculation target of, again, a portion in the target block among the object P 8302 in motion It is the same region R 8802 . Accordingly, since the correlation between the block of interest B 8701 and each of the regions R 8801 and R 8802 is high, the value of the correlation information e 2 (U 1 ′, V 1 ′) is small. Incidentally, in FIG. 88, the region R 8801 Past reference image V P from the block of interest B 8701, vector (- (4-s) U 1 ', - (4-s) V 1') to a position shifted by Yes , the pixel value Ip (x- (4-s) U 1 ′, y- (4-s) V 1 ′) of the pixel in the region R 8801 is the correlation information e 2 (U 1 ) in Expression (10). ', V 1 '). Further, the region R 8802 of the future reference image V F is located at a position shifted from the target block B 8701 by the vector (sU 1 ′, sV 1 ′), and the pixel value If (x + sU 1 in the region R 8802 ', Y + sV 1 ') is used to calculate the correlation information e 2 (U 1 ', V 1 ') in equation (10).

一方、図89では、(U',V')=(U2',V2')とすることにより、相関情報e2(U2',V2')の計算対象となるパストリファレンス画像VPの領域Ipが、静止している被写体P8301のある部分の領域R8901になっている。さらに、図89では、相関情報e2(U2',V2')の計算対象となるフューチャリファレンス画像VFの領域Ifが、静止している被写体P8301の同一部分の領域R8902になっている。注目ブロックB8701は、動いている被写体P8302のある部分であり、従って、注目ブロックB8701と、領域R8901またはR8902それぞれとの相関は、いずれも、それほど高くなく、相関情報e2(U2',V2')の値は、それほど小さくならない。なお、図89において、パストリファレンス画像VPの領域R8901は、注目ブロックB8701から、ベクトル(-(4-s)U2',-(4-s)V2')だけずれた位置にあり、その領域R8901内の画素の画素値Ip(x-(4-s)U2',y-(4-s)V2')が、式(10)の相関情報e2(U2',V2')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8902は、注目ブロックB8701から、ベクトル(sU2',sV2')だけずれた位置にあり、その領域R8902内の画素値If(x+sU2',y+sV2')が、式(10)の相関情報e2(U2',V2')の計算に用いられる。但し、図89では、(U2',V2')=(0,0)になっている。 On the other hand, in FIG. 89, by setting (U ′, V ′) = (U 2 ′, V 2 ′), the past reference image V that is the calculation target of the correlation information e 2 (U 2 ′, V 2 ′). P regions Ip has become a part of the region R 8901 with a subject P 8301 which is stationary. Further, in FIG. 89, the correlation information e 2 (U 2 ', V 2') regions If the calculated subject to Futuresse reference image V F of, become a region R 8902 of the same portion of the subject P 8301 at rest ing. The attention block B 8701 is a part of the moving subject P 8302. Therefore, the correlation between the attention block B 8701 and each of the regions R 8901 and R 8902 is not so high, and the correlation information e 2 ( The value of U 2 ', V 2 ') is not so small. In FIG. 89, the region R 8901 of the past reference image V P is shifted from the target block B 8701 by a vector (− (4-s) U 2 ′, − (4-s) V 2 ′). Yes , the pixel value Ip (x- (4-s) U 2 ′, y- (4-s) V 2 ′) of the pixel in the region R 8901 is the correlation information e 2 (U 2 ) in Expression (10). ', V 2 '). Further, the region R 8902 of the future reference image V F is located at a position shifted from the target block B 8701 by the vector (sU 2 ′, sV 2 ′), and the pixel value If (x + sU 2 in the region R 8902 ', Y + sV 2 ') is used to calculate the correlation information e 2 (U 2 ', V 2 ') in equation (10). However, in FIG. 89, (U 2 ′, V 2 ′) = (0, 0).

いま、注目ブロックB8701について計算された相関情報e2(U',V')を最小にする(U',V')が、図88に示した(U1',V1')であったとすると、図88の領域R8801とR8802は、それぞれ、図87の領域R8701とR8702に一致する。 Now, (U ′, V ′) that minimizes the correlation information e 2 (U ′, V ′) calculated for the target block B 8701 is (U 1 ′, V 1 ′) shown in FIG. Assuming that the regions R 8801 and R 8802 in FIG. 88 correspond to the regions R 8701 and R 8702 in FIG. 87, respectively.

そして、領域R8701とR8702の位置は、上述したように、注目ブロックB8701から領域R8701への動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8701から領域R8702への動きベクトル(sU,sV)との、合計で2つの動きベクトルがなくても、注目ブロックB8701について計算された相関情報e2(U',V')を最小にする(U',V')である1つの動きベクトル(U,V)から求めることができる。 Then, as described above, the positions of the regions R 8701 and R 8702 are the motion vector (-(4-s) U,-(4-s) V) from the target block B 8701 to the region R 8701, and the target block. The correlation information e 2 (U ′, V ′) calculated for the target block B 8701 is minimized even if there are no two motion vectors in total with the motion vector (sU, sV) from the B 8701 to the region R 8702 It can be obtained from one motion vector (U, V) which is (U ', V').

いま、この動きベクトル(U,V)を、相関最大ベクトル(U,V)ということとすると、差分データ計算部235は、式(10)の相関情報e2(U',V')を最小にする(U',V')である相関最大ベクトル(U,V)を検出した後、注目ブロックとの位置関係が、相関最大ベクトル(U,V)から求められる位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。 Now, assuming that the motion vector (U, V) is a correlation maximum vector (U, V), the difference data calculation unit 235 minimizes the correlation information e 2 (U ′, V ′) in Expression (10). After detecting the maximum correlation vector (U, V) that is (U ', V'), the past reference image whose positional relationship with the block of interest is the positional relationship obtained from the maximum correlation vector (U, V) from the image data of V P and Futuresse reference image V F, we obtain the estimated value of the block of interest.

即ち、差分データ計算部235は、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックからベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。 That is, the difference data calculation unit 235 has an area of the same size as the target block on the past reference image V P shifted from the target block by a vector (− (4-s) U, − (4-s) V), from the target block vector (sU, sV) shifted on Futuresse reference image V F was obtains a region of the block of interest and the same size, the image of the region of the Pasto reference image V P, and Futuresse reference image V F of the area The average value of the data is obtained as an estimated value of the block of interest.

そして、差分データ計算部235は、注目ブロックとその推測値との差分を演算し、その演算結果を第2の差分データとして、その第2の差分データに、相関最大ベクトル(U,V)を付加して出力する。   Then, the difference data calculation unit 235 calculates a difference between the block of interest and its estimated value, sets the calculated result as second difference data, and sets the correlation maximum vector (U, V) in the second difference data. Append and output.

このような第2の差分データは、注目ブロックからパストリファレンス画像VPへの動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックからフューチャリファレンス画像VFへの動きベクトル(sU,sV)の2つの動きベクトルがなくても(第2の差分データに2つの動きベクトルが付加されていなくても)、それに付加されている1つの動きベクトルである相関最大ベクトル(U,V)を用いて、元の注目ブロックに復元することができる。 Such second difference data, the motion vector from the target block to Pasto reference image V P (- (4-s ) U, - (4-s) V) and, from the target block to Futuresse reference image V F Even if there is no two motion vectors (sU, sV) of (no two motion vectors are added to the second difference data), the maximum correlation that is one motion vector added to it The vector (U, V) can be used to restore the original block of interest.

即ち、第2の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第2の差分データに付加されている相関最大ベクトル(U,V)から求められる位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。具体的には、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックからベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。 That is, as in the case of obtaining the second difference data, first, the path relationship between the target block and the target block is the position relationship obtained from the maximum correlation vector (U, V) added to the second difference data. from the image data of the reference image V P and Futuresse reference image V F, obtains the estimated value of the block of interest. Specifically, an area of the same size as the target block on the past reference image V P shifted from the target block by a vector (-(4-s) U,-(4-s) V), and the vector from the target block An area of the same size as the target block on the future reference image V F shifted by (sU, sV) is obtained, and the average value of the image data of the area of the past reference image V P and the area of the future reference image V F As the estimated value of the block of interest.

そして、第2の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。   Then, the block of interest can be restored by adding the second difference data and the estimated value of the block of interest.

以上のように、第2の差分データは、1つの相関最大ベクトル(U,V)があれば復元することができるので、注目ブロックからパストリファレンス画像VPへの動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックからフューチャリファレンス画像VFへの動きベクトル(sU,sV)との2つの動きベクトルを付加する場合に比較して、データ量の増加を抑制することができる。 As described above, the second difference data, it is possible to one correlation maximum vector (U, V) is restored if the motion vector from the target block to Pasto reference image V P (- (4-s ) U, - (a 4-s) V), motion vector from the target block to Futuresse reference image V F (sU, as compared with the case of adding the two motion vectors with sV), an increase in the data amount Can be suppressed.

なお、第1と第2の差分データについては、そのうちのいずれか一方だけを求め、ブロックの圧縮結果としてもよいが、第1と第2の差分データの両方を求め、そのうちの適切な方を、ブロックの圧縮結果とすることにより、次のような利点がある。   For the first and second difference data, only one of them may be obtained and the compression result of the block may be obtained, but both the first and second difference data are obtained and the appropriate one of them is determined. The block compression result has the following advantages.

即ち、第1と第2の差分データについては、第2の差分データに相関最大ベクトル(U,V)が付加されることから、その分のデータ量の観点からすれば、動きベクトルが付加されない第1の差分データの方が優れている。   That is, with respect to the first and second difference data, since the correlation maximum vector (U, V) is added to the second difference data, no motion vector is added from the viewpoint of the corresponding data amount. The first difference data is superior.

しかしながら、第1の差分データは、そのデータ量が大になる場合があり、この場合、相関最大ベクトル(U,V)のデータ量を含めても、第2の差分データのデータ量の方が、第1の差分データのデータ量よりも少なくなることがある。   However, the first differential data may have a large data amount. In this case, even if the data amount of the correlation maximum vector (U, V) is included, the data amount of the second differential data is better. The data amount of the first difference data may be smaller.

即ち、例えば、図88に示したパストリファレンス画像VP上の領域R8801と、フューチャリファレンス画像VF上の領域R8802とは、動いている被写体P8302の部分の画像であるが、この領域R8801とR8802とが、動いている被写体P8302の同一部分の画像であった場合には、注目ブロックB8701について計算される式(9)の相関情報e1(U1',V1')が表す領域R8801とR8802との相関は高くなる。 That is, for example, the region R 8801 on Pasto reference image V P shown in FIG. 88, the region R 8802 on Futuresse reference image V F, but is an image of a part of the subject P 8302 is moving, the area When R 8801 and R 8802 are images of the same part of the moving subject P 8302 , the correlation information e 1 (U 1 ′, V 1 ) calculated for the block of interest B 8701 is calculated. The correlation between the regions R 8801 and R 8802 represented by ') is high.

一方、例えば、図89に示したパストリファレンス画像VPの領域R8901と、フューチャリファレンス画像VFの領域R8902とは、静止している被写体P8301の部分の画像であるが、この領域R8901とR8902とが、静止している被写体P8301の同一部分の画像であった場合も、式(9)の相関情報e1(U2',V2')が表す領域R8901とR8902との相関は高くなる。 On the other hand, for example, the past-reference image V P of region R 8901 shown in FIG. 89, the region R 8902 of Futuresse reference image V F, but is an image of a part of the subject P 8301 which is stationary, the area R Even when 8901 and R 8902 are images of the same portion of the stationary subject P 8301 , the regions R 8901 and R represented by the correlation information e 1 (U 2 ′, V 2 ′) in Expression (9) The correlation with 8902 is high.

つまり、図88における領域R8801とR8802との相関を表す式(9)の相関情報e1(U1',V1')の値と、図89における領域R8901とR8902との相関を表す式(9)の相関情報e1(U2',V2')の値とは、理想的には、0となり、同一になる。 That is, the value of the correlation information e 1 (U 1 ′, V 1 ′) in Expression (9) representing the correlation between the regions R 8801 and R 8802 in FIG. 88 and the correlation between the regions R 8901 and R 8902 in FIG. The value of the correlation information e 1 (U 2 ′, V 2 ′) in the equation (9) that represents is ideally 0 and is the same.

しかしながら、実際には、ノイズ等の影響によって、図88における領域R8801とR8802との相関情報e1(U1',V1')の値の方が小さくなることや、逆に、図89における領域R8901とR8902との相関情報e1(U2',V2')の値の方が小さくなることがある。 However, actually, the value of the correlation information e 1 (U 1 ′, V 1 ′) between the regions R 8801 and R 8802 in FIG. 88 becomes smaller due to the influence of noise or the like. The value of the correlation information e 1 (U 2 ′, V 2 ′) between the regions R 8901 and R 8902 in 89 may be smaller.

そして、図89における領域R8901とR8902との相関情報e1(U2',V2')の値の方が小さくなった場合には、その領域R8901とR8902から、注目ブロックB8701の推測値が求められる。 Then, when the value of the correlation information e 1 (U 2 ′, V 2 ′) between the regions R 8901 and R 8902 in FIG. 89 becomes smaller, the attention block B from the regions R 8901 and R 8902 An estimated value of 8701 is obtained.

即ち、静止している被写体P8301の部分の領域R8901とR8902から、動いている被写体P8302の部分の注目ブロックB8701の推測値が求められる。 That is, the estimated value of the target block B 8701 of the moving subject P 8302 is obtained from the regions R 8901 and R 8902 of the portion of the stationary subject P 8301 .

この、静止している被写体P8301の部分の領域R8901とR8902から求められる注目ブロックB8701の推測値は、注目ブロックB8701(の画像データ)と大きく異なったものとなり、その結果、注目ブロックB8701と、その推定値との差分をとっても、その差分、つまり、第1の差分データは、0または0に近い値にはならず、大きな値となって、データ量はほとんど削減されない。 The estimated value of the target block B 8701 obtained from the regions R 8901 and R 8902 of the portion of the stationary subject P 8301 is significantly different from the target block B 8701 (image data thereof). Even if the difference between the block B 8701 and the estimated value is taken, the difference, that is, the first difference data does not become 0 or a value close to 0 but becomes a large value, and the data amount is hardly reduced.

この場合、相関最大ベクトル(U,V)のデータ量を含めても、第2の差分データのデータ量の方が、第1の差分データのデータ量よりも少なくなる。   In this case, even if the data amount of the correlation maximum vector (U, V) is included, the data amount of the second difference data is smaller than the data amount of the first difference data.

さらに、ノイズ等の影響によって、注目ブロックB8701の第1の差分データへの圧縮時には、図88における領域R8801とR8802との相関情報e1(U1',V1')の値と、図89における領域R8901とR8902との相関情報e1(U2',V2')の値とのうちの一方の値の方が小さくなったのに、その第1の差分データの復元時には、他方の値の方が小さくなることがある。 Further, when the target block B 8701 is compressed into the first difference data due to the influence of noise or the like, the value of the correlation information e 1 (U 1 ′, V 1 ′) between the regions R 8801 and R 8802 in FIG. 89, the value of one of the correlation information e 1 (U 2 ′, V 2 ′) between the regions R 8901 and R 8902 is smaller, but the first difference data At the time of restoration, the other value may be smaller.

この場合、注目ブロックB8701の第1の差分データへの圧縮時に用いられた注目ブロックB8701の推測値と異なる推測値を用いて、第1の差分データが復元されることになるため、元の注目ブロックB8701を復元することができないことになる。 In this case, the first difference data is restored using an estimated value different from the estimated value of the target block B 8701 used when the target block B 8701 is compressed into the first difference data. The attention block B 8701 cannot be restored.

そこで、注目ブロックB8701について、第1と第2の差分データのうちの、相関最大ベクトル(U,V)が付加される第2の差分データだけを採用することにより、上述したような、データ量がほとんど削減されないことや、元の注目ブロックB8701を復元することができなくなることを防止することができる。 Therefore, for the target block B 8701 , by adopting only the second difference data to which the correlation maximum vector (U, V) is added, of the first and second difference data, the data as described above is obtained. It can be prevented that the amount is hardly reduced and the original attention block B 8701 cannot be restored.

しかしながら、第2の差分データだけを採用する場合には、相関最大ベクトル(U,V)の分だけのデータ量が、必ず増えることになる。   However, when only the second difference data is employed, the data amount corresponding to the maximum correlation vector (U, V) is necessarily increased.

そこで、注目ブロックB8701について、第1と第2の差分データの両方を求め、例えば、そのうちのデータ量の少ない方を、注目ブロックB8701の最終的な圧縮結果として選択することにより、データ量を低減するとともに、注目ブロックB8701を復元することができなくなることを防止することができる。 Therefore, for the target block B 8701, the first and obtains both the second difference data, for example, by selecting the lesser of the data amount of which, as the final compression result of the block of interest B 8701, the amount of data In addition, it is possible to prevent the target block B 8701 from being unable to be restored.

また、例えば、第1の差分データを求めるときに計算される式(9)の相関情報e1(U',V')の最小値と、2番目に小さい値との差が、ほとんどない場合(例えば、ある閾値以下である場合)には、第1の差分データのデータ量が少ないときでも、第2の差分データを、注目ブロックB8701の最終的な圧縮結果として選択することにより、元の注目ブロックB8701を復元することができなくなることを、より強固に防止することができる。 Further, for example, when there is almost no difference between the minimum value of the correlation information e 1 (U ′, V ′) of Equation (9) calculated when obtaining the first difference data and the second smallest value (For example, when it is below a certain threshold), even when the amount of the first difference data is small, the second difference data is selected as the final compression result of the block of interest B 8701. It is possible to more firmly prevent the attention block B 8701 from being unable to be restored.

次に、図81の差分データ計算部236で求められる第3の差分データについて説明する。   Next, the 3rd difference data calculated | required by the difference data calculation part 236 of FIG. 81 is demonstrated.

差分データ計算部236では、注目ブロックについて、パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルと、フューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルとの、合計で2つの動きベクトルが求められる。 In the difference data calculating section 236, for the target block, a motion representing the correlation is high positional relationship between a motion vector representing the correlation is high positional relationship between the target blocks in the PAST reference image V P, the target block in Futuresse reference image V F In total, two motion vectors with the vector are determined.

ここで、以下、適宜、パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルを、前動きベクトルといい、また、フューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルを、後動きベクトルという。 Here, hereinafter, the motion vector representing the correlation is high positional relationship between the target blocks in the PAST reference image V P, before called motion vector, also highly correlated positions of the target block in Futuresse reference image V F A motion vector representing the relationship is referred to as a post-motion vector.

差分データ計算部236では、注目ブロックとの位置関係が前動きベクトルで表される位置関係にあるパストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が後動きベクトルで表される位置関係にあるフューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値が求められる。そして、差分データ計算部236では、注目ブロックとその推測値との差分が、第3の差分データとして出力される。 In the difference data calculating section 236, the image data of the region of Pasto reference image V P in the positional relationship in which the positional relationship between the block of interest is expressed in the previous motion vector is expressed positional relationship between the target block in backward motion vector from the image data of the region of Futuresse reference image V F in a positional relationship that, estimate of the block of interest is determined. Then, the difference data calculation unit 236 outputs the difference between the block of interest and its estimated value as third difference data.

即ち、図90は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 90 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.

図90においては、例えば、被写体P8302が、一定でない速度で移動している。即ち、図90では、被写体P8302は、パストリファレンス画像VPからターゲット画像VTの時刻にかけては、遅い速度で移動し、ターゲット画像VTからフューチャリファレンス画像VFの時刻にかけては、速い速度で移動している。 In FIG. 90, for example, the subject P 8302 is moving at a non-constant speed. That is, in FIG. 90, the object P 8302 is subjected the time of the target image V T from Pasto reference image V P, moves at a slower rate, from the target image V T to a time of Futuresse reference image V F, at a faster rate Has moved.

いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9001を、注目ブロックとして注目すると、図90のパストリファレンス画像VPにおいて、注目ブロックB9001からベクトル(-U1,-V1)だけずれた位置の、注目ブロックB9001と同一サイズの領域R9001の画像データは、(理想的には)注目ブロックB9001と同一になっている。また、フューチャリファレンス画像VFにおいて、注目ブロックB9001からベクトル(U2,V2)だけずれた位置の、注目ブロックB9001と同一サイズの領域R9002の画像データは、(理想的には)注目ブロックB9001と同一になっている。従って、ベクトル(-U1,-V1)は前動きベクトルであり、ベクトル(U2,V2)は後動きベクトルである。 Now, in the target image V T, for example, a certain block B 9001 including only the subject P 8302, when attention as the subject block, in Past reference image V P of FIG. 90, the vector (-U 1 from the target block B 9001, - image data V 1) of the shifted position, the block of interest B 9001 and the region R 9001 of the same size is made equal to the (ideally) the block of interest B 9001. In the future reference image V F , the image data of the region R 9002 having the same size as the target block B 9001 at the position shifted from the target block B 9001 by the vector (U 2 , V 2 ) is (ideally) It is the same as the attention block B 9001 . Therefore, the vector (−U 1 , −V 1 ) is a front motion vector, and the vector (U 2 , V 2 ) is a back motion vector.

差分データ計算部236(図81)では、以上のような図90に示した場合に適した第3の差分データが求められる。   The difference data calculation unit 236 (FIG. 81) obtains third difference data suitable for the case shown in FIG. 90 as described above.

即ち、差分データ計算部236(図81)では、例えば、パストリファレンス画像VPの領域R9001と、フューチャリファレンス画像VFの領域R9002との画像データの平均値が演算され、その平均値を、注目ブロックB9001の推測値として、注目ブロックB9001とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB9001のデータ量を削減することができる。差分データ計算部236は、以上のような注目ブロックB9001とその推測値との差分を、注目ブロックB9001の圧縮結果である第3の差分データとして出力する。 That is, the difference data calculating unit 236 (FIG. 81), for example, the region R 9001 Past reference image V P, the average value of the image data of the area R 9002 of Futuresse reference image V F is calculated, the average value as an estimate of the block of interest B 9001, the difference between the target block B 9001 and its estimated value is calculated. Since this difference is almost 0, the data amount of the target block B 9001 can be reduced. The difference data calculation unit 236 outputs the difference between the block of interest B 9001 as described above and its estimated value as third difference data that is the compression result of the block of interest B 9001 .

ここで、差分データ計算部236は、パストリファレンス画像VPにおいて、注目ブロックB9001と同一の(最も類似する)画像データの領域R9001の位置を表す前動きベクトル(-U1,-V1)と、フューチャリファレンス画像VFにおいて、注目ブロックB9001と同一の(最も類似する)画像データの領域R9002の位置を表す後動きベクトル(U2,V2)を、次のようにして求める。 Here, the difference data calculation unit 236 uses the previous motion vector (−U 1 , −V 1 ) representing the position of the region R 9001 of the same (most similar) image data as the target block B 9001 in the past reference image V P. ) And the back motion vector (U 2 , V 2 ) representing the position of the same (most similar) image data area R 9002 as the target block B 9001 in the future reference image V F as follows. .

即ち、差分データ計算部236は、注目ブロックと、パストリファレンス画像VPの領域Ipとの相関を表す相関情報e3(U',V')を、例えば、式(11)にしたがって求める。 That is, the difference data calculation unit 236 obtains the correlation information e 3 (U ′, V ′) representing the correlation between the block of interest and the region Ip of the past reference image V P according to, for example, Expression (11).

Figure 2006086707
・・・(11)
Figure 2006086707
(11)

ここで、式(11)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表し、Ic(x,y)は、ターゲット画像VTにおける位置(x,y)における画素の画素値(注目ブロックの画素の画素値)を表す。また、Ip(x+U',y+V')は、パストリファレンス画像VPにおける位置(x+U',y+V')にある画素の画素値を表す。また、式(11)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in Expression (11), (x, y) represents the pixel position of the target block in the target image V T , and Ic (x, y) represents the position (x, y) in the target image V T. This represents the pixel value of the pixel (pixel value of the pixel of the target block). Also, Ip (x + U ', y + V') denotes the pixel value of the pixel at the position in Pasto reference image V P (x + U ', y + V'). Further, Σ in equation (11) represents summation for all the pixels constituting the block of interest.

なお、式(11)の相関情報e3(U',V')は、注目ブロックとパストリファレンス画像VPの領域Ipとの画素値の差分絶対値の総和であり、従って、注目ブロックとパストリファレンス画像VPの領域Ipとの相関が高いほど、相関情報e3(U',V')の「値」は、小さくなる。 Note that the correlation information e 3 (U ′, V ′) in Expression (11) is the sum of absolute differences of pixel values between the block of interest and the region Ip of the past reference image V P , and accordingly, the block of interest and the past the higher the correlation between the area Ip of the reference image V P, the "value" of the correlation information e 3 (U ', V' ) is reduced.

さらに、差分データ計算部236は、注目ブロックと、フューチャリファレンス画像VFの領域Ifとの相関を表す相関情報e4(U',V')を、例えば、式(12)にしたがって求める。 Further, the difference data calculation unit 236, a block of interest, the correlation information e 4 representing the correlation between the region If the Futuresse reference image V F a (U ', V'), for example, determined according to the equation (12).

Figure 2006086707
・・・(12)
Figure 2006086707
(12)

ここで、式(12)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表し、Ic(x,y)は、ターゲット画像VTにおける位置(x,y)における画素の画素値(注目ブロックの画素の画素値)を表す。また、If(x+U',y+V')は、フューチャリファレンス画像VFにおける位置(x+U',y+V')にある画素の画素値を表す。また、式(12)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in Expression (12), (x, y) represents the position of the pixel of the target block in the target image V T , and Ic (x, y) represents the position (x, y) in the target image V T. This represents the pixel value of the pixel (pixel value of the pixel of the target block). Also, If (x + U ', y + V') denotes the pixel value of the pixel at the position (x + U ', y + V') in Futuresse reference image V F. Further, Σ in Expression (12) represents summation for all the pixels constituting the block of interest.

なお、式(12)の相関情報e4(U',V')は、注目ブロックとフューチャリファレンス画像VFの領域Ifとの画素値の差分絶対値の総和であり、従って、注目ブロックとフューチャリファレンス画像VFの領域Ifとの相関が高いほど、相関情報e4(U',V')の「値」は、小さくなる。 Incidentally, formula (12) correlation information e 4 (U ', V' ) of a total sum of the difference absolute value of pixel values of a region If the block of interest and Futuresse reference image V F, therefore, the block of interest and Fuyucha the higher the correlation between the region If the reference image V F, the "value" of the correlation information e 4 (U ', V' ) is reduced.

差分データ計算部236は、式(11)の相関情報e3(U',V')と、式(12)の相関情報e4(U',V')とを、考えられる全ての(U',V')について計算する。ここで、考えられる全ての(U',V')とは、式(11)の相関情報e3(U',V')については、位置(x+U',y+V')がパストリファレンス画像VP上にある場合の(U',V')であり、式(12)の相関情報e4(U',V')については、位置(x+U',y+V')がフューチャリファレンス画像VF上にある場合の(U',V')である。なお、式(11)の相関情報e3(U',V')や、式(12)の相関情報e4(U',V')の計算は、その他、あらかじめ定められた範囲の(U',V')についてだけ行うようにしてもよい。 Differential data calculation unit 236, correlation information e 3 of the formula (11) (U ', V') and the formula (12) correlation information e 4 (U ', V') of a, all possible (U ', V'). Here, all the possible (U ′, V ′) are the positions (x + U ′, y + V ′) of the correlation information e 3 (U ′, V ′) in Expression (11). (U ′, V ′) in the case of being on the reference image V P , and the position (x + U ′, y + V ′) for the correlation information e 4 (U ′, V ′) in Expression (12). there is a case that is on Futuresse reference image V F (U ', V' ). The calculation equation correlation information e 3 of (11) (U ', V') and the correlation information e 4 (U ', V') of the formula (12), other, of a predetermined range (U It may be performed only for ', V').

差分データ計算部236は、各値の(U',V')について計算した相関情報e3(U',V')から最小値を検出し、その相関情報e3(U',V')の最小値を与える(U',V')を、前動きベクトル(-U1,-V1)として検出する。さらに、差分データ計算部236は、各値の(U',V')について計算した相関情報e4(U',V')から最小値を検出し、その相関情報e4(U',V')の最小値を与える(U',V')を、後動きベクトル(U2,V2)として検出する。 The difference data calculation unit 236 detects the minimum value from the correlation information e 3 (U ′, V ′) calculated for (U ′, V ′) of each value, and the correlation information e 3 (U ′, V ′). (U ′, V ′) that gives the minimum value is detected as the previous motion vector (−U 1 , −V 1 ). Further, the difference data calculating section 236, for each value (U ', V') correlation information calculated for e 4 (U ', V') detects a minimum value from the correlation information e 4 (U ', V (U ', V') that gives the minimum value of ') is detected as a rear motion vector (U 2 , V 2 ).

差分データ計算部236では、注目ブロックとの位置関係が前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が後動きベクトル(U2,V2)で表される位置関係にあるフューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値が求められる。そして、差分データ計算部236では、注目ブロックとその推測値との差分を、第3の差分データとして、その第3の差分データに、前動きベクトル(-U1,-V1)と、後動きベクトル(U2,V2)とが付加されて出力される。 In the difference data calculation unit 236, the image data of the region of the past reference image V P having the positional relationship represented by the previous motion vector (−U 1 , −V 1 ) and the positional relationship between the target block and the target block from the image data of the region of Futuresse reference image V F in a positional relationship shown by the positional relationship backward motion vector (U 2, V 2), an estimate of the block of interest is determined. Then, in the difference data calculation unit 236, the difference between the block of interest and its estimated value is used as third difference data, the third difference data is added to the previous motion vector (−U 1 , −V 1 ), and the following A motion vector (U 2 , V 2 ) is added and output.

このような第3の差分データは、それに付加されている前動きベクトル(-U1,-V1)と、後動きベクトル(U2,V2)とを用いて、元の注目ブロックに復元することができる。 Such third difference data is restored to the original block of interest using the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) added thereto. can do.

即ち、第3の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第3の差分データに付加されている前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)で表される位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。即ち、注目ブロックから前動きベクトル(-U1,-V1)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックから後動きベクトル(U2,V2)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。 That is, as in the case of obtaining the third difference data, first, the positional relationship with the block of interest is the previous motion vector (−U 1 , −V 1 ) added to the third difference data and the subsequent motion vector. from the image data of the Past reference image V P and Futuresse reference image V F at the position relationship represented by (U 2, V 2), we obtain the estimated value of the block of interest. That is, before the motion vector from the target block (-U 1, -V 1) shifted on Pasto reference image V P has a region of the block of interest and the same size, backward motion vector from the target block (U 2, V 2) An area of the same size as the target block on the future reference image V F that is shifted by a certain amount is obtained, and the average value of the image data of the past reference image V P area and the future reference image V F area Obtained as an estimated value.

そして、第3の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。   Then, the block of interest can be restored by adding the third difference data and the estimated value of the block of interest.

次に、図81の差分データ計算部237で求められる第4の差分データについて説明する。   Next, the fourth difference data obtained by the difference data calculation unit 237 in FIG. 81 will be described.

差分データ計算部237では、注目ブロックについて、パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、前動きベクトル(-U1,-V1)だけが求められる(フューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、後動きベクトル(U2,V2)は求められない)。 In the difference data calculation unit 237, only the motion vector representing the positional relationship having a high correlation with the target block in the past reference image V P , that is, the previous motion vector (−U 1 , −V 1 ) is obtained for the target block ( motion vector correlation represents a high positional relationship of the target block and the Futuresse reference image V F, that is, backward motion vector (U 2, V 2) is not required).

差分データ計算部237では、注目ブロックとの位置関係が前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部237では、注目ブロックとその推測値との差分が、第4の差分データとして出力される。 The difference data calculation unit 237 estimates the target block from the image data of the region of the past reference image V P in which the positional relationship with the target block is the positional relationship represented by the previous motion vector (−U 1 , −V 1 ). A value is determined. Then, the difference data calculation unit 237 outputs the difference between the block of interest and its estimated value as fourth difference data.

即ち、図91は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 91 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.

図91においては、例えば、移動している被写体P8302が、突然消滅している。即ち、図91では、移動している被写体P8302が、パストリファレンス画像VPからターゲット画像VTの時刻にかけては存在しているが、ターゲット画像VTからフューチャリファレンス画像VFの時刻の間に消滅している。 In FIG. 91, for example, the moving subject P 8302 suddenly disappears. That is, in FIG. 91, the object P 8302 that is moving, although there are from Pasto reference image V P to a time of the target image V T, between the target image V T of time of Futuresse reference image V F It has disappeared.

いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9101を、注目ブロックとして注目すると、図91のパストリファレンス画像VPにおいて、注目ブロックB9101からベクトル(-U1,-V1)だけずれた位置の、注目ブロックB9101と同一サイズの領域R9101の画像データは、(理想的には)注目ブロックB9101と同一になっている。また、フューチャリファレンス画像VFにおいては、注目ブロックB9101と同一の(類似する)領域は、存在しない。 Now, in the target image V T, for example, a certain block B 9101 including only the subject P 8302, when attention as the subject block, in Past reference image V P of FIG. 91, the vector (-U 1 from the target block B 9101, - image data V 1) of the shifted position, the block of interest B 9101 and the same size of the area R 9101 is made identical to the (ideally) the block of interest B 9101. In the Futuresse reference image V F, the block of interest B same (similar) and 9101 regions are not present.

差分データ計算部237(図81)では、以上のような図91に示した場合に適した第4の差分データが求められる。   The difference data calculation unit 237 (FIG. 81) obtains fourth difference data suitable for the case shown in FIG. 91 as described above.

即ち、差分データ計算部237(図81)では、例えば、パストリファレンス画像VPの領域R9101の画像データを、そのまま、注目ブロックB9101の推測値として、注目ブロックB9101とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB9101のデータ量を削減することができる。差分データ計算部237は、以上のような注目ブロックB9101とその推測値との差分を、注目ブロックB9101の圧縮結果である第4の差分データとして出力する。 That is, the difference data calculating unit 237 (FIG. 81), for example, the image data of the area R 9101 Past reference image V P, it is, as inferred values of the target block B 9101, of the block of interest B 9101 and its estimated value The difference is calculated. Since this difference is almost zero, the data amount of the target block B 9101 can be reduced. The difference data calculation unit 237 outputs the difference between the attention block B 9101 as described above and the estimated value thereof as fourth difference data that is a compression result of the attention block B 9101 .

ここで、差分データ計算部237は、パストリファレンス画像VPにおいて、注目ブロックB9101と同一の(最も類似する)画像データの領域R9101の位置を表す前動きベクトル(-U1,-V1)を、次のようにして求める。 Here, the difference data calculating section 237 in a past reference image V P, the block of interest B identical (most similar) and 9101 before representing the location of the region R 9101 of the image data a motion vector (-U 1, -V 1 ) Is obtained as follows.

即ち、差分データ計算部237は、注目ブロックと、パストリファレンス画像VPの領域Ipとの相関を表す相関情報e3(U',V')を、例えば、上述した式(11)にしたがって求める。 That is, the difference data calculation unit 237 obtains the correlation information e 3 (U ′, V ′) representing the correlation between the block of interest and the region Ip of the past reference image V P according to, for example, the above equation (11). .

差分データ計算部237は、式(11)の相関情報e3(U',V')を、考えられる全ての(U',V')について計算する。さらに、差分データ計算部237は、各値の(U',V')について計算した相関情報e3(U',V')から最小値を検出し、その相関情報e3(U',V')の最小値を与える(U',V')を、前動きベクトル(-U1,-V1)として検出する。 The difference data calculation unit 237 calculates the correlation information e 3 (U ′, V ′) in Expression (11) for all possible (U ′, V ′). Further, the difference data calculating section 237, for each value (U ', V') correlation information e 3 (U ', V') calculated for detecting a minimum value from the correlation information e 3 (U ', V (U ', V') that gives the minimum value of ') is detected as the previous motion vector (-U 1 , -V 1 ).

差分データ計算部237では、注目ブロックとの位置関係が前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部237では、注目ブロックとその推測値との差分を、第4の差分データとして、その第4の差分データに、前動きベクトル(-U1,-V1)が付加されて出力される。 The difference data calculation unit 237 estimates the target block from the image data of the past reference image V P region in which the positional relationship with the target block is the positional relationship represented by the previous motion vector (−U 1 , −V 1 ). A value is determined. Then, the difference data calculation unit 237 adds the difference between the block of interest and its estimated value as the fourth difference data, and adds the previous motion vector (−U 1 , −V 1 ) to the fourth difference data. Is output.

このような第4の差分データは、それに付加されている前動きベクトル(-U1,-V1)を用いて、元の注目ブロックに復元することができる。 Such fourth difference data can be restored to the original block of interest using the previous motion vector (−U 1 , −V 1 ) added thereto.

即ち、第4の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第4の差分データに付加されている前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの画像データから、注目ブロックの推測値を求める。即ち、注目ブロックから前動きベクトル(-U1,-V1)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域の画像データを、そのまま、注目ブロックの推測値として求める。 That is, as in the case of obtaining the fourth difference data, first, the positional relationship with the block of interest is represented by the previous motion vector (−U 1 , −V 1 ) added to the fourth difference data. from the image data of Pasto reference image V P in the positional relationship, obtaining the estimated value of the block of interest. That is, an area of the same size as the target block on the past reference image V P shifted from the target block by the previous motion vector (−U 1 , −V 1 ) is obtained, and image data of the area of the past reference image V P is obtained. As it is, it is obtained as an estimated value of the target block.

そして、第4の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。   The block of interest can be restored by adding the fourth difference data and the estimated value of the block of interest.

次に、図81の差分データ計算部238で求められる第5の差分データについて説明する。   Next, the fifth difference data obtained by the difference data calculation unit 238 in FIG. 81 will be described.

差分データ計算部238では、注目ブロックについて、フィーチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、後動きベクトル(U2,V2)だけが求められる(パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、前動きベクトル(-U1,-V1)は求められない)。 In the difference data calculation unit 238, only the motion vector representing the positional relationship having a high correlation with the target block in the feature reference image V F , that is, the rear motion vector (U 2 , V 2 ) is obtained for the target block (pasto reference). motion vector correlation represents a high positional relationship between the target block in the image V P, that is, before the motion vector (-U 1, -V 1) is not required).

差分データ計算部238では、注目ブロックとの位置関係が後動きベクトル(U2,V2)で表される位置関係にあるフィーチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部238では、注目ブロックとその推測値との差分が、第5の差分データとして出力される。 In the difference data calculation unit 238, from the image data of the area of the feature reference image V F in a positional relationship in which the positional relationship between the block of interest is represented by backward motion vector (U 2, V 2), an estimate of the block of interest is Desired. Then, the difference data calculation unit 238 outputs the difference between the block of interest and its estimated value as fifth difference data.

即ち、図92は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 92 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.

図92においては、例えば、移動している被写体P8302が、突然出現している。即ち、図92では、移動している被写体P8302が、パストリファレンス画像VPの時刻には存在しないが、その後、ターゲット画像VTの時刻までの間に出現し、フューチャリファレンス画像VFの時刻でも存在している。 In FIG. 92, for example, the moving subject P 8302 suddenly appears. That is, in FIG. 92, the moving subject P 8302 does not exist at the time of the past reference image V P , but appears after that until the time of the target image V T , and the time of the future reference image V F But it exists.

いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9201を、注目ブロックとして注目すると、図92のフィーチャリファレンス画像VFにおいて、注目ブロックB9201からベクトル(U2,V2)だけずれた位置の、注目ブロックB9201と同一サイズの領域R9202の画像データは、(理想的には)注目ブロックB9201と同一になっている。また、パストリファレンス画像VPにおいては、注目ブロックB9201と同一の(類似する)領域は、存在しない。 Now, in the target image V T, for example, a certain block B 9201 including only the subject P 8302, when attention as the subject block, in the feature reference image V F of Figure 92, the vector from the target block B 9201 (U 2, V 2 The image data of the region R 9202 of the same size as the target block B 9201 at a position shifted by () is (ideally) the same as the target block B 9201 . Further, in the past reference image V P , there is no same (similar) area as the target block B 9201 .

差分データ計算部238(図81)では、以上のような図92に示した場合に適した第5の差分データが求められる。   The difference data calculation unit 238 (FIG. 81) obtains fifth difference data suitable for the case shown in FIG. 92 as described above.

即ち、差分データ計算部238(図81)では、例えば、フィーチャリファレンス画像VFの領域R9202の画像データを、そのまま、注目ブロックB9201の推測値として、注目ブロックB9201とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB9201のデータ量を削減することができる。差分データ計算部238は、以上のような注目ブロックB9201とその推測値との差分を、注目ブロックB9201の圧縮結果である第5の差分データとして出力する。 That is, the difference data calculating unit 238 (FIG. 81), for example, the image data of the area R 9202 of the feature reference image V F, it is, as inferred values of the target block B 9201, of the block of interest B 9201 and its estimated value The difference is calculated. Since this difference is almost 0, the data amount of the target block B 9201 can be reduced. The difference data calculation unit 238 outputs the difference between the attention block B 9201 and the estimated value as described above as fifth difference data that is a compression result of the attention block B 9201 .

ここで、差分データ計算部238は、フィーチャリファレンス画像VFにおいて、注目ブロックB9201と同一の(最も類似する)画像データの領域R9202の位置を表す後動きベクトル(U2,V2)を、次のようにして求める。 Here, the difference data calculation unit 238, the feature reference image V F, identical to the block of interest B 9201 (the most similar) motion vector after indicating the position of region R 9202 of the image data (U 2, V 2) Find it as follows.

即ち、差分データ計算部238は、注目ブロックと、フィーチャリファレンス画像VFの領域Ifとの相関を表す相関情報e4(U',V')を、例えば、上述した式(12)にしたがって求める。 That is, the difference data calculation unit 238, a block of interest, the correlation information e 4 representing the correlation between the region If the feature reference image V F (U ', V' ), for example, determined according to the above Expression (12) .

差分データ計算部238は、式(12)の相関情報e4(U',V')を、考えられる全ての(U',V')について計算する。さらに、差分データ計算部238は、各値の(U',V')について計算した相関情報e4(U',V')から最小値を検出し、その相関情報e4(U',V')の最小値を与える(U',V')を、後動きベクトル(U2,V2)として検出する。 The difference data calculation unit 238 calculates the correlation information e 4 (U ′, V ′) in Expression (12) for all possible (U ′, V ′). Further, the difference data calculating unit 238 of each value (U ', V') correlation information calculated for e 4 (U ', V') detects a minimum value from the correlation information e 4 (U ', V (U ', V') that gives the minimum value of ') is detected as a rear motion vector (U 2 , V 2 ).

差分データ計算部238では、注目ブロックとの位置関係が後動きベクトル(U2,V2)で表される位置関係にあるフィーチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部238では、注目ブロックとその推測値との差分を、第5の差分データとして、その第5の差分データに、後動きベクトル(U2,V2)が付加されて出力される。 In the difference data calculation unit 238, from the image data of the area of the feature reference image V F in a positional relationship in which the positional relationship between the block of interest is represented by backward motion vector (U 2, V 2), an estimate of the block of interest is Desired. Then, the difference data calculation unit 238 outputs the difference between the block of interest and its estimated value as fifth difference data, and adds the rear motion vector (U 2 , V 2 ) to the fifth difference data. Is done.

このような第5の差分データは、それに付加されている後動きベクトル(U2,V2)を用いて、元の注目ブロックに復元することができる。 Such fifth difference data can be restored to the original block of interest using the post-motion vector (U 2 , V 2 ) added thereto.

即ち、第5の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第5の差分データに付加されている後動きベクトル(U2,V2)で表される位置関係にあるフィーチャリファレンス画像VFの画像データから、注目ブロックの推測値を求める。即ち、注目ブロックから後動きベクトル(U2,V2)だけずれたフィーチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのフィーチャリファレンス画像VFの領域の画像データを、そのまま、注目ブロックの推測値として求める。 That is, as in the case of obtaining the fifth difference data, first, the positional relationship with the target block is the positional relationship represented by the rear motion vector (U 2 , V 2 ) added to the fifth differential data. from the image data of the feature reference image V F in, obtaining the estimated value of the block of interest. That is, on the feature reference image V F offset by backward motion vector (U 2, V 2) from the block of interest, determine the area of the block of interest and the same size, the image data of the area of the feature reference image V F, as As an estimated value of the target block.

そして、第5の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。   Then, the block of interest can be restored by adding the fifth difference data and the estimated value of the block of interest.

次に、図81の差分データ計算部239で求められる第6の差分データについて説明する。   Next, the sixth difference data obtained by the difference data calculation unit 239 in FIG. 81 will be described.

差分データ計算部239では、注目ブロックの推定値が0であるとして、注目ブロックとその推測値との差分が、第6の差分データとして出力される。   In the difference data calculation unit 239, assuming that the estimated value of the target block is 0, the difference between the target block and the estimated value is output as sixth difference data.

即ち、図93は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 93 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.

図93においては、例えば、移動している被写体P8302が、突然出現し、その後、突然消滅している。即ち、図93では、移動している被写体P8302が、パストリファレンス画像VPの時刻には存在しないが、その後、ターゲット画像VTの時刻までの間に出現し、さらに、フューチャリファレンス画像VFの時刻までの間に消滅している。 In FIG. 93, for example, the moving subject P 8302 suddenly appears and then disappears suddenly. That is, in FIG. 93, the moving subject P 8302 does not exist at the time of the past reference image V P , but appears thereafter until the time of the target image V T , and further, the feature reference image V F It disappears by the time of.

いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9301を、注目ブロックとして注目すると、図93のパストリファレンス画像VPおよびフィーチャリファレンス画像VFのいずれにも、注目ブロックB9301と同一の(類似する)領域は、存在しない。 Now, in the target image V T , for example, when a block B 9301 including only the subject P 8302 is focused as a focused block, the focused block B is included in both the past reference image V P and the feature reference image V F in FIG. There is no region similar to (similar to) 9301 .

差分データ計算部239(図81)では、以上のような図93に示した場合に適した第6の差分データが求められる。   The difference data calculation unit 239 (FIG. 81) obtains sixth difference data suitable for the case shown in FIG. 93 as described above.

即ち、パストリファレンス画像VPおよびフィーチャリファレンス画像VFのいずれにも、注目ブロックB9301と同一の(類似する)領域が存在しない場合には、パストリファレンス画像VPやフィーチャリファレンス画像VFから、注目ブロックB9301の推測値を求めても、その推測値は、注目ブロックB9301の画像データとはかけ離れた値になる。従って、注目ブロックB9301と、そのような推測値との差分をとっても、その差分は、ほとんど0となることはなく、大きな値になるため、注目ブロックB9301のデータ量を削減することはできない。 In other words, in any of Pasto reference image V P and feature reference image V F, when the target block B the same (similar) and 9301 there is no region of Pasto reference image V P and feature reference image V F, also be determined estimate of the block of interest B 9301, the estimate has a value far from the image data of the target block B 9301. Therefore, even if the difference between the target block B 9301 and such an estimated value is taken, the difference is almost zero and becomes a large value, and therefore the data amount of the target block B 9301 cannot be reduced. .

そこで、差分データ計算部239は、注目ブロックB9301の推定値を求めずに、注目ブロックB9301を、第6の差分データとして出力する。ここで、第6の差分データは、上述したように、注目ブロックの推定値が0であるとして、注目ブロックとその推測値との差分をとった結果であるとみることもできる。 Therefore, the difference data calculation unit 239 outputs the target block B 9301 as sixth difference data without obtaining the estimated value of the target block B 9301 . Here, as described above, the sixth difference data can be regarded as a result of taking the difference between the target block and the estimated value, assuming that the estimated value of the target block is 0.

なお、以上の第1乃至第6の差分データのうちの、第3乃至第6の差分データは、MPEGにおけるBピクチャと同様の概念のものである。   Of the above first to sixth difference data, the third to sixth difference data have the same concept as the B picture in MPEG.

また、上述の場合には、相関を表す相関情報として、計算量の削減のために、差分絶対値の総和を採用したが、相関情報としては、相関係数などを採用することもできる。   In the above case, the sum of absolute difference values is used as the correlation information representing the correlation in order to reduce the amount of calculation. However, a correlation coefficient or the like can also be used as the correlation information.

次に、図94は、第1の差分データを求める図81の差分データ計算部234の構成例を示している。   Next, FIG. 94 shows a configuration example of the difference data calculation unit 234 in FIG. 81 for obtaining the first difference data.

図94において、入力端子251には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。また、入力端子252には、図81の入力端子231からのパストリファレンス画像VPが入力され、入力端子253には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。 In FIG. 94, the target block (image data) from the input terminal 233 of FIG. 81 is input to the input terminal 251. In addition, the past reference image V P from the input terminal 231 in FIG. 81 is input to the input terminal 252, and the future reference image V F from the input terminal 232 in FIG. 81 is input to the input terminal 253.

入力端子251から入力された注目ブロックは、減算部256に供給される。   The block of interest input from the input terminal 251 is supplied to the subtraction unit 256.

入力端子252から入力されたパストリファレンス画像VPは、相関最大位置検出部254および平均値計算部255に供給される。入力端子253から入力されたフューチャリファレンス画像VFも、相関最大位置検出部254および平均値計算部255に供給される。 The past reference image V P input from the input terminal 252 is supplied to the maximum correlation position detection unit 254 and the average value calculation unit 255. Futuresse reference image V F which is input from the input terminal 253 is also supplied to the maximum correlation position detection section 254 and the average value calculation section 255.

相関最大位置検出部254は、入力端子251からの注目ブロックについて、入力端子252からのパストリファレンス画像VPと、入力端子253からのフューチャリファレンス画像VFとにおいて、相関が高い位置関係を検出する。即ち、相関最大位置検出部254は、注目ブロックについて、式(9)の相関情報e1(U',V')を計算し、その相関情報e1(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e1(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部254は、相関情報e1(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表す位置関係ベクトル(U,V)として、平均値計算部255に供給する。 Maximum correlation position detection section 254, for the target block from the input terminal 251, and Past reference image V P from the input terminal 252, in the Futuresse reference image V F from the input terminal 253, detects the correlation is high positional relationship . That is, the maximum correlation position detection unit 254 calculates the correlation information e 1 (U ′, V ′) of Expression (9) for the block of interest, and calculates the correlation represented by the correlation information e 1 (U ′, V ′). It is detected to maximize (U ′, V ′), that is, minimize (U ′, V ′) the value of correlation information e 1 (U ′, V ′). Then, the maximum correlation position detection section 254, correlation information e 1 (U ', V' ) to minimize the value of the (U ', V'), in the PAST reference image V P and Futuresse reference image V F, correlation Is supplied to the average value calculation unit 255 as a positional relationship vector (U, V) representing the positional relationship of the highest region.

平均値計算部255は、相関最大位置検出部254からの位置関係ベクトル(U,V)が表す位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、減算部256に供給する。 The average value calculation unit 255 calculates the target block from the image data of the past reference image V P and the feature reference image V F in the positional relationship represented by the positional relationship vector (U, V) from the correlation maximum position detection unit 254. Is obtained and supplied to the subtracting unit 256.

即ち、平均値計算部255は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の領域との画像データの、例えば、重み付け平均値を、式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、減算部256に供給する。 That is, the average value calculation unit 255 determines the region at a position shifted from the target block by the vector (− (4-s) U, − (4-s) V) in the past reference image V P and the feature reference image V F. , For example, the weighted average value of the image data of the region at a position shifted from the target block by the vector (sU, sV) is calculated according to the equation (13), and the weighted average value is calculated as the estimated value of the target block. Obtained as Pre (x, y) and supplied to the subtracting unit 256.

Figure 2006086707
・・・(13)
Figure 2006086707
(13)

ここで、式(13)において、(x,y)は、ターゲット画像VTにおける注目ブロックの各画素の位置を表す。また、Ip(x-(4-s)U,y-(4-s)V)は、パストリファレンス画像VPにおける位置(x-(4-s)U,y-(4-s)V)の画素の画素値を表す。さらに、If(x+sU,y+sV)は、フューチャリファレンス画像VFにおける位置(x+sU,y+sV)の画素の画素値を表す。また、Wは、重みで、例えば、1/2などを採用することができる。 Here, in Expression (13), (x, y) represents the position of each pixel of the target block in the target image V T. Also, Ip (x- (4-s ) U, y- (4-s) V) is located in the Past reference image V P (x- (4-s ) U, y- (4-s) V) Represents the pixel value of the pixel. Furthermore, If (x + sU, y + sV) represents the pixel value of the pixel position (x + sU, y + sV ) in Futuresse reference image V F. W can be a weight, for example, 1/2.

なお、重みWは、例えば、ユーザの操作入力に応じて設定することができる。また、重みWは、その他、例えば、図82に示した、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒と、ターゲット画像VTとフューチャリファレンス画像VFとの時間差であるs/240秒との割合を考慮して決めても良い。 The weight W can be set, for example, according to a user operation input. Further, the weight W is, for example, (4-s) / 240 seconds, which is a time difference between the target image V T and the past reference image V P shown in FIG. 82, and the target image V T and the feature reference image V. It may be determined in consideration of the ratio with s / 240 seconds, which is the time difference from F.

即ち、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒が、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒よりも短いときは、注目ブロックの推測値は、パストリファレンス画像VPに重きをおいて求めた方が、より精度が高い値を求めることができる。一方、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒が、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒よりも短いときは、注目ブロックの推測値は、フューチャリファレンス画像VFに重きをおいて求めた方が、より精度が高い値を求めることができる。そこで、重みWは、上述の時間差を表す変数sに依存する値、即ち、例えば、s/4などとすることができる。 That is, when the time difference (4-s) / 240 seconds between the target image V T and the past reference image V P is shorter than s / 240 seconds, which is the time difference between the target image V T and the feature reference image V P. the estimated value of the block of interest, who found by emphasis on Past reference image V P is, it is possible to obtain a higher accuracy values. On the other hand, when the time difference between the target image V T and the future reference image V P is shorter than (4-s) / 240 seconds, which is the time difference between the target image V T and the past reference image V P the estimated value of the block of interest, who found by emphasis on Futuresse reference image V F is, it is possible to obtain a higher accuracy values. Therefore, the weight W can be a value that depends on the variable s representing the above-described time difference, that is, for example, s / 4.

減算部256は、平均値計算部255から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子251から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部256は、平均値計算部255から供給される注目ブロックの推測値Pre(x,y)と、入力端子251から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部257に供給する。   The subtracting unit 256 uses the estimated value Pre (x, y) of the target block supplied from the average value calculating unit 255 to calculate the target block (image data) Ic (x, y) supplied from the input terminal 251. Compress. That is, the subtracting unit 256 corresponds to the pixel corresponding to the estimated value Pre (x, y) of the target block supplied from the average value calculating unit 255 and the target block Ic (x, y) supplied from the input terminal 251. The difference value Sub (x, y) = Ic (x, y) −Pre (x, y) obtained as a result is supplied to the conversion unit 257.

変換部257は、減算部256からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部257は、注目ブロックの差分値Sub(x,y)を、例えば、DCT(Discrete Cosine Transform)変換し、その結果得られるDCT係数を、量子化部258に供給する。   The conversion unit 257 converts the difference value Sub (x, y) of the target block from the subtraction unit 256 into data on the frequency space. That is, the transform unit 257 performs, for example, DCT (Discrete Cosine Transform) transform on the difference value Sub (x, y) of the block of interest, and supplies the DCT coefficient obtained as a result to the quantizer 258.

量子化部258は、変換部257からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部259に供給する。   The quantization unit 258 quantizes the DCT coefficient of the block of interest from the transform unit 257 and supplies the quantized data obtained as a result to the variable length coding unit 259.

可変長符号化部259は、量子化部258からの注目ブロックの量子化データを可変長符号化し、その結果得られる可変長符号を、第1の差分データとして、出力端子260から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部259において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなる。   The variable length coding unit 259 performs variable length coding on the quantized data of the block of interest from the quantization unit 258, and uses the resulting variable length code as the first difference data from the output terminal 260 to the selection circuit 240. (FIG. 81). When the block of interest (image data) Ic (x, y) and its estimated value Pre (x, y) completely match, the variable length coding unit 259 converts the quantized data of the block of interest into variable length The variable length code obtained by encoding represents NULL.

次に、図95のフローチャートを参照して、図94の差分データ計算部234の動作について説明する。   Next, the operation of the difference data calculation unit 234 in FIG. 94 will be described with reference to the flowchart in FIG.

まず最初に、ステップS211において、注目ブロック、パストリファレンス画像VP、およびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子251から減算部256に入力され、パストリファレンス画像VPが、入力端子252から、相関最大位置検出部254および平均値計算部255に入力される。さらに、フューチャリファレンス画像VFが、入力端子253から、相関最大位置検出部254および平均値計算部255に入力される。 First, in step S211, the block of interest, past reference image V P , and future reference image V F are input. That is, the block of interest is input from the input terminal 251 to the subtraction unit 256, and the past reference image V P is input from the input terminal 252 to the maximum correlation position detection unit 254 and the average value calculation unit 255. Furthermore, Futuresse reference image V F is, from the input terminal 253 is input to the maximum correlation position detection section 254 and the average value calculation section 255.

そして、ステップS211からS212に進み、相関最大位置検出部254は、入力端子251からの注目ブロックについて、入力端子252からのパストリファレンス画像VPと、入力端子253からのフューチャリファレンス画像VFとにおいて、相関が高い位置関係を検出する。即ち、相関最大位置検出部254は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(9)の相関情報e1(U',V')を計算し、その相関情報e1(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e1(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部254は、相関情報e1(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表す位置関係ベクトル(U,V)として、平均値計算部255に供給し、ステップS212からS213に進む。 Then, the process proceeds from step S211 to step S212, and the maximum correlation position detection unit 254 uses the past reference image V P from the input terminal 252 and the future reference image V F from the input terminal 253 for the block of interest from the input terminal 251. , Detecting a positional relationship with high correlation. That is, the maximum correlation position detection unit 254 calculates the correlation information e 1 (U ′, V ′) in Expression (9) for all possible (U ′, V ′) values for the block of interest, and The correlation represented by the correlation information e 1 (U ′, V ′) is maximized (U ′, V ′), that is, the value of the correlation information e 1 (U ′, V ′) is minimized (U ′, V ′). ') Is detected. Then, the maximum correlation position detection section 254, correlation information e 1 (U ', V' ) to minimize the value of the (U ', V'), in the PAST reference image V P and Futuresse reference image V F, correlation Is supplied to the average value calculation unit 255 as a positional relationship vector (U, V) representing the positional relationship of the highest region, and the process proceeds from step S212 to S213.

ステップS213では、平均値計算部255は、式(13)にしたがい、相関最大位置検出部254からの位置関係ベクトル(U,V)が表す位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値Pre(x,y)を求め、減算部256に供給して、ステップS214に進む。 In step S213, the average value calculating unit 255, follows the equation (13), positional relation vector (U, V) from the maximum correlation position detection section 254 are in the positional relationship indicated by, Past reference image V P and Futuresse reference image from the image data of the region of the V F, we obtain the estimated value Pre block of interest (x, y), a is supplied to the subtraction unit 256, processing proceeds to step S214.

ステップS214では、減算部256は、平均値計算部255から供給される注目ブロックの推測値Pre(x,y)と、入力端子251から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部257に供給して、ステップS215に進む。   In step S214, the subtracting unit 256 corresponds the estimated value Pre (x, y) of the target block supplied from the average value calculating unit 255 and the target block Ic (x, y) supplied from the input terminal 251. The difference between the pixel values of the pixels to be calculated is calculated, and the difference value Sub (x, y) obtained as a result is supplied to the conversion unit 257, and the process proceeds to step S215.

ステップS215では、変換部257は、減算部256からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部258に供給して、ステップS216に進む。ステップS216では、量子化部258は、変換部257からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部259に供給して、ステップS217に進む。ステップS217では、可変長符号化部259は、量子化部258からの注目ブロックの量子化データを可変長符号化して、ステップS218に進み、可変長符号化の結果得られる可変長符号を、第1の差分データとして、出力端子260から、選択回路240(図81)に出力する。従って、第1の差分データには、位置関係ベクトル(U,V)は含まない。   In step S215, the converting unit 257 DCT-transforms the difference value Sub (x, y) of the target block from the subtracting unit 256, and supplies the resulting DCT coefficient to the quantizing unit 258, and then proceeds to step S216. move on. In step S216, the quantization unit 258 quantizes the DCT coefficient of the block of interest from the transform unit 257, supplies the quantized data obtained as a result to the variable length coding unit 259, and proceeds to step S217. In step S217, the variable length coding unit 259 performs variable length coding on the quantized data of the block of interest from the quantization unit 258, proceeds to step S218, and obtains the variable length code obtained as a result of the variable length coding. 1 is output from the output terminal 260 to the selection circuit 240 (FIG. 81). Accordingly, the first difference data does not include the positional relationship vector (U, V).

以上のようにして、差分データ計算部234では、ターゲット画像VTがブロック単位で、第1の差分データに圧縮される。 As described above, the difference data calculation unit 234 compresses the target image V T to the first difference data in units of blocks.

次に、図96は、第2の差分データを求める図81の差分データ計算部235の構成例を示している。   Next, FIG. 96 shows a configuration example of the difference data calculation unit 235 of FIG. 81 for obtaining the second difference data.

図96において、入力端子271には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。また、入力端子272には、図81の入力端子231からのパストリファレンス画像VPが入力され、入力端子273には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。 96, the target block (image data) from the input terminal 233 in FIG. 81 is input to the input terminal 271. In addition, the past reference image V P from the input terminal 231 in FIG. 81 is input to the input terminal 272, and the future reference image V F from the input terminal 232 in FIG. 81 is input to the input terminal 273.

入力端子271から入力された注目ブロックは、相関最大位置検出部274および減算部276に供給される。   The block of interest input from the input terminal 271 is supplied to the maximum correlation position detection unit 274 and the subtraction unit 276.

入力端子272から入力されたパストリファレンス画像VPは、相関最大位置検出部274および平均値計算部275に供給される。入力端子273から入力されたフューチャリファレンス画像VFも、相関最大位置検出部274および平均値計算部275に供給される。 The past reference image V P input from the input terminal 272 is supplied to the correlation maximum position detection unit 274 and the average value calculation unit 275. The feature reference image V F input from the input terminal 273 is also supplied to the correlation maximum position detection unit 274 and the average value calculation unit 275.

相関最大位置検出部274は、入力端子271からの注目ブロックについて、入力端子272からのパストリファレンス画像VPと、入力端子273からのフューチャリファレンス画像VFとにおいて、入力端子271からの注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部274は、注目ブロックについて、式(10)の相関情報e2(U',V')を計算し、その相関情報e2(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e2(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部274は、相関情報e2(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す相関最大ベクトル(U,V)として、平均値計算部275および可変長符号化部279に供給する。 The correlation maximum position detection unit 274 determines the block of interest from the input terminal 271 in the past reference image V P from the input terminal 272 and the feature reference image V F from the input terminal 273 for the block of interest from the input terminal 271. A positional relationship having a high correlation is detected. That is, the maximum correlation position detection unit 274 calculates the correlation information e 2 (U ′, V ′) of Expression (10) for the block of interest, and calculates the correlation represented by the correlation information e 2 (U ′, V ′). It is detected to maximize (U ′, V ′), that is, minimize (U ′, V ′) the value of the correlation information e 2 (U ′, V ′). Then, the maximum correlation position detection section 274, correlation information e 2 (U ', V' ) to minimize the value of the (U ', V'), in the PAST reference image V P and Futuresse reference image V F, attention This is supplied to the average value calculation unit 275 and the variable length coding unit 279 as the maximum correlation vector (U, V) representing the positional relationship of the region having the highest correlation with the block.

平均値計算部275は、注目ブロックとの位置関係が、相関最大位置検出部274からの相関最大ベクトル(U,V)から求められる位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、減算部276に供給する。 The average value calculation unit 275 has a positional relationship with the block of interest in a positional relationship obtained from the correlation maximum vector (U, V) from the correlation maximum position detection unit 274, and the past reference image V P and the feature reference image V F The estimated value of the block of interest is obtained from the image data of the area, and supplied to the subtracting unit 276.

即ち、平均値計算部275は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の領域との画像データの、例えば、重み付け平均値を、上述の式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、減算部276に供給する。 That is, the average value calculating unit 275, in Pasto reference image V P, from the target block vector (- (4-s) U , - (4-s) V) shifted the position of the region, Futuresse reference image V F , For example, the weighted average value of the image data with the region at a position shifted from the target block by the vector (sU, sV) is calculated according to the above-described equation (13), and the weighted average value is calculated for the target block. The estimated value Pre (x, y) is obtained and supplied to the subtracting unit 276.

減算部276は、平均値計算部275から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子271から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部276は、平均値計算部275から供給される注目ブロックの推測値Pre(x,y)と、入力端子271から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部277に供給する。   The subtraction unit 276 uses the estimated value Pre (x, y) of the target block supplied from the average value calculation unit 275 to calculate the target block (image data) Ic (x, y) supplied from the input terminal 271. Compress. That is, the subtraction unit 276 corresponds to the pixel corresponding to the estimated value Pre (x, y) of the target block supplied from the average value calculation unit 275 and the target block Ic (x, y) supplied from the input terminal 271. The difference value Sub (x, y) = Ic (x, y) −Pre (x, y) obtained as a result is supplied to the conversion unit 277.

変換部277は、減算部276からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部277は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部278に供給する。   The conversion unit 277 converts the difference value Sub (x, y) of the target block from the subtraction unit 276 into data on the frequency space. That is, the transform unit 277 performs, for example, DCT transform on the difference value Sub (x, y) of the block of interest, and supplies the resulting DCT coefficient to the quantizer 278.

量子化部278は、変換部277からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部279に供給する。   The quantization unit 278 quantizes the DCT coefficient of the block of interest from the conversion unit 277 and supplies the quantized data obtained as a result to the variable length coding unit 279.

可変長符号化部279は、量子化部278からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部274からの相関最大ベクトル(U,V)を可変長符号化する。さらに、可変長符号化部279は、注目ブロックの量子化データの可変長符号に、相関最大ベクトル(U,V)の可変長符号を付加し、第2の差分データとして、出力端子280から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部279において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第2の差分データは、相関最大ベクトル(U,V)の可変長符号だけとなる。   The variable length coding unit 279 performs variable length coding on the quantized data of the block of interest from the quantization unit 278 and variable length coding the correlation maximum vector (U, V) from the correlation maximum position detection unit 274. . Further, the variable length coding unit 279 adds the variable length code of the correlation maximum vector (U, V) to the variable length code of the quantized data of the block of interest, and outputs the second difference data from the output terminal 280. It outputs to the selection circuit 240 (FIG. 81). When the block of interest (image data) Ic (x, y) and its estimated value Pre (x, y) completely match, the variable length coding unit 279 converts the quantized data of the block of interest into a variable length. The variable length code obtained by encoding represents NULL, and the second difference data is only the variable length code of the maximum correlation vector (U, V).

次に、図97のフローチャートを参照して、図96の差分データ計算部235の動作について説明する。   Next, the operation of the difference data calculation unit 235 in FIG. 96 will be described with reference to the flowchart in FIG.

まず最初に、ステップS221において、注目ブロック、パストリファレンス画像VP、およびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子271から相関最大位置検出部274および減算部276に入力され、パストリファレンス画像VPが、入力端子272から、相関最大位置検出部274および平均値計算部275に入力される。さらに、フューチャリファレンス画像VFが、入力端子273から、相関最大位置検出部274および平均値計算部275に入力される。 First, in step S221, the block of interest, past reference image V P , and future reference image V F are input. That is, the block of interest is input from the input terminal 271 to the maximum correlation position detection unit 274 and subtraction unit 276, and the past reference image V P is input from the input terminal 272 to the maximum correlation position detection unit 274 and average value calculation unit 275. Is done. Furthermore, Futuresse reference image V F is, from the input terminal 273 is input to the maximum correlation position detection section 274 and the average value calculation section 275.

そして、ステップS221からS222に進み、相関最大位置検出部274は、入力端子271からの注目ブロックについて、入力端子272からのパストリファレンス画像VPと、入力端子273からのフューチャリファレンス画像VFとにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部274は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(10)の相関情報e2(U',V')を計算し、その相関情報e2(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e2(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部274は、相関情報e2(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す相関最大ベクトル(U,V)として、平均値計算部275および可変長符号化部279に供給し、ステップS222からS223に進む。 Then, the process proceeds from step S221 to step S222, and the maximum correlation position detection unit 274 uses the past reference image V P from the input terminal 272 and the feature reference image V F from the input terminal 273 for the block of interest from the input terminal 271. Then, a positional relationship having a high correlation with the block of interest is detected. That is, the maximum correlation position detection unit 274 calculates the correlation information e 2 (U ′, V ′) in Expression (10) for all possible (U ′, V ′) values for the target block, The correlation represented by the correlation information e 2 (U ′, V ′) is maximized (U ′, V ′), that is, the value of the correlation information e 2 (U ′, V ′) is minimized (U ′, V ′). ') Is detected. Then, the maximum correlation position detection section 274, correlation information e 2 (U ', V' ) to minimize the value of the (U ', V'), in the PAST reference image V P and Futuresse reference image V F, attention The maximum correlation vector (U, V) representing the positional relationship of the region having the highest correlation with the block is supplied to the average value calculation unit 275 and the variable length coding unit 279, and the process proceeds from step S222 to S223.

ステップS223では、平均値計算部275は、式(13)にしたがい、注目ブロックとの位置関係が、相関最大位置検出部274からの相関最大ベクトル(U,V)から求められる位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値Pre(x,y)を求め、減算部276に供給して、ステップS224に進む。 In step S223, the average value calculation unit 275 has a positional relationship with the block of interest obtained from the maximum correlation vector (U, V) from the maximum correlation position detection unit 274 according to equation (13). The estimated value Pre (x, y) of the block of interest is obtained from the image data of the past reference image V P and the feature reference image V F , supplied to the subtraction unit 276, and the process proceeds to step S224.

ステップS224では、減算部276は、平均値計算部275から供給される注目ブロックの推測値Pre(x,y)と、入力端子271から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部277に供給して、ステップS225に進む。   In step S224, the subtraction unit 276 associates the estimated value Pre (x, y) of the target block supplied from the average value calculation unit 275 with the target block Ic (x, y) supplied from the input terminal 271. The difference between the pixel values of the pixels to be calculated is calculated, and the difference value Sub (x, y) obtained as a result is supplied to the conversion unit 277, and the process proceeds to step S225.

ステップS225では、変換部277は、減算部276からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部278に供給して、ステップS226に進む。ステップS226では、量子化部278は、変換部277からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部279に供給して、ステップS227に進む。ステップS227では、可変長符号化部279は、量子化部278からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部274からの相関最大ベクトル(U,V)を可変長符号化する。さらに、ステップS227において、可変長符号化部279は、注目ブロックの量子化データの可変長符号に、相関最大ベクトル(U,V)の可変長符号を付加することにより、第2の差分データとして、ステップS228に進み、その第2の差分データを、出力端子280から、選択回路240(図81)に出力する。   In step S225, the converting unit 277 performs DCT conversion on the difference value Sub (x, y) of the target block from the subtracting unit 276, and supplies the resulting DCT coefficient to the quantizing unit 278, and then proceeds to step S226. move on. In step S226, the quantization unit 278 quantizes the DCT coefficient of the target block from the transform unit 277, supplies the quantized data obtained as a result to the variable length coding unit 279, and proceeds to step S227. In step S227, the variable length coding unit 279 performs variable length coding on the quantized data of the block of interest from the quantization unit 278 and also varies the correlation maximum vector (U, V) from the correlation maximum position detection unit 274. Encode long. Further, in step S227, the variable length coding unit 279 adds the variable length code of the correlation maximum vector (U, V) to the variable length code of the quantized data of the target block, thereby obtaining the second difference data. In step S228, the second difference data is output from the output terminal 280 to the selection circuit 240 (FIG. 81).

以上のようにして、差分データ計算部235では、ターゲット画像VTがブロック単位で、第2の差分データに圧縮される。 As described above, the difference data calculation unit 235 compresses the target image V T into second difference data in units of blocks.

次に、図98は、第3の差分データを求める図81の差分データ計算部236の構成例を示している。   Next, FIG. 98 shows a configuration example of the difference data calculation unit 236 of FIG. 81 for obtaining the third difference data.

図98において、入力端子291には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。また、入力端子292には、図81の入力端子231からのパストリファレンス画像VPが入力され、入力端子293には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。 98, the target block (image data) from the input terminal 233 in FIG. 81 is input to the input terminal 291. In addition, the past reference image V P from the input terminal 231 in FIG. 81 is input to the input terminal 292, and the future reference image V F from the input terminal 232 in FIG. 81 is input to the input terminal 293.

入力端子291から入力された注目ブロックは、相関最大位置検出部294,295、および減算部297に供給される。   The block of interest input from the input terminal 291 is supplied to the correlation maximum position detection units 294 and 295 and the subtraction unit 297.

入力端子292から入力されたパストリファレンス画像VPは、相関最大位置検出部294および平均値計算部296に供給される。入力端子293から入力されたフューチャリファレンス画像VFは、相関最大位置検出部295および平均値計算部296に供給される。 The past reference image V P input from the input terminal 292 is supplied to the correlation maximum position detection unit 294 and the average value calculation unit 296. Futuresse reference image V F which is input from the input terminal 293 is supplied to a maximum correlation position detection section 295 and the average value calculation section 296.

相関最大位置検出部294は、入力端子292からのパストリファレンス画像VPにおいて、入力端子291からの注目ブロックとの相関が高い位置関係を検出する相関最大位置検出部295は、入力端子293からのフューチャリファレンス画像VFにおいて、入力端子291からの注目ブロックとの相関が高い位置関係を検出する。 Maximum correlation position detection section 294, in Pasto reference image V P from the input terminal 292, maximum correlation position detection section 295 for detecting a correlation is high positional relationship between the target block from the input terminal 291, from the input terminal 293 in Futuresse reference image V F, it detects the correlation is high positional relationship between the target block from the input terminal 291.

即ち、相関最大位置検出部294は、注目ブロックについて、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部294は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、平均値計算部296および可変長符号化部300に供給する。 That is, the maximum correlation position detection unit 294 calculates the correlation information e 3 (U ′, V ′) of Expression (11) for the block of interest, and calculates the correlation represented by the correlation information e 3 (U ′, V ′). The maximum (U ′, V ′), that is, the minimum (U ′, V ′) of the correlation information e 3 (U ′, V ′) is detected. Then, the maximum correlation position detection section 294, correlation information e 3 (U ', V' ) value to smallest (U ', V'), in the PAST reference image V P, the correlation between the target block is the most This is supplied to the average value calculation unit 296 and the variable length coding unit 300 as a previous motion vector (−U 1 , −V 1 ) representing the positional relationship of a high region.

また、相関最大位置検出部295は、注目ブロックについて、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部295は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、平均値計算部296および可変長符号化部300に供給する。 In addition, the maximum correlation position detection unit 295 calculates the correlation information e 4 (U ′, V ′) of Expression (12) for the block of interest, and calculates the correlation represented by the correlation information e 4 (U ′, V ′). It is detected to maximize (U ′, V ′), that is, to minimize the value of correlation information e 4 (U ′, V ′). Then, the maximum correlation position detection section 295, correlation information e 4 (U ', V' ) to minimize the value of the (U ', V'), in Futuresse reference image V F, the correlation between the target block is the most This is supplied to the average value calculation unit 296 and the variable length coding unit 300 as a post motion vector (U 2 , V 2 ) representing the positional relationship of the high region.

平均値計算部296は、注目ブロックとの位置関係が、相関最大位置検出部294からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が、相関最大位置検出部295からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値を求め、減算部297に供給する。 The average value calculation unit 296 has a positional relationship with the block of interest in the region of the past reference image V P in which the positional relationship represented by the previous motion vector (−U 1 , −V 1 ) from the maximum correlation position detection unit 294 is present. from the image data, the positional relationship between the target block, a positional relationship indicated by the motion vector after the maximum correlation position detection section 295 (U 2, V 2) , and the image data of the region of Futuresse reference image V F, An estimated value of the block of interest is obtained and supplied to the subtraction unit 297.

即ち、平均値計算部296は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の領域と、フューチャリファレンス画像VFにおいて、後ベクトル(U2,V2)だけずれた位置の領域との画像データの、例えば、重み付け平均値を、式(14)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、減算部297に供給する。 That is, the average value calculating unit 296, in Pasto reference image V P, from the target block prior to the motion vector (-U 1, -V 1) and the area of the shifted positions, the Futuresse reference image V F, the rear vector (U 2 , V 2 ), for example, the weighted average value of the image data with the region shifted by the position is calculated according to the equation (14), and the weighted average value is calculated as the estimated value Pre (x, y) of the target block. And supplied to the subtracting unit 297.

Figure 2006086707
・・・(14)
Figure 2006086707
(14)

ここで、式(14)において、(x,y)は、ターゲット画像VTにおける注目ブロックの各画素の位置を表す。また、Ip(x-U1,y-V1)は、パストリファレンス画像VPにおける位置(x-U1,y-V1)の画素の画素値を表す。さらに、If(x+U2,y+V2)は、フューチャリファレンス画像VFにおける位置(x+U2,y+V2)の画素の画素値を表す。また、Wは、重みで、例えば、1/2などを採用することができる。 Here, in the formula (14), (x, y ) represents the position of each pixel of the block of interest in the target image V T. Also, Ip (xU 1, yV 1 ) represents the pixel value of the pixel position (xU 1, yV 1) in the PAST reference image V P. Furthermore, If (x + U 2, y + V 2) represents the pixel value of the pixel position in Futuresse reference image V F (x + U 2, y + V 2). W can be a weight, for example, 1/2.

なお、重みWは、例えば、ユーザの操作入力に応じて設定することができる。また、重みWは、その他、例えば、図82に示した、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒と、ターゲット画像VTとフューチャリファレンス画像VFとの時間差であるs/240秒との割合を考慮して決めても良い。 The weight W can be set, for example, according to a user operation input. Further, the weight W is, for example, (4-s) / 240 seconds, which is a time difference between the target image V T and the past reference image V P shown in FIG. 82, and the target image V T and the feature reference image V. It may be determined in consideration of the ratio with s / 240 seconds, which is the time difference from F.

即ち、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒が、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒よりも短いときは、注目ブロックの推測値は、パストリファレンス画像VPに重きをおいて求めた方が、より精度が高い値を求めることができる。一方、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒が、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒よりも短いときは、注目ブロックの推測値は、フューチャリファレンス画像VFに重きをおいて求めた方が、より精度が高い値を求めることができる。そこで、重みWは、上述の時間差を表す変数sに依存する値、即ち、例えば、s/4などとすることができる。 That is, when the time difference (4-s) / 240 seconds between the target image V T and the past reference image V P is shorter than s / 240 seconds, which is the time difference between the target image V T and the feature reference image V P. the estimated value of the block of interest, who found by emphasis on Past reference image V P is, it is possible to obtain a higher accuracy values. On the other hand, when the time difference between the target image V T and the future reference image V P is shorter than (4-s) / 240 seconds, which is the time difference between the target image V T and the past reference image V P the estimated value of the block of interest, who found by emphasis on Futuresse reference image V F is, it is possible to obtain a higher accuracy values. Therefore, the weight W can be a value that depends on the variable s representing the above-described time difference, that is, for example, s / 4.

減算部297は、平均値計算部296から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子291から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部297は、平均値計算部296から供給される注目ブロックの推測値Pre(x,y)と、入力端子291から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部298に供給する。   The subtraction unit 297 uses the estimated value Pre (x, y) of the target block supplied from the average value calculation unit 296 to calculate the target block (image data) Ic (x, y) supplied from the input terminal 291. Compress. That is, the subtraction unit 297 corresponds to the pixel corresponding to the estimated value Pre (x, y) of the target block supplied from the average value calculation unit 296 and the target block Ic (x, y) supplied from the input terminal 291. The difference value Sub (x, y) = Ic (x, y) −Pre (x, y) obtained as a result is supplied to the conversion unit 298.

変換部298は、減算部297からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部298は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部299に供給する。   The conversion unit 298 converts the difference value Sub (x, y) of the target block from the subtraction unit 297 into data on the frequency space. That is, the transform unit 298 performs, for example, DCT transform on the difference value Sub (x, y) of the block of interest, and supplies the resulting DCT coefficient to the quantization unit 299.

量子化部299は、変換部298からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部300に供給する。   The quantization unit 299 quantizes the DCT coefficient of the block of interest from the transform unit 298 and supplies the quantized data obtained as a result to the variable length coding unit 300.

可変長符号化部300は、量子化部299からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部294からの前動きベクトル(-U1,-V1)と、相関最大位置検出部295からの後動きベクトル(U2,V2)とを可変長符号化する。さらに、可変長符号化部300は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)との可変長符号を付加し、第3の差分データとして、出力端子301から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部300において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第3の差分データは、前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)との可変長符号だけとなる。 The variable length coding unit 300 performs variable length coding on the quantized data of the block of interest from the quantization unit 299, and the previous motion vector (−U 1 , −V 1 ) from the correlation maximum position detection unit 294, The rear motion vector (U 2 , V 2 ) from the maximum correlation position detector 295 is variable-length encoded. Furthermore, the variable length coding unit 300 adds variable length codes of the previous motion vector (−U 1 , −V 1 ) and the subsequent motion vector (U 2 , V 2 ) to the variable length code of the quantized data of the block of interest. Is output from the output terminal 301 to the selection circuit 240 (FIG. 81) as third difference data. When the block of interest (image data) Ic (x, y) and its estimated value Pre (x, y) completely match, the variable-length coding unit 300 converts the quantized data of the block of interest into a variable length The variable length code obtained by encoding represents NULL, and the third difference data is the difference between the previous motion vector (−U 1 , −V 1 ) and the subsequent motion vector (U 2 , V 2 ). Only variable length codes.

次に、図99のフローチャートを参照して、図98の差分データ計算部236の動作について説明する。   Next, the operation of the difference data calculation unit 236 in FIG. 98 will be described with reference to the flowchart in FIG.

まず最初に、ステップS231において、注目ブロック、パストリファレンス画像VP、およびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子291から相関最大位置検出部294,295、および減算部297に入力され、パストリファレンス画像VPが、入力端子292から、相関最大位置検出部294および平均値計算部296に入力される。さらに、フューチャリファレンス画像VFが、入力端子293から、相関最大位置検出部295および平均値計算部296に入力される。 First, in step S231, the target block, past reference image V P , and future reference image V F are input. That is, the block of interest is input from the input terminal 291 to the correlation maximum position detection units 294 and 295 and the subtraction unit 297, and the past reference image V P is input from the input terminal 292 to the correlation maximum position detection unit 294 and the average value calculation unit. 296. Further, the future reference image V F is input from the input terminal 293 to the maximum correlation position detection unit 295 and the average value calculation unit 296.

そして、ステップS231からS232に進み、相関最大位置検出部294は、入力端子291からの注目ブロックについて、入力端子292からのパストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部294は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部294は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、平均値計算部296および可変長符号化部300に供給し、ステップS232からS233に進む。 Then, the process proceeds from step S231 to S232, and the maximum correlation position detection unit 294 detects a positional relationship having a high correlation with the target block in the past reference image V P from the input terminal 292 for the target block from the input terminal 291. . That is, the maximum correlation position detection unit 294 calculates the correlation information e 3 (U ′, V ′) in Expression (11) for all possible (U ′, V ′) values for the block of interest, The correlation represented by the correlation information e 3 (U ', V') is maximized (U ', V'), that is, the correlation information e 3 (U ', V') is minimized (U ', V') ') Is detected. Then, the maximum correlation position detection section 294, correlation information e 3 (U ', V' ) value to smallest (U ', V'), in the PAST reference image V P, the correlation between the target block is the most The previous motion vector (−U 1 , −V 1 ) representing the positional relationship of the high region is supplied to the average value calculation unit 296 and the variable length coding unit 300, and the process proceeds from step S232 to S233.

ステップS233では、相関最大位置検出部295は、入力端子291からの注目ブロックについて、入力端子293からのフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部295は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部294は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、平均値計算部296および可変長符号化部300に供給し、ステップS233からS234に進む。 In step S233, the maximum correlation position detection section 295, for the target block from the input terminal 291, in Futuresse reference image V F from the input terminal 293, the correlation between the target block is detected with high positional relationship. That is, the maximum correlation position detection unit 295 calculates the correlation information e 4 (U ′, V ′) in Expression (12) for all possible values of (U ′, V ′) for the block of interest. The correlation represented by the correlation information e 4 (U ′, V ′) is maximized (U ′, V ′), that is, the value of the correlation information e 4 (U ′, V ′) is minimized (U ′, V ′). ') Is detected. Then, the maximum correlation position detection section 294, correlation information e 4 (U ', V' ) to minimize the value of the (U ', V'), in Futuresse reference image V F, the correlation between the target block is the most The post motion vector (U 2 , V 2 ) representing the positional relationship of the high region is supplied to the average value calculation unit 296 and the variable length coding unit 300, and the process proceeds from step S233 to S234.

ステップS234では、平均値計算部296は、式(14)にしたがい、注目ブロックとの位置関係が、相関最大位置検出部294からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が、相関最大位置検出部295からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値Pre(x,y)を求め、減算部297に供給して、ステップS235に進む。 In step S234, the average value calculation unit 296 represents the positional relationship represented by the previous motion vector (−U 1 , −V 1 ) from the maximum correlation position detection unit 294 in accordance with the equation (14). in some, the image data of a region of Pasto reference image V P, positional relationship between the target block is in a positional relationship indicated by the motion vector (U 2, V 2) after the maximum correlation position detection section 295, Futuresse reference from the image data region of the image V F, we obtain the estimated value Pre block of interest (x, y), a is supplied to the subtraction unit 297, processing proceeds to step S235.

ステップS235では、減算部297は、平均値計算部296から供給される注目ブロックの推測値Pre(x,y)と、入力端子291から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部298に供給して、ステップS236に進む。   In step S <b> 235, the subtraction unit 297 corresponds to the estimated value Pre (x, y) of the target block supplied from the average value calculation unit 296 and the target block Ic (x, y) supplied from the input terminal 291. The difference between the pixel values of the pixels to be calculated is calculated, the difference value Sub (x, y) obtained as a result is supplied to the conversion unit 298, and the process proceeds to step S236.

ステップS236では、変換部298は、減算部297からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部299に供給して、ステップS237に進む。ステップS237では、量子化部299は、変換部298からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部300に供給して、ステップS238に進む。ステップS238では、可変長符号化部300は、量子化部299からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部294からの前動きベクトル(-U1,-V1)と、相関最大位置検出部295からの後動きベクトル(U2,V2)とを可変長符号化する。さらに、ステップS238において、可変長符号化部300は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)との可変長符号を付加することにより、第3の差分データとして、ステップS239に進み、その第3の差分データを、出力端子301から、選択回路240(図81)に出力する。 In step S236, the conversion unit 298 DCT-transforms the difference value Sub (x, y) of the target block from the subtraction unit 297, supplies the DCT coefficient obtained as a result to the quantization unit 299, and proceeds to step S237. move on. In step S237, the quantization unit 299 quantizes the DCT coefficient of the block of interest from the conversion unit 298, supplies the quantized data obtained as a result to the variable length coding unit 300, and proceeds to step S238. In step S238, the variable length coding unit 300 performs variable length coding on the quantized data of the block of interest from the quantization unit 299, and the previous motion vector (−U 1 , −V from the maximum correlation position detection unit 294). 1 ) and the rear motion vector (U 2 , V 2 ) from the maximum correlation position detector 295 are variable-length encoded. Further, in step S238, the variable length coding unit 300 adds the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) to the variable length code of the quantized data of the block of interest. As the third difference data, the process proceeds to step S239, and the third difference data is output from the output terminal 301 to the selection circuit 240 (FIG. 81).

以上のようにして、差分データ計算部236では、ターゲット画像VTがブロック単位で、第3の差分データに圧縮される。 As described above, the difference data calculating section 236, a target image V T is in units of blocks, is compressed to a third difference data.

次に、図100は、第4の差分データを求める図81の差分データ計算部237の構成例を示している。   Next, FIG. 100 shows a configuration example of the difference data calculation unit 237 of FIG. 81 for obtaining the fourth difference data.

図100において、入力端子311には、図81の入力端子233からの注目ブロック(の画像データ)が入力され、入力端子312には、図81の入力端子231からのパストリファレンス画像VPが入力される。 In FIG. 100, the target block (image data) from the input terminal 233 in FIG. 81 is input to the input terminal 311, and the past reference image V P from the input terminal 231 in FIG. 81 is input to the input terminal 312. Is done.

入力端子311から入力された注目ブロックは、相関最大位置検出部313および減算部315に供給される。   The block of interest input from the input terminal 311 is supplied to the maximum correlation position detection unit 313 and the subtraction unit 315.

入力端子312から入力されたパストリファレンス画像VPは、相関最大位置検出部313および切り出し部314に供給される。 The past reference image V P input from the input terminal 312 is supplied to the correlation maximum position detection unit 313 and the clipping unit 314.

相関最大位置検出部313は、入力端子312からのパストリファレンス画像VPにおいて、入力端子311からの注目ブロックとの相関が高い位置関係を検出する。 Maximum correlation position detection section 313, in Pasto reference image V P from the input terminal 312, detects the correlation is high positional relationship between the target block from the input terminal 311.

即ち、相関最大位置検出部313は、注目ブロックについて、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部313は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、切り出し部314および可変長符号化部318に供給する。 That is, the maximum correlation position detection unit 313 calculates the correlation information e 3 (U ′, V ′) of Expression (11) for the block of interest, and calculates the correlation represented by the correlation information e 3 (U ′, V ′). The maximum (U ′, V ′), that is, the minimum (U ′, V ′) of the correlation information e 3 (U ′, V ′) is detected. The maximum correlation position detection section 313, correlation information e 3 (U ', V' ) value to smallest (U ', V'), in the PAST reference image V P, the correlation between the target block is the most This is supplied to the cutout unit 314 and the variable length coding unit 318 as the previous motion vector (−U 1 , −V 1 ) representing the positional relationship of the high region.

切り出し部314は、注目ブロックとの位置関係が、相関最大位置検出部313からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データを切り出し、注目ブロックの推測値として、減算部315に供給する。 The cutout unit 314 has image data of a region of the past reference image V P in which the positional relationship with the target block is the positional relationship represented by the previous motion vector (−U 1 , −V 1 ) from the maximum correlation position detection unit 313. And is supplied to the subtraction unit 315 as the estimated value of the block of interest.

即ち、切り出し部314は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し(求め)、減算部315に供給する。 In other words, the cutout unit 314 uses the estimated data Pre (x, y) of the block of interest in the region of the past reference image V P that is shifted from the block of interest by the previous motion vector (−U 1 , −V 1 ). ) Is cut out (obtained) and supplied to the subtractor 315.

減算部315は、切り出し部314から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子311から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部315は、切り出し部314から供給される注目ブロックの推測値Pre(x,y)と、入力端子311から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部316に供給する。   The subtraction unit 315 compresses the target block (image data) Ic (x, y) supplied from the input terminal 311 using the estimated value Pre (x, y) of the target block supplied from the cutout unit 314. . That is, the subtraction unit 315 corresponds to the pixel of the corresponding pixel between the estimated value Pre (x, y) of the target block supplied from the clipping unit 314 and the target block Ic (x, y) supplied from the input terminal 311. The difference between the values is calculated, and the difference value Sub (x, y) = Ic (x, y) −Pre (x, y) obtained as a result is supplied to the conversion unit 316.

変換部316は、減算部315からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部316は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部317に供給する。   The conversion unit 316 converts the difference value Sub (x, y) of the target block from the subtraction unit 315 into data on the frequency space. That is, the transform unit 316 performs, for example, DCT transform on the difference value Sub (x, y) of the block of interest, and supplies the resulting DCT coefficient to the quantization unit 317.

量子化部317は、変換部316からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部318に供給する。   The quantization unit 317 quantizes the DCT coefficient of the block of interest from the conversion unit 316 and supplies the quantized data obtained as a result to the variable length encoding unit 318.

可変長符号化部318は、量子化部317からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部313からの前動きベクトル(-U1,-V1)を可変長符号化する。さらに、可変長符号化部318は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)の可変長符号を付加し、第4の差分データとして、出力端子319から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部318において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第4の差分データは、前動きベクトル(-U1,-V1)の可変長符号だけとなる。 The variable length encoding unit 318 performs variable length encoding on the quantized data of the block of interest from the quantization unit 317 and also changes the previous motion vector (−U 1 , −V 1 ) from the correlation maximum position detection unit 313. Encode long. Further, the variable length coding unit 318 adds the variable length code of the previous motion vector (−U 1 , −V 1 ) to the variable length code of the quantized data of the block of interest, and outputs it as fourth difference data. The signal is output from the terminal 319 to the selection circuit 240 (FIG. 81). When the block of interest (image data) Ic (x, y) and its estimated value Pre (x, y) completely match, the variable length coding unit 318 converts the quantized data of the block of interest into a variable length. The variable length code obtained by encoding represents NULL, and the fourth difference data is only the variable length code of the previous motion vector (−U 1 , −V 1 ).

次に、図101のフローチャートを参照して、図100の差分データ計算部237の動作について説明する。   Next, the operation of the difference data calculation unit 237 in FIG. 100 will be described with reference to the flowchart in FIG.

まず最初に、ステップS241において、注目ブロックおよびパストリファレンス画像VPが入力される。即ち、注目ブロックが、入力端子311から相関最大位置検出部313および減算部315に入力され、パストリファレンス画像VPが、入力端子312から、相関最大位置検出部313および切り出し部314に入力される。 First, in step S241, the target block and past reference image V P are input. That is, the block of interest is input from the input terminal 311 to the maximum correlation position detection unit 313 and the subtraction unit 315, and the past reference image V P is input from the input terminal 312 to the maximum correlation position detection unit 313 and the clipping unit 314. .

そして、ステップS241からS242に進み、相関最大位置検出部313は、入力端子311からの注目ブロックについて、入力端子312からのパストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部313は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部313は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、切り出し部314および可変長符号化部318に供給し、ステップS242からS243に進む。 Then, the process proceeds from step S241 to S242, and the maximum correlation position detection unit 313 detects the positional relationship of the block of interest from the input terminal 311 having a high correlation with the block of interest in the past reference image V P from the input terminal 312. . That is, the maximum correlation position detection unit 313 calculates the correlation information e 3 (U ′, V ′) in Expression (11) for all possible values of (U ′, V ′) for the block of interest. The correlation represented by the correlation information e 3 (U ', V') is maximized (U ', V'), that is, the correlation information e 3 (U ', V') is minimized (U ', V') ') Is detected. The maximum correlation position detection section 313, correlation information e 3 (U ', V' ) value to smallest (U ', V'), in the PAST reference image V P, the correlation between the target block is the most The previous motion vector (−U 1 , −V 1 ) representing the positional relationship of the high region is supplied to the cutout unit 314 and the variable length coding unit 318, and the process proceeds from step S242 to S243.

ステップS243では、切り出し部314は、注目ブロックとの位置関係が、相関最大位置検出部313からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し、減算部315に供給して、ステップS244に進む。 In step S243, the cutout unit 314 has the positional relationship with the target block of the past reference image V P in the positional relationship represented by the previous motion vector (−U 1 , −V 1 ) from the correlation maximum position detection unit 313. The image data of the area is cut out as the estimated value Pre (x, y) of the block of interest, supplied to the subtraction unit 315, and the process proceeds to step S244.

ステップS244では、減算部315は、切り出し部314から供給される注目ブロックの推測値Pre(x,y)と、入力端子311から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部316に供給して、ステップS245に進む。   In step S244, the subtracting unit 315 corresponds to the pixel corresponding to the estimated value Pre (x, y) of the target block supplied from the clipping unit 314 and the target block Ic (x, y) supplied from the input terminal 311. The difference value Sub (x, y) obtained as a result is supplied to the conversion unit 316, and the process proceeds to step S245.

ステップS245では、変換部316は、減算部315からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部317に供給して、ステップS246に進む。ステップS246では、量子化部317は、変換部316からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部318に供給して、ステップS247に進む。ステップS247では、可変長符号化部318は、量子化部317からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部313からの前動きベクトル(-U1,-V1)を可変長符号化する。さらに、ステップS247において、可変長符号化部318は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)の可変長符号を付加することにより、第4の差分データとして、ステップS248に進み、その第4の差分データを、出力端子319から、選択回路240(図81)に出力する。 In step S245, the conversion unit 316 DCT-transforms the difference value Sub (x, y) of the target block from the subtraction unit 315, supplies the DCT coefficient obtained as a result to the quantization unit 317, and proceeds to step S246. move on. In step S246, the quantization unit 317 quantizes the DCT coefficient of the block of interest from the conversion unit 316, supplies the quantized data obtained as a result to the variable length coding unit 318, and proceeds to step S247. In step S247, the variable length coding unit 318 performs variable length coding on the quantized data of the block of interest from the quantization unit 317, and the previous motion vector (−U 1 , −V from the correlation maximum position detection unit 313). 1 ) Variable length coding. Further, in step S247, the variable length coding unit 318 adds the variable length code of the previous motion vector (−U 1 , −V 1 ) to the variable length code of the quantized data of the block of interest, thereby In step S248, the fourth difference data is output from the output terminal 319 to the selection circuit 240 (FIG. 81).

以上のようにして、差分データ計算部237では、ターゲット画像VTがブロック単位で、第4の差分データに圧縮される。 As described above, the difference data calculation unit 237 compresses the target image V T into the fourth difference data in units of blocks.

次に、図102は、第5の差分データを求める図81の差分データ計算部238の構成例を示している。   Next, FIG. 102 shows a configuration example of the difference data calculation unit 238 in FIG. 81 for obtaining fifth difference data.

図102において、入力端子331には、図81の入力端子233からの注目ブロック(の画像データ)が入力され、入力端子332には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。 102, the target block (image data) from the input terminal 233 in FIG. 81 is input to the input terminal 331, and the future reference image V F from the input terminal 232 in FIG. 81 is input to the input terminal 332. Is done.

入力端子331から入力された注目ブロックは、相関最大位置検出部333および減算部335に供給される。   The block of interest input from the input terminal 331 is supplied to the correlation maximum position detection unit 333 and the subtraction unit 335.

入力端子332から入力されたフューチャリファレンス画像VFは、相関最大位置検出部333および切り出し部334に供給される。 The feature reference image V F input from the input terminal 332 is supplied to the maximum correlation position detection unit 333 and the cutout unit 334.

相関最大位置検出部333は、入力端子332からのフューチャリファレンス画像VFにおいて、入力端子331からの注目ブロックとの相関が高い位置関係を検出する。 Maximum correlation position detection section 333, in Futuresse reference image V F from the input terminal 332, detects the correlation is high positional relationship between the target block from the input terminal 331.

即ち、相関最大位置検出部333は、注目ブロックについて、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部333は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、切り出し部334および可変長符号化部338に供給する。 That is, the maximum correlation position detection unit 333 calculates the correlation information e 4 (U ′, V ′) in Expression (12) for the block of interest, and calculates the correlation represented by the correlation information e 4 (U ′, V ′). It is detected to maximize (U ′, V ′), that is, to minimize the value of correlation information e 4 (U ′, V ′). Then, the maximum correlation position detection section 333, correlation information e 4 (U ', V' ) to minimize the value of the (U ', V'), in Futuresse reference image V F, the correlation between the target block is the most This is supplied to the cutout unit 334 and the variable length coding unit 338 as a post motion vector (U 2 , V 2 ) representing the positional relationship of the high region.

切り出し部334は、注目ブロックとの位置関係が、相関最大位置検出部333からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データを切り出し、注目ブロックの推測値として、減算部335に供給する。 Clipping unit 334, the positional relationship between the block of interest, cut out image data of the motion vector (U 2, V 2) in a positional relationship represented by the area of Futuresse reference image V F after the maximum correlation position detection section 333 The estimated value of the target block is supplied to the subtracting unit 335.

即ち、切り出し部334は、フューチャリファレンス画像VFにおいて、注目ブロックから後動きベクトル(U2,V2)だけずれた位置の領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し(求め)、減算部335に供給する。 That is, the cutout portion 334, in Futuresse reference image V F, the image data of the area of the position shifted by backward motion vector (U 2, V 2) from the target block, as estimated value Pre block of interest (x, y) Cutting out (obtaining) and supplying to the subtracting unit 335.

減算部335は、切り出し部334から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子331から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部335は、切り出し部334から供給される注目ブロックの推測値Pre(x,y)と、入力端子331から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部336に供給する。   The subtraction unit 335 compresses the target block (image data) Ic (x, y) supplied from the input terminal 331 using the estimated value Pre (x, y) of the target block supplied from the clipping unit 334. . That is, the subtraction unit 335 corresponds to the pixel of the corresponding pixel between the estimated value Pre (x, y) of the target block supplied from the cutout unit 334 and the target block Ic (x, y) supplied from the input terminal 331. The difference between the values is calculated, and the difference value Sub (x, y) = Ic (x, y) −Pre (x, y) obtained as a result is supplied to the conversion unit 336.

変換部336は、減算部335からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部336は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部337に供給する。   The conversion unit 336 converts the difference value Sub (x, y) of the target block from the subtraction unit 335 into data on the frequency space. That is, the transform unit 336 performs, for example, DCT transform on the difference value Sub (x, y) of the block of interest, and supplies the resulting DCT coefficient to the quantization unit 337.

量子化部337は、変換部336からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部338に供給する。   The quantization unit 337 quantizes the DCT coefficient of the block of interest from the transform unit 336 and supplies the quantized data obtained as a result to the variable length coding unit 338.

可変長符号化部338は、量子化部337からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部333からの後動きベクトル(U2,V2)を可変長符号化する。さらに、可変長符号化部338は、注目ブロックの量子化データの可変長符号に、後動きベクトル(U2,V2)の可変長符号を付加し、第5の差分データとして、出力端子339から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部338において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第5の差分データは、後動きベクトル(U2,V2)の可変長符号だけとなる。 The variable length coding unit 338 performs variable length coding on the quantized data of the block of interest from the quantization unit 337 and also uses the variable length code for the back motion vector (U 2 , V 2 ) from the maximum correlation position detection unit 333. Turn into. Further, the variable length coding unit 338 adds the variable length code of the back motion vector (U 2 , V 2 ) to the variable length code of the quantized data of the block of interest, and outputs it as fifth difference data to the output terminal 339. To the selection circuit 240 (FIG. 81). When the block of interest (image data) Ic (x, y) and its estimated value Pre (x, y) completely match, the variable length coding unit 338 converts the quantized data of the block of interest into a variable length. The variable length code obtained by encoding represents NULL, and the fifth difference data is only the variable length code of the back motion vector (U 2 , V 2 ).

次に、図103のフローチャートを参照して、図102の差分データ計算部238の動作について説明する。   Next, the operation of the difference data calculation unit 238 in FIG. 102 will be described with reference to the flowchart in FIG.

まず最初に、ステップS251において、注目ブロックおよびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子331から相関最大位置検出部333および減算部335に入力され、フューチャリファレンス画像VFが、入力端子332から、相関最大位置検出部333および切り出し部334に入力される。 First, in step S251, the block of interest and Futuresse reference image V F is input. That is, the target block is input from the input terminal 331 to the maximum correlation position detection unit 333 and the subtraction unit 335, and the future reference image V F is input from the input terminal 332 to the maximum correlation position detection unit 333 and the clipping unit 334. .

そして、ステップS251からS252に進み、相関最大位置検出部333は、入力端子331からの注目ブロックについて、入力端子332からのフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部333は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部333は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、切り出し部334および可変長符号化部338に供給し、ステップS252からS253に進む。 Then, the process proceeds from step S251 to S252, the maximum correlation position detection section 333, for the target block from the input terminal 331, in Futuresse reference image V F from the input terminal 332, the correlation between the target block is detected with high positional relationship . That is, the maximum correlation position detection unit 333 calculates the correlation information e 4 (U ′, V ′) in Expression (12) for all possible values of (U ′, V ′) for the block of interest. The correlation represented by the correlation information e 4 (U ′, V ′) is maximized (U ′, V ′), that is, the value of the correlation information e 4 (U ′, V ′) is minimized (U ′, V ′). ') Is detected. Then, the maximum correlation position detection section 333, correlation information e 4 (U ', V' ) to minimize the value of the (U ', V'), in Futuresse reference image V F, the correlation between the target block is the most The post motion vector (U 2 , V 2 ) representing the positional relationship of the high region is supplied to the cutout unit 334 and the variable length coding unit 338, and the process proceeds from step S252 to S253.

ステップS253では、切り出し部334は、注目ブロックとの位置関係が、相関最大位置検出部333からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し、減算部335に供給して、ステップS254に進む。 In step S253, the cutout unit 334 has the positional relationship with the block of interest in the region of the future reference image V F in which the positional relationship represented by the back motion vector (U 2 , V 2 ) from the maximum correlation position detection unit 333 is present. The image data is cut out as the estimated value Pre (x, y) of the block of interest, supplied to the subtraction unit 335, and the process proceeds to step S254.

ステップS254では、減算部335は、切り出し部334から供給される注目ブロックの推測値Pre(x,y)と、入力端子331から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部336に供給して、ステップS255に進む。   In step S254, the subtraction unit 335 corresponds to the pixel of interest corresponding to the estimated value Pre (x, y) of the target block supplied from the cutout unit 334 and the target block Ic (x, y) supplied from the input terminal 331. The difference value Sub (x, y) obtained as a result is supplied to the conversion unit 336, and the process proceeds to step S255.

ステップS255では、変換部336は、減算部335からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部337に供給して、ステップS256に進む。ステップS256では、量子化部337は、変換部336からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部338に供給して、ステップS257に進む。ステップS257では、可変長符号化部338は、量子化部337からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部333からの後動きベクトル(U2,V2)を可変長符号化する。さらに、ステップS257において、可変長符号化部338は、注目ブロックの量子化データの可変長符号に、後動きベクトル(U2,V2)の可変長符号を付加することにより、第5の差分データとして、ステップS258に進み、その第5の差分データを、出力端子339から、選択回路240(図81)に出力する。 In step S255, the converting unit 336 performs DCT conversion on the difference value Sub (x, y) of the target block from the subtracting unit 335, and supplies the resulting DCT coefficient to the quantizing unit 337, and the process proceeds to step S256. move on. In step S256, the quantization unit 337 quantizes the DCT coefficient of the block of interest from the conversion unit 336, supplies the quantized data obtained as a result to the variable length coding unit 338, and proceeds to step S257. In step S257, the variable length coding unit 338 performs variable length coding on the quantized data of the block of interest from the quantization unit 337, and the back motion vector (U 2 , V 2 ) from the maximum correlation position detection unit 333. Is encoded with variable length. Further, in step S257, the variable length coding unit 338 adds the variable length code of the back motion vector (U 2 , V 2 ) to the variable length code of the quantized data of the block of interest, thereby obtaining the fifth difference. The process proceeds to step S258 as data, and the fifth difference data is output from the output terminal 339 to the selection circuit 240 (FIG. 81).

以上のようにして、差分データ計算部238では、ターゲット画像VTがブロック単位で、第5の差分データに圧縮される。 As described above, the difference data calculation unit 238 compresses the target image V T into the fifth difference data in units of blocks.

次に、図104は、第6の差分データを求める図81の差分データ計算部239の構成例を示している。   Next, FIG. 104 shows a configuration example of the difference data calculation unit 239 in FIG. 81 for obtaining sixth difference data.

図104において、入力端子351には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。入力端子351から入力された注目ブロックは、変換部352に供給される。   104, the target block (image data thereof) from the input terminal 233 in FIG. 81 is input to the input terminal 351. The block of interest input from the input terminal 351 is supplied to the conversion unit 352.

変換部352は、入力端子351から入力された注目ブロック、即ち、注目ブロック(の画像データ)Ic(x,y)と、その推測値Pre(x,y)としての0との差分値Sub(x,y)=Ic(x,y)-Pre(x,y)=Ic(x,y)を、周波数空間上のデータに変換する。即ち、変換部352は、注目ブロックの画像データIc(x,y)に等しい差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部353に供給する。   The converting unit 352 receives the difference value Sub () between the target block input from the input terminal 351, that is, the target block (image data) Ic (x, y) and 0 as the estimated value Pre (x, y). x, y) = Ic (x, y) -Pre (x, y) = Ic (x, y) is converted into data in the frequency space. That is, the transform unit 352 performs, for example, DCT transform on the difference value Sub (x, y) equal to the image data Ic (x, y) of the block of interest, and supplies the resulting DCT coefficient to the quantization unit 353. To do.

量子化部353は、変換部352からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部354に供給する。   The quantization unit 353 quantizes the DCT coefficient of the block of interest from the transform unit 352 and supplies the quantized data obtained as a result to the variable length coding unit 354.

可変長符号化部354は、量子化部353からの注目ブロックの量子化データを可変長符号化し、第6の差分データとして、出力端子355から、選択回路240(図81)に出力する。   The variable length coding unit 354 performs variable length coding on the quantized data of the block of interest from the quantization unit 353, and outputs the result as sixth difference data from the output terminal 355 to the selection circuit 240 (FIG. 81).

次に、図105のフローチャートを参照して、図104の差分データ計算部239の動作について説明する。   Next, the operation of the difference data calculation unit 239 in FIG. 104 will be described with reference to the flowchart in FIG.

まず最初に、ステップS261において、注目ブロックが入力される。即ち、注目ブロックが、入力端子351から変換部352に入力される。   First, in step S261, a target block is input. That is, the block of interest is input from the input terminal 351 to the conversion unit 352.

そして、ステップS261からS262に進み、変換部352は、入力端子351から入力された注目ブロック、即ち、注目ブロック(の画像データ)Ic(x,y)と、その推測値Pre(x,y)としての0との差分値Sub(x,y)=Ic(x,y)-Pre(x,y)=Ic(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部353に供給して、ステップS263に進む。ステップS263では、量子化部353は、変換部352からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部354に供給して、ステップS264に進む。ステップS264では、可変長符号化部354は、量子化部353からの注目ブロックの量子化データを可変長符号化し、その結果得られる可変長符号を、第6の差分データとして、ステップS265に進み、その第6の差分データを、出力端子355から、選択回路240(図81)に出力する。   Then, the process proceeds from step S261 to S262, and the conversion unit 352 receives the target block input from the input terminal 351, that is, the target block (image data) Ic (x, y) and its estimated value Pre (x, y). The difference value from 0 as Sub (x, y) = Ic (x, y) -Pre (x, y) = Ic (x, y) is DCT transformed, and the resulting DCT coefficient is quantized Then, the process proceeds to step S263. In step S263, the quantization unit 353 quantizes the DCT coefficient of the target block from the transform unit 352, supplies the quantized data obtained as a result to the variable length coding unit 354, and proceeds to step S264. In step S264, the variable length coding unit 354 performs variable length coding on the quantized data of the block of interest from the quantization unit 353, and proceeds to step S265 using the resulting variable length code as sixth difference data. The sixth difference data is output from the output terminal 355 to the selection circuit 240 (FIG. 81).

以上のようにして、差分データ計算部239では、ターゲット画像VTがブロック単位で、第6の差分データに圧縮される。 As described above, the difference data calculation unit 239 compresses the target image V T into the sixth difference data in units of blocks.

次に、図106は、図81の差分データ計算部234乃至239が選択回路240に対して出力する第1乃至第6の差分データそれぞれのデータ構造を、模式的に示している。   Next, FIG. 106 schematically illustrates a data structure of each of the first to sixth difference data output from the difference data calculation units 234 to 239 of FIG. 81 to the selection circuit 240.

差分データ計算部234が選択回路240に対して出力する第1の差分データは、図106上から1番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号からなる。即ち、第1の差分データには、位置関係ベクトル(U,V)は含まれない。   As shown first in FIG. 106, the first difference data output from the difference data calculation unit 234 to the selection circuit 240 is obtained by subjecting the difference value between the target block and its estimated value to DCT processing and further quantizing the difference data. It consists of variable length codes of quantized data obtained in this way. That is, the first difference data does not include the positional relationship vector (U, V).

差分データ計算部235が選択回路240に対して出力する第2の差分データは、図106上から2番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、相関最大ベクトル(U,V)の可変長符号とからなる。   The second difference data output from the difference data calculation unit 235 to the selection circuit 240 is obtained by performing DCT processing on the difference value between the target block and its estimated value as shown in the second from the top in FIG. The variable length code of the quantized data obtained in this way and the variable length code of the maximum correlation vector (U, V).

差分データ計算部236が選択回路240に対して出力する第3の差分データは、図106上から3番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)の可変長符号とからなる。 The third difference data output from the difference data calculation unit 236 to the selection circuit 240 is obtained by performing DCT processing on the difference value between the target block and its estimated value as shown in the third part from the top of FIG. The variable length code of the quantized data obtained in this way, and the variable length code of the previous motion vector (−U 1 , −V 1 ) and the subsequent motion vector (U 2 , V 2 ).

差分データ計算部237が選択回路240に対して出力する第4の差分データは、図106上から4番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、前動きベクトル(-U1,-V1)の可変長符号とからなる。 The fourth difference data output from the difference data calculation unit 237 to the selection circuit 240 is obtained by performing DCT processing on the difference value between the block of interest and its estimated value, as shown in the fourth from the top in FIG. The variable length code of the quantized data obtained in this way and the variable length code of the previous motion vector (−U 1 , −V 1 ).

差分データ計算部238が選択回路240に対して出力する第5の差分データは、図106上から5番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、後動きベクトル(U2,V2)の可変長符号とからなる。 The fifth difference data output from the difference data calculation unit 238 to the selection circuit 240 is subjected to DCT processing on the difference value between the block of interest and its estimated value, as shown in the fifth figure from the top in FIG. The variable length code of the quantized data obtained in this way and the variable length code of the back motion vector (U 2 , V 2 ).

差分データ計算部239が選択回路240に対して出力する第6の差分データは、図106上から6番目に示すように、注目ブロックとその推測値としての0との差分値、即ち、注目ブロックをDCT処理し、さらに量子化して得られる量子化データの可変長符号からなる。   The sixth difference data output from the difference data calculation unit 239 to the selection circuit 240 is the difference value between the target block and 0 as its estimated value, that is, the target block, as shown in the sixth from the top in FIG. It consists of variable length codes of quantized data obtained by DCT processing and further quantization.

なお、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号は、上述したように、注目ブロックとその推測値とが一致していれば、NULLとなる。   Note that the variable length code of the quantized data obtained by performing DCT processing on the difference value between the target block and its estimated value, and further quantizing it, as described above, if the target block and its estimated value match. , NULL.

次に、図107は、図81の選択回路240が出力端子241から差分圧縮データとして出力する第1乃至第6の差分データのデータ構造を、模式的に示している。   Next, FIG. 107 schematically shows the data structure of first to sixth difference data output from the output terminal 241 as the differentially compressed data by the selection circuit 240 of FIG.

選択回路240は、注目ブロックについて、差分データ計算部234乃至239が出力する第1乃至第6の差分データのうちの1つを、選択差分データとして選択し、その選択差分データが、第1乃至第6の差分データのうちのいずれであるかを表すケースIDを付加して、出力端子241から、差分圧縮データとして出力する。   The selection circuit 240 selects, as selection difference data, one of the first to sixth difference data output from the difference data calculation units 234 to 239 for the target block, and the selection difference data is the first to sixth difference data. A case ID indicating which of the sixth difference data is added, and output as differential compressed data from the output terminal 241.

図107では、第1乃至第6の差分データに対し、ケースIDとして、1,2,3,4,5,6が、それぞれ付加されるようになっている。   In FIG. 107, 1, 2, 3, 4, 5, and 6 are added as case IDs to the first to sixth difference data, respectively.

次に、図108のフローチャートを参照して、図79の送信装置1の処理について説明する。   Next, processing of the transmission apparatus 1 in FIG. 79 will be described with reference to the flowchart in FIG.

図79の入力端子211から帯域制限フィルタ部212には、240fps動画データが供給される。   The fps moving image data is supplied from the input terminal 211 in FIG. 79 to the band limiting filter unit 212.

帯域制限フィルタ部212は、ステップS281において、入力端子211からの240fps動画データを対象に、上述したような人間の視覚特性を考慮した必要な情報のみを残すフィルタリングを行い、その結果得られる240fps動画データを、分離回路213に供給して、ステップS282に進む。   In step S281, the band limiting filter unit 212 performs filtering on the 240 fps moving image data from the input terminal 211 to leave only necessary information in consideration of human visual characteristics as described above, and the 240 fps moving image obtained as a result The data is supplied to the separation circuit 213, and the process proceeds to step S282.

ステップS282では、分離回路213は、帯域制限フィルタ部212からの240fps動画データを、60fps動画データと、240fps動画データから60fps動画データを除いた残りの240-60fps動画データとに分離し、60fps動画データを、圧縮回路214に供給するとともに、240-60fps動画データを、ターゲット画像として、差分情報抽出部217に供給する。   In step S282, the separation circuit 213 separates the 240 fps moving image data from the band limiting filter unit 212 into 60 fps moving image data and the remaining 240-60 fps moving image data obtained by removing 60 fps moving image data from the 240 fps moving image data. Data is supplied to the compression circuit 214 and 240-60 fps moving image data is supplied to the difference information extraction unit 217 as a target image.

そして、ステップS283に進み、圧縮回路214は、分離回路213から供給される60fps動画データをエンコード(圧縮)し、その結果得られるビットストリームを出力する。このビットストリームは、解凍回路216と出力端子215に供給される。   In step S283, the compression circuit 214 encodes (compresses) the 60 fps moving image data supplied from the separation circuit 213, and outputs the resultant bit stream. This bit stream is supplied to the decompression circuit 216 and the output terminal 215.

その後、ステップS284に進み、解凍回路216は、圧縮回路214からのビットストリームをローカルデコードし、そのローカルデコードの結果得られる60fps動画データを、リファレンス画像として、差分情報抽出部217に供給して、ステップS285に進む。   Thereafter, the process proceeds to step S284, and the decompression circuit 216 locally decodes the bit stream from the compression circuit 214, and supplies 60 fps moving image data obtained as a result of the local decoding as a reference image to the difference information extraction unit 217, The process proceeds to step S285.

ステップS285では、差分情報抽出部217は、分離回路213からのターゲット画像である240-60fps動画データを、解凍回路216からのリファレンス画像である60fps動画データを用いて圧縮し、即ち、リファレンス画像(60fps動画データ)に対するターゲット画像(240-60fps動画データ)の差分に関する差分圧縮データを求めることにより、ターゲット画像を圧縮し、その差分圧縮データを出力端子218に供給して、ステップS286に進む。   In step S285, the difference information extraction unit 217 compresses the 240-60 fps moving image data that is the target image from the separation circuit 213 using the 60 fps moving image data that is the reference image from the decompression circuit 216, that is, the reference image ( The difference compressed data relating to the difference between the target image (240-60 fps moving image data) with respect to the 60 fps moving image data) is obtained, the target image is compressed, the difference compressed data is supplied to the output terminal 218, and the process proceeds to step S286.

ステップS286では、60fps動画データ(リファレンス画像)のエンコード結果としてのビットストリームが、出力端子215から出力されるとともに、240-60fps動画データの圧縮結果としての差分圧縮データが、出力端子218から出力される。   In step S286, a bit stream as an encoding result of 60 fps moving image data (reference image) is output from the output terminal 215, and differential compressed data as a compression result of 240-60 fps moving image data is output from the output terminal 218. The

以上のように、図79の送信装置1においては、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが、別々に独立に出力されるので、受信装置2(図24)では、例えば、60fps動画データのエンコード結果としてのビットストリームだけを受信することで、60fps動画データを復元することができる。また、受信装置2では、例えば、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとを受信することで、60fps動画データを復元することもできるし、240fps動画データも復元することができる。即ち、いわゆる、テンポラルスケーラビリティを持たせることが出来る。   As described above, in the transmission device 1 of FIG. 79, the bit stream as the encoding result of the 60 fps moving image data and the differential compressed data as the compression result of the 240-60 fps moving image data are separately output independently. In the receiving apparatus 2 (FIG. 24), for example, by receiving only a bit stream as a result of encoding 60 fps moving picture data, the 60 fps moving picture data can be restored. The receiving device 2 can also restore 60 fps moving image data by receiving, for example, a bit stream as a result of encoding 60 fps moving image data and differentially compressed data as a compression result of 240-60 fps moving image data. And 240fps video data can be restored. In other words, so-called temporal scalability can be provided.

次に、図109のフローチャートを参照して、差分情報抽出部217が、図108のステップS285で行うターゲット画像(240-60fps動画データ)の圧縮について説明する。   Next, the compression of the target image (240-60 fps moving image data) performed by the difference information extraction unit 217 in step S285 of FIG. 108 will be described with reference to the flowchart of FIG.

差分情報抽出部217(図81)では、ステップS291において、差分データ計算部234乃至239が、注目ブロックについて、図106に示した第1乃至第6の差分データを、図94乃至図105で説明したようにして求め、選択回路240に供給して、ステップS292に進む。   In the difference information extraction unit 217 (FIG. 81), in step S291, the difference data calculation units 234 to 239 explain the first to sixth difference data shown in FIG. Thus, it is obtained and supplied to the selection circuit 240, and the process proceeds to step S292.

ステップS292では、選択回路240は、差分データ計算部234乃至239それぞれからの注目ブロックについての第1乃至第6の差分データのうちの、データ量が最小のものを、選択差分データとして選択し、ステップS293に進む。   In step S292, the selection circuit 240 selects, as selection difference data, the one with the smallest data amount from among the first to sixth difference data for the target block from the difference data calculation units 234 to 239, Proceed to step S293.

ここで、注目ブロックについての第1乃至第6の差分データのうちの第1の差分データのデータ量が最小である場合には、選択回路240において、第1の差分データを求めるときに計算される式(9)の相関情報e1(U',V')の最小値と、2番目に小さい値との差が、ある閾値以下であるかどうかを判定し、式(9)の相関情報e1(U',V')の最小値と、2番目に小さい値との差が、ある閾値以下であるときには、第1の差分データに代えて、第2乃至第6の差分データのうちのデータ量が最小のもの(第1乃至第6の差分データのうちのデータ量が2番目に小さいもの)を、選択差分データとして選択することができる。この場合、上述したように、第1の差分データを、元の注目ブロックに復元することができなくなることを、より強固に防止することができる。 Here, when the data amount of the first difference data among the first to sixth difference data for the block of interest is the minimum, the selection circuit 240 calculates the first difference data. It is determined whether the difference between the minimum value of the correlation information e 1 (U ′, V ′) in equation (9) and the second smallest value is equal to or less than a certain threshold, and the correlation information in equation (9) When the difference between the minimum value of e 1 (U ′, V ′) and the second smallest value is equal to or smaller than a certain threshold value, instead of the first difference data, the second to sixth difference data Can be selected as the selected difference data (the data amount of the first to sixth difference data having the second smallest data amount). In this case, as described above, it is possible to more firmly prevent the first difference data from being restored to the original block of interest.

ステップS293では、選択回路240は、選択差分データに対して、対応するケースIDを付加し、これにより、図107に示したいずれかのデータ構造の差分圧縮データを、注目ブロックの圧縮結果として、出力端子241から出力する。   In step S293, the selection circuit 240 adds a corresponding case ID to the selected difference data, and thereby converts the difference compressed data having one of the data structures shown in FIG. 107 as the compression result of the block of interest. Output from the output terminal 241.

即ち、これにより、出力端子241からは、ブロックごとに、第1乃至第6の差分データのうちの最適なものが出力される。   That is, as a result, the optimum one of the first to sixth difference data is output from the output terminal 241 for each block.

以上のように、図79の送信装置1では、入力端子211から入力した240fps動画データを圧縮し、2つの圧縮結果(第1と第2の圧縮結果)を出力する。第1の圧縮結果は、圧縮回路214により、240fps動画データから分離した60fps動画データを圧縮して得られるビットストリームである。このビットストリームは、出力端子215から出力される。第2の圧縮結果は、差分情報抽出部217により、240fps動画データから分離した240-60fps動画データを、60fps動画データとの差分をとることにより圧縮した差分圧縮データである。差分圧縮データは、ブロック単位で可変長符号化されており、出力端子218から出力される。   As described above, the transmission apparatus 1 in FIG. 79 compresses 240 fps moving image data input from the input terminal 211 and outputs two compression results (first and second compression results). The first compression result is a bit stream obtained by compressing 60 fps moving image data separated from 240 fps moving image data by the compression circuit 214. This bit stream is output from the output terminal 215. The second compression result is differentially compressed data obtained by compressing the 240-60 fps moving image data separated from the 240 fps moving image data by taking the difference from the 60 fps moving image data by the difference information extraction unit 217. The differentially compressed data is variable-length encoded in units of blocks and is output from the output terminal 218.

また、図79の送信装置1では、帯域制限フィルタ部212において、入力端子211からの240fps動画データに対して、人間の視覚特性を考慮した通過帯域のフィルタ、即ち、1/60秒程度のローパスフィルタ(ただし、被写体の動きを考慮して適応的にフィルタ係数(タップ係数)を変更している)をかけている。人間の視覚特性により、1/60秒程度の範囲内で不規則に移動する物体には人間の目は追従することが出来ずに、1/60秒の間積分された画素値を認識することから、このようなローパスフィルタ(帯域制限フィルタ)をかけても人間には画質劣化したと感じない。このローパスフィルタによるフィルタリングの結果得られる動画データは、およそ1/60秒(つまり4/240秒)程度の時間内では、被写体が一定速度で動いているような動画データとなる。なぜなら、1/60秒という間隔よりも短い時間に高速で速度が変化するような不規則な移動はローパスフィルタにより平均化されるからである。このような動画データは、まさに、式(9)の相関情報e1(U',V')や式(10)の相関情報e2(U',V')を最小とする(U',V')により、ターゲット画像内の注目ブロックの推測値を求めることに適している。なぜなら、式(9)の相関情報e1(U',V')や式(10)の相関情報e2(U',V')を最小にする(U',V')を求める場合には、図84あるいは図87で説明したが、被写体が一定速度で移動していることを前提としているからである。 Further, in the transmission device 1 of FIG. 79, the band limiting filter unit 212 performs a passband filter considering human visual characteristics with respect to 240 fps moving image data from the input terminal 211, that is, a low pass of about 1/60 seconds. A filter (however, the filter coefficient (tap coefficient) is adaptively changed in consideration of the movement of the subject) is applied. Due to human visual characteristics, the human eye cannot follow an object that moves irregularly within a range of about 1/60 seconds, and recognizes the pixel value integrated for 1/60 seconds. Therefore, even if such a low-pass filter (band limiting filter) is applied, humans do not feel that the image quality has deteriorated. The moving image data obtained as a result of filtering by the low-pass filter is moving image data in which the subject is moving at a constant speed within a time of about 1/60 seconds (that is, 4/240 seconds). This is because an irregular movement whose speed changes at a high speed in a time shorter than an interval of 1/60 seconds is averaged by the low-pass filter. Such moving image data minimizes the correlation information e 1 (U ′, V ′) of the equation (9) and the correlation information e 2 (U ′, V ′) of the equation (10) (U ′, V ′) is suitable for obtaining an estimated value of the target block in the target image. This is because the formula (9) correlation information e 1 of (U ', V') or Formula (10) correlation information e 2 of (U ', V') to minimize (U ', V') in the case of obtaining the This is because, as described in FIG. 84 or FIG. 87, it is assumed that the subject is moving at a constant speed.

次に、図110は、送信装置1が図79に示したように構成される場合の、図24の受信装置2の構成例を示している。   Next, FIG. 110 illustrates a configuration example of the reception device 2 in FIG. 24 when the transmission device 1 is configured as illustrated in FIG. 79.

受信装置2には、図79の送信装置1が出力する、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが供給され、ビットストリームは入力端子361から、差分圧縮データは入力端子362から、それぞれ、受信装置2に入力される。そして、入力端子361から解凍回路363に対して、ビットストリームが供給されるとともに、入力端子362から差分情報復元部364に対して、差分圧縮データが供給される。   The receiving device 2 is supplied with the bit stream as the encoding result of the 60 fps moving image data and the differential compression data as the compression result of the 240-60 fps moving image data output from the transmitting device 1 of FIG. The differential compressed data is input from the terminal 361 to the receiving device 2 from the input terminal 362, respectively. Then, the bit stream is supplied from the input terminal 361 to the decompression circuit 363, and the differential compressed data is supplied from the input terminal 362 to the differential information restoring unit 364.

なお、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが多重化データに多重化されている場合には、その多重化データから、ビットストリームと差分圧縮データとが分離され、入力端子361と362にそれぞれ入力される。   In addition, when the bit stream as an encoding result of 60fps moving image data and the differential compression data as the compression result of 240-60fps moving image data are multiplexed in the multiplexed data, the bit stream is converted from the multiplexed data. And the differentially compressed data are separated and input to the input terminals 361 and 362, respectively.

解凍回路363は、図79の解凍回路216と同様に、入力端子361からのビットストリームをデコード(解凍)し、60fps動画データを復元する。この60fps動画データは、リファレンス画像として、差分情報復元部364に供給されるとともに、合成部365に供給される。   Similar to the decompression circuit 216 in FIG. 79, the decompression circuit 363 decodes (decompresses) the bit stream from the input terminal 361 and restores 60 fps moving image data. The 60 fps moving image data is supplied as a reference image to the difference information restoring unit 364 and also supplied to the synthesizing unit 365.

差分情報復元部364は、解凍回路363からのリファレンス画像としての60fps動画データを用いて、入力端子362からの差分圧縮データを、ブロック単位で、240-60fps動画データに復元する。この240-60fps動画データは、合成部365に供給される。   The difference information restoring unit 364 restores the differentially compressed data from the input terminal 362 to 240-60 fps moving image data in units of blocks using the 60 fps moving image data as the reference image from the decompression circuit 363. The 240-60 fps moving image data is supplied to the synthesis unit 365.

合成部365は、解凍回路363からの60fps動画データと、差分情報復元部364からの240-60fps動画データとを合成し、これにより、240fps動画データを復元して、出力端子366から表示装置3(図24)に出力する。   The synthesizing unit 365 synthesizes the 60 fps moving image data from the decompression circuit 363 and the 240-60 fps moving image data from the difference information restoring unit 364, thereby restoring the 240 fps moving image data and from the output terminal 366 to the display device 3. (FIG. 24).

次に、図111のフローチャートを参照して、図110の受信装置2の処理について説明する。   Next, processing of the receiving device 2 in FIG. 110 will be described with reference to the flowchart in FIG.

解凍回路363には、入力端子361から、60fps動画データのエンコード結果としてのビットストリームが供給される。また、差分情報復元部364には、入力端子362から、240-60fps動画データの圧縮結果としての差分圧縮データが供給される。   A bit stream as an encoding result of 60 fps moving image data is supplied from the input terminal 361 to the decompression circuit 363. Also, the differential information restoring unit 364 is supplied with differential compressed data as a compression result of 240-60 fps moving image data from the input terminal 362.

そして、ステップS301では、解凍回路363は、入力端子361からのビットストリームをデコードし、その結果得られる60fps動画データを、リファレンス画像として、差分情報復元部364に供給するとともに、合成部365に供給して、ステップS302に進む。   In step S301, the decompression circuit 363 decodes the bit stream from the input terminal 361, and supplies the 60 fps moving image data obtained as a result to the difference information restoration unit 364 as a reference image and also to the synthesis unit 365. Then, the process proceeds to step S302.

ステップS302では、差分情報復元部364は、解凍回路363からのリファレンス画像としての60fps動画データを用いて、入力端子362からの差分圧縮データを、ブロック単位で、240-60fps動画データに復元し、合成部365に供給する。   In step S302, the difference information restoration unit 364 uses the 60fps moving image data as the reference image from the decompression circuit 363 to restore the differential compressed data from the input terminal 362 to 240-60fps moving image data in units of blocks. This is supplied to the synthesis unit 365.

そして、ステップS302からS303に進み、合成部365は、解凍回路363からの60fps動画データと、差分情報復元部364からの240-60fps動画データとを合成し、これにより、240fps動画データを復元して、出力端子366から表示装置3(図24)に出力する。   Then, the process proceeds from step S302 to S303, and the combining unit 365 combines the 60 fps moving image data from the decompression circuit 363 and the 240-60 fps moving image data from the difference information restoring unit 364, thereby reconstructing the 240 fps moving image data. Then, the data is output from the output terminal 366 to the display device 3 (FIG. 24).

即ち、解凍回路363は、入力端子361からのビットストリームから、例えば、図80の上から2番目に示した60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・(の画像データ)を復元し、差分情報復元部および合成部365に供給する。 That is, the decompression circuit 363 uses, for example, the frame of 60 fps moving image data shown second from the top in FIG. 80 from the bit stream from the input terminal 361, f 1 , f 5 , f 9 , f 13 ,. (Image data) is restored and supplied to the difference information restoration unit and synthesis unit 365.

また、差分情報復元部364では、解凍回路363からの60fps動画データをリファレンス画像として用い、入力端子362からの差分圧縮データを、例えば、図80の一番下に示した240-60fps動画データのフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・(の画像データ)に復元し、合成部365に供給する。 Further, the difference information restoration unit 364 uses the 60 fps moving image data from the decompression circuit 363 as a reference image, and converts the difference compressed data from the input terminal 362 into, for example, the 240-60 fps moving image data shown at the bottom of FIG. ..., F 2 , f 3 , f 4 , f 6 , f 7 , f 8 , f 10 , f 11 , f 12 ,. .

合成部365は、解凍回路363からの60fps動画データの1フレームを選択し、次に、差分情報復元部364からの240-60fps動画データの3フレームを選択することを繰り返し、選択したフレームを、1/240秒ごとに、出力端子366から出力する。即ち、これにより、60fps動画データと240-60fps動画データとを合成した、図80の一番上に示したような240fps動画データが、出力端子366から出力される。   The synthesizing unit 365 repeatedly selects one frame of 60 fps moving image data from the decompression circuit 363, and then repeatedly selects three frames of 240-60 fps moving image data from the difference information restoring unit 364. Output from the output terminal 366 every 1/240 seconds. That is, by this, the 240 fps moving image data as shown at the top of FIG. 80, which is a combination of the 60 fps moving image data and the 240-60 fps moving image data, is output from the output terminal 366.

次に、図112のフローチャートを参照して、図110の差分情報復元部364が図111のステップS302で行う、240-60fps動画データのデコードについて説明する。   Next, with reference to the flowchart of FIG. 112, the decoding of 240-60 fps moving image data performed by the difference information restoring unit 364 of FIG. 110 in step S302 of FIG. 111 will be described.

ステップS311において、差分情報復元部364は、解凍回路363(図110)からの60fps動画データをリファレンス画像として用い、入力端子362(図110)からの差分圧縮データを、240-60fps動画データに復元する、後述する処理を行うことで、240-60fps動画データの各フレーム、即ち、ターゲット画像の画素値を、ブロック単位で求め、ステップS312に進む。   In step S311, the difference information restoration unit 364 uses the 60 fps moving image data from the decompression circuit 363 (FIG. 110) as a reference image, and restores the difference compressed data from the input terminal 362 (FIG. 110) to 240-60 fps moving image data. By performing the processing described later, each frame of the 240-60 fps moving image data, that is, the pixel value of the target image is obtained for each block, and the process proceeds to step S312.

ステップS312では、差分情報復元部364は、ステップS311で画素値が求められたブロックを集めることで、240-60fps動画データの各フレームの画像データを得て、ステップS313に進む。ステップS313では、差分情報復元部364は、ステップS312で得た240-60fps動画データを、合成部365(図110)に出力する。   In step S312, the difference information restoration unit 364 obtains image data of each frame of the 240-60 fps moving image data by collecting the blocks whose pixel values are obtained in step S311 and proceeds to step S313. In step S313, the difference information restoration unit 364 outputs the 240-60 fps moving image data obtained in step S312 to the synthesis unit 365 (FIG. 110).

次に、図113は、図110の差分情報復元部364の構成例を示している。   Next, FIG. 113 shows a configuration example of the difference information restoration unit 364 of FIG.

差分データ記憶部371には、入力端子362(図110)から差分圧縮データが供給される。差分データ記憶部371は、入力端子362からの差分圧縮データを一時記憶する。   The differential data storage unit 371 is supplied with differential compressed data from the input terminal 362 (FIG. 110). The difference data storage unit 371 temporarily stores the difference compressed data from the input terminal 362.

リファレンス記憶部372には、解凍回路363からリファレンス画像としての60fps動画データが供給される。リファレンス記憶部372は、解凍回路363からのリファレンス画像を一時記憶する。   The reference storage unit 372 is supplied with 60 fps moving image data as a reference image from the decompression circuit 363. The reference storage unit 372 temporarily stores the reference image from the decompression circuit 363.

ケースID判定部373は、これから復元しようとするターゲット画像のブロックを、注目ブロックとして、その注目ブロックの差分圧縮データを、差分データ記憶部371から読み出し、その差分圧縮データに付加されているケースID(図107)を判定する。そして、ケースID判定部373は、注目ブロックについてのケースIDの判定結果を、相関最大位置検出部377に供給する。   The case ID determination unit 373 reads a target image block to be restored from now on as a target block, reads out the differential compressed data of the target block from the differential data storage unit 371, and adds the case ID added to the differential compressed data. (FIG. 107) is determined. Then, the case ID determination unit 373 supplies the case ID determination result for the block of interest to the maximum correlation position detection unit 377.

可変長復号部374は、注目ブロックの差分圧縮データを、差分データ記憶部371から読み出し、その差分圧縮データを可変長復号することで、量子化データを得て、逆量子化部375に供給する。さらに、可変長復号部374は、差分圧縮データを可変長復号することで、必要に応じて、相関最大ベクトル(U,V)、前動きベクトル(-U1,-V1)、または後動きベクトル(U2,V2)を得て、相関最大位置検出部377に供給する。 The variable length decoding unit 374 reads the difference compressed data of the block of interest from the difference data storage unit 371, obtains quantized data by variable length decoding the difference compressed data, and supplies the quantized data to the inverse quantization unit 375. . Furthermore, the variable length decoding unit 374 performs variable length decoding on the differentially compressed data, so that the maximum correlation vector (U, V), the previous motion vector (−U 1 , −V 1 ), or the rear motion is used as necessary. A vector (U 2 , V 2 ) is obtained and supplied to the maximum correlation position detector 377.

即ち、差分圧縮データが第1または第6の差分データである場合、つまり、注目ブロックのケースIDが1または6であった場合、図106で説明したように、第1または第6の差分データには、量子化データの可変長符号しか含まれていないので、可変長復号部374は、その可変長符号を、量子化データに復号し、逆量子化部375に供給する。   That is, when the differentially compressed data is the first or sixth differential data, that is, when the case ID of the target block is 1 or 6, as described with reference to FIG. 106, the first or sixth differential data Since only the variable length code of the quantized data is included, the variable length decoding unit 374 decodes the variable length code into quantized data and supplies it to the inverse quantization unit 375.

また、差分圧縮データが第2の差分データである場合、つまり、注目ブロックのケースIDが2であった場合、図106で説明したように、第2の差分データには、量子化データの可変長符号と、相関最大ベクトル(U,V)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと相関最大ベクトル(U,V)に復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、相関最大ベクトル(U,V)を、相関最大位置検出部377に供給する。   When the differentially compressed data is the second differential data, that is, when the case ID of the target block is 2, as described with reference to FIG. 106, the second differential data includes a variable of quantized data. Since the long code and the variable length code of the maximum correlation vector (U, V) are included, the variable length decoding unit 374 decodes the variable length code into the quantized data and the maximum correlation vector (U, V). . Then, the variable length decoding unit 374 supplies the quantized data to the inverse quantization unit 375 and supplies the maximum correlation vector (U, V) to the maximum correlation position detection unit 377.

さらに、差分圧縮データが第3の差分データである場合、つまり、注目ブロックのケースIDが3であった場合、図106で説明したように、第3の差分データには、量子化データの可変長符号と、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)とに復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)を、相関最大位置検出部377に供給する。 Furthermore, when the differentially compressed data is the third differential data, that is, when the case ID of the target block is 3, as described with reference to FIG. 106, the third differential data includes a variable of quantized data. Since the long code and the variable length codes of the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) are included, the variable length decoding unit 374 converts the variable length code into The quantized data is decoded into the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ). Then, the variable length decoding unit 374 supplies the quantized data to the inverse quantization unit 375, and converts the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) to the maximum correlation. This is supplied to the position detection unit 377.

また、差分圧縮データが第4の差分データである場合、つまり、注目ブロックのケースIDが4であった場合、図106で説明したように、第4の差分データには、量子化データの可変長符号と、前動きベクトル(-U1,-V1)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと前動きベクトル(-U1,-V1)とに復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、前動きベクトル(-U1,-V1)を、相関最大位置検出部377に供給する。 Further, when the differentially compressed data is the fourth differential data, that is, when the case ID of the target block is 4, as described with reference to FIG. 106, the fourth differential data includes the variable of the quantized data. Since the long code and the variable length code of the previous motion vector (−U 1 , −V 1 ) are included, the variable length decoding unit 374 converts the variable length code into the quantized data and the previous motion vector (−U 1). , -V 1 ). Then, the variable length decoding unit 374 supplies the quantized data to the inverse quantization unit 375 and supplies the previous motion vector (−U 1 , −V 1 ) to the correlation maximum position detection unit 377.

さらに、差分圧縮データが第5の差分データである場合、つまり、注目ブロックのケースIDが5であった場合、図106で説明したように、第5の差分データには、量子化データの可変長符号と、後動きベクトル(U2,V2)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと後動きベクトル(U2,V2)とに復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、後動きベクトル(U2,V2)を、相関最大位置検出部377に供給する。 Further, when the differentially compressed data is the fifth differential data, that is, when the case ID of the target block is 5, as described with reference to FIG. 106, the fifth differential data includes a variable of quantized data. Since the long code and the variable length code of the back motion vector (U 2 , V 2 ) are included, the variable length decoding unit 374 converts the variable length code into the quantized data and the back motion vector (U 2 , V 2). ) And decrypt. Then, the variable length decoding unit 374 supplies the quantized data to the inverse quantization unit 375 and supplies the back motion vector (U 2 , V 2 ) to the correlation maximum position detection unit 377.

逆量子化部375は、可変長復号部374からの量子化データを逆量子化し、その結果得られる、周波数空間上のデータとしての、例えば、DCT係数を、変換部376に供給する。   The inverse quantization unit 375 inversely quantizes the quantized data from the variable length decoding unit 374, and supplies, for example, DCT coefficients as data on the frequency space obtained as a result to the conversion unit 376.

変換部376は、逆量子化部375からのDCT係数を逆DCT変換し、その結果られる、注目ブロックの画像データ(画素値)Ic(x,y)とその推測値Pre(x,y)との差分値Sub(x,y)を、加算部379に供給する。   The transform unit 376 performs inverse DCT transform on the DCT coefficient from the inverse quantization unit 375, and the resulting image data (pixel value) Ic (x, y) of the target block and its estimated value Pre (x, y) The difference value Sub (x, y) is supplied to the adding unit 379.

最大相関位置検出部377は、リファレンス記憶部372に記憶されたリファレンス画像のうちの、注目ブロックのフレームであるターゲット画像VTの直前と直後のフレームを、それぞれ、パストリファレンス画像VPとフューチャリファレンス画像VFとし、ケースID判定部373における注目ブロックのケースIDの判定結果、または可変長復号部374から供給される相関最大ベクトル(U,V)、前動きベクトル(-U1,-V1)、後動きベクトル(U2,V2)に基づき、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて相関が高い位置関係や、パストリファレンス画像VPまたはフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出して、推測部378に供給する。 The maximum correlation position detection unit 377 uses the past reference image V P and the feature reference for the frames immediately before and after the target image V T that are the frames of the target block among the reference images stored in the reference storage unit 372, respectively. As the image V F , the case ID determination result of the block of interest in the case ID determination unit 373 or the maximum correlation vector (U, V) and the previous motion vector (−U 1 , −V 1 ) supplied from the variable length decoding unit 374 ), based on the backward motion vector (U 2, V 2), the positional relationship and a high correlation in the PAST reference image V P and Futuresse reference image V F, the Past reference image V P or Futuresse reference image V F, and the block of interest Are detected and supplied to the estimation unit 378.

推測部378は、相関最大位置検出部377からの位置関係に基づき、リファレンス記憶部372に記憶されたリファレンス画像のうちのパストリファレンス画像VPまたはフューチャリファレンス画像VFから、注目ブロックの推測値Pre(x,y)を求め、加算部379に供給する。 Estimating unit 378, based on the positional relationship between the maximum correlation position detection section 377, from the Past reference image V P or Futuresse reference image V F of the reference image stored in the reference storage unit 372, estimates Pre block of interest (x, y) is obtained and supplied to the adder 379.

加算部379は、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロック(の画像データ)Ic(x,y)=Sub(x,y)+Pre(x,y)を復元して、合成部365(図110)に出力する。   The adding unit 379 adds the difference value Sub (x, y) of the target block from the converting unit 376 and the estimated value Pre (x, y) of the target block from the estimating unit 378, and thereby the target block ( Image data) Ic (x, y) = Sub (x, y) + Pre (x, y) is restored and output to the synthesis unit 365 (FIG. 110).

次に、図114乃至図121のフローチャートを参照して、図113の差分情報復元部364が、図112のステップS311で行うブロックの画素値(画像データ)を求める処理について説明する。   Next, processing for obtaining the pixel value (image data) of the block performed in step S311 of FIG. 112 by the difference information restoring unit 364 of FIG. 112 will be described with reference to the flowcharts of FIGS.

まず、ステップS321において、復元しようとする240-60fps動画データのあるフレームをターゲット画像VTとし、さらに、ターゲット画像VTをブロック分割したあるブロックを注目ブロックとして、差分データ記憶部371に記憶された差分圧縮データのうちの、注目ブロックの差分圧縮データが、差分データ記憶部371から読み出され、ケースID判定部373および可変長復号部374に入力されて、ステップS322に進む。 First, in step S321, a frame having 240-60fps moving image data to be restored is set as a target image V T, and a block obtained by dividing the target image V T into blocks is stored in the difference data storage unit 371 as a target block. Of the difference compressed data, the difference compressed data of the target block is read from the difference data storage unit 371 and input to the case ID determination unit 373 and the variable length decoding unit 374, and the process proceeds to step S322.

ステップS322では、リファレンス記憶部372に記憶されているリファレンス画像のうちの、ターゲット画像VTの直前と直後のフレームが、それぞれ、パストリファレンス画像VPとフューチャリファレンス画像VFとされ、相関最大位置検出部377および推測部378に入力されて、ステップS323に進む。 In step S322, among the reference images stored in the reference storage unit 372, before and immediately after the frame of the target image V T are respectively set to Past reference image V P and Futuresse reference image V F, the correlation maximum position The data is input to the detection unit 377 and the estimation unit 378, and the process proceeds to step S323.

ここで、例えば、図80の一番下に示したターゲット画像のフレームf2,f3,f4のうちのいずれかのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf2,f3,f4の直前と直後のフレームf1とf5が、それぞれパストリファレンス画像とフューチャリファレンス画像とされる。 Here, for example, when one of the blocks f 2 , f 3 , and f 4 of the target image shown at the bottom of FIG. 80 is the target block, the frames f 1 and f of the reference image Of frames 5 , f 9 , and f 13 , the frames f 1 and f 5 immediately before and immediately after the frames f 2 , f 3 , and f 4 of the target image are used as a past reference image and a feature reference image, respectively.

また、例えば、ターゲット画像のフレームf6,f7,f8のうちのいずれかのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf6,f7,f8の直前と直後のフレームf5とf9が、それぞれパストリファレンス画像とフューチャリファレンス画像とされる。 Also, for example, when any of the blocks f 6 , f 7 , and f 8 of the target image is the target block, the frames of the reference image frames f 1 , f 5 , f 9 , and f 13 The frames f 5 and f 9 immediately before and after the frames f 6 , f 7 , and f 8 of the target image are set as a past reference image and a feature reference image, respectively.

さらに、例えば、ターゲット画像のフレームf10,f11,f12のうちのいずれかのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf10,f11,f12の直前と直後のフレームf9とf13が、それぞれパストリファレンス画像とフューチャリファレンス画像とされる。 Further, for example, when any of the blocks f 10 , f 11 , and f 12 of the target image is the target block, the frames of the reference image frames f 1 , f 5 , f 9 , and f 13 The frames f 9 and f 13 immediately before and after the frames f 10 , f 11 , and f 12 of the target image are set as a past reference image and a feature reference image, respectively.

ステップS323では、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDを解析し、そのケースIDの値を求めて、ステップS324に進む。   In step S323, the case ID determination unit 373 analyzes the case ID added to the differential compression data of the block of interest, obtains the value of the case ID, and proceeds to step S324.

ステップS324では、可変長復号部374は、注目ブロックの差分圧縮データを解析し、その差分圧縮データにおいて可変長符号となっている量子化データを復号(可変長復号)する。可変長復号部374で可変長復号が行われることにより得られた量子化データは、可変長復号部374から逆量子化部375に供給される。なお、量子化データは、ない場合(NULLの場合)もある。   In step S324, the variable length decoding unit 374 analyzes the differential compression data of the block of interest, and decodes the quantized data that is a variable length code in the differential compression data (variable length decoding). The quantized data obtained by performing variable length decoding in the variable length decoding unit 374 is supplied from the variable length decoding unit 374 to the inverse quantization unit 375. Note that there may be no quantized data (in the case of NULL).

ステップS324の処理後は、ステップS325に進み、逆量子化部375は、可変長復号部374からの量子化データを逆量子化し、その結果得られる、周波数空間上のデータとしての、例えば、DCT係数を、変換部376に供給して、ステップS325に進む。   After the process of step S324, the process proceeds to step S325, and the inverse quantization unit 375 inversely quantizes the quantized data from the variable length decoding unit 374, and the resulting data on the frequency space, for example, DCT The coefficient is supplied to the conversion unit 376, and the process proceeds to step S325.

ステップS325では、変換部376は、逆量子化部375からのDCT係数を、2次元空間上のデータに変換する逆DCT変換を行い、その結果られる、注目ブロックの画像データ(画素値)とその推測値との差分値Sub(x,y)を、加算部379に供給する。なお、ステップS324での可変長復号において、量子化データがなかった場合(NULLの場合)、変換部376は、注目ブロックの差分値Sub(x,y)として0を、加算部379に供給する。   In step S325, the transform unit 376 performs inverse DCT transform that transforms the DCT coefficient from the inverse quantization unit 375 into data in a two-dimensional space, and the image data (pixel value) of the block of interest and the result thereof. The difference value Sub (x, y) from the estimated value is supplied to the adding unit 379. In the variable length decoding in step S324, when there is no quantized data (in the case of NULL), the converting unit 376 supplies 0 as the difference value Sub (x, y) of the target block to the adding unit 379. .

ステップS326の処理後は、図115のステップS327に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが1であるかどうか、即ち、注目ブロックの差分圧縮データが第1の差分データであるかどうかを判定する。   After the processing in step S326, the process proceeds to step S327 in FIG. 115, and the case ID determination unit 373 determines whether or not the case ID added to the differential compression data of the block of interest is 1, that is, the differential compression data of the block of interest. Is the first difference data.

ステップS327に進み、注目ブロックの差分圧縮データに付加されているケースIDが1であると判定された場合、即ち、注目ブロックの差分圧縮データが第1の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図116のステップS351に進み、以下、後述するように、注目ブロックの差分圧縮データである第1の差分データが復元される。   In step S327, when it is determined that the case ID added to the differential compression data of the target block is 1, that is, when the differential compression data of the target block is the first differential data, the case ID determination unit 373 supplies the determination result to the maximum correlation position detection unit 377, and proceeds to step S351 in FIG. 116. As will be described later, first differential data that is differentially compressed data of the target block is restored. The

また、ステップS327において、注目ブロックの差分圧縮データに付加されているケースIDが1でないと判定された場合、ステップS328に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが2であるかどうか、即ち、注目ブロックの差分圧縮データが第2の差分データであるかどうかを判定する。   If it is determined in step S327 that the case ID added to the differential compression data of the target block is not 1, the process proceeds to step S328, and the case ID determination unit 373 adds the case ID to the differential compression data of the target block. It is determined whether or not the case ID is 2, that is, whether or not the differential compressed data of the block of interest is the second differential data.

ステップS328において、注目ブロックの差分圧縮データに付加されているケースIDが2であると判定された場合、即ち、注目ブロックの差分圧縮データが第2の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図117のステップS361に進み、以下、後述するように、注目ブロックの差分圧縮データである第2の差分データが復元される。   If it is determined in step S328 that the case ID added to the differential compressed data of the block of interest is 2, that is, if the differential compressed data of the block of interest is the second differential data, the case ID determination unit 373 Supplies the determination result to the maximum correlation position detection unit 377, and proceeds to step S361 in FIG. 117. As will be described later, second differential data that is differentially compressed data of the target block is restored. .

また、ステップS328において、注目ブロックの差分圧縮データに付加されているケースIDが2でないと判定された場合、ステップS329に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが3であるかどうか、即ち、注目ブロックの差分圧縮データが第3の差分データであるかどうかを判定する。   If it is determined in step S328 that the case ID added to the differential compression data of the block of interest is not 2, the process proceeds to step S329, and the case ID determination unit 373 adds the case ID to the differential compression data of the block of interest. It is determined whether or not the case ID is 3, that is, whether or not the differential compressed data of the block of interest is the third differential data.

ステップS329において、注目ブロックの差分圧縮データに付加されているケースIDが3であると判定された場合、即ち、注目ブロックの差分圧縮データが第3の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図118のステップS381に進み、以下、後述するように、注目ブロックの差分圧縮データである第3の差分データが復元される。   If it is determined in step S329 that the case ID added to the differential compressed data of the block of interest is 3, that is, if the differential compressed data of the block of interest is the third differential data, the case ID determination unit 373 Supplies the determination result to the correlation maximum position detection unit 377 and proceeds to step S381 in FIG. 118, and the third difference data, which is the difference compressed data of the block of interest, is restored as will be described later. .

また、ステップS329において、注目ブロックの差分圧縮データに付加されているケースIDが3でないと判定された場合、ステップS330に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが4であるかどうか、即ち、注目ブロックの差分圧縮データが第4の差分データであるかどうかを判定する。   If it is determined in step S329 that the case ID added to the differential compression data of the target block is not 3, the process proceeds to step S330, and the case ID determination unit 373 adds the case ID to the differential compression data of the target block. It is determined whether or not the case ID is 4, that is, whether or not the differential compressed data of the block of interest is the fourth differential data.

ステップS330において、注目ブロックの差分圧縮データに付加されているケースIDが4であると判定された場合、即ち、注目ブロックの差分圧縮データが第4の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図119のステップS391に進み、以下、後述するように、注目ブロックの差分圧縮データである第4の差分データが復元される。   If it is determined in step S330 that the case ID added to the differential compressed data of the block of interest is 4, that is, if the differential compressed data of the block of interest is the fourth differential data, the case ID determination unit 373 Supplies the determination result to the correlation maximum position detection unit 377, and proceeds to step S391 in FIG. 119. Hereinafter, as will be described later, fourth difference data that is differentially compressed data of the block of interest is restored. .

また、ステップS330において、注目ブロックの差分圧縮データに付加されているケースIDが4でないと判定された場合、ステップS331に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが5であるかどうか、即ち、注目ブロックの差分圧縮データが第5の差分データであるかどうかを判定する。   If it is determined in step S330 that the case ID added to the differential compression data of the target block is not 4, the process proceeds to step S331, and the case ID determination unit 373 adds the case ID to the differential compression data of the target block. It is determined whether or not the case ID is 5, that is, whether or not the differential compressed data of the block of interest is the fifth differential data.

ステップS331において、注目ブロックの差分圧縮データに付加されているケースIDが5であると判定された場合、即ち、注目ブロックの差分圧縮データが第5の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図120のステップS401に進み、以下、後述するように、注目ブロックの差分圧縮データである第5の差分データが復元される。   If it is determined in step S331 that the case ID added to the differential compressed data of the block of interest is 5, that is, if the differential compressed data of the block of interest is the fifth differential data, the case ID determination unit 373 Supplies the determination result to the maximum correlation position detection unit 377, and proceeds to step S401 in FIG. 120. The fifth differential data, which is differential compressed data of the block of interest, is restored, as will be described later. .

また、ステップS331において、注目ブロックの差分圧縮データに付加されているケースIDが5でないと判定された場合、即ち、注目ブロックの差分圧縮データに付加されているケースIDが6であり、注目ブロックの差分圧縮データが第6の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図121のステップS411に進み、以下、後述するように、注目ブロックの差分圧縮データである第6の差分データが復元される。   If it is determined in step S331 that the case ID added to the differential compression data of the block of interest is not 5, that is, the case ID added to the differential compression data of the block of interest is 6, and the block of interest If the difference compressed data is the sixth difference data, the case ID determination unit 373 supplies the determination result to the correlation maximum position detection unit 377 and proceeds to step S411 in FIG. 121, and will be described later. In addition, the sixth differential data that is the differentially compressed data of the block of interest is restored.

次に、図116のフローチャートを参照して、注目ブロックの差分圧縮データが第1の差分データである場合の、その第1の差分データの復元について説明する。   Next, with reference to the flowchart of FIG. 116, restoration of the first difference data when the difference compressed data of the target block is the first difference data will be described.

相関最大位置検出部377は、ケースID判定部373から、ケースIDが1である旨の判定結果を受信した場合、ステップS351において、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPとフューチャリファレンス画像VFとにおいて、相関が高い位置関係を検出する。即ち、相関最大位置検出部377は、注目ブロックにつき、図94の相関最大位置検出部254における場合と同様に、考えられる(U',V')の各値について、式(9)の相関情報e1(U',V')を計算し、その相関情報e1(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e1(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部377は、相関情報e1(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表す位置関係ベクトル(U,V)として、推測部378に供給し、ステップS351からS352に進む。 When the correlation maximum position detection unit 377 receives the determination result indicating that the case ID is 1 from the case ID determination unit 373, the past reference image read from the reference storage unit 372 for the target block in step S351. in the V P and Futuresse reference image V F, it detects the correlation is high positional relationship. That is, the maximum correlation position detection unit 377 performs the correlation information of Equation (9) for each possible value of (U ′, V ′) for the target block, as in the correlation maximum position detection unit 254 of FIG. e 1 (U ′, V ′) is calculated and the correlation represented by the correlation information e 1 (U ′, V ′) is maximized (U ′, V ′), that is, the correlation information e 1 (U ′, V ′) (U ′, V ′) that minimizes the value of V ′) is detected. Then, the maximum correlation position detection section 377, correlation information e 1 (U ', V' ) to minimize the value of the (U ', V'), in the PAST reference image V P and Futuresse reference image V F, correlation Is supplied to the estimation unit 378 as a positional relationship vector (U, V) representing the positional relationship of the highest region, and the process proceeds from step S351 to S352.

ステップS352では、推測部378は、相関最大位置検出部377からの位置関係ベクトル(U,V)が表す位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。 In step S352, the estimation unit 378 calculates from the image data of the past reference image V P and the feature reference image V F in the positional relationship represented by the positional relationship vector (U, V) from the correlation maximum position detection unit 377. An estimated value of the block of interest is obtained and supplied to the adding unit 379.

即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックと同一サイズの領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の、注目ブロックと同一サイズの領域との画像データの、例えば、重み付け平均値を、式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、加算部379に供給して、ステップS352からS353に進む。 That is, the estimating unit 378, the Pasto reference image V P, from the target block vector and the shifted position, the region of interest blocks the same size, (- (4-s) V - (4-s) U,) in Futuresse reference image V F, a vector from the target block (sU, sV) shifted by a position of the image data of the block of interest and the region of the same size, for example, a weighted average value, calculated according to equation (13) The weighted average value is obtained as the estimated value Pre (x, y) of the block of interest, supplied to the adding unit 379, and the process proceeds from step S352 to S353.

ステップS353では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロック(の画像データ)Ic(x,y)を復元して、ステップS354に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。   In step S353, the addition unit 379 adds the difference value Sub (x, y) of the target block from the conversion unit 376 and the estimated value Pre (x, y) of the target block from the estimation unit 378, thereby The target block (image data) Ic (x, y) is restored, and the process proceeds to step S354, where the target block Ic (x, y) is output to the synthesizing unit 365 (FIG. 110).

次に、図117のフローチャートを参照して、注目ブロックの差分圧縮データが第2の差分データである場合の、その第2の差分データの復元について説明する。   Next, with reference to the flowchart of FIG. 117, the restoration of the second differential data when the differential compressed data of the block of interest is the second differential data will be described.

注目ブロックの差分圧縮データが、第2の差分データである場合には、その第2の差分データには、上述したように、相関最大ベクトル(U,V)が含まれる。そこで、可変長復号部374は、ステップS361において、注目ブロックの差分圧縮データである第2の差分データを解析し、その第2の差分データにおいて可変長符号となっている相関最大ベクトル(U,V)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた相関最大ベクトル(U,V)は、可変長復号部374から相関最大位置検出部377に供給される。   When the differential compressed data of the block of interest is the second differential data, the second differential data includes the correlation maximum vector (U, V) as described above. Therefore, in step S361, the variable length decoding unit 374 analyzes the second difference data that is the difference compressed data of the block of interest, and the correlation maximum vector (U, U) that is a variable length code in the second difference data. V) is variable length decoded. The maximum correlation vector (U, V) obtained by performing variable length decoding in the variable length decoding unit 374 is supplied from the variable length decoding unit 374 to the maximum correlation position detection unit 377.

さらに、ステップS361では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが2である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPとフューチャリファレンス画像VFとにおいて、注目ブロックとの相関が高い位置関係を検出する。 Further, in step S361, the maximum correlation position detection unit 377 receives a determination result indicating that the case ID is 2 from the case ID determination unit 373, and in this case, the target block is read from the reference storage unit 372. in the Past reference image V P and Futuresse reference image V F was a correlation between the target block is detected with high positional relationship.

即ち、相関最大位置検出部377は、可変長復号部374からの相関最大ベクトル(U,V)から、パストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置が、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置であることを検出するとともに、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置が、注目ブロックからベクトル(sU,sV)だけずれた位置であることを検出し、その位置関係を表すベクトル(-(4-s)U,-(4-s)V)および(sU,sV)を、推測部378に供給して、ステップS361からS362に進む。 That is, the maximum correlation position detection unit 377 determines that a position having a high correlation with the target block in the past reference image V P from the maximum correlation vector (U, V) from the variable length decoding unit 374 is a vector (− (4-s) U, - (4-s) and detects that the position shifted by V), in Futuresse reference image V F, a high correlation position of the target block, from the target block vector (sU , sV) is detected, and vectors (-(4-s) U,-(4-s) V) and (sU, sV) representing the positional relationship are supplied to the estimation unit 378. Then, the process proceeds from step S361 to S362.

ステップS362では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からのベクトル(-(4-s)U,-(4-s)V)と(sU,sV)が表す位置にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。 In step S362, the estimation unit 378 has the positions from the target block represented by vectors (− (4-s) U, − (4-s) V) and (sU, sV) from the correlation maximum position detection unit 377. An estimated value of the block of interest is obtained from the image data of the past reference image V P and the feature reference image V F at the position, and is supplied to the adding unit 379.

即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックと同一サイズの領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の、注目ブロックと同一サイズの領域との画像データの、例えば、重み付け平均値を、式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、加算部379に供給して、ステップS362からS363に進む。 That is, the estimating unit 378, the Pasto reference image V P, from the target block vector and the shifted position, the region of interest blocks the same size, (- (4-s) V - (4-s) U,) in Futuresse reference image V F, a vector from the target block (sU, sV) shifted by a position of the image data of the block of interest and the region of the same size, for example, a weighted average value, calculated according to equation (13) The weighted average value is obtained as the estimated value Pre (x, y) of the target block, supplied to the adding unit 379, and the process proceeds from step S362 to S363.

ステップS363では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS364に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。   In step S363, the addition unit 379 adds the difference value Sub (x, y) of the target block from the conversion unit 376 and the estimated value Pre (x, y) of the target block from the estimation unit 378, thereby The target block Ic (x, y) is restored, and the process proceeds to step S364, where the target block Ic (x, y) is output to the synthesis unit 365 (FIG. 110).

次に、図118のフローチャートを参照して、注目ブロックの差分圧縮データが第3の差分データである場合の、その第3の差分データの復元について説明する。   Next, with reference to the flowchart of FIG. 118, the restoration of the third difference data when the difference compressed data of the block of interest is the third difference data will be described.

注目ブロックの差分圧縮データが、第3の差分データである場合には、その第3の差分データには、上述したように、前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)が含まれる。そこで、可変長復号部374は、ステップS381において、注目ブロックの差分圧縮データである第3の差分データを解析し、その第3の差分データにおいて可変長符号となっている前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)は、可変長復号部374から相関最大位置検出部377に供給される。 When the differential compressed data of the block of interest is the third differential data, the third differential data includes the previous motion vector (−U 1 , −V 1 ) and the subsequent motion vector as described above. (U 2 , V 2 ) is included. Therefore, in step S381, the variable length decoding unit 374 analyzes the third difference data that is the difference compressed data of the block of interest, and the previous motion vector (-U) that is a variable length code in the third difference data. 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) are variable length decoded. The front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) obtained by performing variable length decoding in the variable length decoding unit 374 are correlated from the variable length decoding unit 374. The maximum position detection unit 377 is supplied.

さらに、ステップS381では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが3である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPとフューチャリファレンス画像VFとのそれぞれにおいて、注目ブロックとの相関が高い位置関係を検出する。 Furthermore, in step S381, the correlation maximum position detection unit 377 receives a determination result indicating that the case ID is 3 from the case ID determination unit 373, and in this case, the block of interest is read from the reference storage unit 372. in each of the Past reference image V P and Futuresse reference image V F was a correlation between the target block is detected with high positional relationship.

即ち、相関最大位置検出部377は、パストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置が、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置であることを、可変長復号部374からの前動きベクトル(-U1,-V1)から検出するとともに、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置が、注目ブロックから後動きベクトル(U2,V2)だけずれた位置であることを、可変長復号部374からの後動きベクトル(U2,V2)から検出し、その位置関係、つまり、可変長復号部374からの前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)を、推測部378に供給して、ステップS381からS382に進む。 That is, the maximum correlation position detection unit 377 indicates that the position having a high correlation with the target block in the past reference image V P is a position shifted from the target block by the previous motion vector (−U 1 , −V 1 ). , before the motion vector (-U 1, -V 1) from the variable length decoding unit 374 and detects from the Futuresse reference image V F, a high correlation position of the target block, backward motion vector from the target block (U 2 , V 2 ) is detected from the back motion vector (U 2 , V 2 ) from the variable length decoding unit 374 and the positional relationship, that is, the front motion from the variable length decoding unit 374 is detected. The vector (−U 1 , −V 1 ) and the rear motion vector (U 2 , V 2 ) are supplied to the estimation unit 378, and the process proceeds from step S381 to S382.

ステップS382では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からの前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)が表す位置にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。 In step S382, the estimation unit 378 indicates that the position from the target block is represented by the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) from the maximum correlation position detection unit 377. in some, from the image data of the region of Pasto reference image V P and Futuresse reference image V F, we obtain the estimated value of the block of interest, and supplies to the adder 379.

即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の、注目ブロックと同一サイズの領域と、フューチャリファレンス画像VFにおいて、注目ブロックから後動きベクトル(U2,V2)だけずれた位置の、注目ブロックと同一サイズの領域との画像データの、例えば、重み付け平均値を、式(14)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、加算部379に供給して、ステップS382からS383に進む。 That is, the estimating unit 378, the Pasto reference image V P, from the target block prior to the motion vector (-U 1, -V 1) of a position shifted by a region of the block of interest and the same size, in Futuresse reference image V F For example, the weighted average value of the image data of the region of the same size as the target block at the position shifted by the backward motion vector (U 2 , V 2 ) from the target block is calculated according to the equation (14), The weighted average value is obtained as the estimated value Pre (x, y) of the block of interest, supplied to the adding unit 379, and the process proceeds from step S382 to S383.

ステップS383では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS384に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。   In step S383, the addition unit 379 adds the difference value Sub (x, y) of the target block from the conversion unit 376 and the estimated value Pre (x, y) of the target block from the estimation unit 378, thereby The target block Ic (x, y) is restored, and the process proceeds to step S384, where the target block Ic (x, y) is output to the synthesis unit 365 (FIG. 110).

次に、図119のフローチャートを参照して、注目ブロックの差分圧縮データが第4の差分データである場合の、その第4の差分データの復元について説明する。   Next, with reference to the flowchart of FIG. 119, description will be given of restoration of the fourth difference data when the difference compressed data of the target block is the fourth difference data.

注目ブロックの差分圧縮データが、第4の差分データである場合には、その第4の差分データには、上述したように、前動きベクトル(-U1,-V1)が含まれる。そこで、可変長復号部374は、ステップS391において、注目ブロックの差分圧縮データである第4の差分データを解析し、その第4の差分データにおいて可変長符号となっている前動きベクトル(-U1,-V1)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた前動きベクトル(-U1,-V1)は、可変長復号部374から相関最大位置検出部377に供給される。 When the differential compressed data of the block of interest is the fourth differential data, the fourth differential data includes the previous motion vector (−U 1 , −V 1 ) as described above. Therefore, in step S391, the variable length decoding unit 374 analyzes the fourth difference data that is the difference compressed data of the block of interest, and the previous motion vector (−U that is a variable length code in the fourth difference data). 1 , -V 1 ) is variable length decoded. The previous motion vector (−U 1 , −V 1 ) obtained by performing variable length decoding in the variable length decoding unit 374 is supplied from the variable length decoding unit 374 to the maximum correlation position detection unit 377.

さらに、ステップS391では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが4である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置関係を検出する。 Further, in step S391, the maximum correlation position detection unit 377 receives the determination result that the case ID is 4 from the case ID determination unit 373, and in this case, the attention block is read from the reference storage unit 372. in the Past reference image V P, the correlation between the target block is detected with high positional relationship.

即ち、相関最大位置検出部377は、パストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置が、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置であることを、可変長復号部374からの前動きベクトル(-U1,-V1)から検出し、その位置関係、つまり、可変長復号部374からの前動きベクトル(-U1,-V1)を、推測部378に供給して、ステップS391からS392に進む。 That is, the maximum correlation position detection unit 377 indicates that the position having a high correlation with the target block in the past reference image V P is a position shifted from the target block by the previous motion vector (−U 1 , −V 1 ). , Detected from the previous motion vector (−U 1 , −V 1 ) from the variable length decoding unit 374, and the positional relationship, that is, the previous motion vector (−U 1 , −V 1 ) from the variable length decoding unit 374 is detected. , The process proceeds to step S392 from step S391.

ステップS392では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からの前動きベクトル(-U1,-V1)が表す位置にある、パストリファレンス画像VPの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。 In step S392, the estimation unit 378 determines the region of the past reference image V P in which the position from the target block is at the position represented by the previous motion vector (−U 1 , −V 1 ) from the correlation maximum position detection unit 377. An estimated value of the target block is obtained from the image data and supplied to the adding unit 379.

即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の、注目ブロックと同一サイズの領域の画像データを切り出し、注目ブロックの推測値Pre(x,y)として、加算部379に供給して、ステップS392からS393に進む。 That is, the estimating unit 378 cuts out the Past reference image V P, from the target block prior to the motion vector (-U 1, -V 1) of a position shifted by the image data of a region of the target block and the same size, the block of interest The estimated value Pre (x, y) is supplied to the adding unit 379, and the process proceeds from step S392 to S393.

ステップS393では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS394に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。   In step S393, the addition unit 379 adds the difference value Sub (x, y) of the target block from the conversion unit 376 and the estimated value Pre (x, y) of the target block from the estimation unit 378, thereby The target block Ic (x, y) is restored, and the process proceeds to step S394. The target block Ic (x, y) is output to the synthesis unit 365 (FIG. 110).

次に、図120のフローチャートを参照して、注目ブロックの差分圧縮データが第5の差分データである場合の、その第5の差分データの復元について説明する。   Next, with reference to the flowchart of FIG. 120, restoration of the fifth difference data when the difference compressed data of the target block is the fifth difference data will be described.

注目ブロックの差分圧縮データが、第5の差分データである場合には、その第5の差分データには、上述したように、後動きベクトル(U2,V2)が含まれる。そこで、可変長復号部374は、ステップS401において、注目ブロックの差分圧縮データである第5の差分データを解析し、その第5の差分データにおいて可変長符号となっている後動きベクトル(U2,V2)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた後動きベクトル(U2,V2)は、可変長復号部374から相関最大位置検出部377に供給される。 When the differential compressed data of the block of interest is the fifth differential data, the fifth differential data includes the back motion vector (U 2 , V 2 ) as described above. Therefore, in step S401, the variable length decoding unit 374 analyzes the fifth difference data that is the difference compressed data of the block of interest, and the post motion vector (U 2) that is a variable length code in the fifth difference data. , V 2 ) is variable length decoded. The post motion vector (U 2 , V 2 ) obtained by performing variable length decoding in the variable length decoding unit 374 is supplied from the variable length decoding unit 374 to the maximum correlation position detection unit 377.

さらに、ステップS401では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが5である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出する。 Further, in step S401, the maximum correlation position detection unit 377 receives the determination result that the case ID is 5 from the case ID determination unit 373, and in this case, the attention block is read from the reference storage unit 372. in the Futuresse reference image V F, the correlation between the target block is detected with high positional relationship.

即ち、相関最大位置検出部377は、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置が、注目ブロックから後動きベクトル(U2,V2)だけずれた位置であることを、可変長復号部374からの後動きベクトル(U2,V2)から検出し、その位置関係、つまり、可変長復号部374からの後動きベクトル(U2,V2)を、推測部378に供給して、ステップS401からS402に進む。 In other words, the maximum correlation position detection section 377, in Futuresse reference image V F, that high correlation position of the block of interest, a position shifted by backward motion vector (U 2, V 2) from the target block, the variable Detected from the back motion vector (U 2 , V 2 ) from the long decoding unit 374, and supplies the positional relationship, that is, the back motion vector (U 2 , V 2 ) from the variable length decoding unit 374 to the estimation unit 378. Then, the process proceeds from step S401 to S402.

ステップS402では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からの後動きベクトル(U2,V2)が表す位置にある、フューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。 In step S402, the estimation unit 378 has the image data of the area of the feature reference image V F in which the position from the target block is at the position represented by the back motion vector (U 2 , V 2 ) from the maximum correlation position detection unit 377. Then, an estimated value of the target block is obtained and supplied to the adding unit 379.

即ち、推測部378は、フューチャリファレンス画像VFにおいて、注目ブロックから後動きベクトル(U2,V2)だけずれた位置の、注目ブロックと同一サイズの領域の画像データを切り出し、注目ブロックの推測値Pre(x,y)として、加算部379に供給して、ステップS402からS403に進む。 That is, the estimating unit 378, the Futuresse reference image V F, the position shifted by backward motion vector (U 2, V 2) from the target block, the image data of the region of interest blocks the same size cut out, guess of the block of interest The value Pre (x, y) is supplied to the adding unit 379, and the process proceeds from step S402 to S403.

ステップS403では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS404に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。   In step S403, the addition unit 379 adds the difference value Sub (x, y) of the target block from the conversion unit 376 and the estimated value Pre (x, y) of the target block from the estimation unit 378, thereby The target block Ic (x, y) is restored, and the process proceeds to step S404, where the target block Ic (x, y) is output to the synthesis unit 365 (FIG. 110).

次に、図121のフローチャートを参照して、注目ブロックの差分圧縮データが第6の差分データである場合の、その第6の差分データの復元について説明する。   Next, with reference to the flowchart in FIG. 121, restoration of the sixth difference data when the difference compressed data of the block of interest is the sixth difference data will be described.

注目ブロックの差分圧縮データが、第6の差分データである場合には、その第6の差分データは、注目ブロックの推定値Pre(x,y)を0として、注目ブロックIc(x,y)とその推定値Pre(x,y)との差分をとったものとなっている。   When the difference compressed data of the block of interest is the sixth difference data, the sixth difference data sets the estimated value Pre (x, y) of the block of interest to 0, and the block of interest Ic (x, y) And the estimated value Pre (x, y).

そこで、相関最大位置検出部377は、ケースID判定部373から、ケースIDが6である旨の判定結果が供給された場合、その判定結果を、推定部378に供給し、推定部378は、相関最大位置検出部377から、ケースIDが6である旨の判定結果が供給された場合には、注目ブロックの推測値Pre(x,y)として0を、加算部379に供給する。   Therefore, when the determination result indicating that the case ID is 6 is supplied from the case ID determination unit 373, the maximum correlation position detection unit 377 supplies the determination result to the estimation unit 378, and the estimation unit 378 When the determination result that the case ID is 6 is supplied from the maximum correlation position detection unit 377, 0 is supplied to the addition unit 379 as the estimated value Pre (x, y) of the block of interest.

この場合、加算部379は、ステップS411において、変換部376からの注目ブロックの差分値Sub(x,y)(但し、ここでは、注目ブロックの画像データIc(x,y)に等しい)と、推測部378からの注目ブロックの推測値Pre(x,y)(但し、ここでは、0)とを加算し、これにより、注目ブロックIc(x,y)を復元して、合成部365(図110)に出力する。   In this case, in step S411, the adding unit 379 calculates the difference value Sub (x, y) of the target block from the conversion unit 376 (here, equal to the image data Ic (x, y) of the target block), The estimated value Pre (x, y) (here, 0) of the target block from the estimation unit 378 is added, thereby restoring the target block Ic (x, y), and the synthesis unit 365 (FIG. 110).

なお、表示装置3(図24)が、例えば、60fpsのフレームレートでの表示しか行うことができない場合には、図110の受信装置では、入力端子361からのビットストリームのみを、解凍回路363において復元し、その結果得られる60fps動画データを、そのまま、合成部365を介して、表示装置3に出力すればよい。   For example, when the display device 3 (FIG. 24) can only display at a frame rate of 60 fps, the receiving device of FIG. 110 receives only the bit stream from the input terminal 361 in the decompression circuit 363. The restored 60fps moving image data may be output as it is to the display device 3 via the synthesizing unit 365.

また、表示装置3(図24)が、例えば、120fpsのフレームレートでの表示しか行うことができない場合には、図110の受信装置では、以下のような処理を行えばよい。   In addition, when the display device 3 (FIG. 24) can only display at a frame rate of 120 fps, for example, the receiving device of FIG. 110 may perform the following processing.

即ち、解凍回路363では、入力端子361からのビットストリームを、60fps動画データに復元し、合成部365に供給する。また、差分情報復元部364では、入力端子362からの差分圧縮データのうちの、図82で説明した変数sが2のフレームのブロックの差分圧縮データを復元し、合成部365に供給する。   That is, the decompression circuit 363 restores the bit stream from the input terminal 361 to 60 fps moving image data and supplies it to the synthesis unit 365. Also, the differential information restoring unit 364 restores the differential compressed data of the block of the frame with the variable s described in FIG. 82 out of the differential compressed data from the input terminal 362 and supplies the restored differential data to the synthesizing unit 365.

この場合、解凍回路363から合成部365に対しては、例えば、図80の上から2番目に示した60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・が供給される。また、差分情報復元部364から合成部365に対しては、例えば、図80の一番下に示した240-60fps動画データのフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・のうちの、フレーム・・・,f3,f7,f11,・・・が供給される。 In this case, for example, the frame of 60 fps moving image data shown second from the top in FIG. 80..., F 1 , f 5 , f 9 , f 13 ,.・ Is supplied. Further, for example, the frame of 240-60 fps moving image data shown at the bottom of FIG. 80..., F 2 , f 3 , f 4 , f 6 , Of f 7 , f 8 , f 10 , f 11 , f 12 ,..., frames..., f 3 , f 7 , f 11 ,.

従って、合成部365では、解凍回路363からの60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・と、差分情報復元部364からのフレーム・・・,f3,f7,f11,・・・を、フレーム・・・,f1,f3,f5,f7,f9,f11,f13,・・・の順で選択して出力することにより、フレームレートが120fpsの動画データを得ることができる。このフレームレートが120fpsの動画データを、表示装置3に出力すればよい。 Therefore, in the synthesis unit 365, frames of 60 fps moving image data from the decompression circuit 363,..., F 1 , f 5 , f 9 , f 13 ,. Select f 3 , f 7 , f 11 ,... in the order of frame..., f 1 , f 3 , f 5 , f 7 , f 9 , f 11 , f 13 ,. By doing so, it is possible to obtain moving image data having a frame rate of 120 fps. The moving image data having a frame rate of 120 fps may be output to the display device 3.

このようにして、図110の受信装置2では、表示装置3(図24)の表示能力(フレームレート)に応じて適切なフレームレートの動画データを得ることができる。   In this manner, the receiving device 2 in FIG. 110 can obtain moving image data having an appropriate frame rate according to the display capability (frame rate) of the display device 3 (FIG. 24).

以上説明したように、図79の送信装置1では、例えば、240fps動画データなどの高フレームレートの動画データを高圧縮し、また、図110の受信装置2では、そのように高圧縮された高フレームレートの動画データを復元することができる。   As described above, the transmission apparatus 1 in FIG. 79 highly compresses high frame rate moving picture data such as 240 fps moving picture data, for example, and the receiving apparatus 2 in FIG. Frame rate video data can be restored.

特に、第1の差分データに関しては、高フレームレート(例えば、240fps)の動画を復元する際に、復元したい高フレームレートの動画の中の1枚の画像に注目する。この注目した「復元したい画像」(ターゲット画像)に対して時間的に近くにある複数(例えば2枚)の「低フレームレートを構成する画像(例えば、前述のパストリファレンス画像とフューチャリファレンス画像)」を取り出し、その取り出された複数の画像同士において相関が高い位置関係にある部分(例えば、式(9)の相関情報e1(U',V')を最小とする(U',V'))を求め、その部分から注目している「復元したい画像」を復元するようにしている。これにより、圧縮側(送信装置1)から解凍側(受信装置2)へ、動きベクトルを送信しなくてよいという利点がある。これは、データ量削減に効果がある。 In particular, regarding the first difference data, when restoring a high frame rate (for example, 240 fps) moving image, attention is paid to one image in the high frame rate moving image to be restored. A plurality of (for example, two) “images constituting a low frame rate (for example, the above-described past reference image and feature reference image)” that are close in time to this noticed “image to be restored” (target image) And a portion (for example, correlation information e 1 (U ′, V ′) in Expression (9)) that has a high correlation in the extracted images is minimized (U ′, V ′). ) To restore the “image you want to restore”. Thereby, there is an advantage that it is not necessary to transmit a motion vector from the compression side (transmission device 1) to the decompression side (reception device 2). This is effective in reducing the amount of data.

さらに、動きベクトルを含まない第1の差分データについては、パストリファレンス画像とフューチャリファレンス画像において、相関が高い位置関係が複数あるときに復元に失敗することがあり得る。そこで、そのような場合に対処すべく、送信装置1では、第1の差分データの他に、相関最大ベクトル(U,V)を含む第2の差分データ、さらには、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)の両方を含む第3の差分データ、前動きベクトル(-U1,-V1)を含む第4の差分データ、後動きベクトル(U2,V2)を含む第5の差分データ、リファレンス画像を参照せずに復元することができる第6の差分データを採用し、必要に応じて、第1乃至第6の差分データのうちのいずれかを選択する。従って、動画データの復元に失敗することを防止することができる。 Further, the first difference data that does not include a motion vector may fail to be restored when there are a plurality of positional relationships with high correlation in the past reference image and the future reference image. Therefore, in order to deal with such a case, in the transmission apparatus 1, in addition to the first difference data, the second difference data including the correlation maximum vector (U, V), and the previous motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ), the third difference data, the front motion vector (−U 1 , −V 1 ), the fourth difference data, and the back motion vector The fifth difference data including (U 2 , V 2 ) and the sixth difference data that can be restored without referring to the reference image are adopted, and the first to sixth difference data are included as necessary. Select one of them. Therefore, it is possible to prevent a failure in restoring the moving image data.

さらに、図79の送信装置1では、低フレームレートの動画に関するデータ(前述のビットストリーム)と、その低フレームレートの動画から高フレームレートの動画を復元する際に必要となるデータ(前述の差分圧縮データ)とを別々に分けていることにより、「低フレームレートの動画に関するデータ」だけを、図110の受信装置2が受信することで、低フレームレートの動画を復元することが出来る。また、「低フレームレートの動画に関するデータ」と「その低フレームレートの動画から高フレームレートの動画を復元する際に必要となるデータ」の両方を受信装置2が受信することで、高フレームレートの動画を復元することが出来る。即ち、いわゆる、テンポラルスケーラビリティを持たせることが出来る。   Further, in the transmission apparatus 1 of FIG. 79, data relating to a low frame rate moving image (the above-described bit stream) and data required for restoring a high frame rate moving image from the low frame rate moving image (the above difference) 110 is received separately by the receiving apparatus 2 in FIG. 110, so that the low frame rate moving image can be restored. In addition, the receiving apparatus 2 receives both “data relating to a low frame rate moving image” and “data necessary for restoring a high frame rate moving image from the low frame rate moving image”, whereby a high frame rate is obtained. Can be restored. In other words, so-called temporal scalability can be provided.

次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, the series of processes described above can be performed by dedicated hardware or by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図122は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 122 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.

コンピュータのメイン・コントローラであるCPU(Central Processing Unit)401は、バス408を介して、各部に接続されており、オペレーティング・システム(OS)の制御下で、アプリケーションプログラムを実行することにより、上述した一連の処理を行う。CPU401が実行するアプリケーションプログラムには、上述した一連の処理を行うためのものが含まれており、CPU401は、例えば、VTR(Video Tape Recorder)410から、VTRインターフェース409、バス408、および外部機器インターフェース407を介して、HDD(Hard disk Drive)414へダウンロードされた動画データを処理する。   A CPU (Central Processing Unit) 401, which is the main controller of the computer, is connected to each unit via a bus 408, and executes the application program under the control of the operating system (OS) to thereby execute the above-described operation. Perform a series of processing. The application program executed by the CPU 401 includes an application program for performing the above-described series of processing. The moving image data downloaded to the HDD (Hard disk Drive) 414 via 407 is processed.

メモリ402は、CPU401において実行されるプログラム・コードを格納したり、実行中の作業データを一時保管するために使用される記憶装置である。なお、メモリ402には、ROM(Read Only Memory)などの不揮発性メモリ及びDRAM(Dynamic Random Access Memory)などの揮発性メモリの双方が含まれる。   The memory 402 is a storage device used for storing program codes executed by the CPU 401 and temporarily storing work data being executed. The memory 402 includes both a nonvolatile memory such as a ROM (Read Only Memory) and a volatile memory such as a DRAM (Dynamic Random Access Memory).

ディスプレイコントローラ403は、CPU401が発行する描画命令を実際に処理するための専用コントローラである。ディスプレイ・コントローラ403において処理された描画データは、例えばフレーム・バッファ(図示しない)に一旦書き込まれた後、ディスプレイ411によって画面出力される。例えば、HDD414から再生された動画は、上述したように、ディスプレイ411で画面表示される。   The display controller 403 is a dedicated controller for actually processing a drawing command issued by the CPU 401. The drawing data processed in the display controller 403 is temporarily written in a frame buffer (not shown), for example, and then output on the screen by the display 411. For example, the moving image reproduced from the HDD 414 is displayed on the screen of the display 411 as described above.

入力機器インターフェース404は、キーボード412やマウス413などのユーザ入力機器をコンピュータに接続するための装置である。ユーザは、キーボード412やマウス413を介して、動画を再生するためのコマンドなどを入力することができる。   The input device interface 404 is a device for connecting user input devices such as a keyboard 412 and a mouse 413 to a computer. A user can input a command or the like for playing back a moving image via the keyboard 412 or the mouse 413.

ネットワークインターフェース405は、Ethernet(登録商標)などの所定の通信プロトコルに従って、コンピュータをLAN(Local Area Network)などの局所的ネットワーク、さらにはインターネットのような広域ネットワークに接続することができる。なお、ネットワーク上では、複数のホスト端末やサーバ(図示しない)がトランスペアレントな状態で接続され、分散コンピューティング環境が構築されている。ネットワーク上では、上述した一連の処理を実行するためのアプリケーションプログラムを含むソフトウェア・プログラムや、上述のビットストリーム(エンコードデータ)、差分圧縮データを含むデータ・コンテンツなどの配信サービスを行うことができる。また、コンピュータでは、例えば、他人が撮影した動画等が保存されているサーバから、動画データや、上述のビットストリーム、差分圧縮データを、ネットワークを経由してネットワークインターフェース405で受信し、HDD414へダウンロードすることができる。   The network interface 405 can connect the computer to a local network such as a LAN (Local Area Network) and further to a wide area network such as the Internet according to a predetermined communication protocol such as Ethernet (registered trademark). On the network, a plurality of host terminals and servers (not shown) are connected in a transparent state, and a distributed computing environment is constructed. On the network, distribution services such as a software program including an application program for executing the above-described series of processing, a data content including the above-described bit stream (encoded data), and differentially compressed data can be provided. In addition, the computer receives, for example, moving image data, the above-described bit stream, and differentially compressed data from the server storing moving images taken by others by the network interface 405 via the network and downloads them to the HDD 414. can do.

外部機器インターフェース407は、HDD414やメディア・ドライブ415などの外部装置をコンピュータに接続するための装置である。   The external device interface 407 is a device for connecting external devices such as the HDD 414 and the media drive 415 to the computer.

HDD414は、記憶媒体としての磁気ディスクを固定的に搭載したランダムアクセス可能な外部記憶装置であり、記憶容量やデータ転送速度などの点で他の外部記憶装置よりも優れている。HDD414には、上述した一連の処理を実行するアプリケーションプログラム等がインストールされる。ここで、「インストール」とは、ソフトウェア・プログラムを実行可能な状態でHDD414上に置くことを意味する。HDD414には、CPU401が実行すべきオペレーティング・システムのプログラム・コードや、アプリケーション・プログラム、デバイス・ドライバなどが不揮発的に格納される。なお、アプリケーションプログラムは、可搬形メディア416から、あるいは、ネットワークインターフェース405を介してダウンロードして、HDD414にインストールすることができる。また、アプリケーションプログラムは、あらかじめHDD414にインストールしておくことができる。   The HDD 414 is a random-accessible external storage device in which a magnetic disk as a storage medium is fixedly mounted, and is superior to other external storage devices in terms of storage capacity and data transfer speed. The HDD 414 is installed with an application program that executes the above-described series of processing. Here, “install” means placing the software program on the HDD 414 in an executable state. The HDD 414 stores the operating system program code to be executed by the CPU 401, application programs, device drivers, and the like in a nonvolatile manner. The application program can be downloaded from the portable medium 416 or via the network interface 405 and installed in the HDD 414. The application program can be installed in the HDD 414 in advance.

メディア・ドライブ415は、CD(Compact Disc)やMO(Magneto-Optical disc)、DVD(Digital Versatile Disc)などの可搬型メディア416を装填して、そのデータ記録面にアクセスするための装置である。   The media drive 415 is a device for loading portable media 416 such as CD (Compact Disc), MO (Magneto-Optical disc), DVD (Digital Versatile Disc), etc., and accessing the data recording surface.

可搬型メディア416は、主として、ソフトウェア・プログラムやデータ・ファイルなどをコンピュータ可読形式のデータとしてバックアップすることや、これらをシステム間で移動(すなわち販売・流通・配布を含む)する目的で使用される。上述した一連の処理を実行するアプリケーションプログラムや、そのアプリケーションプログラムを実行することにより得られるデータは、可搬型メディア416を利用して複数の機器間で物理的に流通・配布することができる。また、データは、ネットワークインターフェース405を介して配信することもできる。   The portable media 416 is used mainly for the purpose of backing up software programs, data files, and the like as data in a computer-readable format, and for moving them between systems (that is, including sales, distribution, and distribution). . An application program that executes the above-described series of processing and data obtained by executing the application program can be physically distributed and distributed among a plurality of devices by using the portable medium 416. Data can also be distributed via the network interface 405.

VTRインターフェース409は、VTR410から再生される動画をコンピュータ内に取り込むための装置である。   The VTR interface 409 is a device for taking a moving image reproduced from the VTR 410 into the computer.

ここで、図122に示すコンピュータとしては、米IBM社のパーソナル・コンピュータ"PC/AT(Personal Computer/Advanced Technology)"の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。   Here, as the computer shown in FIG. 122, a compatible computer or a successor of IBM's personal computer “PC / AT (Personal Computer / Advanced Technology)” can be employed. Of course, you may employ | adopt the computer provided with the other architecture.

なお、図79の送信装置1では、240fps動画データを処理するようにしたが、送信装置1で処理する動画データのフレームレートは、240fpsに限定されるものではない。さらに、分離回路213における動画データの分離の仕方も、動画データを、60fps動画データと、残りの240-60fps動画データとに分離するものに限定されるものではない。即ち、分離回路213では、例えば、240fps動画データを、30fps、あるいは120fpsの動画データと、残りの動画データとに分離することなどが可能である。   Note that although the transmission device 1 in FIG. 79 processes 240 fps moving image data, the frame rate of the moving image data processed by the transmission device 1 is not limited to 240 fps. Further, the method of separating the moving image data in the separation circuit 213 is not limited to the method of separating the moving image data into 60 fps moving image data and the remaining 240-60 fps moving image data. That is, the separation circuit 213 can separate, for example, 240 fps moving image data into 30 fps or 120 fps moving image data and the remaining moving image data.

また、上述の説明における「フレーム」は、「フィールド」と読み替えることができる。   Further, “frame” in the above description can be read as “field”.

さらに、本実施の形態では、注目ブロックの推測値を、パストリファレンス画像またはフューチャリファレンス画像を用いて求めるようにしたが、注目ブロックの推測値は、さらに、パストリファレンス画像の時間的に前にあるフレームや、フューチャリファレンス画像の時間的に後にあるフレームを用いて求めるようにすることも可能である。   Furthermore, in the present embodiment, the estimated value of the target block is obtained using the past reference image or the future reference image. However, the estimated value of the target block is further in time before the past reference image. It is also possible to use a frame or a frame that is temporally after the future reference image.

また、図79の送信装置1では、1つのブロックごとに、第1乃至第6の差分データを求め、その中から、ブロックの圧縮結果となるものを選択するようにしたが、送信装置1では、第1の差分データだけ、または第2の差分データだけを求め、その第1または第2の差分データを、そのまま、ブロックの圧縮結果(差分圧縮データ)としてもよい。さらに、送信装置1では、第1の差分データと、第2乃至第6のうちの1以上の差分データとを求め、その中から、ブロックの圧縮結果となるものを選択してもよい。また、送信装置1では、第2の差分データと、第1の差分データおよび第3乃至第6のうちの1以上の差分データとを求め、その中から、ブロックの圧縮結果となるものを選択してもよい。   79 obtains the first to sixth difference data for each block, and selects the data that is the block compression result from the first to sixth difference data. Alternatively, only the first difference data or only the second difference data may be obtained, and the first or second difference data may be used as the block compression result (difference compressed data) as it is. Further, the transmission device 1 may obtain the first difference data and one or more of the second to sixth difference data, and may select a block compression result from the first difference data. Further, the transmission apparatus 1 obtains the second difference data, the first difference data, and one or more of the third to sixth difference data, and selects the one that becomes the block compression result from the second difference data May be.

2次元平面(x,y)に時間方向(t)を加えた3次元空間における動画データを示す図である。It is a figure which shows the moving image data in the three-dimensional space which added the time direction (t) to the two-dimensional plane (x, y). 人間の視覚によって認識することができる動画の周波数ドメイン上の範囲を示す図である。It is a figure which shows the range on the frequency domain of the moving image which can be recognized by human vision. 静止している動画の部分のデータが分布する周波数ドメイン上の領域を示す図である。It is a figure which shows the area | region on the frequency domain where the data of the part of the moving image which are still are distributed. 被写体が速度(r0/t0)/2程度で動いている部分のデータが分布する周波数ドメイン上の領域を示す図である。Subject is a diagram showing a region on the frequency domain data is distributed in the moving parts at a rate (r 0 / t 0) / 2 approximately. 速度(r0/t0)/2で動いている被写体を示す波形図である。It is a waveform diagram showing a moving subject at a rate (r 0 / t 0) / 2. 速度(r0/t0)/2で動いている被写体を示す図である。It is a diagram showing a moving subject at a rate (r 0 / t 0) / 2. 速度(r0/t0)/2程度で動いている部分のデータの周波数ドメイン上の部分を説明するための図である。It is a diagram for explaining a portion of a frequency domain data of the moving parts at a rate (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域を示す図である。Subject is a diagram showing a region on the frequency domain data is distributed in the moving parts in the order rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域を示す図である。Subject is a diagram showing a region on the frequency domain data is distributed in the moving parts in the order rate 2r 0 / t 0. 動画の静止している部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a figure explaining the area | region on the frequency domain which a human can recognize about the still part of a moving image. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 動画の静止している部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a figure explaining the area | region on the frequency domain which a human can recognize about the still part of a moving image. 被写体が速度(r0/t0)/2程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。It is a diagram for explaining a region of the frequency domain that can recognize human the portion where the subject is moving at a speed (r 0 / t 0) / 2 approximately. 被写体が速度r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate r 0 / t 0. 被写体が速度2r0/t0程度で動いている部分について人間が認識することができる周波数ドメイン上の領域を説明する図である。Subject is a diagram for explaining a region of the frequency domain that a human can recognize the portion in motion at about the rate 2r 0 / t 0. 本発明が適用される画像処理システムの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image processing system to which this invention is applied. 送信装置1の第1の構成例を示すブロック図である。3 is a block diagram illustrating a first configuration example of a transmission apparatus 1. FIG. 送信装置1の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the transmission device 1. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. 送信装置1が出力する動画データを説明する図である。It is a figure explaining the moving image data which the transmitter 1 outputs. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. 主成分方向を取得する方法を説明するフローチャートである。It is a flowchart explaining the method of acquiring a principal component direction. 受信装置2の第1の構成例を示すブロック図である。3 is a block diagram illustrating a first configuration example of a receiving device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 受信装置2でのアップサンプリング後の動画データを説明する図である。FIG. 6 is a diagram for explaining moving image data after upsampling in the receiving apparatus 2; 受信装置2でのアップサンプリング後の動画データを説明する図である。FIG. 6 is a diagram for explaining moving image data after upsampling in the receiving apparatus 2; 受信装置2でのアップサンプリング後の動画データを説明する図である。FIG. 6 is a diagram for explaining moving image data after upsampling in the receiving apparatus 2; 受信装置2でのアップサンプリング後の動画データを説明する図である。FIG. 6 is a diagram for explaining moving image data after upsampling in the receiving apparatus 2; 電子シャッタによる積分を説明する図である。It is a figure explaining the integration by an electronic shutter. フィルタの通過帯域を説明する図である。It is a figure explaining the pass band of a filter. フィルタの通過帯域を説明する図である。It is a figure explaining the pass band of a filter. フィルタの通過帯域を説明する図である。It is a figure explaining the pass band of a filter. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 送信装置1に供給される高フレームレートの動画データを示す波形図である。FIG. 4 is a waveform diagram showing high frame rate moving image data supplied to the transmission apparatus 1. 主成分方向取得部31の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a principal component direction acquisition unit 31. FIG. 相関情報を示す図である。It is a figure which shows correlation information. スケーリング後の相関情報を示す図である。It is a figure which shows the correlation information after scaling. 合成相関情報を示す図である。It is a figure which shows synthetic | combination correlation information. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 動きベクトルを示す図である。It is a figure which shows a motion vector. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. 主成分方向取得部31の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a principal component direction acquisition unit 31. フィルタ部22の処理を説明するフローチャートである。4 is a flowchart for explaining processing of a filter unit 22; 静止している被写体と動いている被写体を示す図である。It is a figure which shows the to-be-photographed subject and the to-be-moved subject. 静止している被写体と動いている被写体とが投影された動画データを示す波形図である。FIG. 6 is a waveform diagram showing moving image data in which a stationary subject and a moving subject are projected. 静止している被写体と動いている被写体とが投影された動画データを示す波形図である。FIG. 6 is a waveform diagram showing moving image data in which a stationary subject and a moving subject are projected. 主成分方向取得部31の他の構成例を示すブロック図である。10 is a block diagram illustrating another configuration example of the principal component direction acquisition unit 31. FIG. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ生成部23の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a filter generation unit 23. フィルタ部22の処理を説明するフローチャートである。4 is a flowchart for explaining processing of a filter unit 22; 送信装置1の第2の構成例を示すブロック図である。6 is a block diagram illustrating a second configuration example of the transmission device 1. FIG. 240fps動画データ、60fps動画データ、および240-60fps動画データを示す図である。It is a figure which shows 240fps moving image data, 60fps moving image data, and 240-60fps moving image data. 差分情報抽出部217の構成例を示すブロック図である。5 is a block diagram illustrating a configuration example of a difference information extraction unit 217. FIG. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す図である。FIG. 6 is a diagram showing a target image V T , a past reference image V P , and a future reference image V F. 被写体を示す波形図である。It is a wave form diagram which shows a to-be-photographed object. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a past reference image V P and a feature reference image V F. パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a past reference image V P and a feature reference image V F. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFを示す波形図である。FIG. 6 is a waveform diagram showing a target image V T , a past reference image V P , and a future reference image V F. 差分データ計算部234の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a difference data calculation unit 234. FIG. 差分データ計算部234の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a difference data calculation unit 234. 差分データ計算部235の構成例を示すブロック図である。4 is a block diagram illustrating a configuration example of a difference data calculation unit 235. FIG. 差分データ計算部235の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a difference data calculation unit 235. 差分データ計算部236の構成例を示すブロック図である。5 is a block diagram illustrating a configuration example of a difference data calculation unit 236. FIG. 差分データ計算部236の処理を説明するフローチャートである。5 is a flowchart for explaining processing of a difference data calculation unit 236. 差分データ計算部237の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a difference data calculation unit 237. FIG. 差分データ計算部237の処理を説明するフローチャートである。It is a flowchart explaining the process of the difference data calculation part 237. 差分データ計算部238の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a difference data calculation unit 238. FIG. 差分データ計算部238の処理を説明するフローチャートである。It is a flowchart explaining the process of the difference data calculation part 238. 差分データ計算部239の構成例を示すブロック図である。It is a block diagram which shows the structural example of the difference data calculation part 239. 差分データ計算部239の処理を説明するフローチャートである。It is a flowchart explaining the process of the difference data calculation part 239. FIG. 第1乃至第6の差分データのデータ構造を示す図である。It is a figure which shows the data structure of the 1st thru | or 6th difference data. ケースIDが付加された第1乃至第6の差分データのデータ構造を示す図である。It is a figure which shows the data structure of the 1st thru | or 6th difference data to which case ID was added. 送信装置1の処理を説明するフローチャートである。4 is a flowchart for explaining processing of the transmission device 1. 差分情報抽出部217が行うターゲット画像の圧縮を説明するフローチャートである。It is a flowchart explaining compression of the target image which the difference information extraction part 217 performs. 受信装置2の第2の構成例を示すブロック図である。6 is a block diagram illustrating a second configuration example of the reception device 2. FIG. 受信装置2の処理を説明するフローチャートである。5 is a flowchart for explaining processing of the reception device 2. 差分情報復元部364が行う240-60fps動画データのデコードを説明するフローチャートである。It is a flowchart explaining the decoding of 240-60fps moving image data which the difference information decompression | restoration part 364 performs. 差分情報復元部364の構成例を示すブロック図である。5 is a block diagram illustrating a configuration example of a difference information restoration unit 364. FIG. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 差分情報復元部364が行うブロックの画素値を求める処理を説明するフローチャートである。It is a flowchart explaining the process which calculates | requires the pixel value of the block which the difference information decompression | restoration part 364 performs. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

1 送信装置, 2 受信装置, 3 表示装置, 11 記録媒体, 12 伝送媒体, 21 バッファ部, 22 フィルタ部, 23 フィルタ生成部, 24 エンコード部, 31 主成分方向取得部, 32 フィルタ情報供給部, 50 デコード部, 51 バッファ部, 52 フィルタ部, 53 フィルタ生成部, 61 主成分方向取得部, 62 フィルタ情報供給部, 101 バッファ部, 102 ブロック抽出部, 103 相関演算部, 104 スケーリング合成部, 105 最小値検出部, 124 合成部, 125 最小値検出部, 211 入力端子, 212 帯域制限フィルタ部, 213 分離回路, 214 圧縮回路, 215 出力端子, 216 解凍回路, 217 差分情報抽出部, 218 出力端子, 221 リファレンス記憶部, 222 ターゲット記憶部, 223 データ処理部, 231乃至233 入力端子, 234乃至239 差分データ計算部, 240 選択回路, 241 出力端子, 251乃至253 入力端子, 254 相関最大位置検出部, 255 平均値計算部, 256 減算部, 257 変換部, 258 量子化部, 259 可変長符号化部, 260 出力端子, 271乃至273 入力端子, 274 相関最大位置検出部, 275 平均値計算部, 276 減算部, 277 変換部, 278 量子化部, 279 可変長符号化部, 280 出力端子, 291乃至293 入力端子, 294,295 相関最大位置検出部, 296 平均値計算部, 297 減算部, 298 変換部, 299 量子化部, 300 可変長符号化部, 301 出力端子, 311,312 入力端子, 313 相関最大位置検出部, 314 切り出し部, 315 減算部, 316 変換部, 317 量子化部, 318 可変長符号化部, 319 出力端子, 331,332 入力端子, 333 相関最大位置検出部, 334 切り出し部, 335 減算部, 336 変換部, 337 量子化部, 338 可変長符号化部, 339 出力端子, 351 入力端子, 352 変換部, 353 量子化部, 354 可変長符号化部, 355 出力端子, 361,362 入力端子, 363 解凍回路, 364 差分情報復元部, 365 合成部, 366 出力端子, 371 差分データ記憶部, 372 リファレンス記憶部, 373 ケースID判定部, 374 可変長復号部, 375 逆量子化部, 376 変換部, 377 相関最大位置検出部, 378 推測部, 379 加算部, 401 CPU, 402 メモリ, 403 ディスプレイコントローラ, 404 入力機器インターフェース, 405 ネットワークインターフェース, 407 外部機器インターフェース, 409 VTRインターフェース, 410 VTR, 411 ディスプレイ, 412 キーボード, 413 マウス, 414 HDD, 415 メディアドライブ, 416 可搬型メディア   DESCRIPTION OF SYMBOLS 1 Transmission apparatus, 2 Reception apparatus, 3 Display apparatus, 11 Recording medium, 12 Transmission medium, 21 Buffer part, 22 Filter part, 23 Filter production | generation part, 24 Encoding part, 31 Main component direction acquisition part, 32 Filter information supply part, 50 Decoding unit, 51 Buffer unit, 52 Filter unit, 53 Filter generation unit, 61 Principal component direction acquisition unit, 62 Filter information supply unit, 101 Buffer unit, 102 Block extraction unit, 103 Correlation calculation unit, 104 Scaling synthesis unit, 105 Minimum value detection unit, 124 synthesis unit, 125 minimum value detection unit, 211 input terminal, 212 band limiting filter unit, 213 separation circuit, 214 compression circuit, 215 output terminal, 216 decompression circuit, 217 difference information extraction unit, 218 output terminal , 22 Reference storage unit, 222 Target storage unit, 223 Data processing unit, 231 to 233 input terminal, 234 to 239 Difference data calculation unit, 240 selection circuit, 241 output terminal, 251 to 253 input terminal, 254 Correlation maximum position detection unit, 255 Average value calculation unit, 256 subtraction unit, 257 conversion unit, 258 quantization unit, 259 variable length coding unit, 260 output terminal, 271 to 273 input terminal, 274 maximum correlation position detection unit, 275 average value calculation unit, 276 subtraction Unit, 277 conversion unit, 278 quantization unit, 279 variable length coding unit, 280 output terminal, 291 to 293 input terminal, 294,295 correlation maximum position detection unit, 296 average value calculation unit, 297 subtraction unit, 298 conversion unit , 299 Quantizer, 00 variable length encoding unit, 301 output terminal, 311, 312 input terminal, 313 maximum correlation position detection unit, 314 clipping unit, 315 subtraction unit, 316 conversion unit, 317 quantization unit, 318 variable length encoding unit, 319 output Terminal, 331, 332 input terminal, 333 maximum correlation position detection unit, 334 extraction unit, 335 subtraction unit, 336 conversion unit, 337 quantization unit, 338 variable length coding unit, 339 output terminal, 351 input terminal, 352 conversion unit , 353 quantization unit, 354 variable length coding unit, 355 output terminal, 361, 362 input terminal, 363 decompression circuit, 364 differential information restoration unit, 365 synthesis unit, 366 output terminal, 371 differential data storage unit, 372 reference storage Part, 373 case ID judgment part, 374 variable length decoding unit, 375 inverse quantization unit, 376 conversion unit, 377 correlation maximum position detection unit, 378 estimation unit, 379 addition unit, 401 CPU, 402 memory, 403 display controller, 404 input device interface, 405 network interface, 407 External device interface, 409 VTR interface, 410 VTR, 411 display, 412 keyboard, 413 mouse, 414 HDD, 415 media drive, 416 portable media

Claims (39)

動画データを処理する画像処理装置において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separation means for separating data,
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. When,
An image processing apparatus comprising: a compression unit that compresses the third moving image data in units of blocks using the estimated value of the block.
前記第2の動画データと、前記圧縮手段による前記第3の動画データの圧縮結果とを、前記第1の動画データの圧縮結果として、独立に出力する
ことを特徴とする請求項1に記載の画像処理装置。
The output of the second moving image data and the compression result of the third moving image data by the compression unit are independently output as the compression result of the first moving image data. Image processing device.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出手段と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測手段と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮手段と、
前記圧縮手段による前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮手段による前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択手段と
をさらに備えることを特徴とする請求項1に記載の画像処理装置。
Other detection means for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
Other estimation means for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Other compression means for compressing the third moving image data in units of blocks using another estimated value of the block;
Selecting either one of the compressed data obtained by compressing the third moving image data by the compressing unit or the compressed data obtained by compressing the third moving image data by the other compressing unit; The image processing apparatus according to claim 1, further comprising: selection means for adding identification information for identifying the compressed data and outputting the identification data.
前記選択手段は、前記圧縮手段による前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮手段による前記第3の動画データの圧縮により得られる圧縮データのうちの、データ量が少ない方の圧縮データを選択する
ことを特徴とする請求項3に記載の画像処理装置。
The selection unit has a data amount of compressed data obtained by compression of the third moving image data by the compression unit or compressed data obtained by compression of the third moving image data by the other compression unit. The image processing apparatus according to claim 3, wherein a smaller amount of compressed data is selected.
前記第2の動画データと、前記識別情報が付加された圧縮データとを、前記第1の動画データの圧縮結果として、独立に出力する
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the second moving image data and the compressed data to which the identification information is added are independently output as a compression result of the first moving image data.
前記推測手段は、前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データの重み付き平均値を、前記ブロックの推測値として求める
ことを特徴とする請求項1に記載の画像処理装置。
The estimation unit obtains a weighted average value of image data of a plurality of frames of the second moving image data in the positional relationship detected by the detection unit as an estimation value of the block. Item 8. The image processing apparatus according to Item 1.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1の動画データの主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に特定の幅を有する領域を通過帯域として、前記第1の動画データをフィルタリングするフィルタ手段をさらに備え、
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする請求項1に記載の画像処理装置。
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data, with a region having a specific width in the direction as a passband,
The image processing apparatus according to claim 1, wherein the separation unit separates the first moving image data after filtering by the filter unit into the second and third moving image data.
動画データを処理する画像処理方法において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とする画像処理方法。
In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップと、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップと、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップと
をさらに含むことを特徴とする請求項8に記載の画像処理方法。
Another detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Another compression step of compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. The image processing method according to claim 8, further comprising: a selection step of adding identification information for identifying the compressed data and outputting the identification data.
動画データの処理をコンピュータに実行させるプログラムにおいて、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラム。
In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップと、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップと、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップと
をさらに含むことを特徴とする請求項10に記載のプログラム。
Another detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Another compression step of compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. The program according to claim 10, further comprising a selection step of adding identification information for identifying the compressed data and outputting the identification data.
動画データの処理をコンピュータに実行させるプログラムが記録されているプログラム記録媒体において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラムが記録されているプログラム記録媒体。
In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
And a compressing step of compressing the third moving image data in units of blocks using the estimated value of the block.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップと、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップと、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップと
をさらに含むことを特徴とするプログラムが記録されている請求項12に記載のプログラム記録媒体。
Another detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Another compression step of compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. The program recording medium according to claim 12, further comprising: a selection step of adding and outputting identification information for identifying the compressed data.
動画データを圧縮して得られるデータのデータ構造において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含むことを特徴とするデータ構造。
In the data structure of data obtained by compressing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
Compressed data obtained by compressing the block using the estimated value of the block;
A data structure comprising: the second moving image data.
前記第3の動画データの他のブロックについて、前記第2の動画データの複数フレームにおいて前記他のブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記他のブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記他のブロックの推測値を求め、
前記他のブロックの推測値を用いて、前記他のブロックを圧縮する
ことにより得られる他の圧縮データをさらに含み、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
ことを特徴とする請求項14に記載のデータ構造。
For another block of the third moving image data, detect one motion vector representing a positional relationship having a high correlation with the other block in a plurality of frames of the second moving image data;
Obtaining an estimated value of the other block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the other block is a positional relationship obtained from the one motion vector,
Further including other compressed data obtained by compressing the other block using the estimated value of the other block;
The compressed data and the other compressed data include identification information for identifying each,
The data structure according to claim 14, wherein the other compressed data further includes the one motion vector.
動画データを圧縮して得られるデータが記録されているデータ記録媒体において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含むことを特徴とするデータが記録されているデータ記録媒体。
In a data recording medium on which data obtained by compressing moving image data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
Compressed data obtained by compressing the block using the estimated value of the block;
A data recording medium on which data is recorded, comprising the second moving image data.
前記第3の動画データの他のブロックについて、前記第2の動画データの複数フレームにおいて前記他のブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記他のブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記他のブロックの推測値を求め、
前記他のブロックの推測値を用いて、前記他のブロックを圧縮する
ことにより得られる他の圧縮データをさらに含み、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
ことを特徴とするデータが記録されている請求項16に記載のデータ記録媒体。
For another block of the third moving image data, detect one motion vector representing a positional relationship having a high correlation with the other block in a plurality of frames of the second moving image data;
Obtaining an estimated value of the other block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the other block is a positional relationship obtained from the one motion vector,
Further including other compressed data obtained by compressing the other block using the estimated value of the other block;
The compressed data and the other compressed data include identification information for identifying each,
The data recording medium according to claim 16, wherein the other compressed data further includes the one motion vector.
動画データを処理する画像処理装置において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段と
を備え、
前記第1の復元手段は、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元手段と
を有する
ことを特徴とする画像処理装置。
In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block to the third moving image data using the second moving image data;
A second restoring means for synthesizing the second and third moving image data and restoring the first moving image data;
The first restoration means includes
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. When,
An image processing apparatus comprising: a block restoration unit that restores the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックは、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出手段は、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測手段は、前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元手段は、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出手段は、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測手段は、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元手段は、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とする請求項18に記載の画像処理装置。
The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
The detecting means detects a positional relationship having a high correlation in a plurality of frames of the second moving image data;
The estimation means estimates a block obtained by dividing a frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detection means. Find the value
The block restoration means restores the block using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
The detection means detects a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block from the one motion vector,
The estimation means determines an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship determined from the one motion vector,
The image processing apparatus according to claim 18, wherein the block restoration unit restores the block using an estimated value of the block and the other compressed data.
前記推測手段は、前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データの重み付き平均値を、前記ブロックの推測値として求める
ことを特徴とする請求項18に記載の画像処理装置。
The estimation unit obtains a weighted average value of image data of a plurality of frames of the second moving image data in the positional relationship detected by the detection unit as an estimation value of the block. Item 19. The image processing apparatus according to Item 18.
動画データを処理する画像処理方法において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップと
を含む
ことを特徴とする画像処理方法。
In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
An image processing method comprising: a block restoration step of restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックは、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出ステップでは、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測ステップでは、前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出ステップでは、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測ステップでは、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とする請求項21に記載の画像処理方法。
The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
In the detecting step, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data,
In the estimating step, a block obtained by dividing a frame of the third moving image data into blocks from a plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. Find the value
In the block restoration step, the block is restored using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
In the detection step, a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data is detected for the block from the one motion vector,
In the estimating step, an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
The image processing method according to claim 21, wherein in the block restoration step, the block is restored using the estimated value of the block and the other compressed data.
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップと
を含む
ことを特徴とするプログラム。
In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A block restoring step of restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックは、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出ステップでは、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測ステップでは、前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出ステップでは、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測ステップでは、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とする請求項23に記載のプログラム。
The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
In the detecting step, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data,
In the estimating step, a block obtained by dividing a frame of the third moving image data into blocks from a plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. Find the value
In the block restoration step, the block is restored using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
In the detection step, a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data is detected for the block from the one motion vector,
In the estimating step, an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
The program according to claim 23, wherein in the block restoration step, the block is restored using the estimated value of the block and the other compressed data.
動画データの処理を、コンピュータに実行させるプログラムが記録されているプログラム記録媒体において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップと
を含む
ことを特徴とするプログラムが記録されているプログラム記録媒体。
In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A program recording medium on which a program is recorded, comprising: a block restoring step of restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックは、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出ステップでは、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測ステップでは、前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出ステップでは、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測ステップでは、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とするプログラムが記録されている請求項25に記載のプログラム記録媒体。
The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
In the detecting step, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data,
In the estimating step, a block obtained by dividing a frame of the third moving image data into blocks from a plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. Find the value
In the block restoration step, the block is restored using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
In the detection step, a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data is detected for the block from the one motion vector,
In the estimating step, an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
26. The program recording medium according to claim 25, wherein in the block restoration step, the block is restored using the estimated value of the block and the other compressed data.
動画データを処理する画像処理装置において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出手段と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段と
を備えることを特徴とする画像処理装置。
In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separation means for separating data,
Detecting means for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data into blocks;
Inference means for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
An image processing apparatus comprising: a compression unit that compresses the third moving image data in units of blocks using the estimated value of the block.
前記第2の動画データと、前記圧縮手段による前記第3の動画データの圧縮結果とを、前記第1の動画データの圧縮結果として、独立に出力する
ことを特徴とする請求項27に記載の画像処理装置。
The said 2nd moving image data and the compression result of the said 3rd moving image data by the said compression means are output independently as a compression result of the said 1st moving image data. Image processing device.
前記推測手段は、前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データの重み付き平均値を、前記ブロックの推測値として求める
ことを特徴とする請求項27に記載の画像処理装置。
The estimation means uses, as an estimated value of the block, a weighted average value of image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector. The image processing apparatus according to claim 27, wherein the image processing apparatus is obtained.
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1の動画データの主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に特定の幅を有する領域を通過帯域として、前記第1の動画データをフィルタリングするフィルタ手段をさらに備え、
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする請求項27に記載の画像処理装置。
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data, with a region having a specific width in the direction as a passband,
The image processing apparatus according to claim 27, wherein the separating unit separates the first moving image data after filtering by the filtering unit into the second and third moving image data.
動画データを処理する画像処理方法において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とする画像処理方法。
In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data.
An estimation step of obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラム。
In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data.
An estimation step of obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
動画データの処理を、コンピュータに実行させるプログラムが記録されているプログラム記録媒体において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラムが記録されているプログラム記録媒体。
In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data.
An estimation step of obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
And a compressing step of compressing the third moving image data in units of blocks using the estimated value of the block.
動画データを圧縮して得られるデータのデータ構造において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含み、
前記圧縮データは、前記1つの動きベクトルを含む
ことを特徴とするデータ構造。
In the data structure of data obtained by compressing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Compressed data obtained by compressing the block using the estimated value of the block;
Including the second moving image data,
The compressed data includes the one motion vector.
動画データを圧縮して得られるデータが記録されているデータ記録媒体において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含み、
前記圧縮データは、前記1つの動きベクトルを含む
ことを特徴とするデータが記録されているデータ記録媒体。
In a data recording medium on which data obtained by compressing moving image data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Compressed data obtained by compressing the block using the estimated value of the block;
Including the second moving image data,
The compressed data includes the one motion vector. A data recording medium on which data is recorded.
動画データを処理する画像処理装置において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段と
を備え、
前記第1の復元手段は、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出手段と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元手段と
を有する
ことを特徴とする画像処理装置。
In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block to the third moving image data using the second moving image data;
A second restoring means for synthesizing the second and third moving image data and restoring the first moving image data;
The first restoration means includes
Detecting means for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data from the one motion vector;
An estimation means for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
An image processing apparatus comprising: a block restoration unit that restores the block using the estimated value of the block and the compressed data.
動画データを処理する画像処理方法において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップと
を含む
ことを特徴とする画像処理方法。
In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
From the one motion vector, a detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
An image processing method comprising: a block restoration step of restoring the block using the estimated value of the block and the compressed data.
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップと
を含む
ことを特徴とするプログラム。
In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
From the one motion vector, a detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A block restoration step of restoring the block using the estimated value of the block and the compressed data.
動画データの処理を、コンピュータに実行させるプログラムが記録されているプログラム記録媒体において、
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップと
を含む
ことを特徴とするプログラムが記録されているプログラム記録媒体。
In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
From the one motion vector, a detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A program recording medium on which a program is recorded, comprising: a block restoring step for restoring the block using the estimated value of the block and the compressed data.
JP2004268305A 2004-09-15 2004-09-15 Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium Withdrawn JP2006086707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004268305A JP2006086707A (en) 2004-09-15 2004-09-15 Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004268305A JP2006086707A (en) 2004-09-15 2004-09-15 Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium

Publications (1)

Publication Number Publication Date
JP2006086707A true JP2006086707A (en) 2006-03-30

Family

ID=36164866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004268305A Withdrawn JP2006086707A (en) 2004-09-15 2004-09-15 Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium

Country Status (1)

Country Link
JP (1) JP2006086707A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210279474A1 (en) * 2013-05-17 2021-09-09 Canon Kabushiki Kaisha Surveillance camera system and surveillance camera control apparatus
US20210392347A1 (en) * 2015-01-07 2021-12-16 Texas Instruments Incorporated Multi-pass video encoding

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210279474A1 (en) * 2013-05-17 2021-09-09 Canon Kabushiki Kaisha Surveillance camera system and surveillance camera control apparatus
US12118792B2 (en) * 2013-05-17 2024-10-15 Canon Kabushiki Kaisha Surveillance camera system and surveillance camera control apparatus
US20210392347A1 (en) * 2015-01-07 2021-12-16 Texas Instruments Incorporated Multi-pass video encoding
US11930194B2 (en) * 2015-01-07 2024-03-12 Texas Instruments Incorporated Multi-pass video encoding

Similar Documents

Publication Publication Date Title
US11653065B2 (en) Content based stream splitting of video data
US6400763B1 (en) Compression system which re-uses prior motion vectors
EP2214137B1 (en) A method and apparatus for frame interpolation
US20120163446A1 (en) Object Archival Systems and Methods
JP5130381B2 (en) Method and apparatus for efficient video processing
JP2009501479A (en) Image coder for texture areas
US7295711B1 (en) Method and apparatus for merging related image segments
WO2006016789A1 (en) Method and device for making virtual image region for motion estimation and compensation of panorama image
FR2884027A1 (en) Digital video images transmitting method for communication network, involves determining spatial zone, in image, corresponding to specified zone based on movement estimated in images sequence, and sending part of data of image of zone
Croci et al. Visual attention-aware quality estimation framework for omnidirectional video using spherical Voronoi diagram
JP2002518723A (en) Creating animation from video
JP7563864B2 (en) Videoconferencing based on adaptive face reconstruction and face restoration
US20060133472A1 (en) Spatial scalable compression
FR2729266A1 (en) METHOD FOR INTERPOLATING IMAGES
JP2013128260A (en) Image encoder, image decoder, image encoding method and image decoding method
JP2006086707A (en) Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium
JP4441865B2 (en) Image processing method, image processing apparatus, program, and program recording medium
JP2008182347A (en) Video processing system
US20060159177A1 (en) Motion estimation method, device, and system for image processing
US12063389B2 (en) 3D prediction method for video coding
JP4441866B2 (en) Image processing method, image processing apparatus, program, and program recording medium
JP5140637B2 (en) Spatiotemporal downsampling processing device, spatiotemporal upsampling processing device, encoding device, decoding device, and program
US5990959A (en) Method, system and product for direct rendering of video images to a video data stream
US20240163476A1 (en) 3d prediction method for video coding
CN116708863A (en) Live video encoding method, live video apparatus and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20071204