JP2006086707A - Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium - Google Patents
Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium Download PDFInfo
- Publication number
- JP2006086707A JP2006086707A JP2004268305A JP2004268305A JP2006086707A JP 2006086707 A JP2006086707 A JP 2006086707A JP 2004268305 A JP2004268305 A JP 2004268305A JP 2004268305 A JP2004268305 A JP 2004268305A JP 2006086707 A JP2006086707 A JP 2006086707A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- moving image
- block
- data
- positional relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理方法、プログラムおよびプログラム記録媒体、並びにデータ構造およびデータ記録媒体に関し、特に、例えば、高フレームレートの動画データを高圧縮し、また、復元することができるようにする画像処理装置および画像処理方法、プログラムおよびプログラム記録媒体、並びにデータ構造およびデータ記録媒体に関する。 The present invention relates to an image processing apparatus and an image processing method, a program and a program recording medium, and a data structure and a data recording medium. In particular, for example, high frame rate moving picture data can be highly compressed and restored. The present invention relates to an image processing apparatus, an image processing method, a program, a program recording medium, a data structure, and a data recording medium.
従来、動画(動画像)データは、毎秒30乃至60フレーム(30乃至60fps(Frame per second))程度のフレームレートで録画(記録)され、再生される。しかしながら、この程度のフレームレートでは、人間の視覚において、動被写体(動いている被写体)がぼけた画像に知覚されてしまうため、人間にとって、良好な画質が得られているとは言えなかった。 Conventionally, moving image (moving image) data is recorded (recorded) and reproduced at a frame rate of about 30 to 60 frames per second (30 to 60 fps (Frame per second)). However, at such a frame rate, a moving subject (moving subject) is perceived as a blurred image in human vision, and thus it cannot be said that good image quality is obtained for humans.
ところで、動画データを、240fps程度のフレームレートで記録し、再生すると、人間にとって良好な画質が得られることが知られている。 By the way, it is known that when moving image data is recorded and reproduced at a frame rate of about 240 fps, image quality good for human beings can be obtained.
240fpsのフレームレートの動画データは、240fpsの高フレームレートに対応した表示装置によって表示することができ、さらに、例えば、フレームを間引き、フレームレートを低下させることによって、30fpsや60fpsなどの低フレームレートの表示装置で表示することもできる。 Video data with a frame rate of 240 fps can be displayed on a display device that supports a high frame rate of 240 fps, and further, for example, by thinning out frames and reducing the frame rate, a low frame rate such as 30 fps or 60 fps It can also be displayed on the display device.
しかしながら、240fpsのフレームレートの動画データのフレームを単純に間引いた場合には、画像において、動きの滑らかさが損なわれることになる。 However, when the frames of moving image data having a frame rate of 240 fps are simply thinned out, the smoothness of the motion is lost in the image.
そこで、特許文献1には、高フレームレートの動画データの単純に間引くのではなく、高フレームレートの動画データの複数フレームの平均値を、低フレームレートの動画データとする方法が提案されている。さらに、特許文献1では、高フレームレートの動画データを、複数のフレームレートに対応する複数の階層に階層符号化する方法も提案されている。
Therefore,
ここで、例えば、120fpsの階層と、60fpsの階層との2階層の階層符号化が行われる場合には、例えば、120fpsの動画データの、あるフレームのデータD1と、次のフレームのデータD2との平均値(D1+D2)/2が、60fpsの階層の動画データとされ、データD1とD2のうちの一方のうちの、例えば、データD1だけが、120fpsの階層の動画データとされる。この場合、データD2は、60fpsの階層の動画データ(D1+D2)/2と、120fpsの階層の動画データD1とから求めることができる。
Here, for example, when two-layer encoding of a 120 fps layer and a 60 fps layer is performed, for example, data D 1 of a certain frame and data D of the next frame of 120 fps moving image data are used. average of 2 (D 1 + D 2) / 2 is set to the hierarchy of the moving image data of 60 fps, of one of the data D 1 and D 2, and the example, only the data D 1 is 120 fps hierarchy Video data. In this case, the data D 2 is the moving image data of
ところで、上述したように、240fpsなどの高フレームレートの動画データによれば、良好な画質を得ることができるが、240fpsの動画データは、従来の30fpsや60fpsの動画データに比較して、単純には、8倍や4倍の膨大なデータ量になる。このデータ量は、上述の階層符号化を行っても変わらない。そして、動画データのデータ量が膨大であることは、その動画データのデータ処理の負荷を大にし、また、動画データの伝送や記録に好ましいことではない。 As described above, high-frame-rate video data such as 240 fps can provide good image quality, but 240 fps video data is simpler than conventional 30-fps or 60-fps video data. The amount of data is 8 times or 4 times larger. This data amount does not change even when the above-described hierarchical encoding is performed. An enormous amount of moving image data increases the data processing load of the moving image data, and is not preferable for transmission or recording of moving image data.
本発明は、このような状況に鑑みてなされたものであり、例えば、高フレームレートの動画データを高圧縮し、また、復元することができるようにするものである。 The present invention has been made in view of such a situation. For example, high-frame-rate moving image data can be highly compressed and restored.
本発明の第1の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、検出手段で検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮手段とを備えることを特徴とする。 The first image processing apparatus according to the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. Separating means for separating the remaining third moving image data excluding data, detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a positional relationship detected by the detecting means Using the estimation means for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data, and using the estimated value of the block, Compression means for compressing moving image data in units of blocks.
本発明の第1の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。 According to the first image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image. A separation step for separating the remaining third moving image data excluding data, a detection step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a positional relationship detected in the detection step. Using an estimation step for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data, and an estimated value of the block, A compression step of compressing the moving image data in units of blocks.
本発明の第1のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。 The first program of the present invention converts the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the second moving image data from the first moving image data. A separation step that separates into the remaining third moving image data, a detection step that detects a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a positional relationship that is detected in the detection step; An estimation step for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data, and the third moving image data using the estimated value of the block And a compression step of compressing each block in units of blocks.
本発明の第1のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。 The program recorded on the first program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step for separating the data from the remaining third moving image data excluding the second moving image data, a detecting step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a detecting step An estimation step for obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from the plurality of frames of image data of the second moving image data in the detected positional relationship, and an estimated value of the block And a compression step of compressing the third moving image data in units of blocks.
本発明の第1のデータ構造は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含むことを特徴とする。 In the first data structure of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image data. Are separated from the remaining third moving image data, and a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and a plurality of frames of the second moving image data in a positional relationship having a high correlation are detected. A block estimated value obtained by dividing the frame of the third moving image data into blocks from the image data, and compressed data obtained by compressing the block using the block estimated value, and the second moving image Data.
本発明の第1のデータ記録媒体に記録されているデータは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含むことを特徴とする。 The data recorded on the first data recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The data is separated from the data to the remaining third moving image data excluding the second moving image data, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and the positional relationship having a high correlation is detected. Compression obtained by calculating an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data, and compressing the block using the estimated value of the block Data and second moving image data.
本発明の第2の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元手段と、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元手段とを備え、第1の復元手段は、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、検出手段で検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元手段とを有することを特徴とする。 The second image processing apparatus according to the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. The second moving image data is separated into the remaining third moving image data excluding the data, the positional relationship having a high correlation is detected in the plurality of frames of the second moving image data, and the plurality of second moving image data having the high positional relationship is detected. An estimated value of a block obtained by dividing the frame of the third moving image data from the image data of the frame is obtained, and the compressed data obtained by compressing the block using the estimated value of the block is converted into the second A first restoration unit that restores the third video data using the video data; and a second restoration unit that combines the second and third video data to restore the first video data, First restoration The stage includes a detecting unit that detects a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a plurality of frames of image data of the second moving image data that are in the positional relationship detected by the detecting unit. A block restoring unit that restores the third moving image data in units of blocks using an estimation unit that obtains an estimated value of a block obtained by dividing the frame of the three moving image data into blocks, a block estimated value, and compressed data; It is characterized by having.
本発明の第2の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元ステップとを含むことを特徴とする。 In the second image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and second moving image from the first moving image data. The second moving image data is separated into the remaining third moving image data excluding the data, the positional relationship having a high correlation is detected in the plurality of frames of the second moving image data, and the plurality of second moving image data having the high positional relationship is detected. An estimated value of a block obtained by dividing the frame of the third moving image data from the image data of the frame is obtained, and the compressed data obtained by compressing the block using the estimated value of the block is converted into the second A first restoration step for restoring the third movie data using the movie data; a second restoration step for synthesizing the second and third movie data to restore the first movie data; First The restoration step includes a detection step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a plurality of frames of image data of the second moving image data in the positional relationship detected in the detection step. A block for restoring the third moving image data in units of blocks using an estimation step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data into blocks, the estimated value of the block, and the compressed data And a restoration step.
本発明の第2のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元ステップとを含むことを特徴とする。 The second program of the present invention converts the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the second moving image data from the first moving image data. It is separated into the remaining third moving image data, and a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and a plurality of frames of the second moving image data having a high correlation are detected. An estimated value of a block obtained by dividing the frame of the third moving image data from the image data is obtained, and the compressed data obtained by compressing the block using the estimated value of the block is converted into the second moving image data. Using a first restoration step for restoring to the third moving image data, and a second restoration step for combining the second and third moving image data to restore the first moving image data. The restoration step includes a detection step for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data, and a plurality of frames of image data of the second moving image data in the positional relationship detected in the detection step. A block restoration that restores the third moving image data in units of blocks using an estimation step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data into blocks, the estimated value of the block, and the compressed data. And a step.
本発明の第2のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、検出ステップで検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、第3の動画データをブロック単位で復元するブロック復元ステップとを含むことを特徴とする。 The program recorded on the second program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The data is separated from the data to the remaining third moving image data excluding the second moving image data, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and the positional relationship having a high correlation is detected. Compression obtained by calculating an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data, and compressing the block using the estimated value of the block A first restoration step for restoring the data to the third movie data using the second movie data; and the second and third movie data are synthesized to restore the first movie data. A second restoration step, wherein the first restoration step is in a position relationship detected in the detection step and a position relationship detected in the detection step in a plurality of frames of the second moving image data. Using an estimation step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data, the estimated value of the block, and the compressed data; And a block restoration step for restoring the three moving image data in units of blocks.
本発明の第3の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出手段と、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測手段と、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮手段とを備えることを特徴とする。 The third image processing apparatus of the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. Separation means for separating the remaining third moving image data excluding data, and a block obtained by dividing a frame of the third moving image data into blocks, there is a correlation with the block in a plurality of frames of the second moving image data. A block is estimated from image data of a plurality of frames of the second moving image data in which the detection means for detecting one motion vector representing a high positional relationship and the positional relationship between the block and the block are obtained from the single motion vector. It is characterized by comprising estimation means for obtaining a value and compression means for compressing the third moving image data in units of blocks using the estimated value of the block.
本発明の第3の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。 According to the third image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image. The separation step for separating the third moving image data excluding the data and the block obtained by dividing the frame of the third moving image data into blocks are correlated with the blocks in the plurality of frames of the second moving image data. A detection step for detecting one motion vector representing a high positional relationship and a block estimation from image data of a plurality of frames of the second moving image data in which the positional relationship between the block and the block is a positional relationship obtained from the single motion vector A prediction step for obtaining a value, and a compression step for compressing the third moving image data in units of blocks using the estimated value of the block. To.
本発明の第3のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。 The third program of the present invention converts the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the second moving image data from the first moving image data. The separation step for separating the remaining third moving image data from the removed block and the block obtained by dividing the frame of the third moving image data into blocks are positions having a high correlation with the blocks in the plurality of frames of the second moving image data. From the detection step of detecting one motion vector representing the relationship and the positional relationship between the block and the block, the estimated value of the block is obtained from the image data of a plurality of frames of the second moving image data. And a compression step of compressing the third moving image data in units of blocks using the estimated value of the block. To.
本発明の第3のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値を用いて、第3の動画データをブロック単位で圧縮する圧縮ステップとを含むことを特徴とする。 The program recorded on the third program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A plurality of frames of the second moving image data with respect to a block obtained by dividing the third moving image data into blocks, and a separation step for separating the data into the remaining third moving image data excluding the second moving image data from the data; A plurality of frames of the second moving image data in which the detection step of detecting one motion vector representing a positional relationship having a high correlation with the block and the positional relationship with the block obtained from the single motion vector The third video data is compressed in units of blocks using an estimation step for obtaining an estimated value of the block from the data and the estimated value of the block. Characterized in that it comprises a compression step that.
本発明の第2のデータ構造は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含み、圧縮データは、1つの動きベクトルを含むことを特徴とする。 According to the second data structure of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data to the second moving image data. The block obtained by dividing the third moving image data frame into the remaining third moving image data excluding the block has a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data. One motion vector to be expressed is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is obtained from the one motion vector, and the block is estimated The compressed data obtained by compressing the block using the value and the second moving image data are included, and the compressed data includes one motion vector. And it features.
本発明の第2のデータ記録媒体に記録されているデータは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとを含み、圧縮データは、1つの動きベクトルを含むことを特徴とする。 The data recorded on the second data recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The blocks obtained by separating the third moving image data from the data into the remaining third moving image data and dividing the third moving image data into blocks are divided into blocks in a plurality of frames of the second moving image data. One motion vector representing a positional relationship having a high correlation is detected, and a block is estimated from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector A compressed value obtained by compressing the block using the estimated value of the block and the second moving image data, and the compressed data is 1 Characterized in that it comprises a motion vector.
本発明の第4の画像処理装置は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元手段と、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元手段とを備え、第1の復元手段は、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出手段と、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測手段と、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元手段とを有することを特徴とする。 The fourth image processing apparatus of the present invention converts the first moving image data from the first moving image data to the second moving image data having a frame rate lower than the frame rate of the first moving image data. Positional relationship in which the blocks obtained by dividing the third moving image data frame into blocks that are separated from the remaining third moving image data excluding the data have a high correlation with the blocks in the plurality of frames of the second moving image data Is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the single motion vector. 1st decompression | restoration means which decompress | restores the compressed data obtained by compressing a block using an estimated value to 3rd moving image data using 2nd moving image data , And a second restoration unit that synthesizes the second and third moving image data and restores the first moving image data. The first restoration unit uses the second moving image for one block from one motion vector. Detection means for obtaining a positional relationship having a high correlation with a block in a plurality of frames of data, and image data of a plurality of frames of second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector In addition, the present invention is characterized by comprising: an estimation means for obtaining an estimated value of a block; and a block restoration means for restoring a block using the estimated value of the block and the compressed data.
本発明の第4の画像処理方法は、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元ステップとを含むことを特徴とする。 According to the fourth image processing method of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and from the first moving image data to the second moving image. Positional relationship in which the blocks obtained by dividing the third moving image data frame into blocks that are separated from the remaining third moving image data excluding the data have a high correlation with the blocks in the plurality of frames of the second moving image data Is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the single motion vector. A first restoration step for restoring the compressed data obtained by compressing the block using the estimated value to the third moving image data using the second moving image data. And a second restoration step of synthesizing the second and third moving image data and restoring the first moving image data, wherein the first restoration step is performed on the second block for the block from one motion vector. A detection step for obtaining a positional relationship having a high correlation with a block in a plurality of frames of the moving image data, and an image of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector It includes an estimation step for obtaining an estimated value of a block from data, and a block restoration step for restoring the block using the estimated value of the block and the compressed data.
本発明の第4のプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元ステップとを含むことを特徴とする。 According to a fourth program of the present invention, the first moving image data is divided into second moving image data having a frame rate lower than the frame rate of the first moving image data, and second moving image data from the first moving image data. The block obtained by separating the remaining third moving image data from the third moving image data and dividing the frame of the third moving image data into blocks represents a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data. One motion vector is detected, and an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is obtained from the one motion vector, and the estimated value of the block The first restoration step of restoring the compressed data obtained by compressing the block to the third moving image data using the second moving image data. And a second restoration step of synthesizing the second and third moving image data and restoring the first moving image data, wherein the first restoration step uses a second motion vector for a block from one motion vector. A detection step for obtaining a positional relationship having a high correlation with a block in a plurality of frames of moving image data, and a plurality of frames of image data of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector And a block restoring step for restoring the block using the estimated value of the block and the compressed data.
本発明の第4のプログラム記録媒体に記録されているプログラムは、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データを、第2の動画データを用いて、第3の動画データに復元する第1の復元ステップと、第2と第3の動画データを合成し、第1の動画データを復元する第2の復元ステップとを含み、第1の復元ステップは、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を求める検出ステップと、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求める推測ステップと、ブロックの推測値と、圧縮データとを用いて、ブロックを復元するブロック復元ステップとを含むことを特徴とする。 The program recorded on the fourth program recording medium of the present invention includes the first moving image data, the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. The blocks obtained by separating the third moving image data from the data into the remaining third moving image data and dividing the third moving image data into blocks are divided into blocks in a plurality of frames of the second moving image data. One motion vector representing a positional relationship having a high correlation is detected, and a block is estimated from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from one motion vector A compressed value obtained by compressing the block using the estimated value of the block and the third moving image data using the second moving image data. A first restoration step for restoring data, and a second restoration step for synthesizing the second and third moving image data to restore the first moving image data. A detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data from the vector, and a positional relationship with the block determined by a single motion vector; And a block restoring step for restoring a block using the estimated value of the block and the compressed data from the image data of a plurality of frames of the moving image data.
本発明の第1の画像処理装置および第1の画像処理方法、並びに第1のプログラムおよび第1のプログラム記録媒体に記録されているプログラムにおいては、第1の動画データが、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離され、第2の動画データの複数フレームにおいて、相関が高い位置関係が検出される。さらに、その検出された位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値が求められ、そのブロックの推測値を用いて、第3の動画データがブロック単位で圧縮される。 In the first image processing apparatus, the first image processing method, the first program, and the program recorded in the first program recording medium of the present invention, the first moving image data includes the first moving image data. The second moving image data is separated into second moving image data having a frame rate lower than the frame rate of the data and remaining third moving image data obtained by removing the second moving image data from the first moving image data. A positional relationship having a high correlation is detected in the frame. Further, an estimated value of a block obtained by dividing the frame of the third moving image data into blocks is obtained from the image data of the second moving image data in the detected positional relationship, and the block is estimated. Using the value, the third moving image data is compressed in units of blocks.
本発明の第1のデータ構造および第1のデータ記録媒体に記録されているデータには、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、相関が高い位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとが含まれる。 The data recorded on the first data structure and the first data recording medium of the present invention includes the first moving image data and the second moving image having a frame rate lower than the frame rate of the first moving image data. Data and the remaining third moving image data obtained by removing the second moving image data from the first moving image data, and detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data. The estimated value of the block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in a high positional relationship is obtained, and the block is calculated using the estimated value of the block. Compressed data obtained by compression and second moving image data are included.
本発明の第2の画像処理装置および第2の画像処理方法、並びに第2のプログラムおよび第2のプログラム記録媒体に記録されているプログラムにおいては、第3の動画データが復元され、さらに、第2と第3の動画データが合成されて、第1の動画データが復元される。この場合において、第3の動画データの復元については、第2の動画データの複数フレームにおいて、相関が高い位置関係が検出され、その位置関係にある、第2の動画データの複数フレームの画像データから、第3の動画データのフレームをブロック分割して得られるブロックの推測値が求められる。そして、そのブロックの推測値と、圧縮データとを用いて、第3の動画データがブロック単位で復元される。 In the second image processing apparatus, the second image processing method, the second program, and the program recorded in the second program recording medium of the present invention, the third moving image data is restored, and The second moving image data and the third moving image data are combined to restore the first moving image data. In this case, for the restoration of the third moving image data, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data, and the image data of the plurality of frames of the second moving image data in the positional relationship is detected. Thus, an estimated value of a block obtained by dividing the frame of the third moving image data into blocks is obtained. Then, the third moving image data is restored in block units using the estimated value of the block and the compressed data.
本発明の第3の画像処理装置および第3の画像処理方法、並びに第3のプログラムおよび第3のプログラム記録媒体に記録されているプログラムにおいては、第1の動画データが、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離され、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルが検出される。そして、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値が求められ、そのブロックの推測値を用いて、第3の動画データがブロック単位で圧縮される。 In the third image processing apparatus, the third image processing method, the third program, and the program recorded on the third program recording medium of the present invention, the first moving image data includes the first moving image data. The second moving image data having a frame rate lower than the frame rate of the data and the remaining third moving image data obtained by removing the second moving image data from the first moving image data are separated into frames of the third moving image data. As for a block obtained by dividing the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected. Then, an estimated value of the block is obtained from the image data of a plurality of frames of the second moving image data, the positional relationship with the block being obtained from one motion vector, and using the estimated value of the block, The third moving image data is compressed in units of blocks.
本発明の第2のデータ構造および第2のデータ記録媒体に記録されているデータには、第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、第3の動画データのフレームをブロック分割して得られるブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、ブロックとの位置関係が1つの動きベクトルから求められる位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値を求め、ブロックの推測値を用いて、ブロックを圧縮することにより得られる圧縮データと、第2の動画データとが含まれる。 In the data recorded on the second data structure and the second data recording medium of the present invention, the first moving image data is the second moving image having a frame rate lower than the frame rate of the first moving image data. For the block obtained by separating the data and the remaining third moving image data obtained by removing the second moving image data from the first moving image data and dividing the frame of the third moving image data into blocks, the second moving image One motion vector representing a positional relationship having a high correlation with a block in a plurality of frames of data is detected, and the positional relationship with the block is a positional relationship obtained from one motion vector. From the image data, an estimated value of the block is obtained, and the compressed data obtained by compressing the block using the estimated value of the block, the second moving image data, It is included.
本発明の第4の画像処理装置および第4の画像処理方法、並びに第4のプログラムおよび第4のプログラム記録媒体に記録されているプログラムにおいては、第3の動画データが復元され、さらに、第2と第3の動画データが合成されて、第1の動画データが復元される。この場合において、第3の動画データの復元については、1つの動きベクトルから、ブロックについて、第2の動画データの複数フレームにおいてブロックとの相関が高い位置関係が求められ、ブロックとの位置関係が1つの動きベクトルから求められた位置関係にある、第2の動画データの複数フレームの画像データから、ブロックの推測値が求められる。そして、そのブロックの推測値と、圧縮データとを用いて、ブロックが復元される。 In the fourth image processing apparatus, the fourth image processing method, the fourth program, and the program recorded on the fourth program recording medium of the present invention, the third moving image data is restored, The second moving image data and the third moving image data are combined to restore the first moving image data. In this case, for the restoration of the third moving image data, a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is obtained from one motion vector, and the positional relationship with the block is determined. An estimated value of the block is obtained from the image data of a plurality of frames of the second moving image data having the positional relationship obtained from one motion vector. Then, the block is restored using the estimated value of the block and the compressed data.
本発明によれば、高フレームレートの動画データを高圧縮することができる。また、本発明によれば、そのように高圧縮された動画データを復元することができる。 According to the present invention, high frame rate moving image data can be highly compressed. Further, according to the present invention, it is possible to restore such highly compressed moving image data.
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even though there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.
請求項1に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図79の送信装置1)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離手段(例えば、図79の分離回路213)と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段(例えば、図94の相関最大位置検出部254)と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段(例えば、図94の平均値計算部255)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段(例えば、図94の減算部256)と
を備えることを特徴とする。
The image processing apparatus according to
In an image processing apparatus (for example, the
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separating means (for example, a
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data (for example, the maximum correlation
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. (For example, the average value calculation unit 255 in FIG. 94)
Compression means (for example, a subtracting
請求項3に記載の画像処理装置は、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出手段(例えば、図96の相関最大位置検出部274)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測手段(例えば、図96の平均値計算部275)と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮手段(例えば、図96の減算部276)と、
前記圧縮手段による前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮手段による前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択手段(例えば、図81の選択回路240)と
をさらに備えることを特徴とする。
An image processing apparatus according to
Other detection means (for example, the maximum correlation
Other estimation means for determining another estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship determined from the one motion vector (for example, The average value calculator 275) of FIG.
Other compression means (for example, the
Selecting either one of the compressed data obtained by compressing the third moving image data by the compressing unit or the compressed data obtained by compressing the third moving image data by the other compressing unit; And selection means (for example, a
請求項7に記載の画像処理装置は、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1の動画データの主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に特定の幅を有する領域を通過帯域として、前記第1の動画データをフィルタリングするフィルタ手段(例えば、図79の帯域制限フィルタ部212)をさらに備え、
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする。
An image processing apparatus according to
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data with a region having a specific width in the direction as a pass band (for example, a band limiting
The separation unit separates the first moving image data after filtering by the filter unit into the second and third moving image data.
請求項8に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図95のステップS212)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図95のステップS213)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図95のステップS214)と
を含むことを特徴とする。
The image processing method according to claim 8 comprises:
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, step S212 in FIG. 95) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S213 in FIG. 95),
A compression step (for example, step S214 in FIG. 95) of compressing the third moving image data in units of blocks using the estimated value of the block.
請求項9に記載の画像処理方法は、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップ(例えば、図97のステップS223)と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップ(例えば、図97のステップS224)と、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップ(例えば、図109のステップS292およびS293)と
をさらに含むことを特徴とする。
The image processing method according to claim 9 comprises:
With respect to the block, another detection step (for example, step S222 in FIG. 97) for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, Step S223) of FIG. 97;
Another compression step (for example, step S224 in FIG. 97) for compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. And a selection step (for example, steps S292 and S293 in FIG. 109) for adding and outputting identification information for identifying the compressed data.
請求項10に記載のプログラムおよび請求項12に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理をコンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図95のステップS212)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図95のステップS213)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図95のステップS214)と
を含むことを特徴とする。
The program recorded in the program recording medium according to claim 10 and the program recording medium according to
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, step S212 in FIG. 95) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S213 in FIG. 95),
A compression step (for example, step S214 in FIG. 95) of compressing the third moving image data in units of blocks using the estimated value of the block.
請求項11に記載のプログラムおよび請求項13に記載のプログラム記録媒体に記録されているプログラムは、
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する他の検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップ(例えば、図97のステップS223)と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップ(例えば、図97のステップS224)と、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップ(例えば、図109のステップS292およびS293)と
をさらに含むことを特徴とする。
The program according to
With respect to the block, another detection step (for example, step S222 in FIG. 97) for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, Step S223) of FIG. 97;
Another compression step (for example, step S224 in FIG. 97) for compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. And a selection step (for example, steps S292 and S293 in FIG. 109) for adding and outputting identification information for identifying the compressed data.
請求項18に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図110の受信装置2)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段(例えば、図110の差分情報復元部364)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段(例えば、図110の合成部365)と
を備え、
前記第1の復元手段は、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段(例えば、図113の相関最大位置検出部377)と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段(例えば、図113の推測部378)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元手段(例えば、図113の加算部379)と
を有する
ことを特徴とする。
An image processing apparatus according to claim 18 is provided.
In an image processing device (for example, the receiving
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data (for example, FIG. 110 difference information restoration unit 364),
A second restoring means (for example, the synthesizing
The first restoration means includes
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data (for example, the maximum correlation
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. (For example, the
Block reconstruction means (for example, an adding
請求項21に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図116のステップS351や、図117のステップS361)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図116のステップS352や、図117のS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップ(例えば、図116のステップS353や、図117のステップS363)と
を含む
ことを特徴とする。
The image processing method according to
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S351 in FIG. 116 or step S361 in FIG. 117) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S352 in FIG. 116 and S362 in FIG. 117)
A block restoration step (for example, step S353 in FIG. 116 or step S363 in FIG. 117) for restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data. It is characterized by.
請求項23に記載のプログラムおよび請求項25に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップ(例えば、図116のステップS351や、図117のステップS361)と、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップ(例えば、図116のステップS352や、図117のS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップ(例えば、図116のステップS353や、図117のステップS363)と
を含む
ことを特徴とする。
The program according to claim 23 and the program recorded on the program recording medium according to claim 25 are:
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S351 in FIG. 116 or step S361 in FIG. 117) for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. (For example, step S352 in FIG. 116 and S362 in FIG. 117)
A block restoration step (for example, step S353 in FIG. 116 or step S363 in FIG. 117) for restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data. It is characterized by.
請求項27に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図79の送信装置1)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離手段(例えば、図79の分離回路213)と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出手段(例えば、図96の相関最大位置検出部274)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段(例えば、図96の平均値計算部275)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段(例えば、図96の減算部276)と
を備えることを特徴とする。
The image processing apparatus according to
In an image processing apparatus (for example, the
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separating means (for example, a
For a block obtained by dividing the third moving image data frame into blocks, a detecting means for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data (for example, 96, the maximum correlation position detector 274) of FIG.
Estimating means for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, the average of FIG. 96 Value calculation unit 275),
Compression means (for example, a subtracting
請求項30に記載の画像処理装置は、
時間方向の周波数軸と空間方向の周波数軸とで定義される周波数ドメインにおいて、前記第1の動画データの主成分の方向である主成分方向に延びる領域であって、前記時間方向の周波数軸の方向に特定の幅を有する領域を通過帯域として、前記第1の動画データをフィルタリングするフィルタ手段(例えば、図79の帯域制限フィルタ部212)をさらに備え、
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする。
An image processing apparatus according to claim 30 is provided.
In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data with a region having a specific width in the direction as a pass band (for example, a band limiting
The separation unit separates the first moving image data after filtering by the filter unit into the second and third moving image data.
請求項31に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図97のステップS223)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図97のステップS224)と
を含むことを特徴とする。
The image processing method according to
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data into blocks (for example, , Step S222 in FIG. 97,
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, the step of FIG. 97 S223),
And a compression step (for example, step S224 in FIG. 97) of compressing the third moving image data in units of blocks using the estimated value of the block.
請求項32に記載のプログラム、および請求項33に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離する分離ステップ(例えば、図108のステップS282)と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップ(例えば、図97のステップS222)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図97のステップS223)と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップ(例えば、図97のステップS224)と
を含むことを特徴とする。
The program according to
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. A separation step (for example, step S282 in FIG. 108) that separates the remaining third moving image data excluding the second moving image data (for example, 240-60 fps moving image data);
A detection step (for example, detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data into blocks (for example, , Step S222 in FIG. 97,
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, the step of FIG. 97 S223),
And a compression step (for example, step S224 in FIG. 97) of compressing the third moving image data in units of blocks using the estimated value of the block.
請求項36に記載の画像処理装置は、
動画データを処理する画像処理装置(例えば、図110の受信装置2)において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段(例えば、図110の差分情報復元部364)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段(例えば、図110の合成部365)と
を備え、
前記第1の復元手段は、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出手段(例えば、図113の相関最大位置検出部377)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段(例えば、図113の推測部378)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元手段(例えば、図113の加算部379)と
を有する
ことを特徴とする。
The image processing apparatus according to
In an image processing device (for example, the receiving
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data (for example, FIG. 110 difference information restoration unit 364),
A second restoring means (for example, the synthesizing
The first restoration means includes
From the one motion vector, detection means (for example, a maximum correlation
Estimating means for obtaining an estimated value of the block from a plurality of frames of image data of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, FIG. 113) An estimation unit 378),
Block reconstruction means (for example, an adding
請求項37に記載の画像処理方法は、
動画データを処理する画像処理方法において、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップ(例えば、図117のステップS361)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図117のステップS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップ(例えば、図117のステップS363)と
を含む
ことを特徴とする。
The image processing method according to
In an image processing method for processing video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S361 in FIG. 117) for obtaining a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data from the one motion vector;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, FIG. 117). Step S362)
A block restoration step (for example, step S363 in FIG. 117) for restoring the block by using the estimated value of the block and the compressed data is included.
請求項38に記載のプログラム、および請求項39に記載のプログラム記録媒体に記録されているプログラムは、
動画データの処理を、コンピュータに実行させるプログラムにおいて、
第1の動画データ(例えば、240fps動画データ)を、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データ(例えば、60fps動画データ)と、前記第1の動画データから第2の動画データを除いた残りの第3の動画データ(例えば、240-60fps動画データ)とに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップ(例えば、図111のステップS302)と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップ(例えば、図111のステップS303)と
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップ(例えば、図117のステップS361)と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップ(例えば、図117のステップS362)と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップ(例えば、図117のステップS363)と
を含む
ことを特徴とする。
The program according to claim 38 and the program recorded in the program recording medium according to claim 39 are:
In a program that causes a computer to process video data,
First moving image data (for example, 240 fps moving image data) is obtained from second moving image data (for example, 60 fps moving image data) having a frame rate lower than the frame rate of the first moving image data, and the first moving image data. Separated into the remaining third video data (for example, 240-60fps video data) excluding the second video data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving picture data using the second moving picture data (for example, FIG. 111 step S302),
A second restoration step (for example, step S303 in FIG. 111) of combining the second and third moving image data and restoring the first moving image data,
The first restoration step includes
A detection step (for example, step S361 in FIG. 117) for obtaining a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data from the one motion vector;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector (for example, FIG. 117). Step S362)
A block restoration step (for example, step S363 in FIG. 117) for restoring the block by using the estimated value of the block and the compressed data is included.
次に、本発明の実施の形態について説明する前に、動画について、理論的な事柄を述べておく。 Next, before describing the embodiment of the present invention, a theoretical matter will be described for moving images.
図1は、2次元平面(x,y)に時間方向(t)を加えた3次元空間における動画データを示している。 FIG. 1 shows moving image data in a three-dimensional space in which a time direction (t) is added to a two-dimensional plane (x, y).
図1において、画像P101は、ある時刻(フレーム)の画像であり、画像P102は、その次の時刻の画像であり、画像P103は、さらにその次の時刻の画像である。画像P104は、さらにその次の時刻の画像である。図示を省略したが、画像P101の前の時刻と、画像P104の後の時刻にも、画像が存在する。 In FIG. 1, an image P 101 is an image at a certain time (frame), an image P 102 is an image at the next time, and an image P 103 is an image at the next time. The image P 104 is an image at the next time. Although illustration is omitted, there are also images at a time before the image P 101 and a time after the image P 104 .
図1では、画像P101乃至P104には、時間の経過とともに、y方向に移動する物体(被写体)が写っている。 In FIG. 1, the images P 101 to P 104 show an object (subject) that moves in the y direction over time.
以上のような動画(動画データ)を、人間が見た場合、動画のフレームレートが、あるフレームレート以上であるときには、動画の隣接する2つのフレーム(の画像)の違いを認識することは出来ない。実際に被験者に視覚実験を行った結果、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレームレートは、240fps程度以上であることが分かっている。 When a movie such as the above (moving image data) is viewed by a human, when the frame rate of the moving image is higher than a certain frame rate, the difference between two adjacent frames (images) of the moving image can be recognized. Absent. As a result of actually conducting a visual experiment on the subject, it has been found that the frame rate at which a human cannot recognize the difference between two adjacent frames (images) is about 240 fps or more.
ここで、隣接する2つのフレームどうしの間の時間(フレーム周期)を、t0と表すこととすると、フレームレートは、1/t0と表すことができる。 Here, if the time (frame period) between two adjacent frames is expressed as t 0 , the frame rate can be expressed as 1 / t 0 .
なお、以下では、フレーム周期t0は、1/240秒程度として説明を行うが、フレーム周期t0は、1/240秒程度でなくても良く、例えば、1/120秒程度であっても良い。但し、フレーム周期t0が、例えば、1/120秒のように、人間が、隣接する2つのフレーム(の画像)の違いを認識することができないフレーム周期(1/240秒程度)より長い場合には、後述する表示装置3(図24)で表示される動画について、その画質の劣化が、多少、知覚される。 In the following description, the frame period t 0 is about 1/240 seconds. However, the frame period t 0 may not be about 1/240 seconds, for example, about 1/120 seconds. good. However, when the frame period t 0 is longer than the frame period (about 1/240 seconds) in which a human cannot recognize the difference between two adjacent frames (images thereof), for example, 1/120 second. The image quality of the moving image displayed on the display device 3 (FIG. 24) described later is somewhat perceived.
次に、人間の空間方向の認識能力、即ち、近接した2つの点を1つの点ではなく2つの点であると認識(知覚)することができる限界の距離を、r0と表す。 Next, r 0 represents a human's recognition ability in the spatial direction, that is, a limit distance at which two adjacent points can be recognized (perceived) as two points instead of one point.
この場合、人間の視覚によって認識(知覚)することができる動画の範囲は、図2のように表すことができる。 In this case, the range of moving images that can be recognized (perceived) by human vision can be expressed as shown in FIG.
即ち、図2は、時間t方向の周波数軸Tと空間方向x,yの周波数軸X,Yとで定義される周波数ドメインを示している。 That is, FIG. 2 shows a frequency domain defined by the frequency axis T in the time t direction and the frequency axes X and Y in the spatial directions x and y.
なお、図が煩雑になるのを避けるため、図2では、空間方向xの周波数軸Xと空間方向yの周波数軸Yとを、1軸で表してある。即ち、図2では、左から右方向に、周波数軸XとYをとってある。また、図2では、上から下方向に、周波数軸Tをとってある。さらに、図2では、周波数軸T(縦方向)は、2π/(4t0)単位で区切ってあり、周波数軸X,Y方向(横方向)は、2π/r0単位で区切ってある。 In order to avoid complication of the figure, in FIG. 2, the frequency axis X in the spatial direction x and the frequency axis Y in the spatial direction y are represented by one axis. That is, in FIG. 2, the frequency axes X and Y are taken from left to right. In FIG. 2, the frequency axis T is taken from the top to the bottom. Further, in FIG. 2, the frequency axis T (vertical direction) is divided in units of 2π / (4t 0 ), and the frequency axes X and Y directions (lateral direction) are divided in units of 2π / r 0 .
ここで、周波数ドメインの、後述する他の図も、図2と同様になっている。 Here, other diagrams of the frequency domain, which will be described later, are the same as those in FIG.
人間は、図2に示す、横が2×2π/(2r0)で、縦が2×2π/(2r0)の、原点を中心とする領域R201の範囲外にある高周波数成分を認識することができない。そこで、すべての動画データは、領域R201内に存在することとして、以下、説明を行う。 Humans, shown in FIG. 2, in the horizontal is 2 × 2π / (2r 0) , the vertical of 2 × 2π / (2r 0) , recognizes the high frequency components are outside the range of the region R 201 centered at the origin Can not do it. Therefore, the following description will be made assuming that all moving image data exists in the region R201 .
なお、図2では、領域R201を、長方形状の領域として図示してあるが、領域R201は、実際には、直方体状の領域である。即ち、領域R201は、X方向が、−(π/r0)乃至+(π/r0)で、Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域である。 In FIG. 2, the region R 201 is illustrated as a rectangular region, but the region R 201 is actually a rectangular parallelepiped region. That is, the region R 201 has an X direction of − (π / r 0 ) to + (π / r 0 ), a Y direction of − (π / r 0 ) to + (π / r 0 ), and T The direction is a region in the range of − (π / t 0 ) to + (π / t 0 ).
次に、動画の各部分のデータの周波数ドメイン上の位置(分布)について説明する。 Next, the position (distribution) on the frequency domain of the data of each part of the moving image will be described.
動画において、ある部分では、そこに投影されている被写体は静止しており、別の部分では、そこに投影されている被写体は動いている。 In a moving image, a subject projected on a certain portion is stationary, and a subject projected on the moving portion is moving in another portion.
まず、静止している動画の部分(静止している被写体が投影されている動画の部分)は、時間方向に対して変化しない。 First, the stationary moving image portion (the moving image portion on which the stationary subject is projected) does not change with respect to the time direction.
図3は、そのような静止している動画の部分のデータが分布する周波数ドメイン上の領域R301を示している。 FIG. 3 shows a region R 301 on the frequency domain in which data of such a still moving image portion is distributed.
領域R301は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)で、T方向が−2π/(4t0)乃至+2π/(4t0)の領域になっている。 The region R 301 is a region in which the X and Y directions are −2π / (2r 0 ) to + 2π / (2r 0 ) and the T direction is −2π / (4t 0 ) to + 2π / (4t 0 ). .
なお、動画において完全に静止している部分のデータであれば、T=0であるが、つまり、領域R301はT方向の幅が0であるが、ここでは、被写体が多少動いている場合も考慮して、領域R301は、T方向の幅が0ではなく、2π/(2t0)になっている。また、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されるのは、図2で説明したように、動画データの周波数成分は、X,Y方向については、−2π/(2r0)乃至+2π/(2r0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。 Note that if the data is a completely stationary part of the video, T = 0, that is, the region R 301 has a width in the T direction of 0, but here the subject is moving slightly. In consideration of the above, the region R 301 has a width in the T direction that is not 0 but 2π / (2t 0 ). The X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ) as described with reference to FIG. This is because it does not exist in a range exceeding the range of −2π / (2r 0 ) to + 2π / (2r 0 ) (outside the range of the region R 201 in FIG. 2).
ここで、周波数ドメインにおいて、静止している部分のデータは、T=0の直線(平面)の方向に分布するから、この方向は、静止している部分のデータの主成分(例えば、第1主成分)の方向である。 Here, in the frequency domain, the data of the stationary part is distributed in the direction of the straight line (plane) of T = 0, so this direction is the main component (for example, the first data of the stationary part). Main component) direction.
次に、図4は、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが分布する周波数ドメイン上の領域R401を示している。 Next, FIG. 4 shows a region R401 on the frequency domain in which data of a portion where a subject projected on a moving image moves at a speed (r 0 / t 0 ) / 2 is distributed.
ここで、以下、適宜、説明を簡単にするために、周波数ドメイン上の点を、X,Y方向の座標Aと、T方向の座標Bとの2つだけを用いて、(A,B)と表す。 Here, in order to simplify the explanation as appropriate, the points on the frequency domain are expressed by using only two coordinates A and B in the X and Y directions, and (A, B). It expresses.
領域R401は、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。 The region R401 extends from the origin (0,0) to the point (π / r0, −π / (2t0)) and has a width of 2π / (2t0) in the T direction. .
なお、被写体が変形することなく、速度(r0/t0)/2で正確に等速直線運動していれば、領域R401は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度が(r0/t0)/2から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。 It should be noted that if the subject does not deform and moves accurately at a constant linear velocity at a speed (r 0 / t 0 ) / 2, the region R401 has a width in the T direction of 0. The width in the T direction is not 0 but 2π / (2t0) in consideration of some deformation and the movement speed slightly deviating from (r 0 / t 0 ) / 2.
また、領域R401は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、領域R301のX,Y方向の範囲が制限されているのと同一の理由による。 In the region R401, the X and Y directions are limited to the range of −2π / (2r 0 ) to + 2π / (2r 0 ), but this is limited to the range of the region R 301 in the X and Y directions. For the same reason that has been done.
ここで、動画に投影されている被写体が速度(r0/t0)/2程度で動いている部分のデータが、原点(0,0)から点(π/r0,-π/(2t0))の方向上に分布するのは、次の理由による。 Here, the data of the portion where the subject projected on the moving image moves at a speed (r 0 / t 0 ) / 2 is obtained from the origin (0,0) to the point (π / r0, −π / (2t0) ) Is distributed for the following reason.
即ち、図5の波形R501は、ある時刻t1における被写体の空間方向xの分布を示している。 That is, the waveform R 501 in FIG. 5 shows the distribution of the subject in the spatial direction x at a certain time t 1 .
被写体が、例えば、速度(r0/t0)/2で、例えば、空間方向xに移動しているとき、その移動している被写体は、波形R501,R502,R503,R504,R505,R506,・・・で表すことができる。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, for example, in the spatial direction x, the moving subjects are waveform R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,...
ここで、波形R501は、ある時刻(フレーム)t1における被写体を表している。波形R502は、波形R501の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R501の位置から、r0/2だけ、x方向に移動している。以下、同様に、波形R503,R504,R505,R506は、それぞれ、時刻t1+2t0,t1+3t0,t1+4t0,t1+5t0における被写体を表している。 Here, the waveform R 501 represents the subject at a certain time (frame) t 1 . Waveform R 502 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 501, from the position of the waveform R 501, only r 0/2, moves in the x-direction Yes. Hereinafter, similarly, waveforms R 503 , R 504 , R 505 , and R 506 represent subjects at times t 1 + 2t 0 , t 1 + 3t 0 , t 1 + 4t 0 , and t 1 + 5t 0, respectively . Yes.
図5における波形を空間位置xと時間tの関数と考え、この波形をFunc(x,t)と定義する。図5の波形R501,R502,R503,R504,R505,R506,・・・から明らかなように、Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 5 is considered as a function of the spatial position x and time t, and this waveform is defined as Func (x, t). As is clear from the waveforms R 501 , R 502 , R 503 , R 504 , R 505 , R 506 ,..., Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0).
さて、xとtという2つの変数による関数Funcを2次元フーリエ変換した周波数ドメイン上のデータを(X,T)とすると、この(X,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、時間方向tの周期がTである成分を表している。 Assuming that the data on the frequency domain obtained by two-dimensional Fourier transform of the function Func with two variables x and t is (X, T), the component of (X, T) is apparent from the definition of Fourier transform. In addition, a component in which the period in the spatial direction x is X and the period in the time direction t is T is represented.
Func(x,t)=Func(x-((r0/t0)/2)×t,0)という関係より、(X,T)は、2次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func (x, t) = Func (x − ((r 0 / t 0 ) / 2) × t, 0), (X, T) is a two-dimensional vector (r 0/2 , t 0 ) Can be said to be orthogonal.
今、図5を用いて説明したが、実際には、空間方向は2次元であり、時間軸も加えると3次元となり、3次元フーリエ変換を考えないといけない。そこで、図6を用いて再度説明する。図6では、図1と同様に、3次元上での説明を行うための図である。 Although described with reference to FIG. 5, the spatial direction is actually two-dimensional, and when the time axis is added, it becomes three-dimensional, and a three-dimensional Fourier transform must be considered. Then, it demonstrates again using FIG. FIG. 6 is a diagram for explaining three-dimensionally as in FIG. 1.
図6の2次元空間(x,y)上の波形R601は、ある時刻t1における被写体の空間方向(x,y)の分布を示している。 A waveform R 601 on the two-dimensional space (x, y) in FIG. 6 shows the distribution in the spatial direction (x, y) of the subject at a certain time t 1 .
被写体が、例えば、速度(r0/t0)/2で、移動しているとき、その移動している被写体は、波形R601,R602,R603,R604,・・・で表すことができる。なお、r0は、図5の説明とは違い、2次元空間(x,y)上の2次元ベクトルである。 For example, when the subject is moving at a speed (r 0 / t 0 ) / 2, the moving subject is represented by waveforms R 601 , R 602 , R 603 , R 604,. Can do. Note that r 0 is a two-dimensional vector on a two-dimensional space (x, y) unlike the description of FIG.
ここで、波形R601は、ある時刻(フレーム)t1における被写体を表している。波形R602は、波形R601の時刻t1の次の時刻(フレーム)t1+t0における被写体を表しており、波形R601の位置から、r0/2だけ移動している。以下、同様に、波形R603,R604は、それぞれ、時刻t1+2t0,t1+3t0における被写体を表している。 Here, the waveform R 601 represents the subject at a certain time (frame) t 1 . Waveform R 602 represents a subject at the next time (frame) t 1 + t 0 of time t 1 of the waveform R 601, from the position of the waveform R 601, is moved by r 0/2. Hereinafter, similarly, waveforms R 603 and R 604 represent subjects at times t 1 + 2t 0 and t 1 + 3t 0, respectively.
図6における波形を空間位置(x,y)と時間tの関数と考え、この波形をFunc((x,y),t)と定義する。図6の波形R601,R602,R603,R604,・・・から明らかなように、Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係がある。 The waveform in FIG. 6 is considered as a function of the spatial position (x, y) and time t, and this waveform is defined as Func ((x, y), t). As apparent from the waveforms R 601 , R 602 , R 603 , R 604 ,... In FIG. 6, Func ((x, y), t) = Func ((x, y) − ((r 0 / t 0 ) / 2) × t, 0).
さて、xとyとtという3つの変数による関数Funcを3次元フーリエ変換した周波数ドメイン上のデータを(X,Y,T)とすると、この(X,Y,T)の成分は、フーリエ変換の定義から明らかなように、空間方向xの周期がXであり、空間方向yの周期がYであり、時間方向tの周期がTである成分を表している。 Now, if the data on the frequency domain obtained by three-dimensional Fourier transform of the function Func with three variables x, y and t is (X, Y, T), the component of (X, Y, T) is Fourier transform. As is clear from the definition of FIG. 4, a component in which the period in the spatial direction x is X, the period in the spatial direction y is Y, and the period in the time direction t is T is represented.
Func((x,y),t)=Func((x,y)-((r0/t0)/2)×t,0)という関係より、(X,Y,T)は、3次元ベクトル(r0/2, t0)に直交することが言える。 From the relationship Func ((x, y), t) = Func ((x, y)-((r 0 / t 0 ) / 2) × t, 0), (X, Y, T) is three-dimensional It can be said that it is orthogonal to the vector (r 0/2 , t 0 ).
図5および図6に示したように、(X,T)あるいは(X,Y,T)は、ベクトル(r0/2, t0)に直交するので、例えば、図7に示すように、周波数ドメイン上の点(2π/(2r0),−2π/(4t0))(図7において○印で示す位置)にデータが存在したり、点(2π/(4r0),−2π/(8t0))(図7において△印で示す位置)上にデータが存在する。 As shown in FIGS. 5 and 6, since (X, T) or (X, Y, T) is orthogonal to the vector (r 0/2 , t 0 ), for example, as shown in FIG. There is data at a point (2π / (2r 0 ), −2π / (4t 0 )) (position indicated by a circle in FIG. 7) on the frequency domain, or a point (2π / (4r 0 ), −2π / There is data on (8t 0 )) (the position indicated by Δ in FIG. 7).
即ち、速度(r0/t0)/2で移動している波形は、いずれも原点(0,0)と点(π/r0,-π/(2t0))とを通る直線(平面)R701上に分布する。 That is, each waveform moving at a speed (r 0 / t 0 ) / 2 is a straight line (plane) R passing through the origin (0,0) and the point (π / r0, -π / (2t0)). Distributed on 701 .
速度(r0/t0)/2で動いている部分の、他の周波数成分Xのデータ(波形)も、同様に、直線R701上に分布する。 Similarly, the data (waveform) of the other frequency component X of the portion moving at the speed (r 0 / t 0 ) / 2 is also distributed on the straight line R 701 .
速度(r0/t0)/2で動いている部分は、時間がt0だけ進むと、r0/2だけ空間方向の位置がずれるので、上述のように、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/(2t0))とを通る直線R701上に分布する。
The moving parts at a
なお、周波数ドメインにおいて、速度(r0/t0)/2で動いている部分のデータは、直線(平面)R701の方向(π/r0,-π/(2t0))に分布するから、この方向(π/r0,-π/(2t0))は、速度(r0/t0)/2で動いている部分のデータの主成分の方向である。 In the frequency domain, the data of the portion moving at the speed (r 0 / t 0 ) / 2 is distributed in the direction of the straight line (plane) R 701 (π / r0, −π / (2t0)). This direction (π / r0, −π / (2t0)) is the direction of the principal component of the data of the portion moving at the speed (r 0 / t 0 ) / 2.
次に、図8は、動画に投影されている被写体が速度r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R801を示している。
Next, FIG. 8 shows a
領域R801は、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。
The
即ち、速度r0/t0で動いている部分は、時間がt0だけ進むと、r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed r 0 / t 0 is shifted in position in the spatial direction by r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -π / t0).
なお、被写体が変形することなく、速度r0/t0で正確に等速直線運動していれば、領域R801は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。
Note that if the subject does not deform and moves accurately linearly at a constant velocity r 0 / t 0 , the
また、領域R801は、X,Y方向が、−2π/(2r0)乃至+2π/(2r0)の範囲に制限されているが、これは、図3の領域R301のX,Y方向の範囲が制限されているのと同一の理由による。
In the
さらに、領域R801は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。
Further, in the
ここで、周波数ドメインにおいて、速度r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-π/t0)とを通る直線の方向(π/r0,-π/t0)に分布するから、この方向(π/r0,-π/t0)は、速度r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the velocity r 0 / t 0 is the direction of the straight line (π / t) passing through the origin (0,0) and the point (π / r0, −π / t0). r0, -π / t0), this direction (π / r0, -π / t0) is the direction of the main component of the data of the portion moving at the speed r 0 / t 0 .
次に、図9は、動画に投影されている被写体が速度2r0/t0程度で動いている部分のデータが分布する周波数ドメイン上の領域R901を示している。
Next, FIG. 9 shows a
領域R901は、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域であって、T方向に2π/(2t0)の幅を有する領域になっている。
即ち、速度2r0/t0で動いている部分は、時間がt0だけ進むと、2r0だけ空間方向の位置がずれるので、周波数ドメイン上において、原点(0,0)と点(π/r0,-2π/t0)とを通る直線上に分布する。 That is, the portion moving at the speed 2r 0 / t 0 is shifted in the spatial direction by 2r 0 when the time advances by t 0, so that the origin (0,0) and the point (π / r0, -2π / t0).
なお、被写体が変形することなく、速度2r0/t0で正確に等速直線運動していれば、領域R901は、T方向の幅が0となるが、ここでは、被写体の多少の変形や、移動速度がr0/t0から多少ぶれること等を考慮して、T方向の幅が0ではなく、2π/(2t0)になっている。
Incidentally, without the subject is deformed, if exactly uniform linear motion at a speed 2r 0 / t 0, the
また、領域R901は、T方向が、−2π/(2t0)乃至+2π/(2t0)の範囲に制限されているが、これは、図2で説明したように、動画データの周波数成分は、T方向については、−2π/(2t0)乃至+2π/(2t0)の範囲を超える範囲(図2の領域R201の範囲外)には、存在しないからである。
In the
ここで、周波数ドメインにおいて、速度2r0/t0で動いている部分のデータは、原点(0,0)と、点(π/r0,-2π/t0)とを通る直線の方向(π/r0,-2π/t0)に分布するから、この方向(π/r0,-2π/t0)は、速度2r0/t0で動いている部分のデータの主成分の方向である。 Here, in the frequency domain, the data of the portion moving at the speed 2r 0 / t 0 is the direction of the straight line (π / 0) passing through the origin (0,0) and the point (π / r0, -2π / t0). r0, -2π / t0), this direction (π / r0, -2π / t0) is the direction of the main component of the data of the portion moving at the speed 2r 0 / t 0 .
以上、被写体が静止している場合と、被写体が速度(r0/t0)/2,r0/t0,2r0/t0程度で移動している場合それぞれについて、そのような被写体が投影されている動画の部分のデータの、周波数ドメイン上の分布について説明したが、他の速度で移動している部分のデータも、周波数ドメインにおいて、同様に分布する。 As described above, when the subject is stationary, and when the subject is moving at a speed (r 0 / t 0 ) / 2, r 0 / t 0 , 2r 0 / t 0 , such a subject is The distribution on the frequency domain of the data of the portion of the moving image being projected has been described, but the data of the portion moving at other speeds is similarly distributed in the frequency domain.
次に、人間の視覚効果について説明する。 Next, human visual effects will be described.
人間の目は、物体から発せられる光を時間方向に積分して認識している。この人間の目における積分機能(視覚の積分機能)は、ブロックの法則(Bloch’s Law)と言われている。人間の目における光の積分時間は、環境によって異なるが、大体1/60秒程度である。 The human eye recognizes the light emitted from the object by integrating it in the time direction. This integration function (visual integration function) in the human eye is called the Block's Law. The integration time of light in the human eye is approximately 1/60 seconds, although it varies depending on the environment.
ここで、t0を、上述のように、1/240秒程度とすると、人間の目における光の積分時間は、4×t0秒と表すことができる。 Here, if t 0 is about 1/240 seconds as described above, the integration time of light in the human eye can be expressed as 4 × t 0 seconds.
動画の中で静止している被写体が投影されている部分を、人間が視線を動かさずに注視して認識する画像は、視覚の積分機能により、静止している部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image in which a stationary subject is projected in a moving image is recognized by a human gaze without moving the line of sight. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.
このローパスフィルタの通過帯域は、周波数ドメイン上において、図10に示す領域R1001として表すことができる。 The pass band of this low-pass filter can be represented as a region R 1001 shown in FIG. 10 on the frequency domain.
図10の領域R1001は、X,Y方向の範囲が、図2の領域R201と同一の−2π/(2r0)乃至+2π/(2r0)であり、T方向の範囲が、-(2π/(4t0))/2乃至(2π/(4t0))/2の領域である。この領域R1001のT方向の幅は、2π/(4t0)であるが、これが、4t0の時間の積分を表す。 In the region R 1001 in FIG. 10, the range in the X and Y directions is −2π / (2r 0 ) to + 2π / (2r 0 ), which is the same as the region R 201 in FIG. 2, and the range in the T direction is − ( The region is 2π / (4t 0 )) / 2 to (2π / (4t 0 )) / 2. The width in the T direction of this region R 1001 is 2π / (4t 0 ), which represents the integration of the time of 4t 0 .
動画の静止している部分のデータは、図3に示したように、領域R301内に存在するが、人間は、その領域R301のうちの、領域R1001内の情報(データ)しか認識することができない。従って、領域R301のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 As shown in FIG. 3, the data of the still part of the moving image exists in the region R 301 , but the human recognizes only the information (data) in the region R 1001 in the region R 301. Can not do it. Therefore, information outside the region R 1001 in the region R 301 is useless information for humans.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が、その被写体が移動する方向に視線を動かしながら注視して認識する画像、即ち、人間が追従視により認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, while moving the line of sight in the direction in which the subject moves in the part of the moving image where the subject being projected is moving at a speed of “(r 0 / t 0 ) / 2” An image that is recognized by gazing, that is, an image that a human recognizes by following vision, uses data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the time direction by a visual integration function. This is equivalent to an image obtained by filtering with a low-pass filter of about “4 × t 0 ” seconds.
但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「(r0/t0)/2」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図11に示す領域R1101として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “(r 0 / t 0 ) / 2” with the passage of time. Therefore, the pass band of the low-pass filter is as shown in FIG. Can be represented as a region R 1101 shown in FIG.
図11の領域R1101は、図4の領域R401と同様に、原点(0,0)から点(π/r0,-π/(2t0))の方向に延びる領域である。さらに、領域R1101は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1101は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1101 in FIG. 11 is a region extending in the direction from the origin (0,0) to the point (π / r0, −π / (2t0)), similarly to the region R401 in FIG. Further, a region R 1101 is a region having a width of 2π / (4t0) in the T direction, and this represents an integration of time of 4t 0 . Note that the area R 1101 is limited to the area R 201 where the moving image data exists, as shown in FIG.
速度「(r0/t0)/2」程度で移動している部分のデータは、図4に示したように、領域R401内に存在するが、人間は、その領域R401のうちの、領域R1101内の情報しか認識することができない。従って、領域R401のうちの、領域R1101外の情報は、人間にとって無駄な情報である。
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, the image in which the subject projected on the moving image moves at a speed of about “r 0 / t 0 ” by human follow-up is still the visual integration. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図12に示す領域R1201として表すことができる。 However, in the following tracking in this case, the gazing point moves at a speed of about “r 0 / t 0 ” with the passage of time, so the pass band of the low-pass filter is the region R shown in FIG. 12 on the frequency domain. Can be represented as 1201 .
図12の領域R1201は、図8の領域R801と同様に、原点(0,0)から点(π/r0,-π/t0)の方向に延びる領域である。さらに、領域R1201は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1201は、図2に示した、動画データが存在する領域R201内に制限されている。
Region R 1201 in FIG. 12 is a region extending in the direction from the origin (0, 0) to the point (π /
速度「r0/t0」程度で移動している部分のデータは、図8に示したように、領域R801内に存在するが、人間は、その領域R801のうちの、領域R1201内の情報しか認識することができない。従って、領域R801のうちの、領域R1201外の情報は、人間にとって無駄な情報である。 As shown in FIG. 8, the data of the portion moving at the speed “r 0 / t 0 ” is present in the region R 801 , but the human is the region R 1201 in the region R 801. Only the information inside can be recognized. Therefore, information outside the region R 1201 in the region R 801 is useless information for humans.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が追従視を行うことにより認識する画像は、やはり、視覚の積分機能により、速度「2r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by humans following the moving part of the moving subject at a speed of about “2r 0 / t 0 ” in the moving image is still a visual integral. This function is equivalent to an image obtained by filtering data of a portion moving at a speed of about “2r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
但し、いまの場合の追従視では、時間の経過とともに、注視点が速度「2r0/t0」程度で移動するので、ローパスフィルタの通過帯域は、周波数ドメイン上において、図13に示す領域R1301として表すことができる。 However, in the follow-up view in this case, since the gazing point moves at a speed of about “2r 0 / t 0 ” with time, the pass band of the low-pass filter is the region R shown in FIG. 13 on the frequency domain. Can be represented as 1301 .
図13の領域R1301は、図9の領域R901と同様に、原点(0,0)から点(π/r0,-2π/t0)の方向に延びる領域である。さらに、領域R1301は、T方向に2π/(4t0)の幅を有する領域であり、これが、4t0の時間の積分を表す。なお、領域R1301は、図2に示した、動画データが存在する領域R201内に制限されている。 A region R 1301 in FIG. 13 is a region extending in the direction from the origin (0,0) to the point (π / r0, −2π / t0), similarly to the region R 901 in FIG. Further, the region R 1301 is a region having a width of 2π / (4t0) in the T direction, and this represents the integration of time of 4t 0 . Note that the region R 1301 is limited to the region R 201 where the moving image data exists as shown in FIG.
速度「2r0/t0」程度で移動している部分のデータは、図9に示したように、領域R901内に存在するが、人間は、その領域R901のうちの、領域R1301内の情報しか認識することができない。従って、領域R901のうちの、領域R1301外の情報は、人間にとって無駄な情報である。 As shown in FIG. 9, the data of the portion moving at the speed “2r 0 / t 0 ” exists in the region R 901 , but the human is the region R 1301 in the region R 901. Only the information inside can be recognized. Therefore, information outside the region R 1301 in the region R 901 is useless information for humans.
次に、人間が固定視を行う場合について説明する。ここで、固定視とは、追従視とは違い、被写体の移動とは別の視線移動をする場合で、例えば、人間が視線を動かさないで(見ている方向を常に一定に保って)、動画を見る場合が該当する。 Next, a case where a human performs fixed vision will be described. Here, fixed vision is different from follow-up vision in the case of moving the line of sight different from the movement of the subject. For example, humans do not move the line of sight (keep the viewing direction constant) Applicable when watching a video.
動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「(r0/t0)/2」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 An image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “(r 0 / t 0 ) / 2” in a moving image is obtained by a visual integration function. This is equivalent to an image obtained by filtering data in a portion moving at a speed of “(r 0 / t 0 ) / 2” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of the low-pass filter can be represented by the same region on the frequency domain as that when a stationary portion is watched, that is, a region R 1001 in FIG.
ここで、図14は、周波数ドメインにおいて、速度「(r0/t0)/2」程度で動いている部分のデータが分布する領域R401(図4)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 14 shows a region R 401 (FIG. 4) in which data of a portion moving at a speed of “(r 0 / t 0 ) / 2” in the frequency domain is distributed, and a case where a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band of the low-pass filter is shown.
人間は、領域R401のうちの、領域R1001内の情報、つまり、領域R401とR1001とが重複する部分の領域R1401内の情報しか認識することができない。従って、領域R401のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 401, information in the region R 1001, that is, can not be a region R 401 and R 1001 are only recognized information in the region R 1401 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 401 is useless information for humans.
なお、図14において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R401とは重複しない部分の領域R1402とR1403(図中斜線を付して示す)が存在するが、いまの場合、この領域R1402とR1403には、動画データは存在しない。 In FIG. 14, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1402 and R 1403 (parts R 1402 and R 1403 in the figure) that do not overlap with the region R 401 where the moving image data exists. In this case, there is no moving image data in the regions R 1402 and R 1403 .
また、上述のように、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 Further, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “(r 0 / t 0 ) / 2”, the human gaze direction is the moving subject (moving subject). Therefore, even a slightly blurred image is recognized as a good moving image.
従って、図14の領域R1401内のデータを、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタ、即ち、図11の領域R1101を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1401 in FIG. 14 has a low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2”, that is, the region R 1101 in FIG. Even if it is filtered with a low-pass filter, it is recognized as a moving image with good image quality.
以上から、図15に示すように、領域R1401のうちの、領域R1101と重複する部分の領域R1501(図中黒色で塗りつぶして示す)内のデータがあれば、速度「(r0/t0)/2」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 15, if there is data in a region R 1501 of the region R 1401 that overlaps the region R 1101 (shown in black in the drawing), the speed “(r 0 / A portion moving at about t 0 ) / 2 ”is recognized as a moving image with good image quality.
従って、動画において、速度「(r0/t0)/2」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R401内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「(r0/t0)/2」程度で移動する場合のローパスフィルタの通過帯域としての領域R1101との重複部分の領域R1501を除いた領域のデータは、無駄である(なくても、人間が認識する画質に、ほとんど影響しない)。 Therefore, in the case where a portion of a moving image moving at a speed of “(r 0 / t 0 ) / 2” is fixedly viewed by a human, the data of that portion, that is, the data in the region R 401 is fixed. Region R 1001 as the pass band of the low-pass filter when viewing is performed, and region R as the pass band of the low-pass filter when the gazing point moves at a speed of “(r 0 / t 0 ) / 2” The data in the area excluding the area R 1501 that overlaps the area 1101 is useless (even if it does not, it hardly affects the image quality recognized by humans).
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of the low-pass filter can be represented by the same region on the frequency domain as that when a stationary portion is watched, that is, a region R 1001 in FIG.
ここで、図16は、周波数ドメインにおいて、速度「r0/t0」程度で動いている部分のデータが分布する領域R801(図8)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 16 shows a region R 801 (FIG. 8) in which data of a portion moving at a speed of “r 0 / t 0 ” in the frequency domain is distributed, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.
人間は、領域R801のうちの、領域R1001内の情報、つまり、領域R801とR1001とが重複する部分の領域R1601内の情報しか認識することができない。従って、領域R801のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 801, information in the region R 1001, that is, can not be a region R 801 and R 1001 are only recognized information in the region R 1601 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 801 is useless information for humans.
なお、図16において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R801とは重複しない部分の領域R1602とR1603(図中斜線を付して示す)が存在するが、いまの場合、この領域R1602とR1603には、動画データは存在しない。 In FIG. 16, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a portion of regions R 1602 and R 1603 that do not overlap with the region R 801 where moving image data exists (in the drawing) In this case, there is no moving image data in these areas R 1602 and R 1603 .
また、上述のように、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “r 0 / t 0 ”, the direction of the human gaze is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.
従って、図16の領域R1601内のデータを、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタ、即ち、図12の領域R1201を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Therefore, the data in the region R 1601 in FIG. 16 is filtered by a low-pass filter when the gazing point moves at a speed of “r 0 / t 0 ”, that is, a low-pass filter having the region R 1201 in FIG. Even so, it is recognized as a moving image with good image quality.
以上から、図17に示すように、領域R1601のうちの、領域R1201と重複する部分の領域R1701(図中黒色で塗りつぶして示す)内のデータがあれば、速度「r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 17, if there is data in a region R 1701 (shown in black in the drawing) that overlaps the region R 1201 in the region R 1601 , the speed “r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.
従って、動画において、速度「r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R801内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1201との重複部分の領域R1701を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 801 . Region R 1001 as the pass band of the low-pass filter in the case where the gazing point moves and the region R 1201 as the pass band of the low-pass filter when the gazing point moves at a speed of about “r 0 / t 0 ” The data in the area excluding 1701 is useless.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分を、人間が固定視することにより認識する画像は、視覚の積分機能により、速度「r0/t0」程度で動いている部分のデータを、時間方向に、「4×t0」秒程度のローパスフィルタでフィルタリングして得られる画像と等価である。 Next, an image that is recognized by a human fixed view of a moving part of a moving image at a speed of about “2r 0 / t 0 ” in a moving image is obtained by a visual integration function, This is equivalent to an image obtained by filtering data in a portion moving at a speed of about “r 0 / t 0 ” with a low-pass filter of about “4 × t 0 ” seconds in the time direction.
このローパスフィルタの通過帯域は、周波数ドメイン上において、静止している部分を注視する場合と同一の領域、即ち、図10の領域R1001で表すことができる。 The pass band of the low-pass filter can be represented by the same region on the frequency domain as that when a stationary portion is watched, that is, a region R 1001 in FIG.
ここで、図18は、周波数ドメインにおいて、速度「2r0/t0」程度で動いている部分のデータが分布する領域R901(図9)と、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001(図10)とを示している。 Here, FIG. 18 shows a region R 901 (FIG. 9) in which data of a portion moving at a speed of about “2r 0 / t 0 ” is distributed in the frequency domain, and a low-pass filter when a human performs fixed vision. A region R 1001 (FIG. 10) as a pass band is shown.
人間は、領域R901のうちの、領域R1001内の情報、つまり、領域R901とR1001とが重複する部分の領域R1801内の情報しか認識することができない。従って、領域R901のうちの、領域R1001外の情報は、人間にとって無駄な情報である。 Humans, of area R 901, information in the region R 1001, that is, can not be a region R 901 and R 1001 are only recognized information in the region R 1801 of the portions overlapping. Therefore, information outside the region R 1001 in the region R 901 is useless information for humans.
なお、図18において、人間が固定視を行う場合のローパスフィルタの通過帯域としての領域R1001には、動画データが存在する領域R901とは重複しない部分の領域R1802とR1803(図中斜線を付して示す)が存在するが、いまの場合、この領域R1802とR1803には、動画データは存在しない。 In FIG. 18, a region R 1001 as a pass band of the low-pass filter when a human performs fixed vision is a region R 1802 and R 1803 of portions that do not overlap with the region R 901 where moving image data exists (in the drawing) In this case, there is no moving image data in the regions R 1802 and R 1803 .
また、上述のように、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、人間の視線方向は、動被写体(動いている被写体)の動きとは別の動きをしているので、多少ぼけた画像であっても良好な動画として認識される。 In addition, as described above, when a human is fixedly viewing a portion that is moving at a speed of about “2r 0 / t 0 ”, the direction of the human line of sight is the movement of the moving subject (moving subject). Since it moves differently, even a slightly blurred image is recognized as a good moving image.
従って、図18の領域R1801内のデータを、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタ、即ち、図13の領域R1301を通過帯域として有するローパスフィルタでフィルタリングしても、良好な画質の動画として認識される。 Accordingly, the data in the region R 1801 in FIG. 18 is filtered by a low-pass filter when the point of interest moves at a speed of about “2r 0 / t 0 ”, that is, a low-pass filter having the region R 1301 in FIG. Even so, it is recognized as a moving image with good image quality.
以上から、図19に示すように、領域R1801のうちの、領域R1301と重複する部分の領域R1901(図中黒色で塗りつぶして示す)内のデータがあれば、速度「2r0/t0」程度で動いている部分は、良好な画質の動画として認識される。 From the above, as shown in FIG. 19, if there is data in a region R 1901 (shown in black in the drawing) that overlaps the region R 1301 in the region R 1801 , the speed “2r 0 / t A portion moving at about “ 0 ” is recognized as a moving image with good image quality.
従って、動画において、速度「2r0/t0」程度で動いている部分を、人間が固定視する場合には、その部分のデータ、即ち、領域R901内のデータから、固定視が行われている場合のローパスフィルタの通過帯域としての領域R1001と、注視点が速度「2r0/t0」程度で移動する場合のローパスフィルタの通過帯域としての領域R1301との重複部分の領域R1901を除いた領域のデータは、無駄である。 Therefore, when a human views a moving part of a moving image at a speed of about “2r 0 / t 0 ”, the fixed view is performed from the data of that part, that is, the data in the region R 901 . Region R 1001 as the pass band of the low-pass filter when the gazing point moves and the region R 1301 as the pass band of the low-pass filter when the gazing point moves at a speed of about “2r 0 / t 0 ” The data in the area excluding 1901 is useless.
以上の固定視と追従視の場合の、人間が認識することができる周波数ドメイン上の範囲(領域)についてまとめると、図20乃至図23に示すようになる。 The ranges (regions) on the frequency domain that can be recognized by humans in the case of fixed vision and follow-up vision are summarized as shown in FIGS.
即ち、図20は、動画の中で静止している物体(被写体)が投影されている部分について、人間が認識することができるデータが存在する領域を示している。 That is, FIG. 20 shows an area where there is data that can be recognized by humans in a portion where a stationary object (subject) is projected in a moving image.
動画の中で静止している物体が投影されている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図20に示すように、図10に示した領域R1001であり、領域R1001以外にあるデータは、無駄である。 As shown in FIG. 20, the region on the frequency domain of the data that can be recognized by humans for a portion where a stationary object is projected in the moving image is a region R 1001 shown in FIG. The data outside the area R 1001 is useless.
次に、図21は、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 21 shows data in which a person can recognize a portion of a moving image where a subject projected on the moving image moves at a speed of “(r 0 / t 0 ) / 2”. The area to be shown is shown.
動画の中で速度「(r0/t0)/2」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図11に示した領域R1101である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図15に示した領域R1501であり、この領域R1501は、図11に示した領域R1101に含まれる。 A region on the frequency domain of data that can be recognized by humans by following vision for a portion moving at a speed of “(r 0 / t 0 ) / 2” in the moving image is a region R shown in FIG. 1101 . Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1501 shown in FIG. 15, and this region R 1501 is included in the region R 1101 shown in FIG.
従って、速度「(r0/t0)/2」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図21に示すように、図11に示した領域R1101であり、領域R1101以外にあるデータは、無駄である。 Therefore, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “(r 0 / t 0 ) / 2” is shown in FIG. 11 as shown in FIG. a region R 1101, data in the region other than the region R 1101 is waste.
次に、図22は、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 22 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”. ing.
動画の中で速度「r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図12に示した領域R1201である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図17に示した領域R1701であり、この領域R1701は、図12に示した領域R1201に含まれる。 A region on the frequency domain of data that can be recognized by a human by tracking vision for a portion moving at a speed of “r 0 / t 0 ” in the moving image is a region R 1201 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized by fixed vision is a region R 1701 shown in FIG. 17, and this region R 1701 is included in the region R 1201 shown in FIG.
従って、速度「r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図22に示すように、図12に示した領域R1201であり、領域R1201以外にあるデータは、無駄である。 Therefore, as shown in FIG. 22, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “r 0 / t 0 ” is a region R 1201 shown in FIG. Yes , the data outside the area R 1201 is useless.
次に、図23は、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータが存在する領域を示している。 Next, FIG. 23 shows an area where data that can be recognized by humans exists in a portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”. ing.
動画の中で速度「2r0/t0」程度で動いている部分について、人間が追従視で認識することができるデータの周波数ドメイン上の領域は、図13に示した領域R1301である。さらに、固定視で認識することができるデータの周波数ドメイン上の領域は、図19に示した領域R1901であり、この領域R1901は、図13に示した領域R1301に含まれる。 A region on the frequency domain of the data that can be recognized by humans by following vision for a portion moving at a speed of “2r 0 / t 0 ” in the moving image is a region R 1301 shown in FIG. Furthermore, the region on the frequency domain of data that can be recognized with fixed vision is a region R 1901 shown in FIG. 19, and this region R 1901 is included in the region R 1301 shown in FIG.
従って、速度「2r0/t0」程度で動いている部分について、人間が認識することができるデータの周波数ドメイン上の領域は、図23に示すように、図13に示した領域R1301であり、領域R1301以外にあるデータは、無駄である。 Therefore, as shown in FIG. 23, the region on the frequency domain of the data that can be recognized by humans for the portion moving at the speed “2r 0 / t 0 ” is a region R 1301 shown in FIG. Yes , data outside the area R 1301 is useless.
ここで、上述の場合には、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向の幅を、2π/(4t0)としたが、この幅は、視覚の積分機能による積分の時間に相当する幅であればよく、2π/(4t0)に限定されるものではない。 In the above case, the width in the T direction of the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. 23 is 2π / (4t 0 ). However, this width may be a width corresponding to the integration time by the visual integration function, and is not limited to 2π / (4t 0 ).
動画の中で、他の速度で動いている部分のデータについても、同様のことが言える。 The same can be said for the data of the moving part of the video at other speeds.
以上のように、人間の視覚効果(視覚特性)、即ち、視覚の積分機能を利用して、周波数ドメイン上において、動画データを、人間が認識することができる領域のデータと、それ以外の無駄なデータとに分類することができる。 As described above, by utilizing the human visual effect (visual characteristics), that is, the visual integration function, on the frequency domain, moving image data can be recognized as data in a region that can be recognized by humans and other waste. Data.
そして、周波数ドメイン上において、動画データから、人間が認識することができる領域のデータだけを抽出すれば、即ち、それ以外の無駄なデータを削除すれば、画質を劣化させずに(人間が動画を見たときに認識する画質)、動画データを圧縮することができる。 Then, if only data in a region that can be recognized by humans is extracted from video data on the frequency domain, that is, if unnecessary data other than that is deleted, image quality is not degraded ( The image quality recognized when viewing the video), and the video data can be compressed.
そこで、図24は、動画データを、視覚の積分機能を利用して圧縮し、さらに、そのように圧縮された動画データを復号(伸張)する画像処理システムの構成例を示している。 FIG. 24 shows an example of the configuration of an image processing system that compresses moving image data using a visual integration function and decodes (decompresses) the compressed moving image data.
図24において、送信装置1には、例えば、1/t0=240fpsなどの高フレームレートの動画データが供給される。送信装置1は、そこに供給される動画データを、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などを通過帯域とするフィルタ(帯域通過フィルタまたは帯域制限フィルタ)でフィルタリングし、その結果得られる、人間が認識することができる周波数ドメイン上の領域のデータを出力する。送信装置1が出力するデータは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどの記録媒体11に記録され、あるいは、電話回線、地上波、衛星回線、インターネット、有線または無線LAN(Local Area Network)などの伝送媒体12を介して伝送される。
In FIG. 24, the
受信装置2には、記録媒体11から再生されたデータ、あるいは、伝送媒体12を介して伝送されてくるデータが供給される。受信装置2は、そこに供給されるデータを受信して、所定の処理を施し、その結果得られる動画データを、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などで構成される表示装置3に供給して表示させる。
The
なお、図24において、送信装置1、受信装置2、表示装置3は、それぞれ物理的に独立の装置として構成することができる。また、送信装置1および受信装置2は、図24において点線で囲んで示すように、全体として、物理的に1つの装置として構成することができる。さらに、送信装置1、受信装置2、および表示装置3の全体や、受信装置2および表示装置3を、物理的に1つの装置として構成することもできる。
In FIG. 24, the
次に、図25は、図24の送信装置1の第1の構成例を示している。
Next, FIG. 25 illustrates a first configuration example of the
バッファ部21には、送信装置1に供給された高フレームレートの動画データが供給される。バッファ部21は、そこに供給される動画データを順次記憶する。
The
フィルタ部22は、バッファ部21に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部23から供給されるフィルタ情報にしたがってフィルタリングして、そのフィルタリングにより得られる動画データを、エンコード部24に供給する。
The
フィルタ生成部23は、バッファ部21に記憶された動画データを適宜読み出し、その動画データの各部分をフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部22に供給する。
The filter generation unit 23 appropriately reads the moving image data stored in the
即ち、フィルタ生成部23は、主成分方向取得部31とフィルタ情報供給部32とから構成される。
That is, the filter generation unit 23 includes a principal component
主成分方向取得部31は、バッファ部21から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部32に供給する。
The principal component
フィルタ情報供給部32は、主成分方向取得部31からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部22に出力する。
The filter
エンコード部24は、フィルタ部22から供給される動画データを、例えば、MPEG(Moving Picture Experts Group)1や2などの所定のエンコード(符号化)方法によってエンコードし、その結果得られるエンコードデータを出力する。このエンコードデータが、図24の記録媒体11に記録され、あるいは伝送媒体12を介して伝送される。
The
次に、図26のフローチャートを参照して、図25の送信装置1の処理について説明する。
Next, processing of the
バッファ部21には、フレームレート1/t0が、例えば、240fpsの高フレームレートの動画データが供給されて順次記憶される。
The
そして、ステップS1において、フィルタ生成部23は、バッファ部21に記憶された動画データを読み出して、自身(フィルタ生成部23)に入力し、ステップS2に進む。
In step S1, the filter generation unit 23 reads the moving image data stored in the
ステップS2では、フィルタ生成部23(の主成分方向取得部31およびフィルタ情報供給部32)が、ステップS1で入力された動画データの各部分について、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給する、後述する図31で説明する「必要な情報の通過帯域を求める処理」を行い、ステップS3に進む。
In step S2, a region in which the filter generation unit 23 (its principal component
ステップS3では、フィルタ部22が、バッファ部21から、ステップS2でフィルタ生成部23から供給されたフィルタ情報のフィルタによるフィルタリングに用いるデータを読み出し、そのデータに対して、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を1/4に間引くダウンサンプリングを行う。
In step S3, the
即ち、フィルタ部22は、バッファ部21から読み出したデータを、ステップS2でフィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタでフィルタリングしながら、時間方向のサンプリング間隔、即ち、フレーム周期が、元の動画データの4倍である4t0の低フレームレートの動画データを得て、エンコード部24に出力し、ステップS4に進む。
In other words, the
ステップS4では、エンコード部24が、フィルタ部22からの動画データをエンコードし、その結果得られるエンコードを出力する。
In step S4, the
なお、ステップS1乃至S4の処理は、バッファ部21に記憶された動画の各部分のデータすべてについて行われる。
Note that the processing in steps S1 to S4 is performed for all the data of each part of the moving image stored in the
また、ステップS3におけるダウンサンプリングは、バッファ部21に記憶された動画データの4フレームごとに、1フレームのフィルタリング結果を出力する処理である。従って、バッファ部21に記憶された動画データの4フレームごとに、その4つのフレームのうちの1フレームついて、フィルタ生成部23から供給されたフィルタ情報が表す通過帯域のフィルタによるフィルタリングを行えば良い。
Further, the downsampling in step S3 is a process of outputting a filtering result of one frame for every four frames of moving image data stored in the
以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、ダウンサンプリングを行うようにしたので、人間の目の視覚効果を考慮した動画データの削減を行うことができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the moving image data is filtered by the filter having the pass band and further down-sampling is performed, the moving image data can be reduced in consideration of the visual effect of the human eye.
即ち、人間が視覚によって認識することができる周波数ドメイン上の領域が、図2に示したように、X,Y方向が2×2π/(2r0)で、T方向が2×2π/(2t0)の、原点を中心とする領域R201であるとすると、人間が認識することができる最高の画質の動画は、フレームレートが1/t0で、空間方向の画素ピッチがr0の動画である。 That is, as shown in FIG. 2, the regions on the frequency domain that humans can visually recognize are 2 × 2π / (2r 0 ) in the X and Y directions and 2 × 2π / (2t in the T direction. 0 ) of the region R 201 centered on the origin, the highest quality video that can be recognized by humans is the video with a frame rate of 1 / t 0 and a pixel pitch r 0 in the spatial direction. It is.
そして、図10乃至図23で説明した視覚効果を考慮しない場合には、例えば、動画を時間方向にダウンサンプリングすることにより、そのフレームレートを1/t0よりも低下させると、そのフレームレートが低下した動画を表示した場合に、その動画を見た人間は、画質の劣化を認識する。 If the visual effects described with reference to FIGS. 10 to 23 are not considered, for example, if the frame rate is reduced below 1 / t 0 by down-sampling the moving image in the time direction, the frame rate is reduced. When a reduced moving image is displayed, a person who views the moving image recognizes the deterioration of the image quality.
これに対して、送信装置1では、図10乃至図23で説明した視覚効果を考慮した処理、即ち、周波数ドメイン上で人間が認識することができる領域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングするので、動画のフレームレートを1/(4t0)に低下させても、即ち、動画データのデータ量を1/4に削減しても、人間が画質の劣化を感じない動画を表示することができる。
On the other hand, in the
即ち、図27乃至図30は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、高フレームレートの動画(フレームレートが1/t0の動画)のデータをフィルタリングしながら、時間方向に1/4のダウンサンプリングを行って得られる低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータの周波数ドメイン上の分布を示している。
That is, FIG. 27 to FIG. 30 show a high frame rate by a filter in which the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. videos while filtering data (
まず、動画の中の静止している部分のデータは、フィルタ部22において、図20の領域R1001を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1001内にのみ存在する。
First, the data of the stationary part in the moving image is filtered by the
領域R1001内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1001 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.
このため、図27に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 For this reason, as shown in FIG. 27, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1001は、図10で説明したことから、X,Y方向が2π/r0で、T方向が2π/(4t0)の領域であるため、折り返し成分どうしは重ならない。 However, since the region R 1001 is a region in which the X and Y directions are 2π / r 0 and the T direction is 2π / (4t 0 ) as described with reference to FIG. 10, the aliasing components do not overlap.
なお、図27において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 27, the shaded part is the part where the down-sampled video data exists.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータは、フィルタ部22において、図21の領域R1101を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1101内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2” is stored in the region R 1101 of FIG. Filtered by a filter as a pass band. Therefore, the moving image data after filtering exists only in the region R 1101 .
領域R1101内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1101 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.
このため、図28に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 28, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1101は、図11で説明したことから、原点(0,0)と点(π/r0,-π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1101 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.
なお、図28において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 28, the shaded part is the part where the down-sampled moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータは、フィルタ部22において、図22の領域R1201を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1201内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image is moving at a speed of about “r 0 / t 0 ” has a region R 1201 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1201 .
領域R1201内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1201 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 with respect to the spatial directions x and y, and 4 × with respect to the time direction t. t Data sampled at 0 intervals.
このため、図29に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 29, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1201は、図12で説明したことから、原点(0,0)と点(π/r0,-2π/(2t0))とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1201 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, -2π / (2t0)), as described in FIG. And the X and Y directions are-(π / r 0 ) to + (π / r 0 ) and the T direction is-(π / t 0 ) to + (π / t 0 ). Since it is a range area, the aliasing components do not overlap.
なお、図29において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 29, the shaded portion is the portion where the down-sampled moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータは、フィルタ部22において、図23の領域R1301を通過帯域とするフィルタによってフィルタリングされる。従って、フィルタリング後の動画データは、領域R1301内にのみ存在する。 Next, the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ” has a region R 1301 in FIG. Filtered by the filter. Therefore, the moving image data after filtering exists only in the region R 1301 .
領域R1301内の動画データを、時間方向に1/4にダウンサンプリングすると、その動画データは、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対しては4×t0間隔でサンプリングされたデータとなる。 When the moving image data in the region R 1301 is downsampled to 1/4 in the time direction, the moving image data is sampled at intervals of r 0 in the spatial direction x, y and 4 × in the time direction t. t Data sampled at 0 intervals.
このため、図30に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/(4t0)間隔で、折り返し成分が生じる。 Therefore, as shown in FIG. 30, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / (4t 0 ) in the T direction. Occurs.
但し、領域R1301は、図13で説明したことから、原点(0,0)と点(π/r0,-2π/t0)とを結ぶ直線からT方向に2π/(4t0)の幅を有する領域で、かつ、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域であるため、折り返し成分どうしは重ならない。 However, the region R 1301 has a width of 2π / (4t0) in the T direction from the straight line connecting the origin (0,0) and the point (π / r0, −2π / t0), as described in FIG. area, and, X, Y direction, - at (π / r 0) to + (π / r 0), T direction, - the range of (π / t 0) to + (π / t 0) Since it is a region, the aliasing components do not overlap.
なお、図30において、影を付してある部分が、ダウンサンプリング後の動画データが存在する部分である。 In FIG. 30, the shaded part is the part where the down-sampled moving image data exists.
以上の図27乃至図30に示したように、周波数ドメインにおいて、ダウンサンプリング後の動画データの折り返し成分どうしは重ならないということは、そのダウンサンプリング後の動画データから、元のデータ、即ち、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータを抽出することができることを意味し、換言すれば、ダウンサンプリング後の動画データが、人間の視覚特性を考慮した必要な情報(人間が認識することができる情報)を、正確に保持していることを意味する。 As shown in FIGS. 27 to 30 above, the fact that the aliasing components of the downsampled video data do not overlap in the frequency domain means that the original data, that is, 20 area R 1001 , area R 1101 in FIG. 21, area R 1201 in FIG. 22, and area R 1301 in FIG. 23 can be extracted. This means that necessary information (information that can be recognized by humans) taking into consideration human visual characteristics is accurately held.
なお、ダウンサンプリング後の動画データを、ダウンサンプリング前の動画データに復号(復元)するためには、動画の各部分のデータに、どのようなフィルタを適用したかの情報が必要となる。 Note that in order to decode (restore) the moving image data after downsampling into moving image data before downsampling, information on what kind of filter is applied to the data of each part of the moving image is required.
そこで、図25の送信装置1では、フィルタ情報供給部32からエンコード部24に対して、動画の各部分のデータに適用したフィルタのフィルタ情報としての通過帯域である、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301の情報や、その領域R1001,R1101,R1201,R1301の主成分方向の情報を供給し、エンコード部24では、その情報を、エンコードデータに多重化して出力するようにすることができる。
Therefore, in the
次に、図31のフローチャートを参照して、図26のステップS2でフィルタ生成部23が行う「必要な情報の通過帯域を求める処理」について説明する。 Next, with reference to the flowchart of FIG. 31, the “process for obtaining the passband of necessary information” performed by the filter generation unit 23 in step S2 of FIG. 26 will be described.
まず最初に、ステップS11において、フィルタ生成部23(図25)の主成分方向取得部31は、図26のステップS1で入力された動画データの各部分について、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部32に供給して、ステップS12に進む。なお、主成分方向は、例えば、空間方向x,yと、時間方向tとの3次元の方向について、フーリエ変換(3次元フーリエ変換)を行うことにより求めることができる。
First, in step S11, the principal component
ステップS12では、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS13に進む。
In step S12, the filter
ステップS13では、フィルタ情報供給部32は、ステップS12で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部22に供給し、「必要な情報の通過帯域を求める処理」を終了する。
In step S13, the filter
以上のような「必要な情報の通過帯域を求める処理」によれば、例えば、動画像において静止している被写体が投影されている部分に対しては、図20の領域R1001をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「(r0/t0)/2」程度で動いている部分に対しては、図21の領域R1101をフィルタ情報として求めることができる。さらに、動画において投影されている被写体が速度「r0/t0」程度で動いている部分に対しては、図22の領域R1201をフィルタ情報として求めることができる。また、動画において投影されている被写体が速度「2r0/t0」程度で動いている部分に対しては、図23の領域R1301をフィルタ情報として求めることができる。動画においてその他の速度で被写体が移動している部分に対しても、人間が認識することができる周波数ドメイン上の範囲の領域をフィルタ情報として求めることができる。 According to the “process for obtaining the pass band of necessary information” as described above, for example, the region R 1001 in FIG. 20 is used as filter information for a portion where a stationary subject is projected in a moving image. Can be sought. Further, for a portion where the subject projected in the moving image moves at a speed of “(r 0 / t 0 ) / 2”, the region R 1101 in FIG. 21 can be obtained as filter information. Furthermore, the region R 1201 in FIG. 22 can be obtained as filter information for a portion where the subject projected in the moving image moves at a speed of about “r 0 / t 0 ”. Further, for a portion where the subject projected in the moving image moves at a speed of about “2r 0 / t 0 ”, the region R 1301 in FIG. 23 can be obtained as filter information. Even in a portion of the moving image where the subject is moving at other speeds, a region in the frequency domain that can be recognized by humans can be obtained as filter information.
なお、本実施の形態では、フィルタ生成部23(図25)のフィルタ情報供給部32において、主成分方向取得部31から供給される主成分方向に延びる周波数ドメイン上の領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部22に供給するようにしたが、フィルタ情報供給部32では、複数の主成分方向それぞれに対する上述のような通過帯域としてのフィルタ情報をあらかじめ求めて記憶しておき、その記憶しているフィルタ情報の中から、主成分方向取得部31から供給される主成分方向に対応するものを選択して、フィルタ部22に供給するようにしても良い。
In the present embodiment, in the filter
また、フィルタ生成部23は、送信装置1とは別の、フィルタ情報を出力する独立の装置として構成することができる。
Further, the filter generation unit 23 can be configured as an independent device that outputs filter information different from the
ところで、図31のステップS11では、3次元フーリエ変換によって、動画データの各部分の主成分方向を求めるようにしたが、3次元フーリエ変換の計算量は膨大であるため、ステップS11における、主成分方向を取得する処理に要する計算量も膨大となる。 By the way, in step S11 of FIG. 31, the principal component direction of each part of the moving image data is obtained by the three-dimensional Fourier transform. However, since the calculation amount of the three-dimensional Fourier transform is enormous, the principal component in step S11 The amount of calculation required for the process of acquiring the direction is enormous.
そこで、図32のフローチャートを参照して、図31のステップS11において、3次元フーリエ変換を行う場合よりも少ない計算量で主成分方向を取得する方法について説明する。 A method for acquiring the principal component direction with a smaller amount of calculation than in the case of performing the three-dimensional Fourier transform in step S11 of FIG. 31 will be described with reference to the flowchart of FIG.
まず最初に、ステップS21において、フィルタ生成部23(図25)の主成分方向取得部31は、バッファ部21に記憶された動画データの各フレームのデータを、例えば、横×縦が16×16画素などのブロックに分割し、ステップS22に進む。なお、ここでは、各ブロックの画像データが、上述の動画データの各部分のデータとなる。
First, in step S21, the principal component
ここで、ブロックは、複数の画素で構成されている必要はなく、1画素であっても良い。 Here, the block does not need to be composed of a plurality of pixels, and may be one pixel.
ステップS22では、主成分方向取得部31は、ステップS21で得られた各ブロックを、順次、注目ブロックとし、注目ブロックについて、その注目ブロックのフレーム(以下、適宜、注目フレームという)の次のフレームとの相関を表す相関情報を求める。さらに、ステップS22では、主成分方向取得部31は、注目ブロックの相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置を求める。即ち、ステップS22では、主成分方向取得部31は、いわゆるブロックマッチング等により、注目ブロックの空間方向x,yの2次元の動きベクトルを検出する。
In step S22, the principal component
ここで、相関情報としては、いわゆる相関係数を採用することができるが、ここでは、計算コストを考慮して、例えば、注目ブロックを、動きベクトルとの探索範囲内で空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある、注目フレームの次のフレームの画素との画素値の自乗誤差や差分絶対値の総和などを採用する。この場合、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、注目フレームの次のフレーム上の空間方向の位置となる。 Here, as the correlation information, a so-called correlation coefficient can be adopted. Here, considering the calculation cost, for example, the target block is placed in the spatial direction x, y within the search range with the motion vector. , The square error of the pixel value of each pixel of the target block at the position shifted by u, v and the pixel of the next frame of the target frame at the same position as the pixel, the sum of absolute differences, etc. adopt. In this case, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the next frame of the frame of interest where the correlation represented by the correlation information is the highest.
なお、相関情報が表す相関が最大(相関情報の値が最小)になる空間方向の位置u,vを、それぞれ、u0,v0と表し、ステップS22で検出される空間方向x,yの動きベクトルを、(u0,v0)と表す。
す。
Note that the spatial direction positions u and v at which the correlation represented by the correlation information is maximum (correlation information value is minimum) are represented by u 0 and v 0 , respectively, in the spatial directions x and y detected in step S22. The motion vector is represented as (u 0 , v 0 ).
The
その後、ステップS22からS23に進み、主成分方向取得部31は、ステップS22で検出された動きベクトル(u0,v0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(u0,v0,t0)の方向と直交する方向を、主成分方向として検出し、フィルタ情報供給部32に供給して、処理を終了する。
Thereafter, the process proceeds from step S22 to S23, and the principal component
以上の処理によれば、ブロックの主成分方向が、その動きベクトル(u0,v0,t0)に垂直な平面(の拡がり方向)であるとして検出される。 According to the above processing, the principal component direction of the block is detected as a plane (expansion direction) perpendicular to the motion vector (u 0 , v 0 , t 0 ).
即ち、注目ブロックについて、動きベクトル(u0,v0,t0)が検出された場合、理想的には、空間方向x,yおよび時間方向tで定義される3次元空間において、動きベクトル(u0,v0,t0)の方向に、注目ブロックの画素値が続いているということ、つまり、注目ブロックのある点(x,y,t)における動画データの値は、mを整数として表される、x,y,tの3次元空間上の点(x+mu0,y+mv0,t+mt0)における動画データの値と同一であることになる。 That is, when a motion vector (u 0 , v 0 , t 0 ) is detected for the block of interest, ideally, in a three-dimensional space defined by the spatial direction x, y and the temporal direction t, the motion vector ( u 0 , v 0 , t 0 ) in the direction of the pixel value of the target block, that is, the value of the video data at the point (x, y, t) where the target block is This is the same as the value of the moving image data at the point (x + mu 0 , y + mv 0 , t + mt 0 ) on the three-dimensional space represented by x, y, t.
従って、時空間の注目ブロックのデータの周波数成分、即ち、時空間の注目ブロックのデータを周波数ドメイン上のデータに変換して得られるデータは、動きベクトル(u0,v0,t0)に垂直な平面上にのみ存在することになる。 Therefore, the frequency component of the data of the spatio-temporal block of interest, that is, the data obtained by converting the spatio-temporal block of interest data into the data on the frequency domain is the motion vector (u 0 , v 0 , t 0 ). It exists only on a vertical plane.
図32のフローチャートにしたがった方法では、このことを利用して、動きベクトル(u0,v0,t0)に垂直な平面を、主成分方向として検出している。従って、この場合、主成分方向を取得するためには、動きベクトルを検出すれば良く、3次元フーリエ変換を行う必要がないので、少ない計算量で、主成分方向を検出することができる。 In the method according to the flowchart of FIG. 32, this is used to detect a plane perpendicular to the motion vector (u 0 , v 0 , t 0 ) as the principal component direction. Therefore, in this case, in order to acquire the principal component direction, it is only necessary to detect a motion vector, and it is not necessary to perform a three-dimensional Fourier transform. Therefore, the principal component direction can be detected with a small amount of calculation.
なお、相関情報としては、例えば、相関係数を採用することができる。この場合、相関情報の値(相関係数)が最大の場合が、その相関情報が表す相関が最大の場合となる。 As the correlation information, for example, a correlation coefficient can be adopted. In this case, the correlation information value (correlation coefficient) is the maximum when the correlation represented by the correlation information is the maximum.
また、送信装置1(図25)のエンコード部24では、フィルタ部22からの動画データを、特にエンコードせずに、そのまま出力することもできる。
Further, the
次に、図33は、図24の受信装置2の構成例を示している。
Next, FIG. 33 illustrates a configuration example of the receiving
図25の送信装置1が出力するエンコードデータは、フレームレートが1/(4t0)の低フレームレートの動画データをエンコードしたものであり、この低フレームレートの動画データを、そのまま、その低フレームレートと同一のフレームレートを有する表示装置に供給して表示させたのでは、本来表示されるべき周波数成分の他、図28乃至図30に示した折り返し成分のうちの一部も表示され、その結果、表示装置で表示される動画の画質が劣化する。
The encoded data output from the
そこで、受信装置2では、フレームレートが1/(4t0)の低フレームレートの動画データを、元のフレームレート1/t0にアップサンプリングし、その結果得られる、フレームレートが1/t0の高フレームレートの動画データを、表示装置3(図24)に供給することで、表示装置3に、高画質の(画質の劣化が認識されない)動画データを表示させるようになっている。なお、ここでは、表示装置3は、1/t0のフレームレートで動画を表示するようになっているものとする。
Therefore, the receiving
受信装置2では、上述のように、表示装置3において高画質の動画を表示するために、送信装置1から供給される、フレームレートが1/(4t0)の低フレームレートの動画データに対して、所定の通過帯域の周波数成分を通過させるフィルタを適用しながら、時間方向のアップサンプリングを行う。
In the receiving
即ち、デコード部50には、送信装置1(図24)から記録媒体11または伝送媒体12を介して、エンコードデータが供給される。デコード部50は、エンコードデータをデコードし、その結果得られる低フレームレートの動画データを、バッファ部51に供給する。
That is, the
バッファ部51は、デコード部50から供給される低フレームレートの動画データを順次記憶する。
The
フィルタ部52は、バッファ部51に記憶された動画データを適宜読み出し、その動画データを、後述するフィルタ生成部53から供給されるフィルタ情報にしたがってフィルタリングしながらアップサンプリングし、そのフィルタリングおよびアップサンプリングにより得られる高フレームレートの動画データを出力する。フィルタ部52が出力する高フレームレートの動画データは、表示装置3(図24)に供給されて表示される。
The
フィルタ生成部53は、バッファ部51に記憶された動画データを適宜読み出し、その動画データの各部分を用いてフィルタリングするフィルタの情報であるフィルタ情報を生成して、フィルタ部52に供給する。
The filter generation unit 53 appropriately reads out the moving image data stored in the
即ち、フィルタ生成部53は、主成分方向取得部61とフィルタ情報供給部62とから構成される。
That is, the filter generation unit 53 includes a main component
主成分方向取得部61は、バッファ部51から読み出された動画データの各部分について、周波数ドメイン上での主成分の方向である主成分方向を取得し、その主成分方向の情報を、フィルタ情報供給部62に供給する。
The principal component
フィルタ情報供給部62は、主成分方向取得部61からの主成分方向の情報にしたがい、周波数ドメインにおいて、主成分方向に延びる領域であって、時間方向の周波数軸Tの方向に特定の幅としての、例えば、2π/(4t0)を有する領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、その通過帯域を、フィルタ情報として、フィルタ部52に出力する。
The filter
次に、図34のフローチャートを参照して、図33の受信装置2の処理について説明する。
Next, processing of the receiving
デコード部50には、エンコードデータが供給される。デコード部50は、そのエンコードデータを、フレームレートが1/(4t0)の低フレームレートの動画データにデコードし、バッファ部51に供給する。バッファ部51では、デコード部50から供給される1/(4t0)のフレームレートの低フレームレートの動画データが順次記憶される。
The
そして、ステップS31において、フィルタ生成部53は、バッファ部51に記憶された動画データのうちのある部分のデータ、即ち、例えば、図32のステップS21で説明したような16×16画素のブロックのデータを読み出して、自身(フィルタ生成部53)に入力し、ステップS32乃至S34に順次進む。
In step S31, the filter generation unit 53 generates a certain part of the moving image data stored in the
ステップS32乃至S34では、フィルタ生成部53(の主成分方向取得部61およびフィルタ情報供給部62)が、ステップS31で入力されたデータについて、周波数ドメイン上で人間が認識することができる領域を、フィルタの通過帯域として求め、その通過帯域をフィルタ情報として、フィルタ部52に供給する処理、即ち、上述した図31の「必要な情報の通過帯域を求める処理」と同様の処理を行う。
In steps S32 to S34, the filter generation unit 53 (the principal component
即ち、ステップS32では、フィルタ生成部53の主成分方向取得部61は、ステップS31で入力された動画データについて、空間方向x,yの周波数軸X,Y、および時間方向tの周波数軸Tで定義される周波数ドメインでの主成分方向を取得し、フィルタ情報供給部62に供給して、ステップS33に進む。
That is, in step S32, the principal component
なお、ステップS32において主成分方向は、図31で説明したように、3次元フーリエ変換を行うことにより求めることもできるし、図32で説明したように、動きベクトルを検出することにより求めることもできる。また、上述したように、送信装置1からのエンコードデータに、主成分方向(の情報)が多重化されている場合には、デコード部50において、エンコードデータから主成分方向を分離し、主成分方向取得部61において、デコード部50から、その主成分方向(の情報)の供給を受けることにより、主成分方向を取得することもできる。
In step S32, the principal component direction can be obtained by performing a three-dimensional Fourier transform as described in FIG. 31, or can be obtained by detecting a motion vector as described in FIG. it can. Further, as described above, when the principal component direction (information thereof) is multiplexed in the encoded data from the
さらに、エンコードデータに空間方向x,yの動きベクトル(u0,v0)が含まれる場合には、その動きベクトル(u0,v0)に、エンコードデータに含まれる動画データのフレーム同期4t0を、時間方向tのコンポーネントとして加えて、空間方向x,yおよび時間方向tの3次元の動きベクトル(u0,v0,4t0)とし、図32で説明したように、その3次元の動きベクトル(u0,v0,4t0)に直交する平面を主成分方向とすることもできる。 Furthermore, encoded data in the spatial direction x, in the case that contains the y motion vector (u 0, v 0) is the motion vector (u 0, v 0), the frame synchronization 4t of the moving image data included in the encoded data 0 is added as a component in the time direction t to obtain a three-dimensional motion vector (u 0 , v 0 , 4t 0 ) in the spatial direction x, y and the time direction t, and as shown in FIG. The plane orthogonal to the motion vector (u 0 , v 0 , 4t 0 ) can be the principal component direction.
即ち、図25の送信装置1のエンコード部24において、動画データが、少なくとも動き補償を利用する、例えば、MPEGなどのエンコード方法によってエンコードされる場合には、エンコードデータには、動き補償に用いられる動きベクトルが含まれる。そこで、デコード部50においてエンコードデータから動きベクトル(の情報)を抽出し、バッファ部51を介して、主成分方向取得部61に、エンコードデータに含まれる動きベクトルを供給するようにし、主成分方向取得部61では、その動きベクトルに直交する平面を、主成分方向として求める(検出する)ようにすることができる。
That is, in the
なお、MPEGでは、Iピクチャのブロック(マクロブロック)には、動きベクトルが存在しないが、Iピクチャの動きベクトルは、例えば、PまたはBピクチャのブロックの動きベクトルから推定するようにすればよい。 In MPEG, a motion vector does not exist in an I picture block (macroblock), but an I picture motion vector may be estimated from a motion vector of a P or B picture block, for example.
ステップS33では、フィルタ情報供給部62は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部61からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定し、ステップS34に進む。
In step S33, the filter
ステップS34では、フィルタ情報供給部62は、ステップS33で求めたフィルタの通過帯域(を表す情報)を、フィルタ情報として、フィルタ部52に供給し、ステップS35に進む。
In step S34, the filter
ステップS35では、フィルタ部52が、バッファ部51から動画データを読み出し、その動画データに対して、ステップS34でフィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタを適用しながら、時間方向のサンプル数を4倍にするアップサンプリングを行う。
In step S35, the
即ち、例えば、いま、ステップS31で入力された動画データが、低フレームレートの動画データのあるフレームのブロック(のデータ)であるとして、そのブロックを注目ブロックとするとともに、注目ブロックのフレームを注目フレームとする。 That is, for example, assuming that the moving image data input in step S31 is a block (data) of a certain frame of moving image data at a low frame rate, that block is the attention block, and the frame of the attention block is noted. Frame.
フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目ブロックの各画素のデータ(画素値)を求める。
The
また、フィルタ部52は、バッファ部51から読み出した動画データを、フィルタ生成部53から供給されたフィルタ情報が表す通過帯域のフィルタ、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を通過帯域とするフィルタによってフィルタリングすることにより、注目フレームから次のフレームまでの時間4t0を、時間t0に等分する3つの時刻それぞれにおける画素であって、注目ブロックの各画素を通り、注目ブロックの3次元の動きベクトルの方向に延びる直線上にある画素のデータを求める。なお、注目ブロックの3次元の動きベクトルは、例えば、主成分方向取得部61で求め、フィルタ情報供給部62を介して、フィルタ情報とともに、フィルタ部52に供給することができる。
Further, the
フィルタ部52は、以上のようなフィルタリングおよびアップサンプリングを行うことにより、フレームレートが1/t0の高フレームレートの動画データを得て、ステップS35からS36に進む。
The
ステップS36では、フィルタ部52は、ステップS35で得た高フレームレートの動画データを、表示装置3(図24)に出力して、処理を終了する。
In step S36, the
なお、ステップS31乃至S34の処理は、バッファ部51に記憶された動画データの各部分すべてについて行われる。
Note that the processing in steps S31 to S34 is performed for all portions of the moving image data stored in the
以上のように、周波数ドメイン上で人間が認識することができる領域、即ち、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、動画データをフィルタリングし、さらに、アップサンプリングを行うようにしたので、人間の目の視覚効果を考慮したデータ量の削減が行われた低フレームレートの動画データから、高画質の動画データ、つまり、元の高フレームレートの動画データと同様の画質の動画データを得て(元の高フレームレートの動画データと同様の画質を認識することができる動画データを復元して)表示することができる。 As described above, regions that can be recognized by humans on the frequency domain, that is, for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. Since the video data is filtered by a filter that uses a passband, and further upsampling is performed, the amount of data is reduced in consideration of the visual effects of the human eye. , Obtain high-quality video data, that is, video data with the same image quality as the original high-frame-rate video data (restore video data that can recognize the same image quality as the original high-frame-rate video data Can be displayed).
即ち、図35乃至図38は、それぞれ、図20の領域R1001、図21の領域R1101、図22の領域R1201、図23の領域R1301を、通過帯域とするフィルタによって、図27乃至図30の低フレームレートの動画(フレームレートが1/(4t0)の動画)のデータをフィルタリングしながら、時間方向に4倍のアップサンプリングを行って得られる高フレームレートの動画(フレームレートが1/t0の動画)のデータの周波数ドメイン上の分布を示している。 That is, FIGS. 35 to 38, respectively, the regions R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. 23, the filter having a pass band to 27 A high frame rate video (frame rate is obtained by performing upsampling four times in the time direction while filtering the data of the low frame rate video (video with a frame rate of 1 / (4t 0 )) in FIG. 1 / t 0 (moving data) on the frequency domain.
まず、動画の中の静止している部分のデータに対しては、フィルタ部52において、図20の領域R1001を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図20の領域R1001内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
First, the data of the still portion in the moving image is up-sampled in the
このため、図35に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図27に示した場合の4倍になる。 Therefore, as shown in FIG. 35, on the frequency domain, aliasing components are generated at intervals of 2π / r 0 in the X and Y directions, and aliasing components are generated at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図35において、影を付してある部分が、動画データが存在する部分である。 In FIG. 35, the shaded portion is a portion where moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分のデータに対しては、フィルタ部52において、図21の領域R1101を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図21の領域R1101内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Next, with respect to data of a portion of the moving image where the subject projected on the moving image moves at a speed of about “(r 0 / t 0 ) / 2”, the
このため、図36に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図28に示した場合の4倍になる。 Therefore, as shown in FIG. 36, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図36において、影を付してある部分が、動画データが存在する部分である。 In FIG. 36, the shaded portion is a portion where moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図22の領域R1201を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図22の領域R1201内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “r 0 / t 0 ”, the
このため、図37に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図29に示した場合の4倍になる。 Therefore, as shown in FIG. 37, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図37において、影を付してある部分が、動画データが存在する部分である。 In FIG. 37, the shaded portion is a portion where moving image data exists.
次に、動画の中で、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分のデータに対しては、フィルタ部52において、図23の領域R1301を通過帯域とするフィルタによるフィルタリングを行いながらアップサンプリングを行う。従って、そのフィルタリングおよびアップサンプリングによって得られる動画データは、図23の領域R1301内の周波数成分を有し、さらに、空間方向x,yに対してはr0間隔でサンプリングされ、時間方向tに対してはt0間隔でサンプリングされたデータとなる。
Next, for the data of the portion of the moving image where the subject projected on the moving image moves at a speed of about “2r 0 / t 0 ”, the
このため、図38に示すように、周波数ドメイン上では、X,Y方向には、2π/r0間隔で、折り返し成分が生じ、T方向には、2π/t0間隔で、折り返し成分が生じる。即ち、折り返し成分が生じるT方向の周期が、図30に示した場合の4倍になる。 Therefore, as shown in FIG. 38, on the frequency domain, aliasing components occur at intervals of 2π / r 0 in the X and Y directions, and aliasing components occur at intervals of 2π / t 0 in the T direction. . That is, the period in the T direction in which the aliasing component occurs is four times that shown in FIG.
なお、図38において、影を付してある部分が、動画データが存在する部分である。 In FIG. 38, the shaded portion is a portion where moving image data exists.
図2で説明したように、人間が認識することができるのは、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域R201であり、図35乃至図38において、この領域R201内には、折り返し成分は存在しない。 As described in FIG. 2, humans can recognize that the X and Y directions are − (π / r 0 ) to + (π / r 0 ) and the T direction is − (π / t 0 ) to + (π / t 0 ) range R 201 , and in FIG. 35 to FIG. 38, there is no aliasing component in this region R 201 .
従って、フィルタ部52におけるフィルタリングおよびアップサンプリングにより得られる、1/t0の高フレームレートの動画データが、表示装置3に表示された場合に、その表示された動画に対して、人間は、元の動画(送信装置1に供給された動画)と同様の画質を認識することができる。
Therefore, when moving image data with a high frame rate of 1 / t 0 obtained by filtering and upsampling in the
なお、上述したように、図25の送信装置1のエンコード部24では、エンコードデータに、フィルタ部22で用いられたフィルタのフィルタ情報を多重化することができるが、エンコードデータにフィルタ情報が多重化されている場合には、受信装置2(図33)は、フィルタ生成部53なしで構成することができる。この場合、受信装置2は、デコード部50において、エンコードデータからフィルタ情報を分離し、フィルタ部52に供給するように構成すればよい。
As described above, the
また、上述の場合には、図24の送信装置1において1/t0の高フレームレートの動画データを処理して得られる1/(4t0)の低フレームレートの動画データを、受信装置2に入力し、受信装置2において、その低フレームレートの動画データを、1/t0の高フレームレートの動画データに変換することにより、表示装置3において、高画質(送信装置1に入力される動画と同様の画質)の動画を表示するようにしたが、受信装置2には、元々、1/(4t0)の低フレームレートの動画データを入力しても、表示装置3において、ある程度高画質の動画を表示することが可能である。
In the above case, 1 / (4t 0 ) low frame rate moving image data obtained by processing the high frame rate moving image data of 1 / t 0 in the transmitting
即ち、動画において、(ほぼ)静止している被写体が投影されている部分では、時間方向の周波数成分はほとんど存在しないから、上述の図10に示した領域R301から領域R1001を除いた領域における周波数成分はほとんど存在しない。 That is, in the moving image, in a portion where a (substantially) stationary subject is projected, there is almost no frequency component in the time direction, and thus the region obtained by removing the region R 1001 from the region R 301 shown in FIG. There are almost no frequency components in.
また、動画において、そこに投影されている被写体が速度「(r0/t0)/2」程度で動いている部分では、その動きの方向(空間方向x,yおよび時間方向tの3次元の動きの方向)に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図11に示した領域R401から領域R1101を除いた領域における周波数成分はほとんど存在しない。 In the moving image, in the part where the subject projected there is moving at a speed of “(r 0 / t 0 ) / 2”, the direction of the movement (spatial direction x, y and time direction t three-dimensional Since there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement of (1), there is almost no frequency component in the region excluding the region R 1101 from the region R 401 shown in FIG.
さらに、動画において、そこに投影されている被写体が速度「r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図12に示した領域R801から領域R1201を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, there is almost no frequency component other than the frequency component in the direction perpendicular to the direction of the movement in the portion where the object projected there is moving at a speed of about “r 0 / t 0 ”. There are almost no frequency components in the region excluding the region R 1201 from the region R 801 shown in FIG.
また、動画において、そこに投影されている被写体が速度「2r0/t0」程度で動いている部分では、その動きの方向に垂直な方向の周波数成分以外はほとんど存在しないから、上述の図13に示した領域R901から領域R1301を除いた領域における周波数成分はほとんど存在しない。 Further, in the moving image, in the portion where the subject projected there is moving at a speed of about “2r 0 / t 0 ”, there is almost no frequency component in the direction perpendicular to the direction of the movement. There are almost no frequency components in the region excluding the region R 1301 from the region R 901 shown in FIG.
但し、実際には、動画においては、被写体の投影像は、時間の経過に伴って複雑に変化するため、動画において静止している部分であっても、図10に示した領域R301から領域R1001を除いた領域に、多少のデータ(周波数成分)が存在する。 However, in actuality, in the moving image, the projected image of the subject changes in a complicated manner with time, so even a portion that is stationary in the moving image is a region from the region R 301 shown in FIG. There is some data (frequency components) in the area excluding R1001 .
同様に、動画において速度「(r0/t0)/2」程度で動いている部分には、図11に示した領域R401から領域R1101を除いた領域に、多少のデータが存在し、また、動画において速度「r0/t0」程度で動いている部分には、図12に示した領域R801から領域R1201を除いた領域に、多少のデータが存在する。さらに、動画において速度「2r0/t0」程度で動いている部分には、図13に示した領域R901から領域R1301を除いた領域に、多少のデータが存在する。 Similarly, in the moving part of the moving image at a speed of “(r 0 / t 0 ) / 2”, there is some data in the area excluding the area R 1101 from the area R 401 shown in FIG. Further, in the moving part of the moving image at the speed “r 0 / t 0 ”, there is some data in the area excluding the area R 1201 from the area R 801 shown in FIG. Furthermore, in the moving part of the moving image at a speed of about “2r 0 / t 0 ”, there is some data in the area excluding the area R 1301 from the area R 901 shown in FIG.
このような領域R1001,R1101,R1201,R1301外に存在するデータを削除するために、送信装置1(図25)のフィルタ部22では、領域R1001,R1101,R1201,R1301を通過帯域とするフィルタによるフィルタリングを行っている。
In order to delete data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 , the
従って、受信装置2に入力される低フレームレートの動画データが、送信装置1の処理の結果得られたものでない場合には、領域R1001,R1101,R1201,R1301外に、多少のデータが存在することがあり得る。そして、領域R1001,R1101,R1201,R1301外に、データが存在する場合、受信装置2(図33)のフィルタ部52におけるフィルタリングおよびアップサンプリングによって得られる動画データについては、図2に示した人間が認識することができる領域R201内に折り返し成分が混入し、その折り返し成分によって、動画の画質は劣化する。
Therefore, when the low frame rate moving image data input to the receiving
しかしながら、領域R1001,R1101,R1201,R1301外に存在するデータは僅かであり、そのような僅かなデータによる折り返し成分に起因して生じる画質の劣化も僅かである。従って、受信装置2に対して、元々、1/(4t0)の低フレームレートの動画データを入力する場合には、送信装置1において得られる低フレームレートの動画データを入力する場合に比較して、多少の画質の劣化はあるが、それでも、元々、1/(4t0)の低フレームレートの動画データを、そのまま表示する場合に比較して、画質が改善された動画を表示することができる。
However, the data existing outside the regions R 1001 , R 1101 , R 1201 , and R 1301 is very small, and image quality degradation caused by the aliasing component due to such a small amount of data is also small. Therefore, originally when moving image data with a low frame rate of 1 / (4t 0 ) is originally input to the receiving
なお、受信装置2に入力される1/(4t0)の低フレームレートの動画データが、いわゆる電子シャッタを採用する撮像装置で撮像されたものである場合には、受信装置2(図33)のフィルタ情報供給部62において、その低フレームレートの動画データの撮像時の露光時間に対応してT方向の幅が制限された領域を、フィルタの通過帯域として決定することができる。
Note that when the 1 / (4t 0 ) low-frame-rate moving image data input to the receiving
即ち、1/(4t0)の低フレームレートの動画データの各フレームの撮像時の露光時間が、t0より大で、4t0より小であるt0'である場合には、各フレームに投影されている被写体の画像は、被写体からの光を、時間t0'だけ積分した値(受光量)に等しい。従って、被写体が動いている場合には、各フレームの画像には、時間t0'に対応するボケ(モーションブラー)が生じる。なお、t0が、例えば、1/240秒程度である場合には、t0'は、例えば、1/120秒程度である。 That is, 1 / the (4t 0) exposure time for the imaging of each frame of the moving image data of a low frame rate, with greater than t 0, when it is t 0 'is smaller than 4t 0 is on each frame The projected image of the subject is equal to a value (light reception amount) obtained by integrating light from the subject for a time t 0 ′. Therefore, when the subject is moving, blur (motion blur) corresponding to time t 0 ′ is generated in the image of each frame. When t 0 is about 1/240 seconds, for example, t 0 ′ is about 1/120 seconds, for example.
時間t0'だけの積分は、図39に示すような、周波数ドメインのT方向に、2π/t0'の幅を有する領域R3901を通過帯域とするローパスフィルタによるフィルタリングを行うことと等価であり、従って、電子シャッタにより、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであると言うことができる。 The integration of only time t 0 ′ is equivalent to performing filtering by a low-pass filter having a region R 3901 having a width of 2π / t 0 ′ in the frequency domain T direction as shown in FIG. Therefore, it can be said that the data of each frame of the moving image captured with the exposure time t 0 ′ by the electronic shutter is the data that has passed through the low-pass filter having the region R 3901 as the pass band.
なお、領域R3901は、T方向が、-π/t0'乃至π/t0'の範囲の2π/t0'の幅を有し、かつ、X,Y方向が、人間が認識することができる-π/r0乃至π/r0の範囲の2π/r0の幅を有する領域である。上述のように、例えば、t0が1/240秒で、t0'が1/120秒であり、従って、2t0=t0'である場合には、領域R3901は、T方向が、-π/(2t0)乃至π/(2t0)の範囲のπ/t0の幅を有する。 Note that the region R 3901 has a width of 2π / t 0 ′ in the range of −π / t 0 ′ to π / t 0 ′ in the T direction, and a human recognizes the X and Y directions. This is a region having a width of 2π / r 0 in the range of −π / r 0 to π / r 0 . As described above, for example, when t 0 is 1/240 seconds and t 0 ′ is 1/120 seconds, and therefore 2t 0 = t 0 ′, the region R 3901 has the T direction It has a width of π / t 0 in the range of −π / (2t 0 ) to π / (2t 0 ).
以上のように、露光時間をt0'として撮像された動画の各フレームのデータは、領域R3901を通過帯域とするローパスフィルタを通過したデータであるから、周波数ドメインにおいて、領域R3901以外には、データは存在しない。 As described above, the data of each frame of the imaged moving image exposure time as t 0 ', since the data that has passed through the low-pass filter having a pass band region R 3901, in the frequency domain, in addition to regions R 3901 There is no data.
従って、人間が認識することができる、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301内のデータであっても、図39の領域R3901外にあるデータは、ノイズ等の、動画本来のデータでないから、不要なデータとして削除するのが望ましい。 Therefore, for example, even the data in the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, and the region R 1301 in FIG. Since the data outside the area R 3901 is not the original data of the moving image such as noise, it is desirable to delete it as unnecessary data.
そこで、受信装置2(図33)のフィルタ情報供給部62では、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301のT方向を図39の領域R3901によって制限した領域を、フィルタの通過帯域として決定することができる。
Therefore, in the filter
例えば、いま、上述したように、2t0=t0'であるとすると、図20の領域R1001は、図39の領域R3901に含まれるから、フィルタ情報供給部62では、動画において被写体が静止している部分については、図20の領域R1001を、そのまま、フィルタの通過帯域として決定することができる。 For example, as described above, assuming that 2t 0 = t 0 ′, the region R 1001 in FIG. 20 is included in the region R 3901 in FIG. For the stationary part, the region R 1001 in FIG. 20 can be determined as it is as the pass band of the filter.
また、図21の領域R1101は、図40に示すように、その領域R1101のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4001において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「(r0/t0)/2」程度で動いている部分については、図40の領域R4001を、フィルタの通過帯域として決定することができる。
In addition, as shown in FIG. 40, the region R 1101 in FIG. 21 has X, Y in the T direction in the region R 1101 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4001 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter
さらに、図22の領域R1201は、図41に示すように、その領域R1201のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4101において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「r0/t0」程度で動いている部分については、図41の領域R4101を、フィルタの通過帯域として決定することができる。
Furthermore, as shown in FIG. 41, the region R 1201 in FIG. 22 has X, Y in the T direction in the region R 1201 in the range of −π / (2t 0 ) to π / (2t 0 ). Since the direction R overlaps with the region R 3901 in FIG. 39 in the region R 4101 in the range of −π / r 0 to π / r 0 , the filter
また、図23の領域R1301は、図42に示すように、その領域R1301のうちの、T方向が、-π/(2t0)乃至π/(2t0)の範囲で、X,Y方向が、-π/r0乃至π/r0の範囲の領域R4201において、図39の領域R3901と重複するから、フィルタ情報供給部62では、動画に投影されている被写体が速度「2r0/t0」程度で動いている部分については、図42の領域R4201を、フィルタの通過帯域として決定することができる。
In addition, as shown in FIG. 42, the region R 1301 in FIG. 23 has X, Y in the T direction in the region R 1301 in the range of −π / (2t 0 ) to π / (2t 0 ). direction, in the region R 4201 in the range of - [pi] / r 0 to [pi / r 0, since overlapping the region R 3901 in FIG. 39, the filter
受信装置2(図33)のフィルタ情報供給部62において、以上のようにフィルタの通過帯域を決定し、フィルタ部52でフィルタリングを行うことにより、領域R3901外にある、ノイズ等の、動画本来のデータでない不要なデータが除去されるので、S/N(Signal to Noise ratio)等が向上した動画データを得ることができる。
In the filter
ここで、受信装置2において、フィルタの通過帯域を、図39の領域R3901で制限する場合には、受信装置2に入力される低フレームレートの動画データの撮像時の露光時間t0'が必要となるが、この露光時間t0'は、例えば、受信装置2に入力される動画データに多重化する等して、受信装置2に入力することができる。
Here, in the receiving
なお、受信装置2に入力されるデータがエンコードされていない場合には、デコード部50は、そのデータをデコードすることなく、バッファ部51に供給する。
When the data input to the receiving
ところで、例えば、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を検出し、その動きベクトル(u0,v0)から、注目ブロックの周波数ドメインでの主成分方向を求めることができる。即ち、主成分方向取得部31では、注目ブロックの動きベクトル(u0,v0)に、時間方向tのコンポーネントt0を加えた3次元の動きベクトル(u0,v0,t0)と直交する平面を、注目ブロックの周波数ドメインでの主成分方向として求めることができる。
By the way, for example, the principal component
この場合、注目ブロックの、注目フレームの次のフレームへの動きベクトル(u0,v0)を、例えば、-2倍、-1倍、2倍、3倍したベクトルが、それぞれ、注目ブロックの、注目フレームの前の前のフレーム、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルに一致していれば、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、正確なものとなる。 In this case, for example, a vector obtained by multiplying the motion vector (u 0 , v 0 ) of the block of interest to the next frame of the frame of interest by, for example, -2, -1, 2 or 3 times, If it matches the motion vector to the previous frame, previous frame, next next frame, next next next frame of the frame of interest, it can be obtained from the motion vector (u 0 , v 0 ) The principal component direction of the block of interest is accurate.
しかしながら、動きベクトル(u0,v0)を、例えば、-2倍や、-1倍、2倍、3倍したベクトルが、注目ブロックの、注目フレームの前の前のフレームや、前のフレーム、次の次のフレーム、次の次の次のフレームへの動きベクトルからずれている場合、そのずれに応じて、動きベクトル(u0,v0)から求められる注目ブロックの主成分方向は、誤差を含み、不正確なものとなる。 However, a vector obtained by multiplying the motion vector (u 0 , v 0 ) by, for example, −2 times, −1 times, 2 times, or 3 times is the frame before the attention frame or the previous frame of the attention block. If the motion vector is shifted from the motion vector to the next next frame, the next next frame, the principal component direction of the target block obtained from the motion vector (u 0 , v 0 ) is It contains errors and is inaccurate.
即ち、図43は、送信装置1に供給される高フレームレートの動画データを示している。
That is, FIG. 43 shows high frame rate moving image data supplied to the
なお、図43においては、横軸を、空間方向xとして、動画データを示してある。また、動画には動被写体が投影されており、その動被写体は、空間方向xにのみ移動する(空間方向yへの移動はしない)ものとする。図43では、動被写体は、時間の経過とともに、左から右方向に移動している。 In FIG. 43, the moving image data is shown with the horizontal axis as the spatial direction x. In addition, a moving subject is projected on the moving image, and the moving subject moves only in the spatial direction x (does not move in the spatial direction y). In FIG. 43, the moving subject moves from left to right as time passes.
図43には、上から順に、時刻(フレーム)t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける画像データが示されている。 In FIG. 43, in order from the top, time (frames) t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + Image data in each of 4t 0 is shown.
いま、時刻tの画像データを基準とすると、その時刻tの画像データに対して、時刻t-4t0の画像データはK4だけ、時刻t-3t0の画像データはK3だけ、時刻t-2t0の画像データはK2だけ、時刻t-t0の画像データはK1だけ、時刻t+t0の画像データはH1だけ、時刻t+2t0の画像データはH2だけ、時刻t+3t0の画像データはH3だけ、時刻t+4t0の画像データはH4だけ、それぞれ、空間方向xにずれている。 If the image data at time t is used as a reference, the image data at time t-4t 0 is only K 4 , the image data at time t-3t 0 is only K 3 , and the time t Image data at -2t 0 is K 2 only, image data at time tt 0 is K 1 only, image data at time t + t 0 is H 1 only, image data at time t + 2t 0 is H 2 only, time t The image data at + 3t 0 is shifted by H 3 and the image data at time t + 4t 0 is shifted by H 4 in the spatial direction x.
従って、時刻tの画像データにおけるあるブロックR4300を注目ブロックとすると、その注目ブロックR4300と同一の画像データ(注目ブロックR4300に対応する画像データ)は、時刻t-4t0の画像データでは、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0の画像データでは、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0の画像データでは、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0の画像データでは、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0の画像データでは、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0の画像データでは、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0の画像データでは、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0の画像データでは、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 Therefore, when a certain block R 4300 in the image data at time t and the subject block, the same image data and the block of interest R 4300 (image data corresponding to the target block R 4300), the image data at time t-4t 0 is , from the target block R 4300 present in a region R 4314 of the position shifted by K 4 in the spatial direction x, the image data at time t-3t 0, from the target block R 4300 of position shifted in the spatial direction x by K 3 Exists in region R 4313 . Similarly, the same image data as the target block R 4300 is the image data at time tt 0 in the region R 4312 at a position shifted by K 2 in the spatial direction x from the target block R 4300 in the image data at time t−2t 0. In the data, the region R 4311 at a position shifted by K 1 in the spatial direction x from the target block R 4300 , and at the time t + t 0 image data at the position shifted by H 1 in the spatial direction x from the target block R 4300 . In the region R 4301 , in the image data at time t + 2t 0 , the image data at time t + 3t 0 is shifted from the target block R 4300 to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300. In the region R 4303 at a position shifted by H 3 in the spatial direction x, the image data at time t + 4t 0 exists in the region R 4304 at a position shifted by H 4 in the spatial direction x from the target block R 4300 , respectively. .
なお、図43において、動被写体の動きの大きさは一定ではなく、従って、K4からK3への増加率,K3からK2への増加率、K2からK1への増加率、K1から0への増加率、0からH1への増加率、H1からH2への増加率,H2からH3への増加率、H3からH4への増加率も一定にはなっていない。 In FIG. 43, the magnitude of the movement of the moving subject is not constant. Therefore, the rate of increase from K 4 to K 3 , the rate of increase from K 3 to K 2 , the rate of increase from K 2 to K 1 , The rate of increase from K 1 to 0, the rate of increase from 0 to H 1 , the rate of increase from H 1 to H 2 , the rate of increase from H 2 to H 3 and the rate of increase from H 3 to H 4 are also constant. It is not.
図43に示したように、被写体が移動している場合、注目ブロックR4300の動きベクトル(u0,v0)は、図44に示すように、ベクトル(H1,0)が求められる。従って、送信装置1(図25)の主成分方向取得部31では、この注目ブロックR4300の動きベクトル(H1,0)から、注目ブロックR4300の主成分方向が求められる。
As shown in FIG. 43, when the subject is moving, the motion vector (u 0 , v 0 ) of the block of interest R 4300 is obtained as shown in FIG. 44 as a vector (H 1 , 0). Therefore, the principal component
そして、送信装置1のフィルタ情報供給部32では、その主成分方向から、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などが、フィルタ部22におけるフィルタリングを行うフィルタの通過帯域として決定される。
Then, in the filter
フィルタの通過帯域としての、例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301などは、上述したように、T方向に、2π/(4t0)の幅を有するため、このような通過帯域のフィルタによるフィルタリングでは、注目ブロックR4300のフレーム(注目フレーム)の前後4フレーム程度の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの範囲の画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの範囲の画像データなどを用いた演算(送信装置1のフィルタ部22にて行われる演算)によって、フィルタリング結果としての注目ブロックR4300の画像データが求められる。
As the pass band of the filter, for example, the region R 1001 in FIG. 20, the region R 1101 in FIG. 21, the region R 1201 in FIG. 22, the region R 1301 in FIG. / (4t 0 ), therefore, filtering by such a passband filter, image data of about 4 frames before and after the frame of the block of interest R 4300 (frame of interest), that is, for example, time t-4t 0 , T-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 range of image data or time t-3t 0 , T−2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t + 3t 0 and other operations using image data in a range of 7 frames (performed by the
即ち、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値は、例えば、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(H1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の2倍のベクトル(2H1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の3倍のベクトル(3H1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の4倍のベクトル(4H1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−1倍のベクトル(-H1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−2倍のベクトル(-2H1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−3倍のベクトル(-3H1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(H1,0)の−4倍のベクトル(-4H1,0)だけずれた位置付近の画素値を用いて求められる。 That is, the block of interest position with R 4300 of pixels (x, y), the pixel value as a filtering result, for example, the position in the image data at time t + t 0 (x, y ) a motion vector (H 1 from Pixel value near the position shifted by 0), position shifted by the vector (2H 1 , 0) twice the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 2t 0 Near pixel value, pixel value near the position shifted by the vector (3H 1 , 0) three times the motion vector (H 1 , 0) from the position (x, y) in the image data at time t + 3t 0 A pixel value in the vicinity of a position shifted by a vector (4H 1 , 0) four times the motion vector (H 1 , 0) from the position (x, y) in the image data at t + 4t 0, in the image data at time tt 0 position (x, y) -1 times the vector (-H 1, 0) shifted by the pixel value of the vicinity of the position of the motion vector from the (H 1, 0), the position in the image data at time t-2t 0 (x, -2 times the motion vector (H 1, 0) from y) Vector (-2H 1, 0) only the pixel values of the shifted around position, the position in the image data at time t-3t 0 (x, y ) a motion vector (H 1, 0) from -3 fold vector (-3H 1, 0) -4 times the vector of pixel values around a position shifted by a position in the image data at time t-4t 0 (x, y ) from the motion vector (H 1, 0) (-4H 1, 0) It is obtained by using pixel values in the vicinity of the position shifted by a certain amount.
ここで、動きベクトル(H1,0)は、図44に示したように、注目ブロックR4300から、時刻t+t0の画像データにおける、注目ブロックR4300に対応する(注目ブロックR4300と同一の画像データが存在する)領域R4301の位置へのベクトルであるから、注目ブロックR4300から動きベクトル(H1,0)だけずれた時刻t+t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4301の位置に一致する。 Here, the motion vector (H 1, 0), as shown in FIG. 44, from the target block R 4300, the image data at time t + t 0, corresponding to the target block R 4300 and (attention block R 4300 Since this is a vector to the position of the region R 4301 (where the same image data exists), the position on the image data at time t + t 0 shifted by the motion vector (H 1 , 0) from the block of interest R 4300 It matches the position of the region R 4301 corresponding to the block R 4300 .
しかしながら、ベクトル(2H1,0)は、図45に示すように、動きベクトル(H1,0)を2倍したベクトルであるから、注目ブロックR4300からベクトル(2H1,0)だけずれた時刻t+2t0の画像データ上の位置は、注目ブロックR4300に対応する領域R4302の位置に一致するとは限らない。 However, since the vector (2H 1 , 0) is a vector obtained by doubling the motion vector (H 1 , 0) as shown in FIG. 45, the vector (2H 1 , 0) is shifted from the target block R 4300 by the vector (2H 1 , 0). The position on the image data at time t + 2t 0 does not necessarily match the position of the region R 4302 corresponding to the block of interest R 4300 .
また、ベクトル(3H1,0)は、図46に示すように、動きベクトル(H1,0)を3倍したベクトルであるから、注目ブロックR4300からベクトル(3H1,0)だけずれた時刻t+3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4303の位置に一致するとは限らない。 Further, as shown in FIG. 46, the vector (3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by three, so that it is shifted from the target block R 4300 by the vector (3H 1 , 0). The position on the image data at time t + 3t 0 does not always match the position of the region R 4303 corresponding to the block of interest R 4300 .
さらに、ベクトル(4H1,0)は、図47に示すように、動きベクトル(H1,0)を4倍したベクトルであるから、注目ブロックR4300からベクトル(4H1,0)だけずれた時刻t+4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4304の位置に一致するとは限らない。 Furthermore, since the vector (4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by 4 as shown in FIG. 47, the vector (4H 1 , 0) is shifted from the target block R 4300 by the vector (4H 1 , 0). The position on the image data at time t + 4t 0 does not necessarily match the position of the region R 4304 corresponding to the target block R 4300 .
また、ベクトル(-H1,0)は、図48に示すように、動きベクトル(H1,0)を−1倍したベクトルであるから、注目ブロックR4300からベクトル(-H1,0)だけずれた時刻t-t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4311の位置に一致するとは限らない。 Further, as shown in FIG. 48, the vector (−H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −1. Therefore, the vector (−H 1 , 0) from the target block R 4300 The position on the image data at time tt 0 that is shifted by a certain amount does not necessarily match the position of the region R 4311 corresponding to the block of interest R 4300 .
さらに、ベクトル(-2H1,0)は、図49に示すように、動きベクトル(H1,0)を−2倍したベクトルであるから、注目ブロックR4300からベクトル(-2H1,0)だけずれた時刻t-2t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4312の位置に一致するとは限らない。 Furthermore, since the vector (-2H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by -2 as shown in FIG. 49, the vector (-2H 1 , 0) from the target block R 4300 The position on the image data at time t−2t 0 that is shifted by a certain amount does not always match the position of the region R 4312 corresponding to the block of interest R 4300 .
また、ベクトル(-3H1,0)は、図50に示すように、動きベクトル(H1,0)を−3倍したベクトルであるから、注目ブロックR4300からベクトル(-3H1,0)だけずれた時刻t-3t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4313の位置に一致するとは限らない。 Further, since the vector (−3H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −3 as shown in FIG. 50, the vector (−3H 1 , 0) from the target block R 4300 The position on the image data at time t-3t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4313 corresponding to the block of interest R 4300 .
さらに、ベクトル(-4H1,0)は、図51に示すように、動きベクトル(H1,0)を−4倍したベクトルであるから、注目ブロックR4300からベクトル(-4H1,0)だけずれた時刻t-4t0の画像データ上の位置も、注目ブロックR4300に対応する領域R4314の位置に一致するとは限らない。 Furthermore, since the vector (−4H 1 , 0) is a vector obtained by multiplying the motion vector (H 1 , 0) by −4 as shown in FIG. 51, the vector (−4H 1 , 0) from the target block R 4300 The position on the image data at time t-4t 0 that is shifted by a certain amount does not necessarily match the position of the region R 4314 corresponding to the block of interest R 4300 .
このため、注目ブロックR4300に注目したフィルタリングにあたり、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれの画像データについては、注目ブロックR4300に対応する領域R4314,R4313,R4312,R4311,R4302,R4303,R4304からずれた位置の領域の画素値が用いられ、その結果、真の主成分方向に延びる周波数ドメイン上の領域(例えば、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301)内の周波数成分のみのデータを、正確に得ることが困難な場合が生じ得る。 For this reason, in filtering focused on the target block R 4300 , the image data at times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + 4t 0 , The pixel values of the regions shifted from the regions R 4314 , R 4313 , R 4312 , R 4311 , R 4302 , R 4303 , R 4304 corresponding to the target block R 4300 are used, and as a result, the true main Data of only frequency components in a region on the frequency domain extending in the component direction (for example, region R 1001 in FIG. 20, region R 1101 in FIG. 21, region R 1201 in FIG. 22, region R 1301 in FIG. 23), There may be cases where it is difficult to obtain accurately.
これは、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めることが、注目ブロックから次のフレームへの動きベクトルの単純な倍数によって、注目ブロックからその他のフレームへの動きベクトルを近似することに相当し、従って、被写体が一定速度で移動していないにもかかわらず、注目ブロックから次のフレームへの動きベクトルを用いて主成分方向を求めると、不正確な主成分方向が得られることに起因する。 This is because the motion vector from the target block to the next frame can be determined by using the motion vector from the target block to the next frame. Therefore, when the principal component direction is calculated using the motion vector from the block of interest to the next frame even though the subject is not moving at a constant speed, an incorrect principal component direction is obtained. This is due to the fact that
そこで、送信装置1(図25)の主成分方向取得部31では、上述したように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表すベクトル(以下、適宜、平均動きベクトルという)を求め、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。
Therefore, in the principal component
図52は、図25の主成分方向取得部31において、平均動きベクトルから主成分方向を求める場合の、その主成分方向取得部31の構成例を示している。
FIG. 52 shows a configuration example of the principal component
バッファ部101には、バッファ部21(図25)から読み出された1/t0の高フレームレートの動画データが供給され、バッファ部101は、その動画データを一時記憶する。
The
ブロック抽出部102は、バッファ部101に記憶された動画データを、例えば、上述した16×16画素のブロックに分割し、順次、注目ブロックとして選択して、相関演算部103に供給する。
The
相関演算部103は、ブロック抽出部102から供給される注目ブロックのフレーム(注目フレーム)に対して時間的に前後の複数のフレーム(のデータ)を、バッファ部101から読み出し、注目ブロックと、複数のフレームそれぞれとの相関を表す相関情報を演算して、スケーリング合成部104に供給する。
The
ここで、相関情報としては、例えば、図32のステップS22で説明した場合と同様に、注目ブロックを、空間方向x,yに、それぞれ、u,vだけずらした位置における、注目ブロックの各画素と、その画素と同一位置にある他のフレームの画素との画素値の差分絶対値の総和を採用することとする。この場合、上述したように、相関情報の「値」が最小になる空間方向の位置u,vが、相関情報が表す相関が最も高くなる、他のフレーム上の空間方向の位置となる。 Here, as the correlation information, for example, as in the case described in step S22 of FIG. 32, each pixel of the target block at a position where the target block is shifted by u and v in the spatial directions x and y, respectively. And the sum of absolute difference values of pixel values from pixels in other frames at the same position as the pixel. In this case, as described above, the position u, v in the spatial direction where the “value” of the correlation information is the minimum is the position in the spatial direction on the other frame where the correlation represented by the correlation information is the highest.
なお、相関演算部103において、注目ブロックとの相関情報を演算する対象のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲とすることができる。
Note that in the
即ち、図43で説明したように、時刻tの画像データを基準とすると(時刻tを注目フレームとすると)、フィルタ部22でのフィルタリングでは、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0の9フレームの画像データや、時刻t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0の7フレームの画像データなどが用いられる。相関演算部103において、相関情報を演算するフレームは、この9フレームや7フレームの画像データとほぼ同様の範囲の画像データ、即ち、例えば、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データとすることができる。
That is, as described with reference to FIG. 43, when the image data at time t is used as a reference (when time t is the frame of interest), the filtering in the
なお、時刻tの画像データは、注目ブロックのフレーム(注目フレーム)であるから、その時刻tについては、相関情報を演算する必要はない。即ち、相関演算部103において、注目ブロックとの相関情報を演算する対象は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データである。
Note that since the image data at time t is a frame of the block of interest (frame of interest), there is no need to calculate correlation information for that time t. That is, the
ここで、注目ブロックとの相関情報を演算する対象のフレームを、以下、適宜、相関演算対象フレームという。 Here, the frame for which the correlation information with the block of interest is calculated is hereinafter referred to as a correlation calculation target frame as appropriate.
スケーリング合成部104は、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、後述するように、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。そして、スケーリング合成部104は、その合成相関情報を、最小値検出部105に供給する。
The scaling
最小値検出部105は、スケーリング合成部104からの合成相関情報が表す相関が最大となる空間方向の位置である最大相関位置を検出し、その最大相関位置へのベクトルを、注目ブロックの平均動きベクトルとして求める。そして、最小値検出部105は、その平均動きベクトルに、バッファ部21(図25)から読み出された動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルの方向と直交する方向を、主成分方向として検出して出力する。
The minimum
次に、図53は、図43に示した注目ブロックR4300と、時刻t-4t0,t-3t0,t-2t0,t-t0,t,t+t0,t+2t0,t+3t0,t+4t0それぞれの画像データ(フレーム)との相関情報を示している。 Next, FIG. 53 shows the block of interest R 4300 shown in FIG. 43 and the times t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t, t + t 0 , t + 2t 0 , t. Correlation information with each image data (frame) of + 3t 0 and t + 4t 0 is shown.
なお、図53に示した相関情報は、図52の相関演算部103で求められる。但し、上述したように、注目ブロックR4300と、注目フレームである時刻tの画像データとの相関情報は、演算する必要はない。
Note that the correlation information shown in FIG. 53 is obtained by the
また、図53において、相関情報としては、上述したように、画素値の差分絶対値の総和が採用されており、従って、相関情報は、下に凸の関数となり、相関情報の「値」が最小になる空間方向の位置が、相関情報が表す相関が最も高くなる空間方向の位置である。そして、注目ブロックから、その位置へのベクトルが、動きベクトルを表す。 In FIG. 53, as described above, the sum of the absolute differences of the pixel values is used as the correlation information. Therefore, the correlation information is a downward convex function, and the “value” of the correlation information is The position in the spatial direction that minimizes is the position in the spatial direction where the correlation represented by the correlation information is the highest. A vector from the target block to that position represents a motion vector.
図43で説明したように、注目ブロックR4300と同一の画像データは、時刻t-4t0では、注目ブロックR4300から空間方向xにK4だけずれた位置の領域R4314に存在し、時刻t-3t0では、注目ブロックR4300から空間方向xにK3だけずれた位置の領域R4313に存在する。同様に、注目ブロックR4300と同一の画像データは、時刻t-2t0では、注目ブロックR4300から空間方向xにK2だけずれた位置の領域R4312に、時刻t-t0では、注目ブロックR4300から空間方向xにK1だけずれた位置の領域R4311に、時刻t+t0では、注目ブロックR4300から空間方向xにH1だけずれた位置の領域R4301に、時刻t+2t0では、注目ブロックR4300から空間方向xにH2だけずれた位置のR4302に、時刻t+3t0では、注目ブロックR4300から空間方向xにH3だけずれた位置の領域R4303に、時刻t+4t0では、注目ブロックR4300から空間方向xにH4だけずれた位置の領域R4304に、それぞれ存在する。 As described in FIG. 43, the same image data and the block of interest R 4300 is at time t-4t 0, present in the block of interest R 4300 position of the region R 4314 shifted by K 4 in the spatial direction x from the time At t−3t 0 , it exists in a region R 4313 at a position shifted from the target block R 4300 by K 3 in the spatial direction x. Similarly, the same image data as the target block R 4300 is displayed at the time t-2t 0 in the region R 4312 at a position shifted by K 2 from the target block R 4300 in the spatial direction x, and at the time tt 0 , the target block R At time t + t 0 at a region R 4311 at a position shifted by K 1 in the spatial direction x from 4300 , at time t + 2t at a region R 4301 at a position shifted by H 1 in the spatial direction x from the target block R 4300 At 0 , it moves to R 4302 at a position shifted by H 2 in the spatial direction x from the target block R 4300 , and at time t + 3t 0 , it enters a region R 4303 at a position shifted by H 3 from the target block R 4300 in the spatial direction x. At time t + 4t 0 , each exists in a region R 4304 at a position displaced from the target block R 4300 by H 4 in the spatial direction x.
従って、時刻t-4t0における相関情報は、位置x=K4において最小となり、時刻t-3t0における相関情報は、位置x=K3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=K2において、時刻t-t0における相関情報は、x=K1において、時刻t+t0における相関情報は、位置x=H1において、時刻t+2t0における相関情報は、位置x=H2において、時刻t+3t0における相関情報は、位置x=H3において、時刻t+4t0における相関情報は、位置x=H4において、それぞれ最小となる。 Accordingly, the correlation information at time t-4t 0 is minimum at position x = K 4 , and the correlation information at time t-3t 0 is minimum at position x = K 3 . Similarly, the correlation information at time t-2t 0 is at position x = K 2 , the correlation information at time tt 0 is at x = K 1 , and the correlation information at time t + t 0 is at position x = H 1 . The correlation information at time t + 2t 0 is at position x = H 2 , the correlation information at time t + 3t 0 is at position x = H 3 , and the correlation information at time t + 4t 0 is at position x = H 4 In each, it becomes the minimum.
図52の主成分方向取得部31では、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似し、その一定の動きを表すベクトルが、平均動きベクトルとして求められる。
In the principal component
そのため、主成分方向取得部31のスケーリング合成部104は、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。
Therefore, the scaling
即ち、注目ブロックR4300の動きが、時刻t-4t0乃至t+4t0の時間において一定であると近似した場合、例えば、時刻t+t0における相関情報を基準とすると、時刻t-4t0における相関情報は、時刻t+t0における相関情報に対し、位置(空間方向x,y)に関して−4倍のずれがある。時刻t-3t0における相関情報は、時刻t+t0における相関情報に対し、位置に関して−3倍のずれがある。以下、同様に、時刻t+t0における相関情報に対し、時刻t-2t0における相関情報は、位置に関して−2倍のずれが、時刻t-t0における相関情報は、位置に関して−1倍のずれが、時刻t+2t0における相関情報は、位置に関して2倍のずれが、時刻t+3t0における相関情報は、位置に関して3倍のずれが、時刻t+4t0における相関情報は、位置に関して4倍のずれが、それぞれある。 That is, when it is approximated that the motion of the target block R 4300 is constant at the time from time t-4t 0 to time t + 4t 0 , for example, when the correlation information at time t + t 0 is used as a reference, time t-4t The correlation information at 0 has a difference of −4 times with respect to the position (spatial direction x, y) with respect to the correlation information at time t + t 0 . The correlation information at time t-3t 0 is shifted by -3 times with respect to the correlation information at time t + t 0 . Similarly, the correlation information at time t-2t 0 is shifted by -2 times with respect to the position, and the correlation information at time tt 0 is shifted by -1 times with respect to the correlation information at time t + t 0 . However, the correlation information at time t + 2t 0 is twice as much as the position, the correlation information at time t + 3t 0 is three times as much as the position, and the correlation information at time t + 4t 0 is about the position. There is a 4x shift.
そこで、スケーリング合成部104は、時刻t-4t0における相関情報の位置のスケールを−1/4倍にする(反転縮小する)スケーリングを行う。同様に、スケーリング合成部104は、時刻t-3t0における相関情報の位置のスケールを−1/3倍にするスケーリングを、時刻t-2t0における相関情報の位置のスケールを−1/2倍にするスケーリングを、時刻t-t0における相関情報の位置のスケールを−1倍にする(反転する)スケーリングを、時刻t+2t0における相関情報の位置のスケールを1/2倍にする(縮小する)スケーリングを、時刻t+3t0における相関情報の位置のスケールを1/3倍にするスケーリングを、時刻t+4t0における相関情報の位置のスケールを1/4倍にするスケーリングを、それぞれ行う。
Therefore, the scaling
なお、時刻t+t0における相関情報については、スケーリング合成部104は、何らスケーリングを行わないが、スケーリングを行わないことは、位置のスケールを1倍にするスケーリングを行っていると見ることもできる。
For the correlation information at time t + t 0 , the scaling
ここで、図54は、時刻t+t0における相関情報を基準として、時刻t-4t0,t-3t0,t-2t0,t-t0,t+2t0,t+3t0,t+4t0それぞれにおける相関情報をスケーリングした場合の、そのスケーリング後の相関情報を示している。 Here, FIG. 54 shows time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + 2t 0 , t + 3t 0 , t + based on the correlation information at time t + t 0 . The correlation information after scaling when the correlation information at 4t 0 is scaled is shown.
スケーリングにより、時刻t-4t0における相関情報は、位置x=-K4/4において最小となり、時刻t-3t0における相関情報は、位置x=-K3/3において最小となる。同様に、時刻t-2t0における相関情報は、位置x=-K2/2において、時刻t-t0における相関情報は、x=-K1において、時刻t+2t0における相関情報は、位置x=H2/2において、時刻t+3t0における相関情報は、位置x=H3/3において、時刻t+4t0における相関情報は、位置x=H4/4において、それぞれ最小となる。 Scaling, correlation information at time t-4t 0 is becomes minimum at the position x = -K 4/4, the correlation information at time t-3t 0 is at the minimum position x = -K 3/3. Similarly, the correlation information at time t-2t 0, at the position x = -K 2/2, correlation information at time tt 0, at x = -K 1, the correlation information at time t + 2t 0, the position x in = H 2/2, correlation information at time t + 3t 0, at the position x = H 3/3, correlation information at time t + 4t 0, at position x = H 4/4, respectively become minimum.
なお、スケーリングは、時刻t+t0における相関情報を基準として行われるので、時刻t+t0における相関情報は、スケーリングの前でも後でも、位置x=H1において最小となる。 Since scaling is performed with reference to correlation information at time t + t 0, the correlation information at time t + t 0 is minimum at position x = H 1 before and after scaling.
図52の主成分方向取得部31では、スケーリング合成部104が、時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を合成して、合成相関情報を求める。
In the principal component
図55は、図54の相関情報を合成することにより得られる合成相関情報を示している。 FIG. 55 shows combined correlation information obtained by combining the correlation information of FIG.
図55の合成相関情報は、図54に示した時刻t-4t0,t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0,t+4t0それぞれにおける、スケーリング後の相関情報を加算する合成を行うことにより求めることができる。 The combined correlation information of FIG. 55 is the time t-4t 0 , t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , t + 4t shown in FIG. It can be obtained by performing a synthesis of adding the correlation information after scaling in each of 0 .
図52の主成分方向取得部31の最小値検出部105では、図55の合成相関情報が最小になる位置x=L1((x,y)=(L1,0))が、平均動きベクトル(L1,0)として求められる。
In the minimum
なお、合成相関情報は、スケーリング後の相関情報を単純に加算する他、重み付け加算することにより求めることもできる。即ち、合成相関情報は、相関情報に対して、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算することにより求めることができる。この場合、注目ブロックの時刻tから近い時刻の画像を重要視した平均動きベクトルが求められることになる。 Note that the combined correlation information can be obtained by adding the weighted addition in addition to simply adding the correlation information after scaling. In other words, the combined correlation information can be obtained by adding to the correlation information the correlation information closer to the time t of the block of interest with a greater weight. In this case, an average motion vector in which an image at a time close to the time t of the block of interest is regarded as important is obtained.
最小値検出部105では、以上のようにして求められる平均動きベクトル(L1,0)から、注目ブロックの主成分方向が求められる。従って、注目ブロックについて、比較的精度の高い主成分方向を求めることができる。
The minimum
即ち、上述のような平均動きベクトル(L1,0)から求められる主成分方向(つまり、(L1,0,t0)に垂直な平面)によれば、図25のフィルタ部22では、例えば、注目ブロックR4300のある位置(x,y)の画素の、フィルタリング結果としての画素値が、時刻t+t0の画像データにおける位置(x,y)から動きベクトル(L1,0)だけずれた位置付近の画素値、時刻t+2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた位置付近の画素値、時刻t+3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた位置付近の画素値、時刻t+4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた位置付近の画素値、時刻t-t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた位置付近の画素値、時刻t-2t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた位置付近の画素値、時刻t-3t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた位置付近の画素値、時刻t-4t0の画像データにおける位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた位置付近の画素値を、それぞれ用いて求められる。
That is, according to the principal component direction (that is, a plane perpendicular to (L 1 , 0, t 0 )) obtained from the average motion vector (L 1 , 0) as described above, the
ここで、図56は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)だけずれた時刻t+t0の画像データにおける位置を示している。同様に、図57乃至図63は、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の2倍のベクトル(2L1,0)だけずれた時刻t+2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の3倍のベクトル(3L1,0)だけずれた時刻t+3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の4倍のベクトル(4L1,0)だけずれた時刻t+4t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−1倍のベクトル(-L1,0)だけずれた時刻t-t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−2倍のベクトル(-2L1,0)だけずれた時刻t-2t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−3倍のベクトル(-3L1,0)だけずれた時刻t-3t0の画像データにおける位置を、注目ブロックR4300の位置(x,y)から動きベクトル(L1,0)の−4倍のベクトル(-4L1,0)だけずれた時刻t-4t0の画像データにおける位置を、それぞれ示している。 Here, FIG. 56 shows the position in the image data at time t + t 0 that is shifted from the position (x, y) of the target block R 4300 by the motion vector (L 1 , 0). Similarly, FIG. 57 to FIG. 63 show that at time t + 2t 0 shifted from the position (x, y) of the target block R 4300 by a vector (2L 1 , 0) that is twice the motion vector (L 1 , 0). Position in the image data at time t + 3t 0 where the position in the image data is shifted from the position (x, y) of the target block R 4300 by a vector (3L 1 , 0) that is three times the motion vector (L 1 , 0) Is shifted from the position (x, y) of the target block R 4300 by a vector (4L 1 , 0) four times the motion vector (L 1 , 0) to the position in the image data at time t + 4t 0 The position in the image data at time tt 0 that is shifted from the position (x, y) of R 4300 by a vector (−L 1 , 0) that is −1 times the motion vector (L 1 , 0) is the position of the target block R 4300 . (x, y) position in the -2 times the vector (-2L 1, 0) image data at time t-2t 0 shifted by the motion vector (L 1, 0) from the position of the target block R 4300 (x , -3 times the vector of the motion vector from y) (L 1, 0) Le (-3L 1, 0) position in the image data at time t-3t 0 shifted by -4 times the vector of position (x, y) from the motion vector of the target block R 4300 (L 1, 0) ( The positions in the image data at time t-4t 0 shifted by −4L 1 , 0) are shown respectively.
図56乃至図63それぞれと、上述した図44乃至図51それぞれとを比較することにより、図56乃至図63における場合の方が、図44乃至図51における場合よりも、全体として、注目ブロックR4300に対応する領域R4301,R4302,R4303,R4304,R4311,R4312,R4313,R4314に近い位置の画素値を用いて、注目ブロックR4300のフィルタリングが行われることが分かる。 56 to 63 and FIG. 44 to 51 described above are compared with each other, and in the case of FIGS. 56 to 63, the attention block R as a whole is more than the case of FIGS. 4300 using the pixel values of the position close to the corresponding region R 4301, R 4302, R 4303 , R 4304, R 4311, R 4312, R 4313, R 4314 , a is understood that the filtering of the block of interest R 4300 is performed .
次に、図64乃至図67のフローチャートを参照して、図52の主成分方向取得部31が行う処理について説明する。
Next, processing performed by the principal component
なお、図64乃至図67のフローチャートにしたがった処理は、図31のステップS11の処理に対応する。 Note that the processing according to the flowcharts of FIGS. 64 to 67 corresponds to the processing of step S11 of FIG.
図52の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。
52, the moving image data read from the buffer unit 21 (FIG. 25) is supplied to the
そして、図64のステップS101において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図32のステップS21における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。
64, the
ここで、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.
ステップS101の処理後は、図65のステップS102に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め((u1,v1)を変えながら求め)、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部104に供給して、ステップS103に進む。
After the processing in step S101, the process proceeds to step S102 in FIG. 65, in which the
ステップS103では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部104に供給して、ステップS104に進む。
In step S103, the
ステップS104では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部104に供給して、ステップS105に進む。
In step S104, the
ステップS105では、注目フレームの4フレームだけ時間的に先の画像データである時刻t+4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E4(u4,v4)を、注目ブロックを対応させる時刻t+4t0の画像データの位置(x0+u4,y0+v4)を変えながら求め、その関数E4(u4,v4)を、時刻t+4t0における相関情報として、スケーリング合成部104に供給して、図66のステップS106に進む。
In step S105, image data at time t + 4t 0 that is temporally preceding image data by four frames of the target frame is read from the
ステップS106では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部104に供給して、ステップS107に進む。
In step S106,
ステップS107では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部104に供給して、ステップS108に進む。
In step S107, the
ステップS108では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部104に供給して、ステップS109に進む。
In step S108, the
ステップS109では、相関演算部103は、注目フレームの4フレームだけ時間的に前の画像データである時刻t-4t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-4t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F4(r4,s4)を、注目ブロックを対応させる時刻t-4t0の画像データの位置(x0+r4,y0+s4)を変えながら求め、その関数F4(r4,s4)を、時刻t-4t0における相関情報として、スケーリング合成部104に供給して、図67のステップS110に進む。
In step S109, the
ステップS110では、スケーリング合成部104は、相関演算部103から供給された相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),E4(u4,v4),F1(r1,s1),F2(r2,s2),F3(r3,s3),F4(r4,s4)を、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準として、上述したようなスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部104は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(u4/4,v4/4)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)=(-r4/4,-s4/4)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),E4(4p,4q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q),F4(-4p,-4q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+E4(4p,4q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)+F4(-4p,-4q))を求める。
In step S <b> 110, the scaling
なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。即ち、合成相関情報E(p,q)は、例えば、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)を演算することにより求めることができる。 Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above. That is, the combined correlation information E (p, q) is, for example, an expression 8 × E 1 (p, q) + 4 × E 2 in which correlation information at a time closer to the time t of the block of interest is added with a greater weight. (2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) + It can be obtained by calculating 2 × F 3 (−3p, −3q) + 1 × F 4 (−4p, −4q).
スケーリング合成部104は、ステップS110において、合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を、最小値検出部105に供給して、ステップS111に進む。
The
ステップS111では、最小値検出部105は、スケーリング合成部104からの合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(注目ブロックからの相対的な位置)(p,q)を、最大相関位置(p0,q0)として検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)を、最大相関位置(p0,q0)として検出し、その最大相関位置(p0,q0)へのベクトルを、平均動きベクトル(p0,q0)として、ステップS112に進む。
In step S111, the minimum
ステップS112では、最小値検出部105は、ステップS111で検出された平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給して、処理を終了する。
In step S112, the minimum
この場合、フィルタ情報供給部32は、例えば、主成分方向取得部31の最小値検出部105から供給される3次元の動きベクトル(p0,q0,t0)を、そのままフィルタ情報として、フィルタ部22(図25)に供給する。
In this case, for example, the filter
フィルタ部22では、図68に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。
In the
即ち、ステップS131において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)を受信することにより取得し、ステップS132に進む。
That is, in step S131, the
ステップS132では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。
In step S132, the
ここで、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、いわゆるタップ係数を、1/16,2/16,3/16,4/16,3/16,2/16,1/16とし、時間方向に7タップを有する(7フレームの画像データを用いたフィルタリングを行う)FIR(Finite Impulse Response)フィルタによるフィルタリングを行うことに等価である。このようなタップ係数のFIRフィルタは、ローパスフィルタである。 Here, the equation (1/16) × D (t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , y + 3q 0 ), the so-called tap coefficient is 1/16, 2/16, 3/16, 4/16, 3/16, 2/16, 1/16, and 7 taps in the time direction It is equivalent to performing filtering by a FIR (Finite Impulse Response) filter having (filtering using image data of 7 frames). Such a tap coefficient FIR filter is a low-pass filter.
なお、ステップS132において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。つまり、tは、例えば、4×t0の倍数である。 In step S132, filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling is performed to thin out the number of samples in the time direction to 1/4, that is, a ratio of one frame every four frames. Done in That is, t is a multiple of 4 × t 0 , for example.
ステップS132の処理後は、ステップS133に進み、フィルタ部22は、フィルタリング結果、即ち、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)を演算することにより求めた画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。
After the process of step S132, the process proceeds to step S133, and the
なお、図68では、時間方向に7タップを有するFIRフィルタによるフィルタリングを行うようにしたが、その他、例えば、時間方向に9タップを有するFIRフィルタによるフィルタリングを行うようにしても良い。 In FIG. 68, the filtering is performed by the FIR filter having 7 taps in the time direction. However, for example, the filtering may be performed by the FIR filter having 9 taps in the time direction.
また、式(1/16)×D(t-3t0,x-3p0,y-3q0)+(2/16)×D(t-2t0,x-2p0,y-2q0)+(3/16)×D(t-t0,x-p0,y-q0)+(4/16)×D(t,x,y)+(3/16)×D(t+t0,x+p0,y+q0)+(2/16)×D(t+2t0,x+2p0,y+2q0)+(1/16)×D(t+3t0,x+3p0,y+3q0)の演算は、ローパスフィルタによるフィルタリングに等価であるが、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算と見ることもできる。 Also, the expression (1/16) × D (t-3t 0 , x-3p 0 , y-3q 0 ) + (2/16) × D (t-2t 0 , x-2p 0 , y-2q 0 ) + (3/16) × D (tt 0 , xp 0 , yq 0 ) + (4/16) × D (t, x, y) + (3/16) × D (t + t 0 , x + p 0 , y + q 0 ) + (2/16) × D (t + 2t 0 , x + 2p 0 , y + 2q 0 ) + (1/16) × D (t + 3t 0 , x + 3p 0 , The calculation of y + 3q 0 ) is equivalent to filtering by a low-pass filter, but it can also be regarded as weighted addition with a larger weight as it is closer to the frame of the target block.
このように、注目ブロックのフレームに近いほど大きな重みを付した重み付け加算を行うことによって、フィルタリング結果としての画素値C(t,x,y)を求める場合には、合成相関情報E(p,q)を求めるための合成も、上述したように、注目ブロックの時刻tから近い時刻の相関情報ほど大きな重みを付して加算する式8×E1(p,q)+4×E2(2p,2q)+2×E3(3p,3q)+1×E4(4p,4q)+8×F1(-p,-q)+4×F2(-2p,-2q)+2×F3(-3p,-3q)+1×F4(-4p,-4q)の演算によって行うのが望ましい。 In this way, when the pixel value C (t, x, y) as a filtering result is obtained by performing weighted addition with a greater weight as it is closer to the frame of the target block, the combined correlation information E (p, In the synthesis for obtaining q), as described above, the correlation information at the time closer to the time t of the block of interest is added with a larger weight and added to the equation 8 × E 1 (p, q) + 4 × E 2 ( 2p, 2q) + 2 × E 3 (3p, 3q) + 1 × E 4 (4p, 4q) + 8 × F 1 (-p, -q) + 4 × F 2 (-2p, -2q) +2 It is desirable to perform the calculation by × F 3 (-3p, -3q) + 1 × F 4 (-4p, -4q)
以上のように、注目ブロックと次のフレームとの相関を表す相関情報だけではなく、注目ブロックとその前後の複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームそれぞれへの、いわば平均的な動きを表す平均動きベクトルを求めるようにしたので、その平均動きベクトルから、注目ブロックについて、精度の高い主成分方向を求めることができる。 As described above, not only the correlation information indicating the correlation between the block of interest and the next frame, but also the plurality of pieces of correlation information indicating the correlation between the block of interest and each of a plurality of frames before and after the block, Since an average motion vector representing an average motion for each of the frames is obtained, a highly accurate principal component direction can be obtained for the target block from the average motion vector.
さらに、平均動きベクトルを求めるときに用いる複数のフレームの範囲は、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲に対応した範囲、即ち、フィルタリングに用いられるフレーム(図68では、注目ブロックのフレームを中心とする7フレーム)とほぼ同様の範囲(図64乃至図67では、注目ブロックのフレームを中心とする9フレーム)であるので、フィルタ部22(図25)において、正確なフィルタリング結果(本来通過させるべき周波数成分だけのフィルタリング結果)を得ることが可能となる。 Further, the range of the plurality of frames used when obtaining the average motion vector is a range corresponding to the range of frames used for filtering in the filter unit 22 (FIG. 25), that is, a frame used for filtering (in FIG. 68, Since the range is almost the same as (7 frames centered on the frame of the target block) (9 frames centering on the frame of the target block in FIGS. 64 to 67), the filter unit 22 (FIG. 25) It is possible to obtain a filtering result (a filtering result of only frequency components that should be passed through).
なお、図68では、注目ブロックのフレームを中心とする7フレームを用いてフィルタリングを行い、図64乃至図67では、注目ブロックのフレームを中心とする9フレームを用いて平均動きベクトルを求めるようにしたが、その他、例えば、フィルタリングも平均動きベクトルの算出も、注目ブロックのフレームを中心とする7フレームまたは9フレームを用いて行うことが可能である。また、フィルタリングは、注目ブロックのフレームを中心とする9フレームを用いて行い、平均動きベクトルの算出は、注目ブロックのフレームを中心とする7フレームを用いて行うことも可能である。つまり、フィルタリングに用いるフレームの範囲と、平均動きベクトルの算出に用いるフレームの範囲とは、完全に一致していても良いし、異なっていても、ほぼ一致していれば良い。 In FIG. 68, filtering is performed using 7 frames centered on the frame of the target block, and in FIGS. 64 to 67, the average motion vector is obtained using 9 frames centered on the frame of the target block. However, for example, filtering and calculation of the average motion vector can be performed using 7 frames or 9 frames centering on the frame of the target block. Filtering can also be performed using 9 frames centered on the frame of the target block, and the average motion vector can be calculated using 7 frames centered on the frame of the target block. That is, the frame range used for filtering and the frame range used for calculating the average motion vector may be completely coincident with each other or may be almost coincident with each other.
以上のように、フィルタ部22(図25)でのフィルタリングに用いられるフレームの範囲とほぼ同様の範囲の複数のフレームを用いて、平均動きベクトルを求めることにより、その平均動きベクトルから、複数のフレームの範囲において比較的正確な主成分方向を求めることができる。 As described above, by obtaining an average motion vector using a plurality of frames in a range substantially similar to the range of frames used for filtering in the filter unit 22 (FIG. 25), a plurality of average motion vectors are obtained from the average motion vector. A relatively accurate principal component direction can be obtained in the frame range.
次に、上述のように、平均動きベクトルによれば、基本的には、比較的正確な主成分方向を求めることができる。 Next, as described above, according to the average motion vector, a relatively accurate principal component direction can be basically obtained.
しかしながら、常時、複数のフレームすべてを用いて、平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られる場合があり、この場合、主成分方向の精度も劣化し、その結果、フィルタ22でのフィルタリング結果も、適切でない動画(受信装置2において、人間が画質の劣化を認識しない動画に復元することができない画像)となる。 However, if the average motion vector is always obtained using all of a plurality of frames, an average motion vector having a large error may be obtained. In this case, the accuracy in the principal component direction is also deteriorated. Also, the filtering result is an inappropriate moving image (an image that cannot be restored to a moving image in which a human does not recognize deterioration in image quality in the receiving device 2).
即ち、例えば、動画データにおいて、静止している被写体を背景として、その背景の手前側に、動いている被写体が前景として存在する場合、注目ブロックが背景のみを含むときには、他のフレーム(注目フレーム以外のフレーム)では、注目ブロックに対応する背景部分が、前景に隠れて見えない状態となっていることがある。この場合、注目ブロックに対応する背景部分が前景に隠れて見えない状態となっているフレームにおける、注目ブロックとの相関情報の値は、注目ブロックに対応する背景部分の位置で最小になるとは限らず、そのような相関情報を用いて、合成相関情報を算出し、さらに平均動きベクトルを求めると、誤差の大きな平均動きベクトルが得られることがある。 That is, for example, in moving image data, when a stationary object is used as a background and a moving object exists as a foreground on the front side of the background, when the block of interest includes only the background, another frame (frame of interest) In other frames, the background portion corresponding to the block of interest may be hidden behind the foreground and invisible. In this case, the value of the correlation information with the block of interest in the frame in which the background portion corresponding to the block of interest is hidden behind the foreground is not always the minimum at the position of the background portion corresponding to the block of interest. First, when the composite correlation information is calculated using such correlation information and the average motion vector is obtained, an average motion vector with a large error may be obtained.
具体的には、送信装置1に入力された動画データが、例えば、図69に示す被写体が投影された動画データであったとする。
Specifically, it is assumed that the moving image data input to the
ここで、図69における横軸は、空間方向の位置xを表している。そして、図69上側は、背景である被写体P6901の波形を示しており、図69下側は、前景である被写体P6902の波形を示している。 Here, the horizontal axis in FIG. 69 represents the position x in the spatial direction. The upper side of FIG. 69 shows the waveform of the subject P 6901 as the background, and the lower side of FIG. 69 shows the waveform of the subject P 6902 as the foreground.
図69上側に示した被写体P6901は静止しており、図69下側に示した被写体P6902は、g/t0[m/s]の速さで、空間方向xに移動している。 The subject P 6901 shown on the upper side of FIG. 69 is stationary, and the subject P 6902 shown on the lower side of FIG. 69 is moving in the spatial direction x at a speed of g / t 0 [m / s].
なお、上述の場合には、平均動きベクトルの算出にあたり、時刻t-4t0乃至t+4t0の9時刻(9フレーム)の画像データを用いたが、以下では、時刻t-3t0乃至t+3t0の7時刻(7フレーム)の画像データを用いることとする。時刻t-3t0乃至t+3t0の時間は、6t0という短い時間なので、その時間における被写体P6902の速さは一定であるとみなす(近似する)ことができ、上述したg/t0は、その一定の速さを表す。 In the above-described case, image data at 9 times (9 frames) from time t-4t 0 to t + 4t 0 is used in calculating the average motion vector. However, hereinafter, time t-3t 0 to t Image data at 7 times (7 frames) of + 3t 0 is used. Since the time from time t-3t 0 to t + 3t 0 is as short as 6t 0 , the speed of the subject P 6902 at that time can be regarded as being constant (approximate), and g / t 0 described above Represents the constant speed.
図70および図71は、図69に示した被写体P6901とP6902とが投影された、時刻t-3t0乃至t+3t0の7時刻(7フレーム)それぞれの画像データを示している。 70 and 71 show image data at seven times (7 frames) from time t-3t 0 to t + 3t 0 on which the subjects P 6901 and P 6902 shown in FIG. 69 are projected.
なお、図70および図71には、上から順に、時刻t-3t0乃至t+3t0の7時刻それぞれの画像データを図示してある。図70および図71は、符号が付してある部分が異なることを除いて、同一の図である。 In FIG. 70 and FIG. 71, image data at seven times from time t-3t 0 to t + 3t 0 are illustrated in order from the top. FIG. 70 and FIG. 71 are the same figures except that the parts to which the reference numerals are attached are different.
上述した図64乃至図67のフローチャートにしたがった処理(以下、適宜、第1の動き検出処理という)によれば、例えば、時刻tにおける画像データが、ブロックに分割される(図64におけるステップS101)。図70および図71では、時刻tにおける画像データが、ブロックB1乃至B16の16のブロックに分割されている。 According to the processing according to the flowcharts of FIGS. 64 to 67 described above (hereinafter, referred to as first motion detection processing as appropriate), for example, the image data at time t is divided into blocks (step S101 in FIG. 64). ). In FIGS. 70 and 71, the image data at time t is divided into 16 blocks of the block B 1 to B 16.
例えば、いま、背景である被写体P6901のみが含まれるブロックB3が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB3と対応する領域は、注目ブロックB3と同一位置の領域B101であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。
For example, if the first motion detection process is performed on the assumption that the block B 3 including only the subject P 6901 that is the background is the block of interest, as shown in FIG. 70, the image data at time t + t 0 , a region corresponding to the target block B 3 is because it is the block of interest B 3 and the region B 101 in the same position is determined at step S102 of FIG. 65, the correlation information at
同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB3と対応する領域は、それぞれ、注目ブロックB3と同一位置の領域B201,B301,B-101,B-201,B-301である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , the region corresponding to the target block B 3 is the same position as the target block B 3 , respectively. region B 201, B 301, B -101 , B -201, a B -301. Therefore, the correlation at time t + 2t 0 Info E 2 (u 2, v 2 ), the correlation information E 3 at time t + 3t 0 (u 3, v 3), the correlation at time tt 0 information F 1 (r 1, s 1 ), correlation information F 2 (r 2 , s 2 ) at time t-2t 0 , and correlation information F 3 (r 3 , s 3 ) at time t-3t 0 are all minimized. , (U 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0,0) It is.
従って、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(0,0)であり、その結果、注目ブロックB3については、3次元の動きベクトルとして、(0,0,t0)が求められる。 Therefore, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u) after scaling obtained in step S111 of FIG. 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), and F 3 (r 3 , s 3 ), the combined correlation information E (p, q) The minimum (p, q), that is, the average motion vector (p 0 , q 0 ) is (0,0). As a result, for the block of interest B 3 , (0, 0, t 0 ) is obtained.
この場合、図68では、注目ブロックB3の各画素について、領域B-301,B-201,B-101,B3,B101,B201,B301それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-301,B-201,B-101,B3,B101,B201,B301は、いずれも、注目ブロックB3に対応した領域であり、従って、領域B-301,B-201,B-101,B3,B101,B201,B301を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(0,0,t0)に直交する方向(注目ブロックB3のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域R1001(図20)内の周波数成分のみの適正なデータを得ることができる。
In this case, in FIG. 68, for each pixel of the block of interest B 3, area B -301, B -201, B -101 , to B 3, B 101, B 201 ,
次に、例えば、前景である被写体P6902のみが含まれるブロックB10が注目ブロックであるとして、第1の動き検出処理を行うと、図70に示すように、時刻t+t0における画像データにおいて、注目ブロックB10と対応する領域は、注目ブロックB10からx方向にgだけずれた位置の領域B102であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(g,0)のときである。 Next, for example, if the first motion detection process is performed assuming that the block B 10 including only the subject P 6902 which is the foreground is the target block, as shown in FIG. 70, the image data at time t + t 0 is displayed. in the region corresponding to the block of interest B 10 is because it is the region B 102 of position shifted by g in the x-direction from the target block B 10, obtained in the step S102 of FIG. 65, the correlation information at time t + t 0 The value of E 1 (u 1 , v 1 ) is minimized when the position (u 1 , v 1 ) = (g, 0).
同様に、時刻t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB10と対応する領域は、それぞれ、注目ブロックB10からx方向に2gだけずれた位置の領域B202、注目ブロックB10からx方向に3gだけずれた位置の領域B302、注目ブロックB10からx方向に-gだけずれた位置の領域B-102、注目ブロックB10からx方向に-2gだけずれた位置の領域B-202、注目ブロックB10からx方向に-3gだけずれた位置の領域B-302である。 Similarly, in the image data at times t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , regions corresponding to the target block B 10 are respectively in the x direction from the target block B 10. the position of the region B 202 shifted by 2g, the block of interest B 10 position of the region B 302 shifted by 3g in the x direction from the block of interest B 10 position of the region B -102 shifted in the x direction by -g from attention area at a position shifted by -2g from the block B 10 in the x direction B -202, a region B -302 position shifted by -3g in the x direction from the target block B 10.
従って、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(2g,0)のときであり、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(3g,0)のときであり、時刻t-t0における相関情報F1(r1,s1)の値が最小になるのは、位置(r1,s1)が(-g,0)のときであり、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、位置(r2,s2)が(-2g,0)のときであり、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が、(-3g,0)のときである。 Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (2g, 0) and the time t + The value of the correlation information E 3 (u 3 , v 3 ) at 3t 0 is minimized when the position (u 3 , v 3 ) is (3g, 0), and the correlation information F 1 at time tt 0 (r 1, s 1) the value of the is minimized, positions (r 1, s 1) is (-g, 0) is when the correlation at time t-2t 0 information F 2 (r 2, The value of s 2 ) is minimized when the position (r 2 , s 2 ) is (-2g, 0), and the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 The value is minimized when the position (r 3 , s 3 ) is ( −3 g, 0).
以上から、第1の動き検出処理によれば、図67のステップS111において求められる、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)は、(g,0)であり、その結果、注目ブロックB10については、3次元の動きベクトルとして、(g,0,t0)が求められる。 From the above, according to the first motion detection process, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (after scaling) obtained in step S111 of FIG. u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ), and the resultant correlation information E (p, q) (P, q), that is, the average motion vector (p 0 , q 0 ) is (g, 0). As a result, for the target block B 10 , (g , 0, t 0 ).
この場合、図68では、注目ブロックB10の各画素について、領域B-302,B-202,B-102,B10,B102,B202,B302それぞれの対応する画素の画素値に対し、重み1/16,2/16,3/16,4/16,3/16,2/16,1/16を付した重み付け加算を行うフィルタリングが行われる。領域B-302,B-202,B-102,B10,B102,B202,B302は、いずれも、注目ブロックB10に対応した領域であり、従って、領域B-302,B-202,B-102,B10,B102,B202,B302を用いたフィルタリングにより、人間の視覚で認識することができる周波数成分のみのデータ、即ち、いまの場合、(g,0,t0)に直交する方向(注目ブロックB10のデータの主成分方向)に延びる、T方向の幅が2π/(4t0)の領域内の周波数成分のみの適正なデータを得ることができる。
In this case, in FIG. 68, for each pixel of the block of interest B 10, region B -302, B -202, B -102 , relative to B 10, B 102, B 202 ,
以上のように、注目ブロック、および他のフレームの注目ブロックに対応する領域のすべてが、背景である被写体P6901のみを含む場合や、前景である被写体P6902のみを含む場合には、注目ブロックのデータの主成分方向を正確に求め、その主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。 As described above, when all of the areas corresponding to the block of interest and the block of interest in other frames include only the subject P 6901 that is the background or only the subject P 6902 that is the foreground, the block of interest By accurately obtaining the principal component direction of the data and filtering based on the principal component direction, it is possible to obtain appropriate data of only frequency components that can be recognized by human vision.
これに対して、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、誤差の大きな平均動きベクトルが求められることがある。この場合、そのような平均動きベクトルからは、注目ブロックのデータの主成分方向を正確に求められず、その結果、主成分方向に基づくフィルタリングによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができないことがある。 On the other hand, if the area corresponding to the target block or the target block in another frame includes a plurality of subjects with different speeds, that is, includes a boundary portion of a plurality of subjects with different speeds, A large average motion vector may be required. In this case, from such an average motion vector, the principal component direction of the data of the block of interest cannot be accurately determined, and as a result, only frequency components that can be recognized by human vision by filtering based on the principal component direction. It may not be possible to obtain appropriate data.
即ち、例えば、図71において、背景である被写体P6901のみを含むブロックB7が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB7と対応する領域は、注目ブロックB7と同一位置の領域B111であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 That is, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 7 including only the subject P 6901 as the background is the target block, the target block B in the image data at time t + t 0 is performed. Since the area corresponding to 7 is the area B 111 at the same position as the target block B 7 , the value of the correlation information E 1 (u 1 , v 1 ) at time t + t 0 obtained in step S102 of FIG. Is minimized when the position (u 1 , v 1 ) = (0,0).
同様に、時刻t+2t0,t+3t0,t-t0,t-2t0における画像データにおいて、注目ブロックB7と対応する領域は、それぞれ、注目ブロックB7と同一位置の領域B211,B311,B-111,B-211である。従って、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の値が最小になるのは、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2)が、(0,0)のときである。
Similarly, in the image data at
しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、図71では、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値が、位置(r3,s3)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may Originally, it should be region B -311 at the same position as the block of interest B 7, FIG. 71, moving The subject is hidden behind the subject P 6902 and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0).
そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.
この3次元の動きベクトル(p0,q0,t0)は、位置(r3,s3)が(0,0)のときに値が最小になるとは限らない相関情報F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB7のデータの主成分方向を正確に表しているとは限らない。 The three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum value when the position (r 3 , s 3 ) is (0,0). The correlation information F 3 (r 3 , s 3 ) is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the composite correlation information E (p, q) obtained using The direction orthogonal to the vector (p 0 , q 0 , t 0 ) does not always accurately represent the principal component direction of the data of the block of interest B 7 .
そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.
次に、例えば、図71において、背景である被写体P6901のみを含むブロックB14が注目ブロックであるとして、第1の動き検出処理を行うと、時刻t+t0における画像データにおいて、注目ブロックB14と対応する領域は、注目ブロックB14と同一位置の領域B112であるので、図65のステップS102で求められる、時刻t+t0における相関情報E1(u1,v1)の値が最小になるのは、位置(u1,v1)=(0,0)のときである。 Next, for example, in FIG. 71, if the first motion detection process is performed assuming that the block B 14 including only the subject P 6901 as the background is the target block, the target block is included in the image data at time t + t 0 . a region corresponding to the B 14 is because it is the region B 112 of the block of interest B 14 at the same position is determined at step S102 of FIG. 65, the correlation information at time t + t 0 E 1 of (u 1, v 1) The value is minimized when the position (u 1 , v 1 ) = (0,0).
同様に、時刻t-t0,t-2t0,t-3t0における画像データにおいて、注目ブロックB14と対応する領域は、それぞれ、注目ブロックB14と同一位置の領域B-112,B-212,B-312である。従って、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、いずれも、位置(r1,s1),(r2,s2),(r3,s3)が、(0,0)のときである。
Similarly, in the image data at time tt 0, t-2t 0, t-
しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値が、位置(u2,v2)が(0,0)のときに最小になるとは限らない。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not necessarily the minimum when the position (u 2 , v 2 ) is (0,0).
同様に、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値が、位置(u3,v3)が(0,0)のときに最小になるとは限らない。 Similarly, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 are originally of interest but block B 14 and it should be region B 312 in the same position, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not necessarily the minimum when the position (u 3 , v 3 ) is (0,0).
そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.
この3次元の動きベクトル(p0,q0,t0)は、位置(u2,v2)が(0,0)のときに値が最小になるとは限らない相関情報F2(u2,v2)と、位置(u3,v3)が(0,0)のときに値が最小になるとは限らない相関情報F3(u3,v3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB14のデータの主成分方向を正確に表しているとは限らない。 This three-dimensional motion vector (p 0 , q 0 , t 0 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0), and the correlation information F 2 (u 2 , v 2 ) and the correlation information F 3 (u 3 , v 3 ), the value of which is not necessarily the minimum when the position (u 3 , v 3 ) is (0,0) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 14 accurately represents.
そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.
次に、例えば、図71において、背景である被写体P6901と前景である被写体P6902とを含むブロックB9が注目ブロックであるとして、第1の動き検出処理を行うと、注目ブロックB9は、静止している被写体P6901と、動いている被写体P6902との両方を含むため、即ち、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、そのような注目ブロックB9に対応する領域は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも存在しない。 Next, for example, in FIG. 71, if the block B 9 including the subject P 6901 that is the background and the subject P 6902 that is the foreground is the target block, and the first motion detection process is performed, the target block B 9 is Since both the stationary subject P 6901 and the moving subject P 6902 are included, that is, the moving subject P 6902 is stationary at the position of the stationary subject P 6901 . Since P 6901 is hidden, the areas corresponding to such a target block B 9 are time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t It does not exist in any of the image data at -3t 0 .
このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データにおける、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となる For this reason, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Positions (u 1 , v 1 ), (u 2 ) most similar to the block of interest B 9 in the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 )
そして、第1の動き検出処理によれば、図67のステップS111において、スケーリング後の相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の合成結果である合成相関情報E(p,q)を最小にする(p,q)、つまり平均動きベクトル(p0,q0)が求められ、さらに、3次元の動きベクトルとして、(p0,q0,t0)が求められる。 Then, according to the first motion detection process, in step S111 in FIG. 67, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) (P, q), that is, an average motion vector (p 0 , q 0 ) is obtained, and (p 0 , q 0 , t 0 ) is obtained as a three-dimensional motion vector.
この3次元の動きベクトル(p0,q0,t0)は、注目ブロックB9と最も類似する位置において最小になる相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)を用いて求められた合成相関情報E(p,q)を最小にする(p,q)である平均動きベクトル(p0,q0)から得られるため、その3次元の動きベクトル(p0,q0,t0)に直交する方向が、注目ブロックB9のデータの主成分方向を正確に表しているとは限らない。 This three-dimensional motion vector (p 0 , q 0 , t 0 ) has the minimum correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , v) at the position most similar to the target block B 9. 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) Since it is obtained from the average motion vector (p 0 , q 0 ) that is (p, q) that minimizes the information E (p, q), the three-dimensional motion vector (p 0 , q 0 , t 0 ) the direction perpendicular, not necessarily the main ingredient direction of the data block of interest B 9 accurately represents.
そして、そのような3次元の動きベクトル(p0,q0,t0)に直交する方向に基づくフィルタリングでは、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となる。 In such filtering based on a direction orthogonal to the three-dimensional motion vector (p 0 , q 0 , t 0 ), it is difficult to obtain appropriate data of only frequency components that can be recognized by human vision. It becomes.
以上のように、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合、つまり、速度が異なる複数の被写体の境界部分を含む場合には、第1の動き検出処理では、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求めることができず、そのような主成分方向に基づくフィルタリングが行われることによって、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることが困難となることがあった。 As described above, when the region corresponding to the block of interest or the block of interest in another frame includes a plurality of subjects having different speeds, that is, if the region includes boundary portions of a plurality of subjects having different speeds, the first In this motion detection processing, the average motion vector, and thus the principal component direction of the data of the block of interest, cannot be obtained accurately, and the filtering based on such principal component direction is performed, so that it is recognized by human vision. It may be difficult to obtain appropriate data of only frequency components that can be obtained.
そこで、図72は、注目ブロック、または他のフレームの注目ブロックに対応する領域が、速度が異なる複数の被写体を含む場合であっても、平均動きベクトル、ひいては、注目ブロックのデータの主成分方向を正確に求める処理(以下、適宜、第2の動き検出処理という)を行う図25の主成分方向取得部31の構成例を示している。
Therefore, FIG. 72 shows the average motion vector, and thus the principal component direction of the data of the target block, even when the region corresponding to the target block or the target block of another frame includes a plurality of subjects having different velocities. 25 shows an example of the configuration of the principal component
なお、図中、図52における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図72の主成分方向取得部31は、スケーリング合成部104と最小値検出部105に代えて、それぞれスケーリング合成部124と最小値検出部125が設けられている他は、図52における場合と同様に構成されている。
In the figure, portions corresponding to those in FIG. 52 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the principal component
スケーリング合成部124は、図52のスケーリング合成部104と同様に、相関演算部103から供給される、複数の相関演算対象フレームそれぞれについて求められた相関情報を、空間方向x,yにスケーリングし、さらに、そのスケーリング後の相関情報を合成して、合成相関情報を求める。但し、スケーリング合成部124では、スケーリング後の相関情報を合成する数(合成する相関情報の数)を変えて、複数の合成相関情報が求められる。そして、スケーリング合成部124は、複数の合成相関情報を、最小値検出部125に供給する。
Similar to the scaling
最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報それぞれの「値」の最小値を求める。さらに、最小値検出部125は、複数の合成相関情報から、最小値が最小の合成相関情報を、最大合成相関情報として求める。
The minimum
さらに、最小値検出部125は、最大合成相関情報が表す相関が最大となる空間方向の位置を、即ち、最大合成相関情報の「値」を最小にする空間方向の位置を、最大相関位置として検出し、その最大相関位置へのベクトルを、平均動きベクトルとして求める。そして、最小値検出部125は、平均動きベクトルに、バッファ部21(図25)に記憶されている動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトルを求め、その3次元の動きベクトルの方向と直交する方向を、注目ブロックの主成分方向として検出して出力する。
Further, the minimum
また、最小値検出部125は、合成相関情報を求めるのに用いられた複数のフレームのうちの、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表す後述するカーネルサイズを、注目ブロックの動きベクトル(平均動きベクトル)の有効範囲、つまり、注目ブロックの主成分方向の有効範囲として、さらに求め、注目ブロックの主成分方向とともに出力する。
Further, the minimum
次に、図73乃至図77のフローチャートを参照して、主成分方向取得部31が図72に示したように構成される場合の図25のフィルタ生成部23の処理について説明する。
Next, the processing of the filter generation unit 23 in FIG. 25 when the principal component
なお、図73乃至図77のフローチャートにしたがったステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理は、第2の動き検出処理であり、図31のステップS11の処理に対応する。また、ステップS173乃至S175の処理は、図31のステップS12の処理に対応し、ステップS176の処理は、図31のステップS13の処理に対応する。 Of the processes of steps S151 to S176 according to the flowcharts of FIGS. 73 to 77, the processes of steps S151 to S172 are second motion detection processes and correspond to the process of step S11 of FIG. Further, the processing in steps S173 to S175 corresponds to the processing in step S12 in FIG. 31, and the processing in step S176 corresponds to the processing in step S13 in FIG.
第2の動き検出処理では、速度が異なる複数の被写体が投影された動画の、いわば性質を利用して、注目ブロックとの相関情報を演算する複数のフレームのうちの、注目ブロックと対応する領域を有するフレームについて求められた相関情報だけを合成して合成相関情報を得て、その合成相関情報を用いて、注目ブロックの正確な主成分方向を得ることができる平均動きベクトルを求める。 In the second motion detection process, an area corresponding to the target block among a plurality of frames for calculating correlation information with the target block using the so-called property of a moving image on which a plurality of subjects with different speeds are projected. Only the correlation information obtained for a frame having a frame is combined to obtain combined correlation information, and an average motion vector capable of obtaining an accurate principal component direction of the block of interest is obtained using the combined correlation information.
即ち、例えば、図69乃至図71に示したように、静止している被写体P6901の手前側に、動いている被写体P6902が存在する時刻t-3t0乃至t+3t0の7フレームの間の時間は、6t0という短い時間であるので、動いている被写体P6902の速度は、一定であると近似することができる。 That is, for example, as shown in FIG. 69 to FIG. 71, seven frames from time t-3t 0 to t + 3t 0 where the moving subject P 6902 exists on the front side of the stationary subject P 6901 are shown. Since the time between them is as short as 6t 0 , it can be approximated that the speed of the moving subject P 6902 is constant.
そして、時刻tの画像データのあるブロックを注目ブロックとした場合に、その注目ブロックに対して、動いている被写体P6902が、遠ざかっていくケースでは、時刻tよりも時間的に後の時刻(未来の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB7が注目ブロックである場合には、その注目ブロックB7に対して、被写体P6902が遠ざかっていくが、この場合、時刻tよりも時間的に後の時刻t+t0,t+2t0,t+3t0それぞれにおいて、注目ブロックB7に対応する領域B111,B211,B311が存在する。 Then, when a block having image data at time t is set as a target block, in the case where the moving subject P 6902 moves away from the target block, a time later than time t ( In the image data at a future time), there is an area corresponding to the block of interest. That is, for example, in FIG. 71, when the block B 7 is the target block, the subject P 6902 moves away from the target block B 7 , but in this case, the time later than the time t At times t + t 0 , t + 2t 0 , and t + 3t 0 , areas B 111 , B 211 , and B 311 corresponding to the block of interest B 7 exist.
また、注目ブロックに対して、動いている被写体P6902が、近づいてくるケースでは、時刻tよりも時間的に前の時刻(過去の時刻)の画像データにおいて、注目ブロックと対応する領域が存在する。即ち、例えば、図71において、ブロックB14が注目ブロックである場合には、その注目ブロックB14に対して、被写体P6902が近づいてくるが、この場合、時刻tよりも時間的に前の時刻t-t0,t-2t0,t-3t0それぞれにおいて、注目ブロックB14に対応する領域B-112,B-212,B-312が存在する。 In addition, in the case where the moving subject P 6902 approaches the block of interest, there is an area corresponding to the block of interest in the image data at a time prior to the time t (past time). To do. That is, for example, in FIG. 71, when the block B 14 is the target block, the subject P 6902 approaches the target block B 14 , but in this case, the time before the time t At times tt 0 , t-2t 0 , and t-3t 0 , there are regions B −112 , B −212 , and B −312 corresponding to the block of interest B 14 .
なお、注目ブロックに、静止している被写体P6901と、動いている被写体P6902とが存在するケースでは、時刻tの前後の時刻の画像データにおいて、注目ブロックと対応する領域は存在しない。即ち、例えば、図71において、ブロックB9が注目ブロックである場合には、注目ブロックB9には、静止している被写体P6901と、動いている被写体P6902とが存在するが、この場合、時刻tよりも前の時刻t-t0,t-2t0,t-3t0と、後の時刻t+t0,t+2t0,t+3t0のうちのいずれにも、注目ブロックB9と対応する領域は存在しない。 Note that in the case where the subject block includes a stationary subject P 6901 and a moving subject P 6902 , there is no region corresponding to the subject block in the image data at times before and after time t. That is, for example, in FIG. 71, when the block B 9 is the target block, the target block B 9 includes a stationary subject P 6901 and a moving subject P 6902. In this case, , The block of interest B 9 at any of the times tt 0 , t-2t 0 , t-3t 0 before the time t and the times t + t 0 , t + 2t 0 , t + 3t 0 after the time t There is no corresponding area.
第2の動き検出処理では、以上のような、速度が異なる複数の被写体が投影された動画の性質を利用した処理が行われる。 In the second motion detection process, a process using the nature of a moving image in which a plurality of subjects with different speeds is projected as described above is performed.
即ち、図72の主成分方向取得部31において、バッファ部101には、バッファ部21(図25)から読み出された動画データが供給され、バッファ部101は、その動画データを一時記憶する。
That is, in the principal component
そして、図73のステップS151において、ブロック抽出部102は、バッファ部101に記憶された動画データを、図64のステップS101における場合と同様に、例えば16×16画素のブロックに分割し、相関演算部103に供給する。なお、以降の処理は、ブロック抽出部102で得られたブロックを、順次、注目ブロックとして行われる。
In step S151 in FIG. 73, the
ここで、図64乃至図67における場合と同様に、注目ブロックの位置(例えば、注目ブロックの左上の画素の位置)を、(x0,y0)と表す。また、注目ブロックのフレーム(注目フレーム)は、時刻tのフレームであるとする。 Here, as in FIGS. 64 to 67, the position of the block of interest (for example, the position of the upper left pixel of the block of interest) is represented as (x 0 , y 0 ). The frame of the block of interest (frame of interest) is assumed to be a frame at time t.
ステップS151の処理後は、ステップS152に進み、相関演算部103は、注目フレームの次のフレームの画像データである時刻t+t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E1(u1,v1)を、注目ブロックを対応させる時刻t+t0の画像データの位置(x0+u1,y0+v1)を変えながら求め、その関数E1(u1,v1)を、時刻t+t0における相関情報として、スケーリング合成部124に供給して、ステップS153に進む。
After the processing in step S151, the process proceeds to step S152, in which the
ステップS153では、相関演算部103は、注目フレームの次の次のフレームの画像データである時刻t+2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E2(u2,v2)を、注目ブロックを対応させる時刻t+2t0の画像データの位置(x0+u2,y0+v2)を変えながら求め、その関数E2(u2,v2)を、時刻t+2t0における相関情報として、スケーリング合成部124に供給して、ステップS154に進む。
In step S153, the
ステップS154では、相関演算部103は、注目フレームの3フレームだけ時間的に先の画像データである時刻t+3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t+3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数E3(u3,v3)を、注目ブロックを対応させる時刻t+3t0の画像データの位置(x0+u3,y0+v3)を変えながら求め、その関数E3(u3,v3)を、時刻t+3t0における相関情報として、スケーリング合成部124に供給して、図74のステップS155に進む。
In step S154, the
ステップS155では、相関演算部103は、注目フレームの前のフレームの画像データである時刻t-t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F1(r1,s1)を、注目ブロックを対応させる時刻t-t0の画像データの位置(x0+r1,y0+s1)を変えながら求め、その関数F1(r1,s1)を、時刻t-t0における相関情報として、スケーリング合成部124に供給して、ステップS156に進む。
In step S155, the
ステップS156では、相関演算部103は、注目フレームの前の前のフレームの画像データである時刻t-2t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-2t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F2(r2,s2)を、注目ブロックを対応させる時刻t-2t0の画像データの位置(x0+r2,y0+s2)を変えながら求め、その関数F2(r2,s2)を、時刻t-2t0における相関情報として、スケーリング合成部124に供給して、ステップS157に進む。
In step S156, the
ステップS157では、相関演算部103は、注目フレームの3フレームだけ時間的に前の画像データである時刻t-3t0の画像データを、バッファ部101から読み出し、注目ブロックと、時刻t-3t0の画像データとの、対応する画素どうしの差分絶対値の総和を表す関数F3(r3,s3)を、注目ブロックを対応させる時刻t-3t0の画像データの位置(x0+r3,y0+s3)を変えながら求め、その関数F3(r3,s3)を、時刻t-3t0における相関情報として、スケーリング合成部124に供給して、ステップS158に進む。
In step S157, the
ステップS158では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちのすべてについて、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S <b> 158, the scaling
なお、合成相関情報E(p,q)は、スケーリング後の相関情報を単純に加算する他、上述したように、重み付け加算することにより求めることもできる。 Note that the combined correlation information E (p, q) can be obtained by simply adding the correlation information after scaling, or by weighted addition as described above.
以上のように、スケーリング合成部124は、ステップS158において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)のすべてを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての、合計で6つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である6によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L33を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/6+L33)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS158からS159に進む。
As described above, the scaling
ステップS159では、最小値検出部125は、ステップS158でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p33,q33)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p33,q33)を検出し、位置(p,q)が最大相関位置(p33,q33)である場合の合成相関情報E(p33,q33)の「値」、即ち、最小値E33とともに記憶して、図75のステップS160に進む。
In step S159, the minimum
ステップS160では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)=(-r2/2,-s2/2)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q),F2(-2p,-2q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q))を求める。
In step S <b> 160, the scaling
以上のように、スケーリング合成部124は、ステップS160において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)の5つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L23を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)+F2(-2p,-2q)}/5+L23)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS160からS161に進む。
As described above, the scaling
ステップS161では、最小値検出部125は、ステップS160でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の2フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p23,q23)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p23,q23)を検出し、位置(p,q)が最大相関位置(p23,q23)である場合の合成相関情報E(p23,q23)の「値」、即ち、最小値E23とともに記憶して、ステップS162に進む。
In step S161, the
ステップS162では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)=(-r1,-s1)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q),F1(-p,-q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q))を求める。
In step S <b> 162, the
以上のように、スケーリング合成部124は、ステップS162において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)の4つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L13を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)+F1(-p,-q)}/4+L13)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS162からS163に進む。
As described above, the scaling
ステップS163では、最小値検出部125は、ステップS162でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームと、時間的に前の1フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p13,q13)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p13,q13)を検出し、位置(p,q)が最大相関位置(p13,q13)である場合の合成相関情報E(p13,q13)の「値」、即ち、最小値E13とともに記憶して、ステップS164に進む。
In step S163, the minimum
ステップS164では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(u3/3,v3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),E3(3p,3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+E3(3p,3q))を求める。
In step S164, the scaling
以上のように、スケーリング合成部124は、ステップS164において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)の3つを合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L03を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+E3(3p,3q)}/3+L03)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS164からS165に進む。
As described above, the scaling
ステップS165では、最小値検出部125は、ステップS164でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p03,q03)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p03,q03)を検出し、位置(p,q)が最大相関位置(p03,q03)である場合の合成相関情報E(p03,q03)の「値」、即ち、最小値E03とともに記憶して、図76のステップS166に進む。
In step S165, the minimum
ステップS166では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、5つの相関情報E1(u1,v1),E2(u2,v2),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(u2/2,v2/2)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),E2(2p,2q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S <b> 166, the scaling
以上のように、スケーリング合成部124は、ステップS166において、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての、合計で5つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である5によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L32を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+E2(2p,2q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/5+L32)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS166からS167に進む。
As described above, the scaling
ステップS167では、最小値検出部125は、ステップS166でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の2フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p32,q32)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p32,q32)を検出し、位置(p,q)が最大相関位置(p32,q32)である場合の合成相関情報E(p32,q32)の「値」、即ち、最小値E32とともに記憶して、ステップS168に進む。
In step S167, the minimum
ステップS168では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、4つの相関情報E1(u1,v1),F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(u1,v1)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報E1(p,q),F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S168, the scaling
以上のように、スケーリング合成部124は、ステップS168において、時刻t+t0における相関情報E1(u1,v1)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての、合計で4つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である4によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L31を加算することにより、最終的な合成相関情報E(p,q)(={E1(p,q)+F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/4+L31)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS168からS169に進む。
As described above, the scaling
ステップS169では、最小値検出部125は、ステップS168でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に後の1フレームと、時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p31,q31)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p31,q31)を検出し、位置(p,q)が最大相関位置(p31,q31)である場合の合成相関情報E(p31,q31)の「値」、即ち、最小値E31とともに記憶して、ステップS170に進む。
In step S169, the minimum
ステップS170では、スケーリング合成部124は、相関演算部103から供給された6つの相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)のうちの、3つの相関情報F1(r1,s1),F2(r2,s2),F3(r3,s3)について、相関情報E1(u1,v1)の位置(u1,v1)のスケールを基準としてスケーリングを行い、さらに、そのスケーリング後の相関情報を合成して、合成相関情報E(p,q)を求める。即ち、スケーリング合成部124は、位置(p,q)=(-r1,-s1)=(-r2/2,-s2/2)=(-r3/3,-s3/3)とすることによりスケーリングを行い、さらに、そのスケーリング後の相関情報F1(-p,-q),F2(-2p,-2q),F3(-3p,-3q)を加算することにより、合成相関情報E(p,q)(=F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q))を求める。
In step S <b> 170, the scaling
以上のように、スケーリング合成部124は、ステップS170において、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)を合成した合成相関情報E(p,q)、即ち、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての、合計で3つの相関情報を合成した合成相関情報E(p,q)を求めた後、その合成相関情報E(p,q)を求めるにあたって合成した相関情報の数である3によって、合成相関情報E(p,q)を除算することにより正規化し、さらに、正規化後の合成相関情報E(p,q)に、所定のオフセット値L30を加算することにより、最終的な合成相関情報E(p,q)(={F1(-p,-q)+F2(-2p,-2q)+F3(-3p,-3q)}/3+L30)を得る。そして、スケーリング合成部124は、その最終的な合成相関情報E(p,q)を、最小値検出部125に供給して、ステップS170からS171に進む。
As described above, in step S170, the scaling
ステップS171では、最小値検出部125は、ステップS170でスケーリング合成部124から供給された、注目フレームの時刻tに対して時間的に前の3フレームのそれぞれについての相関情報を合成した合成相関情報E(p,q)が表す相関が最大となる空間方向の位置(p,q)である(p30,q30)を検出し、即ち、合成相関情報E(p,q)の「値」を最小にする位置(p,q)である(p30,q30)を検出し、位置(p,q)が最大相関位置(p30,q30)である場合の合成相関情報E(p30,q30)の「値」、即ち、最小値E30とともに記憶して、図77のステップS172に進む。
In step S171, the minimum
ステップS172では、最小値検出部125は、スケーリング合成部124からの複数の合成相関情報のうちの、相関が最大の合成相関情報である最大合成相関情報を求める。即ち、最小値検出部125は、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の3フレームの6つの相関情報を合成した合成相関情報E(p,q)の最小値E33(ステップS159)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の2フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E23(ステップS161)、注目フレームの時刻tに対して時間的に後の3フレームと時間的に前の1フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E13(ステップS163)、注目フレームの時刻tに対して時間的に後の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E03(ステップS165)、注目フレームの時刻tに対して時間的に後の2フレームと時間的に前の3フレームの5つの相関情報を合成した合成相関情報E(p,q)の最小値E32(ステップS167)、注目フレームの時刻tに対して時間的に後の1フレームと時間的に前の3フレームの4つの相関情報を合成した合成相関情報E(p,q)の最小値E31(ステップS169)、注目フレームの時刻tに対して時間的に前の3フレームの3つの相関情報を合成した合成相関情報E(p,q)の最小値E30(ステップS171)のうちの最小のものを与える合成相関情報を、最大合成相関情報として求める。
In step S <b> 172, the minimum
ここで、最大合成相関情報となった合成相関情報を求めるのに、注目フレームの時刻tに対して時間的に後のkフレームと時間的に前のhフレームの相関情報の、合計でk+hの相関情報を合成したとすると(ここでは、k,h=0,1,2,3)、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものは、Ehkで表すことができる。 Here, in order to obtain the combined correlation information that has become the maximum combined correlation information, the sum of the correlation information of the k frame temporally subsequent to the time t of the target frame and the temporally previous h frame is k + If the correlation information of h is synthesized (here, k, h = 0,1,2,3), among the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 Can be expressed as E hk .
ステップS172では、さらに、最小値検出部125は、最大合成相関情報の「値」を最小にする空間方向の位置、即ち、最大合成相関情報の最小値Ehkを与える空間方向の位置(phk,qhk)を、最小値E33,E23,E13,E03,E32,E31,E30それぞれとともに記憶した位置(p33,q33),(p23,q23),(p13,q13),(p03,q03),(p32,q32),(p31,q31),(p30,q30)の中から選択することにより検出し、最大相関位置(p0,q0)とする。
In step S172, the minimum
そして、最小値検出部125は、最大相関位置(p0,q0)を、平均動きベクトル(p0,q0)として、その平均動きベクトル(p0,q0)に、元の動画データのフレーム周期t0を、時間方向tのコンポーネントとして加えた3次元の動きベクトル(p0,q0,t0)を求め、その3次元の動きベクトル(p0,q0,t0)の方向と直交する方向が、主成分方向であるとして、3次元の動きベクトル(p0,q0,t0)を、フィルタ情報供給部32(図25)に供給するとともに、最大合成相関情報の最小値Ehkを、フィルタ情報供給部32に供給する。さらに、最小値検出部125は、最大合成相関情報の最小値Ehkのサフィックスである(h,k)を、最大合成相関情報を求めるのに合成した相関情報の演算に用いられたフレームの範囲を表すカーネルサイズとして、フィルタ情報供給部32に供給して、ステップS172からS173に進む。
Then, the minimum
ここで、上述したオフセット値L33(ステップS158),L23(ステップS160),L13(ステップS162),L03(ステップS164),L32(ステップS166),L31(ステップS168),L30(ステップS170)は、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たす小さな定数である。 Here, the offset values L 33 (step S158), L 23 (step S160), L 13 (step S162), L 03 (step S164), L 32 (step S166), L 31 (step S168), L described above. 30 (step S170), the formula L 33 ≦ L 32 ≦ L 31 ≦ L 30, and a small constant satisfying the formula L 33 ≦ L 23 ≦ L 13 ≦ L 03.
ステップS173では、フィルタ情報供給部32(図25)は、図72の主成分方向取得部31(の最小値検出部125)からの最大合成相関情報の最小値Ehkが、所定の閾値ε以下(未満)であるかどうかを判定する。ここで、ステップS173で用いられる閾値εは、オフセット値L33,L23,L13,L03,L32,L31,L30よりも大きな値で、例えば、シミュレーションなどによって決定することができる。また、閾値εは、ユーザの操作に応じて設定することも可能である。 In step S173, the filter information supply unit 32 (FIG. 25) determines that the minimum value E hk of the maximum combined correlation information from the principal component direction acquisition unit 31 (its minimum value detection unit 125) in FIG. It is determined whether it is (less than). Here, the threshold value ε used in step S173 is larger than the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 and can be determined by, for example, simulation. . Further, the threshold value ε can be set according to a user operation.
ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下であると判定された場合、即ち、最大合成相関情報の最小値Ehkがある程度小さく、従って、注目ブロックと対応する領域が、時刻tの前または後のフレームに存在する場合、ステップS174に進み、フィルタ情報供給部32は、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域、即ち、図20の領域R1001や、図21の領域R1101、図22の領域R1201、図23の領域R1301を、フィルタの通過帯域として決定するとともに、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)を、そのままカーネルサイズとして決定し、ステップS176に進む。
If it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is equal to or smaller than the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is small to some extent, and therefore corresponds to the block of interest. When the region exists in the frame before or after time t, the process proceeds to step S174, and the filter
一方、ステップS173において、最大合成相関情報の最小値Ehkが、所定の閾値ε以下でないと判定された場合、即ち、最大合成相関情報の最小値Ehkが大きく、従って、注目ブロックと対応する領域が、時刻tの前および後のフレームのいずれにも存在しない場合、ステップS175に進み、フィルタ情報供給部32は、ステップS174における場合と同様に、周波数ドメインにおいて、原点(0,0)から、主成分方向取得部31からの主成分方向に延びる領域であって、T方向に2π/(4×t0)の幅を有し、X,Y方向が、−(π/r0)乃至+(π/r0)で、T方向が、−(π/t0)乃至+(π/t0)の範囲の領域を、フィルタの通過帯域として決定する。さらに、ステップS175では、フィルタ情報供給部32は、図72の主成分方向取得部31(の最小値検出部125)からの(h,k)に代えて、(h,k)=(0,0)を、カーネルサイズとして決定し、ステップS176に進む。
On the other hand, if it is determined in step S173 that the minimum value E hk of the maximum combined correlation information is not less than or equal to the predetermined threshold ε, that is, the minimum value E hk of the maximum combined correlation information is large, and therefore corresponds to the target block. When the region does not exist in any of the frames before and after time t, the process proceeds to step S175, and the filter
ステップS176では、フィルタ情報供給部32は、ステップS174またはS175で決定したフィルタの通過帯域を表すフィルタ情報として、例えば、3次元の動きベクトル(p0,q0,t0)を、フィルタ部22(図25)に供給するとともに、カーネルサイズ(h,k)を、フィルタ部22に供給し、処理を終了する。
In step S176, the filter
図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、次のようなフィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を求めることができる。 According to the processing according to the flowcharts shown in FIG. 73 to FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) as the following filter information and the kernel size (h , k).
例えば、図70に示した動画データにおいて、ブロックB3が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B101,B201,B301,B-101,B-201,B-301が存在し、時刻t+t0における相関情報E1(u1,v1)、時刻t+2t0における相関情報E2(u2,v2)、時刻t+3t0における相関情報E3(u3,v3)、時刻t-t0における相関情報F1(r1,s1)、時刻t-2t0における相関情報F2(r2,s2)、時刻t-3t0における相関情報F3(r3,s3)の値は、いずれも、位置(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)が(0,0)のときに最小になり、ほぼ0となる。 For example, in the moving image data shown in FIG. 70, when the block B 3 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t at 0, respectively image data in t-3t 0, block of interest B 3 with the corresponding region B 101, B 201, B 301 , B -101, B -201, B -301 is present, the time t + t 0 Correlation information E 1 (u 1 , v 1 ), correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 , correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 , time tt correlation information in 0 F 1 of (r 1, s 1), the correlation information F 2 at time t-2t 0 (r 2, s 2), the correlation information F 3 at time t-3t 0 (r 3, s 3) The values for all are (u 2 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are (0, 0) is the smallest and almost zero.
この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(0,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(0,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) that gives the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (0,0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (0,0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (0,0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Further, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (0, 0), and the minimum value E 03 is almost equal to equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 of FIG. 76 is (0,0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (0,0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 in FIG. 76 is (0, 0), and the minimum value E 30 is almost equal to equal to the offset value L 30.
オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB3については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. Since ≦ L 13 ≦ L 03 is satisfied, for the target block B 3 , the minimum value E 33 that is substantially the offset value L 33 is basically the minimum value E 33 , E 23 , E in step S172 of FIG. 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and ( 0 , 0) is obtained as the average motion vector (p 0 , q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3,3) is obtained as the kernel size (h, k). .
さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さい(以下である)ので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB3については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, the offset value L 33, as described above, since the smaller the threshold ε in step S173 (or less is), the minimum value E 33 of substantially the offset value L 33 is the minimum value E 33, E 23, E 13 , E 03 , E 32 , E 31 , E 30 regarding the target block B 3 detected as the smallest one in step S 174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0, t 0) as (0, 0, with t 0) is obtained, the kernel size (h, k) as the (3,3) is obtained.
これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB3は、(0,0,t0)という速度(時間t0の間に、空間方向に(0,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 3 is (0,0, t 0) of the speed (time t 0 It is shown that it is moving at a speed (moving by (0,0)) in the spatial direction.
従って、カーネルサイズ(h,k)は、3次元の動きベクトル(p0,q0,t0)、ひいては、その3次元の動きベクトル(p0,q0,t0)から求められる注目ブロックの主成分方向の有効範囲を表しているということができる。 Accordingly, the kernel size (h, k) is determined from the three-dimensional motion vector (p 0 , q 0 , t 0 ), and thus the target block obtained from the three-dimensional motion vector (p 0 , q 0 , t 0 ). It can be said that it represents the effective range of the principal component direction.
次に、例えば、図70に示した動画データにおいて、ブロックB10が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB3と対応する領域B102,B202,B302,B-102,B-202,B-302が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(g,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(2g,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(3g,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(-g,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(-2g,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が、(-3g,0)のときに、それぞれ最小になり、ほぼ0となる。
Then, for example, in the moving image data shown in FIG. 70, when the block B 10 is the target block, as described above, the
この場合、図74のステップS159で求められる、合成相関関数E(p,q)の最小値E33を与える位置(p33,q33)は(g,0)となり、最小値E33は、ほぼオフセット値L33に等しくなる。同様に、図75のステップS161で求められる、合成相関関数E(p,q)の最小値E23を与える位置(p23,q23)は(g,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。また、図75のステップS163で求められる、合成相関関数E(p,q)の最小値E13を与える位置(p13,q13)は(g,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS165で求められる、合成相関関数E(p,q)の最小値E03を与える位置(p03,q03)は(g,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。また、図76のステップS167で求められる、合成相関関数E(p,q)の最小値E32を与える位置(p32,q32)は(g,0)となり、最小値E32は、ほぼオフセット値L32に等しくなる。さらに、図76のステップS169で求められる、合成相関関数E(p,q)の最小値E31を与える位置(p31,q31)は(g,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。また、図76のステップS171で求められる、合成相関関数E(p,q)の最小値E30を与える位置(p30,q30)は(g,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 In this case, the position (p 33 , q 33 ) giving the minimum value E 33 of the combined correlation function E (p, q) obtained in step S159 of FIG. 74 is (g, 0), and the minimum value E 33 is approximately equal to the offset value L 33. Similarly, the position (p 23 , q 23 ) that gives the minimum value E 23 of the combined correlation function E (p, q) obtained in step S161 in FIG. 75 is (g, 0), and the minimum value E 23 is approximately equal to the offset value L 23. In addition, the position (p 13 , q 13 ) that gives the minimum value E 13 of the combined correlation function E (p, q) obtained in step S163 in FIG. 75 is (g, 0), and the minimum value E 13 is almost equal to equal to the offset value L 13. Furthermore, the position (p 03 , q 03 ) that gives the minimum value E 03 of the combined correlation function E (p, q), which is obtained in step S165 of FIG. 75, is (g, 0), and the minimum value E 03 is almost equal to the offset value L 03. In addition, the position (p 32 , q 32 ) that gives the minimum value E 32 of the combined correlation function E (p, q) obtained in step S167 of FIG. 76 is (g, 0), and the minimum value E 32 is almost equal to equal to the offset value L 32. Further, the position (p 31 , q 31 ) that gives the minimum value E 31 of the combined correlation function E (p, q) obtained in step S169 in FIG. 76 is (g, 0), and the minimum value E 31 is almost equal to equal to the offset value L 31. In addition, the position (p 30 , q 30 ) that gives the minimum value E 30 of the combined correlation function E (p, q) obtained in step S171 in FIG. 76 is (g, 0), and the minimum value E 30 is almost equal to equal to the offset value L 30.
オフセット値L33,L23,L13,L03,L32,L31,L30は、上述したように、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすので、注目ブロックB10については、図77のステップS172において、基本的に、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(g,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が求められ、カーネルサイズ(h,k)として(3,3)が求められる。 As described above, the offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23. since satisfy ≦ L 13 ≦ L 03, for the block of interest B 10, in step S172 of FIG. 77, basically, the minimum value E 33, which is substantially offset value L 33 is the minimum value E 33, E 23, E 13 , E 03 , E 32 , E 31 , E 30 are detected as the smallest one, and (g, 0) is obtained as the average motion vector (p 0 , q 0 ). In step S172, (g, 0, t 0 ) is obtained as a three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3, 3) is obtained as a kernel size (h, k). .
さらに、オフセット値L33は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L33となる最小値E33が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB10については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(g,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,3)が得られる。 Further, as described above, since the offset value L 33 is smaller than the threshold value ε in step S173, the minimum value E 33 that is substantially the offset value L 33 becomes the minimum value E 33 , E 23 , E 13 , E 03 , E With respect to the target block B 10 detected as the smallest of 32 , E 31 , and E 30 , in step S174 in FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (G, 0, t 0 ) is obtained, and (3, 3) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+3t0の間は、注目ブロックB10は、(g,0,t0)という速度(時間t0の間に、空間方向に(g,0)だけ移動する速度)で移動しているということを示している。 This time t-ht 0 from t + kt 0, that is, between time t-3t 0 of t + 3t 0, the block of interest B 10 is (g, 0, t 0) of the speed (time t 0 It is shown that it is moving at a speed (moving by (g, 0)) in the space direction.
次に、例えば、図71に示した動画データにおいて、ブロックB7が注目ブロックである場合には、上述したように、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0における画像データそれぞれにおいて、注目ブロックB7と対応する領域B111,B211,B311,B-111,B-211が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t+2t0における相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに、時刻t+3t0における相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。 Next, for example, in the moving image data shown in FIG. 71, when the block B 7 is the target block, as described above, the times t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , in each image data in the t-2t 0, region B 111, B 211 corresponding to a target block B 7, B 311, B -111 , and B -211 is present, the correlation information at time t + t 0 E 1 (u 1 , v 1 ) is the position (u 1 , v 1 ) is (0,0) and the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is the position ( When u 2 , v 2 ) is (0,0), the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is the position (u 3 , v 3 ) at (0,0 ), The value of the correlation information F 1 (r 1 , s 1 ) at time tt 0 is the correlation information at time t-2t 0 when the position (r 1 , s 1 ) is (0,0). The value of F 2 (r 2 , s 2 ) is minimized when the position (r 2 , s 2 ) is (0, 0), and is almost zero.
しかしながら、時刻t-3t0における画像データにおいて、注目ブロックB7と対応する領域は、本来は、注目ブロックB7と同一位置の領域B-311であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t-3t0における相関情報F3(r3,s3)の値が最小になるのは、位置(r3,s3)が(0,0)のときであって欲しいが、相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに最小になるとは限らない。即ち、相関情報F3(r3,s3)の値は、(0,0)とは限らないある位置(r3,s3)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t-3t 0, a region corresponding to the block of interest B 7, which may originally, but it should be region B -311 at the same position as the block of interest B 7, a moving subject P 6902 It is hidden behind and does not exist. Therefore, the value of the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 is minimized when the position (r 3 , s 3 ) is (0,0). The value of the correlation information F 3 (r 3 , s 3 ) is not always the minimum when the position (r 3 , s 3 ) is (0,0). That is, the value of the correlation information F 3 (r 3 , s 3 ) is minimum at a certain position (r 3 , s 3 ) that is not necessarily (0, 0). Become.
この場合、図74のステップS158において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図76のステップS166において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)は、(0,0)とは限らないある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において、時刻t-3t0における相関情報F3(r3,s3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は、(0,0)とは限らないある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, the minimum value E 33 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S158 in FIG. The position (p 33 , q 33 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 33 is considerably larger than the offset value L 33 . Similarly, the minimum value E 32 of the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S166 of FIG. The position (p 32 , q 32 ) that gives is a position that is not necessarily (0, 0), and the minimum value E 32 is considerably larger than the offset value L 32 . Further, in step S168 of FIG. 76, the minimum value E 31 is also set for the combined correlation function E (p, q) obtained using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 as well. The given position (p 31 , q 31 ) is a position that is not necessarily (0, 0), and the minimum value E 31 is considerably larger than the offset value L 31 . Further, in step S170 of FIG. 76, the time t-3t 0 correlation information F 3 in (r 3, s 3) is also a synthetic correlation function E obtained (p, q) for even the minimum value E 30 The given position (p 30 , q 30 ) is a certain position that is not necessarily (0, 0), and the minimum value E 30 is considerably larger than the offset value L 30 .
一方、図75のステップS160において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)については、その最小値E23を与える位置(p23,q23)は(0,0)となり、最小値E23は、ほぼオフセット値L23に等しくなる。同様に、図75のステップS162において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は(0,0)となり、最小値E13は、ほぼオフセット値L13に等しくなる。さらに、図75のステップS164において、時刻t-3t0における相関情報F3(r3,s3)を用いずに求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は(0,0)となり、最小値E03は、ほぼオフセット値L03に等しくなる。 On the other hand, in step S160 of FIG. 75, for a time t-3t correlation in 0 information F 3 (r 3, s 3 ) determined without using the synthesized correlation function E (p, q), the minimum value E 23 The given position (p 23 , q 23 ) is (0, 0), and the minimum value E 23 is substantially equal to the offset value L 23 . Similarly, the minimum value E 13 of the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 in step S162 in FIG. The position (p 13 , q 13 ) that gives is (0, 0), and the minimum value E 13 is substantially equal to the offset value L 13 . Further, in step S164 of FIG. 75, the minimum value E03 is also set for the combined correlation function E (p, q) obtained without using the correlation information F 3 (r 3 , s 3 ) at time t-3t 0 . The given position (p 03 , q 03 ) is (0, 0), and the minimum value E 03 is substantially equal to the offset value L 03 .
オフセット値L23,L13,L03は、上述したことから、式L23≦L13≦L03を満たすので、注目ブロックB7については、図77のステップS172において、基本的に、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(2,3)が求められる。 Since the offset values L 23 , L 13 , and L 03 satisfy the formula L 23 ≦ L 13 ≦ L 03 from the above description, the target block B 7 is basically substantially offset in step S172 of FIG. The minimum value E 23 having the value L 23 is detected as the minimum of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 and the average motion vector (p 0 , (0,0) is obtained as q 0 ). Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (2,3) is obtained as the kernel size (h, k). .
さらに、オフセット値L23は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L23となる最小値E23が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB7については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(2,3)が得られる。 Further, the offset value L 23, as described above, is smaller than the threshold value ε in step S173, the minimum value E 23, which is substantially offset value L 23 is the minimum value E 33, E 23, E 13 , E 03, E With respect to the target block B 7 detected as the smallest of 32 , E 31 , and E 30, the three-dimensional motion vector (p 0 , q 0 , t 0 ) that becomes the filter information in step S174 of FIG. (0,0, t 0 ) is obtained, and (2,3) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻t-2t0からt+3t0の間は、注目ブロックB7は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 7 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-2t 0 to t + 3t 0. It shows that there is.
次に、例えば、図71に示した動画データにおいて、ブロックB14が注目ブロックである場合には、上述したように、時刻t+t0,t-t0,t-2t0,t-3t0における画像データそれぞれにおいて、注目ブロックB14と対応する領域B112,B-112,B-212,B-312が存在し、時刻t+t0における相関情報E1(u1,v1)の値は、位置(u1,v1)が(0,0)のときに、時刻t-t0における相関情報F1(r1,s1)の値は、位置(r1,s1)が(0,0)のときに、時刻t-2t0における相関情報F2(r2,s2)の値は、位置(r2,s2)が(0,0)のときに、時刻t-3t0における相関情報F3(r3,s3)の値は、位置(r3,s3)が(0,0)のときに、それぞれ最小になり、ほぼ0となる。
Then, for example, in the moving image data shown in FIG. 71, when the block B 14 is the target block, as described above, at time t + t 0, tt 0, t-
しかしながら、時刻t+2t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B212であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+2t0における相関情報E2(u2,v2)の値が最小になるのは、位置(u2,v2)が(0,0)のときであって欲しいが、相関情報E2(u2,v2)の値は、位置(u2,v2)が(0,0)のときに最小になるとは限らない。即ち、相関情報E2(u2,v2)の値は、(0,0)とは限らないある位置(u2,v2)において最小になり、さらに、その値は、ある程度大きな値となる。 However, in the image data at time t + 2t 0, a region corresponding to the block of interest B 14 is originally, but it should be region B 212 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. For this reason, the value of the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is minimized when the position (u 2 , v 2 ) is (0,0). The value of the correlation information E 2 (u 2 , v 2 ) is not always the minimum when the position (u 2 , v 2 ) is (0,0). That is, the value of the correlation information E 2 (u 2 , v 2 ) is minimum at a certain position (u 2 , v 2 ) that is not necessarily (0,0). Become.
さらに、時刻t+3t0における画像データにおいて、注目ブロックB14と対応する領域は、本来は、注目ブロックB14と同一位置の領域B312であるはずであるが、動いている被写体P6902の後ろに隠れてしまっており、存在しない。このため、時刻t+3t0における相関情報E3(u3,v3)の値が最小になるのは、位置(u3,v3)が(0,0)のときであって欲しいが、相関情報E3(u3,v3)の値は、位置(u3,v3)が(0,0)のときに最小になるとは限らない。即ち、相関情報E3(u3,v3)の値は、(0,0)とは限らないある位置(u3,v3)において最小になり、さらに、その値は、ある程度大きな値となる。 Further, in the image data at time t + 3t 0, a region corresponding to the block of interest B 14 is originally but should a region B 312 of the block of interest B 14 at the same position, moving the subject P 6902 are It is hidden behind and does not exist. Therefore, the value of the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is minimized when the position (u 3 , v 3 ) is (0,0). The value of the correlation information E 3 (u 3 , v 3 ) is not always the minimum when the position (u 3 , v 3 ) is (0,0). That is, the value of the correlation information E 3 (u 3 , v 3 ) is minimum at a certain position (u 3 , v 3 ) that is not necessarily (0,0). Become.
この場合、図74のステップS158において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、(0,0)とは限らないある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)は(0,0)とは限らないある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)は、(0,0)とは限らないある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)をも用いて求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)は、(0,0)とは限らないある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。 In this case, in step S158 of FIG. 74, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. For the resultant correlation function E (p, q), the position (p 33 , q 33 ) giving the minimum value E 33 is not necessarily (0,0), and the minimum value E 33 is offset. It becomes considerably to a value greater than the value L 33. Similarly, in step S160 in FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also used. The position (p 23 , q 23 ) that gives the minimum value E 23 is also a position that is not necessarily (0,0), and the minimum value E 23 is an offset value. It becomes a much larger value than L 23. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 13 , q 13 ) giving the minimum value E 13 is not always (0,0), and the minimum value E 13 is an offset value. It becomes a much larger value than L 13. Further, in step S164 of FIG. 75, the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are also obtained. Also for the composite correlation function E (p, q), the position (p 03 , q 03 ) giving the minimum value E 03 is not always (0,0), and the minimum value E 03 is an offset value. It is considerably larger than L 03 .
また、図76のステップS166において、時刻t+3t0における相関情報E3(u3,v3)は用いられないが、時刻t+2t0における相関情報E2(u2,v2)を用いて求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)は、(0,0)とは限らないある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。 In step S166 of FIG. 76, the correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is not used, but the correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 is used. The position (p 32 , q 32 ) that gives the minimum value E 32 of the composite correlation function E (p, q) obtained by using the position is not always (0,0), and the minimum value E 32 becomes considerably larger than the offset value L 32.
一方、図76のステップS168において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)については、その最小値E31を与える位置(p31,q31)は(0,0)となり、最小値E31は、ほぼオフセット値L31に等しくなる。同様に、図76のステップS170において、時刻t+2t0における相関情報E2(u2,v2)および時刻t+3t0における相関情報E3(u3,v3)のいずれも用いられずに求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)は(0,0)となり、最小値E30は、ほぼオフセット値L30に等しくなる。 On the other hand, in step S168 in FIG. 76, neither correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 nor correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 is used. The position (p 31 , q 31 ) giving the minimum value E 31 is (0,0), and the minimum value E 31 is almost equal to the offset value L 31 . Will be equal. Similarly, in step S170 of FIG. 76, both correlation information E 2 (u 2 , v 2 ) at time t + 2t 0 and correlation information E 3 (u 3 , v 3 ) at time t + 3t 0 are used. The position (p 30 , q 30 ) that gives the minimum value E 30 is (0, 0), and the minimum value E 30 is almost equal to the offset value L 30. Is equal to
オフセット値L31,L30は、上述したことから、式L31≦L30を満たすので、注目ブロックB14については、図77のステップS172において、基本的に、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出され、平均動きベクトル(p0,q0)として(0,0)が求められる。さらに、ステップS172では、3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が求められ、カーネルサイズ(h,k)として(3,1)が求められる。 Since the offset values L 31 and L 30 satisfy the expression L 31 ≦ L 30 from the above description, the block B 14 of interest is basically the minimum that substantially becomes the offset value L 31 in step S172 of FIG. The value E 31 is detected as the smallest of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 , and ( 0 as the average motion vector (p 0 , q 0 )) , 0) is required. Further, in step S172, (0,0, t 0 ) is obtained as the three-dimensional motion vector (p 0 , q 0 , t 0 ), and (3,1) is obtained as the kernel size (h, k). .
さらに、オフセット値L31は、上述したように、ステップS173における閾値εより小さいので、ほぼオフセット値L31となる最小値E31が、最小値E33,E23,E13,E03,E32,E31,E30の中で最小のものとして検出される注目ブロックB14については、図77のステップS174において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(0,0,t0)が得られるとともに、カーネルサイズ(h,k)として(3,1)が得られる。 Further, the offset value L 31, as described above, since less than the threshold value ε in step S173, the minimum value E 31, which is substantially offset value L 31 is the minimum value E 33, E 23, E 13 , E 03, E For the target block B 14 detected as the smallest of 32 , E 31 , and E 30 , in step S174 of FIG. 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) serving as filter information is obtained. (0,0, t 0 ) is obtained, and (3,1) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻t-3t0からt+t0の間は、注目ブロックB14は、(0,0,t0)という速度で移動しているということを示している。 This is because the target block B 14 moves at a speed of (0,0, t 0 ) from time t-ht 0 to t + kt 0 , that is, from time t-3t 0 to t + t 0. It shows that there is.
次に、例えば、図71に示した動画データにおいて、ブロックB9が注目ブロックである場合には、上述したように、注目ブロックB9では、静止している被写体P6901のある位置において、動いている被写体P6902が、静止している被写体P6901を隠した状態となっているため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データのいずれにも、注目ブロックB9と対応する領域は存在しない。 Next, for example, in the moving image data shown in FIG. 71, when the block B 9 is the target block, as described above, the target block B 9 moves at a position where the subject P 6901 is stationary. Since the stationary subject P 6902 hides the stationary subject P 6901 , the time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t−2t 0 , t− There is no region corresponding to the target block B 9 in any of the image data at 3t 0 .
このため、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における相関情報E1(u1,v1),E2(u2,v2),E3(u3,v3),F1(r1,s1),F2(r2,s2),F3(r3,s3)の値は、時刻t+t0,t+2t0,t+3t0,t-t0,t-2t0,t-3t0における画像データの、注目ブロックB9と最も類似する位置(u1,v1),(u2,v2),(u3,v3),(r1,s1),(r2,s2),(r3,s3)で、それぞれ最小となるが、その値は、ある程度大きな値となる。 Therefore, the correlation information E 1 (u 1 , v 1 ), E 2 (u 2 , t at time t + t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 v 2 ), E 3 (u 3 , v 3 ), F 1 (r 1 , s 1 ), F 2 (r 2 , s 2 ), F 3 (r 3 , s 3 ) The position (u 1 , v 1 ), (u 2 ) of the image data at t 0 , t + 2t 0 , t + 3t 0 , tt 0 , t-2t 0 , t-3t 0 that is most similar to the target block B 9 , v 2 ), (u 3 , v 3 ), (r 1 , s 1 ), (r 2 , s 2 ), (r 3 , s 3 ) are the smallest, but the value is somewhat large Value.
この場合、図74のステップS158において求められる合成相関関数E(p,q)については、その最小値E33を与える位置(p33,q33)は、ある位置となり、最小値E33は、オフセット値L33よりかなり大きな値になる。同様に、図75のステップS160において求められる合成相関関数E(p,q)についても、その最小値E23を与える位置(p23,q23)はある位置となり、最小値E23は、オフセット値L23よりかなり大きな値となる。また、図75のステップS162において求められる合成相関関数E(p,q)についても、その最小値E13を与える位置(p13,q13)はある位置となり、最小値E13は、オフセット値L13よりかなり大きな値となる。さらに、図75のステップS164において求められる合成相関関数E(p,q)についても、その最小値E03を与える位置(p03,q03)はある位置となり、最小値E03は、オフセット値L03よりかなり大きな値となる。また、図76のステップS166において求められる合成相関関数E(p,q)についても、その最小値E32を与える位置(p32,q32)はある位置となり、最小値E32は、オフセット値L32よりかなり大きな値になる。さらに、図76のステップS168において求められる合成相関関数E(p,q)についても、その最小値E31を与える位置(p31,q31)はある位置となり、最小値E31は、オフセット値L31よりかなり大きな値になる。また、図76のステップS170において求められる合成相関関数E(p,q)についても、その最小値E30を与える位置(p30,q30)はある位置となり、最小値E30は、オフセット値L30よりかなり大きな値になる。 In this case, for the combined correlation function E (p, q) obtained in step S158 of FIG. 74, the position (p 33 , q 33 ) giving the minimum value E 33 is a certain position, and the minimum value E 33 is It becomes considerably larger than the offset value L 33. Similarly, for the combined correlation function E (p, q) obtained in step S160 of FIG. 75, the position (p 23 , q 23 ) giving the minimum value E 23 is a certain position, and the minimum value E 23 is an offset. It becomes a much larger value than the value L 23. Also, with respect to the composite correlation function E (p, q) obtained in step S162 in FIG. 75, the position (p 13 , q 13 ) giving the minimum value E 13 is a certain position, and the minimum value E 13 is the offset value. It becomes a much larger value than L 13. Further, with respect to the composite correlation function E (p, q) obtained in step S164 of FIG. 75, the position (p 03 , q 03 ) giving the minimum value E 03 is a certain position, and the minimum value E 03 is an offset value. It is considerably larger than L 03 . Also, for the combined correlation function E (p, q) obtained in step S166 of FIG. 76, the position (p 32 , q 32 ) giving the minimum value E 32 is a certain position, and the minimum value E 32 is the offset value. It becomes considerably to a value greater than L 32. Further, with respect to the composite correlation function E (p, q) obtained in step S168 in FIG. 76, the position (p 31 , q 31 ) that gives the minimum value E 31 is a certain position, and the minimum value E 31 Much larger than L 31 . Also, with respect to the composite correlation function E (p, q) obtained in step S170 of FIG. 76, the position (p 30 , q 30 ) that gives the minimum value E 30 is a certain position, and the minimum value E 30 It becomes considerably to a value greater than L 30.
従って、最小値E33,E23,E13,E03,E32,E31,E30は、いずれもかなり大きな値となり、図77のステップS172において、その中のいずれが最小のものとして選択されたとしても、ステップS173における閾値εより大きくなり(以上となり)、注目ブロックB9については、図77のステップS175において、フィルタ情報となる3次元の動きベクトル(p0,q0,t0)として(p0',q0',t0)が得られるとともに、カーネルサイズ(h,k)として(0,0)が得られる。 Accordingly, the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , and E 30 are all large values, and any of them is selected as the minimum in step S172 of FIG. even if they are, larger than the threshold ε in step S173 (it becomes higher), for the block of interest B 9, in step S175 of FIG. 77, three-dimensional motion vectors, which are filter information (p 0, q 0, t 0 ) Is obtained as (p 0 ′, q 0 ′, t 0 ), and (0,0) is obtained as the kernel size (h, k).
これは、時刻t-ht0からt+kt0、つまり、時刻tのタイミングだけにおいて、注目ブロックB9は、(p0',q0',t0)という速度で移動しているということを示している。換言すれば、カーネルサイズ(h,k)が(0,0)ということは、注目ブロックB9に対応する領域が、他のどの時刻における画像データ内にも存在しないということである。 This means that the target block B 9 is moving at a speed of (p 0 ′, q 0 ′, t 0 ) only from time t-ht 0 to t + kt 0 , that is, at the timing of time t. Is shown. In other words, the kernel size (h, k) being (0, 0) means that the area corresponding to the target block B 9 does not exist in the image data at any other time.
なお、(p0',q0')は、最小値E33,E23,E13,E03,E32,E31,E30のうちの最小のものを与える位置(p,q)を表す。また、カーネルサイズ(h,k)が(0,0)のときの(p,q)はダミーデータであり、使用されることはない。 Note that (p 0 ', q 0 ') is a position (p, q) that gives the smallest one of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30. To express. Further, (p, q) when the kernel size (h, k) is (0,0) is dummy data and is not used.
以上のように、図73乃至図77に示したフローチャートにしたがった処理によれば、注目ブロックについて、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が求められ、これにより、注目ブロックについて、「時刻t-ht0からt+kt0の間は、注目ブロックは(p0,q0,t0)という速度で移動している」という結果を得ることが出来る。 As described above, according to the processing according to the flowcharts shown in FIGS. 73 to 77, the three-dimensional motion vector (p 0 , q 0 , t 0 ) as the filter information and the kernel size ( h, k) is obtained, and as a result, for the block of interest, the block of interest is moving at a speed of (p 0 , q 0 , t 0 ) from time t-ht 0 to t + kt 0 Can be obtained.
なお、オフセット値L33,L23,L13,L03,L32,L31,L30が、式L33≦L32≦L31≦L30、かつ、式L33≦L23≦L13≦L03を満たすことにより、基本的には、図77のステップS172において、最小値E33,E23,E13,E03,E32,E31,E30のうちの、hやkの大きい最小値Ehkが選択されやすくなる。これにより、動画データにノイズが含まれ、注目ブロックと、他のフレームの注目ブロックに対応する領域との間に、多少の画素値の違いがあっても、注目ブロックが(p0,q0,t0)という速度で移動しているという範囲(時間)を、過小評価してしまうことを防止することができる。 The offset values L 33 , L 23 , L 13 , L 03 , L 32 , L 31 , and L 30 are the expressions L 33 ≦ L 32 ≦ L 31 ≦ L 30 and the expressions L 33 ≦ L 23 ≦ L 13. By satisfying ≦ L 03 , basically, in step S 172 of FIG. 77, h or k of the minimum values E 33 , E 23 , E 13 , E 03 , E 32 , E 31 , E 30 A large minimum value E hk is easily selected. As a result, even if there is a slight difference in pixel values between the block of interest and the region corresponding to the block of interest in another frame, the block of interest will be (p 0 , q 0 , t 0 ) can be prevented from underestimating the range (time) of moving at a speed of (t 0 ).
次に、図25の主成分方向取得部31が図72に示したように構成されるフィルタ生成部23が、図73乃至図77にしたがった処理を行うことにより、フィルタ生成部23(のフィルタ情報供給部32)からフィルタ部22に対して、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)が供給される場合、フィルタ部22では、図78に示すフローチャートにしたがった処理が、図26のステップS3の処理として行われる。
Next, the filter generation unit 23 in which the principal component
即ち、ステップS191において、フィルタ部22は、フィルタ情報供給部32からフィルタ情報として供給される3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)を受信することにより取得し、ステップS192に進む。
That is, in step S191, the
ステップS192では、フィルタ部22は、時刻tのフレームの注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)を、例えば、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)のうちの、カーネルサイズ(h,k)に応じた時刻(フレーム)の範囲の画素値を用いた演算により求めるフィルタリングを行う。なお、D(t,x,y)は、フィルタリングに用いる動画データの時刻tの位置(x,y)における画素値を表す。
In step S192, the
即ち、ステップS192では、フィルタ部22は、フィルタリング、つまり、注目ブロック内の位置(x,y)における画素の画素値C(t,x,y)の演算を、カーネルサイズ(h,k)によって表される、動きベクトル(p0,q0,t0)の有効範囲内のフレームの画素値のみを用いて行う。
That is, in step S192, the
具体的には、ステップS192では、フィルタ部22は、カーネルサイズ(h,k)が(3,3)である場合、時刻t-3t0乃至t+3t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(1)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。この場合、図68のステップS132における場合と同様にして、注目ブロックの主成分方向に延びる、T方向の幅が2π/(4t0)の領域を通過帯域とするフィルタによるフィルタリングが行われる。
Specifically, in step S192, when the kernel size (h, k) is (3, 3), the
また、フィルタ部22は、カーネルサイズ(h,k)が(2,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)は用いずに、時刻t-2t0乃至t+3t0における画素の画素値D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(2)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
In addition, when the kernel size (h, k) is (2,3), the
さらに、フィルタ部22は、カーネルサイズ(h,k)が(1,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、および時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)は用いずに、時刻t-t0乃至t+3t0における画素の画素値D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(3)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
Further, when the kernel size (h, k) is (1,3), the
また、フィルタ部22は、カーネルサイズ(h,k)が(0,3)である場合、時刻t-3t0における画素の画素値D(t-3t0,x-3p0,y-3q0)、時刻t-2t0における画素の画素値D(t-2t0,x-2p0,y-2q0)、および時刻t-t0における画素の画素値D(t-t0,x-p0,y-q0)は用いずに、時刻t乃至t+3t0における画素の画素値D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0),D(t+3t0,x+3p0,y+3q0)を用い、例えば、式(4)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
In addition, when the kernel size (h, k) is (0,3), the
同様に、フィルタ部22は、カーネルサイズ(h,k)が(3,2)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)は用いずに、時刻t-3t0乃至t+2t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0),D(t+2t0,x+2p0,y+2q0)を用い、例えば、式(5)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
Similarly, when the kernel size (h, k) is (3, 2), the
さらに、フィルタ部22は、カーネルサイズ(h,k)が(3,1)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、および時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)は用いずに、時刻t-3t0乃至t+t0における画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y),D(t+t0,x+p0,y+q0)を用い、例えば、式(6)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
Further, when the kernel size (h, k) is (3, 1), the
また、フィルタ部22は、カーネルサイズ(h,k)が(3,0)である場合、時刻t+3t0における画素の画素値D(t+3t0,x+3p0,y+3q0)、時刻t+2t0における画素の画素値D(t+2t0,x+2p0,y+2q0)、および時刻t+t0における画素の画素値D(t+t0,x+p0,y+q0)は用いずに、時刻t-3t0乃至tにおける画素の画素値D(t-3t0,x-3p0,y-3q0),D(t-2t0,x-2p0,y-2q0),D(t-t0,x-p0,y-q0),D(t,x,y)を用い、例えば、式(7)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。
In addition, when the kernel size (h, k) is (3,0), the
一方、カーネルサイズ(h,k)が(0,0)である場合は、注目ブロックと同一の(画像の)領域(注目ブロックに対応する領域)が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合であり、この場合、時間方向のフィルタリングは、画質の劣化をもたらすので、注目ブロックのフレーム(注目フレーム)、即ち、時刻tにおける画素の画素値D(t,x,y)のみを用い、例えば、式(8)にしたがって、注目ブロックの画素値C(t,x,y)の演算を行う。なお、式(8)は、フィルタリングを行わないことと等価である。 On the other hand, when the kernel size (h, k) is (0,0), the same area (image area) as the target block (area corresponding to the target block) is set to other times t-3t 0 , t- 2t 0 , tt 0 , t + t 0 , t + 2t 0 , and t + 3t 0 are not present in this case. In this case, temporal filtering results in degradation of image quality. (Frame of interest), that is, using only the pixel value D (t, x, y) of the pixel at time t, for example, the pixel value C (t, x, y) of the block of interest is calculated according to equation (8). Do. Equation (8) is equivalent to not performing filtering.
ここで、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合としては、例えば、注目ブロック内に投影されている被写体の移動速度が、人間が認識することができないほど高速である場合や、注目ブロック内に投影されている被写体が、時刻tのフレーム(注目フレーム)にだけ突然現れた場合などがある。 Here, as a case where the region corresponding to the block of interest does not exist in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 , For example, when the moving speed of the subject projected in the block of interest is so high that humans cannot recognize it, or the subject projected in the block of interest is in the frame at time t (frame of interest). There are cases where it only appears suddenly.
また、相関情報や合成相関情報の最小値を求めることは、いわゆるブロックマッチングにより動きベクトルを検出することに相当するが、注目ブロック内に投影されている被写体が、ブロックマッチングにおける探索範囲を超えて移動してしまっている場合も、注目ブロックに対応する領域が、他の時刻t-3t0,t-2t0,t-t0,t+t0,t+2t0,t+3t0の画像に存在しない場合に該当する。 Finding the minimum value of correlation information or composite correlation information is equivalent to detecting a motion vector by so-called block matching, but the subject projected in the target block exceeds the search range in block matching. Even if it has moved, the area corresponding to the block of interest is displayed in the images at other times t-3t 0 , t-2t 0 , tt 0 , t + t 0 , t + 2t 0 , t + 3t 0 . Applicable when it does not exist.
なお、ステップS192において、画素値C(t,x,y)の演算としてのフィルタリングは、時間方向のサンプル数を1/4に間引くダウンサンプリングを行いながら、即ち、4フレームごとに1フレームの割合で行われる。 In step S192, the filtering as the calculation of the pixel value C (t, x, y) is performed while down-sampling that thins out the number of samples in the time direction to 1/4, that is, the ratio of one frame every four frames. Done in
ステップS192の処理後は、ステップS193に進み、フィルタ部22は、フィルタリング結果、即ち、ステップS192におけるフィルタリング結果(式(1)乃至(8)のうちのいずれかの演算結果)である画素値C(t,x,y)を、時刻tの位置(x,y)における画素値として、エンコード部24に出力する。
After the process of step S192, the process proceeds to step S193, and the
以上のように、第2の動き検出処理(図73乃至図77のステップS151乃至S176の処理のうちの、ステップS151乃至S172の処理)では、第1の動き検出処理と同様に、フィルタの通過帯域のT方向の幅である2π/(4t0)に相当する複数のフレームそれぞれとの相関を表す複数の相関情報を用いることによって、注目ブロックから複数のフレームへの、いわば平均的な動きを表す平均動きベクトルを求めるが、その際に、注目ブロックに対応する領域が存在しないフレームについての相関情報を用いないようにしたので、注目ブロックの平均的な動きを正確に表す平均動きベクトルを求めることができ、さらに、注目ブロックについて、正確な主成分方向を求めることができる。 As described above, in the second motion detection process (the processes in steps S151 to S172 of the processes in steps S151 to S176 in FIGS. 73 to 77), the filter passes as in the first motion detection process. By using multiple pieces of correlation information representing the correlation with each of multiple frames corresponding to the width in the T direction of the band, 2π / (4t 0 ), the average movement from the target block to multiple frames can be said. The average motion vector that represents the average motion of the target block is calculated because the correlation information is not used for the frame in which the region corresponding to the target block does not exist. Furthermore, an accurate principal component direction can be obtained for the block of interest.
また、第2の動き検出処理では、カーネルサイズ(h,k)を出力し、フィルタ部22でのフィルタリングにおいては、そのカーネルサイズ(h,k)に対応した範囲のフレームの画素だけを用いるようにしたので、即ち、注目ブロックに対応する領域が存在しないフレームの画素を用いないようにしたので、人間の視覚で認識することができる周波数成分のみの適切なデータを得ることができる。
In the second motion detection process, the kernel size (h, k) is output, and only the pixels of the frame in the range corresponding to the kernel size (h, k) are used for filtering in the
次に、例えば、図25に示した送信装置1では、上述したように、フレームレート1/t0の動画データを対象に、人間の視覚特性を考慮した必要な情報のみを残すフィルタリングを行うとともに、ダウンサンプリングを行うことで、データ量を削減することができる。
Next, for example, in the
さらに、図33に示した受信装置2では、送信装置1が出力するフレームレート1/(4t0)の動画データを対象に、フィルタリングとアップサンプリングを行うことで、理想的には、人間が画質の劣化を感じないフレームレート1/t0の動画データを得ることができる。
Furthermore, in the receiving
ところで、受信装置2では、フレームレート1/(4t0)の動画データをアップサンプリングすることによって、その動画データの2つのフレームの間に、3フレームが補間され、これにより、フレームレート1/t0の動画データが得られる。このアップサンプリングにより補間されるフレーム(以下、適宜、補間フレームという)の画像データは、フレームレート1/(4t0)の動画データのみから求められるため、実際には、多少の画質の劣化が生じることがある。
By the way, in the receiving
そこで、送信装置1では、フレームレート1/(4t0)の動画データの他に、その動画データの2つのフレームの間に補間される補間フレームの画質の劣化を補う、いわば補足データを得て出力するようにすることができる。
Therefore, in the
図79は、フレームレート1/t0の動画データから、フレームレート1/(4t0)の動画データと、補足データとを得て出力する図24の送信装置1の構成例を示している。
Figure 79 is the video data of the
なお、以下においては、フレーム周期t0を、例えば、1/240秒とする。この場合、送信装置1に供給(入力)されるフレームレート1/t0の動画データは、フレームレートが240fpsの動画データである。また、フレームレートが240fpsの動画データなどを、以下、適宜、240fps動画データなどと記載する。
In the following, the frame period t 0 is, for example, 1/240 seconds. In this case, the moving image data with the
図79の送信装置1において、入力端子211には、240fps動画データが入力される。入力端子211は、帯域制限フィルタ部212に接続されており、入力端子211に入力された240fps動画データは、帯域制限フィルタ部212に供給される。
In the
帯域制限フィルタ部212は、例えば、図25に示したバッファ部21、フィルタ部22、およびフィルタ生成部23で構成されている。帯域制限フィルタ部212では、入力端子211からの240fps動画データを対象に、上述したような人間の視覚特性を考慮した必要な情報のみを残すフィルタリングが行われる。但し、帯域制限フィルタ部212を構成するフィルタ部22(図25)では、1/4のダウンサンプリングは行われない。従って、帯域制限フィルタ部212から出力される動画データは、240fps動画データのフレームレートが1/4になったフレームレート1/(4t0)の動画データ(60fps動画データ)ではなく、240fps動画データである。
The band limiting
なお、帯域制限フィルタ部212を構成するフィルタ生成部23(図25)の主成分方向取得部31は、例えば、図72に示したように構成することができる。この場合、フィルタ生成部23では、図73乃至図77で説明した処理が行われ、帯域制限フィルタ部212を構成するフィルタ部22(図25)に対して、フィルタ情報としての3次元の動きベクトル(p0,q0,t0)と、カーネルサイズ(h,k)とが出力される(図77のステップS176)。そして、帯域制限フィルタ部212を構成するフィルタ部22では、図78で説明したように、カーネルサイズ(h,k)に応じたフィルタリングが行われる。但し、帯域制限フィルタ部212を構成するフィルタ部22では、上述したように、ダウンサンプリングは行われない。即ち、240fps動画データの4フレームごとに1フレームのフィルタリングが行われるのではなく、240fps動画データの各フレーム(の各画素)についてフィルタリングが行われる。
Note that the principal component
ここで、帯域制限フィルタ部212での処理は、入力端子211からの240fps動画データから、人間には認識することができない周波数成分を除去するものであり、いわば240fps動画データを圧縮するための前段階の処理(プリプロセス)と考えることも出来る。帯域制限フィルタ部212は、図79の送信装置1において必須のブロックというわけではなく、従って、図79の送信装置1は、帯域制限フィルタ部212を設けずに構成することができる。この場合、入力端子211からの240fps動画データは、帯域制限フィルタ部212の後段に設けられている分離回路213に対して、直接入力される。
Here, the processing in the band limiting
図79では、帯域制限フィルタ部212が出力する240fps動画データは、その後段の分離回路213に供給される。
In FIG. 79, the 240 fps moving image data output from the band limiting
分離回路213は、帯域制限フィルタ部212からの240fps動画データ(第1の動画データ)を、その240fps動画データのフレームレートよりも低いフレームレートの、例えば、60fps動画データ(第2の動画データ)と、240fps動画データから60fps動画データを除いた残りの動画データ(第3の動画データ)とに分離する。即ち、分離回路213は、帯域制限フィルタ部212からの240fps動画データの4フレームごとに1フレームを選択することで、その240fps動画データから、60fps動画データを分離する。つまり、分離回路213は、図25のフィルタ部22における1/4のダウンサンプリングの結果得られるのと同様の60fps動画データを得る。さらに、分離回路213は、帯域制限フィルタ部212からの240fps動画データから、60fps動画データを分離した残りの動画データを得る。
The
ここで、240fps動画データから、60fps動画データを分離した残りの動画データを、以下、適宜、240-60fps動画データという。 Here, the remaining moving image data obtained by separating 60 fps moving image data from 240 fps moving image data is hereinafter referred to as 240-60 fps moving image data as appropriate.
分離回路213において得られた60fps動画データは、圧縮回路214に供給される。また、分離回路213において得られた240-60fps動画データは、圧縮の対象の画像としてのターゲット(target)画像として、差分情報抽出部217に供給される。
The 60 fps moving image data obtained in the
圧縮回路214は、分離回路213から供給される60fps動画データを、例えば、MPEGなどの既知のエンコード方法、その他の任意のエンコード方法によりエンコード(圧縮)し、その結果得られるビットストリームを出力する。このビットストリームは、解凍回路216と出力端子215に供給され、これにより、出力端子215からは、60fps動画データのエンコード(圧縮)結果としてのビットストリームが出力される。ここで、圧縮回路214は、図25のエンコード部24に相当し、従って、圧縮回路214が出力するビットストリームは、エンコードデータに相当する。
The
解凍回路216は、圧縮回路214からのビットストリームをデコード(解凍)(伸張)し、即ち、ローカルデコードし、そのローカルデコードの結果得られる60fps動画データを、ターゲット画像の圧縮にあたって参照するリファレンス(reference)画像として、差分情報抽出部217に供給する。
The
なお、圧縮回路214が、例えば、MPEGエンコードなどの、データのエンコードにあたってローカルデコードを行うエンコード方法によるエンコードを行う場合には、圧縮回路214において行われるローカルデコードの結果得られる60fps動画データを、リファレンス画像として、圧縮回路214から差分情報抽出部217に供給するようにすることができる。この場合、解凍回路216は、設ける必要がない。
When the
差分情報抽出部217は、分離回路213からのターゲット画像である240-60fps動画データを、解凍回路216からのリファレンス画像である60fps動画データを用いて圧縮し、その圧縮によって得られるデータ(以下、適宜、差分圧縮データという)を、出力端子218に供給する。即ち、差分情報抽出部217は、リファレンス画像から、ターゲット画像の推測値を求め、その推測値を用いて、ターゲット画像を圧縮する。具体的には、差分情報抽出部217は、ターゲット画像と、その推測値との差分をとることで、ターゲット画像を圧縮する。そして、ターゲット画像とその推測値との差分をとることで、ターゲット画像を圧縮することにより得られるデータである差分圧縮データは、差分情報抽出部217から出力端子218に供給される。これにより、出力端子218からは、240-60fps動画データの圧縮結果としての差分圧縮データが出力される。
The difference
ここで、以上のように、図79の送信装置1では、60fps動画データのエンコード(圧縮)結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが、出力端子215と218とから、独立に出力される。ビットストリームと差分圧縮データとは、そのまま別々に、あるいは、多重化され、図24の記録媒体11に記録され、あるいは、伝送媒体12を介して伝送される。
Here, as described above, in the
なお、出力端子218から出力される、240-60fps動画データの圧縮結果としての差分圧縮データが、上述した補間フレームの画質の劣化を補う補足データである。
The differentially compressed data output from the
次に、図80は、分離回路213に入力される240fps動画データと、分離回路213から出力される60fps動画データ、および240-60fps動画データを示している。なお、図80において、横軸は時間を表している。
Next, FIG. 80
図80の一番上のフレームf1,f2,・・・,f13は、図79の分離回路213に入力される240fps動画データを示している。240fps動画データにおいて、あるフレームfiと次のフレームfi+1との時間間隔は、1/240秒である(iは整数)。
The top frames f 1 , f 2 ,..., F 13 in FIG. 80 show 240 fps moving image data input to the
なお、フレームf1の前と、フレームf13の後にも、フレームは続くが、図80では、図示を省略してある。 Although the frame continues before the frame f 1 and after the frame f 13 , the illustration is omitted in FIG.
図79の分離回路213は、図80の一番上に示した240fps動画データを、図80の上から2番目に示す60fps動画データと、図80の一番下に示す240-60fps動画データとに分離する。
The
即ち、分離回路213は、240fps動画データの4フレームf4i+1,f4i+2,f4i+3,f4i+4ごとの、例えば、1フレームf4i+1を選択することにより、図80の上から2番目に示すようなフレーム・・・,f1,f5,f9,f13,・・・からなる60fps動画データを得る。
That is, the
また、分離回路213は、240fps動画データから、60fps動画データを除いた残りの、図80の一番下に示すようなフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・からなる240-60fps動画データを得る。
Further, the
60fps動画データにおいては、あるフレームと次のフレームとの時間間隔は、1/60秒である。また、240-60fps動画データは、1秒あたりのフレーム数が、240-60=180フレームの動画データである。 In 60 fps video data, the time interval between one frame and the next is 1/60 second. Further, 240-60fps moving image data is moving image data with 240-60 = 180 frames per second.
図79の差分情報抽出部217には、図80の上から2番目に示す60fps動画データがリファレンス画像として供給されるとともに、図80の一番下に示す240-60fps動画データがターゲット画像として供給される。差分情報抽出部217では、ターゲット画像である240-60fps動画データのフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・(の画像データ)が、リファレンス画像である60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・(の画像データ)を用いて圧縮される。
The second 60 fps moving image data from the top of FIG. 80 is supplied as a reference image to the difference
なお、図79の圧縮回路214において、分離回路213からの60fps動画データに対して、完全に可逆のエンコードが行われる場合には、分離回路213で得られる60fps動画データと、解凍回路216から差分情報抽出部217に供給されるリファレンス画像としての60fps動画データとは一致する。しかしながら、圧縮回路214において、分離回路213からの60fps動画データに対して行われるエンコードが完全に可逆でない場合には、分離回路213で得られる60fps動画データと、解凍回路216から差分情報抽出部217に供給されるリファレンス画像としての60fps動画データとには、厳密には違いがある。但し、ここでは、その違いを問題とする必要はないので、以下では、分離回路213で得られる60fps動画データと、解凍回路216から差分情報抽出部217に供給される60fps動画データとは、一致するものとして説明を行う。即ち、厳密には、・・・,f1,f5,f9,f13,・・・(の画像データ)に対してエンコード(図79の圧縮回路214によるエンコード)とデコード(解凍回路216によるデコード)を行ったものが、リファレンス画像である。しかし、ここでは、単に、リファレンス画像は図80の上から2番目に示す60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・(の画像データ)であるとして説明を行う。
In the
次に、図81は、図79の差分情報抽出部217の構成例を示している。
Next, FIG. 81 shows a configuration example of the difference
差分情報抽出部217は、大きく分けて、ターゲット記憶部221、リファレンス記憶部222、およびデータ処理部223から構成されている。
The difference
ターゲット記憶部221には、分離回路213(図79)からターゲット画像としての240-60fps動画データが供給される。ターゲット記憶部221は、分離回路213からのターゲット画像としての240-60fps動画データを一時記憶する。
The
ターゲット記憶部221に記憶されたターゲット画像の各フレーム(の画像データ)は、ブロック分割される。そして、そのブロック分割によって得られる各ブロックが、順次、注目ブロックとされ、その注目ブロック(の画像データ)は、ターゲット記憶部221から読み出され、入力端子233からデータ処理部223に入力される。なお、ブロックのサイズは、例えば、上述した場合と同様に、16×16画素などを採用することができる。また、ブロックを構成する画素数は、複数画素であってもよいし、1画素であってもよい。
Each frame (image data) of the target image stored in the
リファレンス記憶部222には、解凍回路216(図79)からリファレンス画像としての60fps動画データが供給される。リファレンス記憶部222は、解凍回路216からのリファレンス画像としての60fps動画データを一時記憶する。
The
リファレンス記憶部222に記憶されたリファレンス画像のフレームのうちの、注目ブロックのフレームの直前のフレーム(の画像データ)は、パストリファレンス(past reference)画像として読み出され、入力端子231からデータ処理部223に入力される。また、リファレンス記憶部222に記憶されたリファレンス画像のフレームのうちの、注目ブロックのフレームの直後のフレーム(の画像データ)は、フューチャリファレンス(future reference)画像として読み出され、入力端子232からデータ処理部223に入力される。
Of the frames of the reference image stored in the
ここで、ターゲット記憶部221には、図80の一番下に示したターゲット画像である240-60fps動画データのフレームf2,f3,f4,f6,f7,f8,f10,f11,f12等が一時記憶される。また、リファレンス記憶部222には、図80の上から2番目に示したリファレンス画像である60fps動画データのフレームf1,f5,f9,f13等が一時記憶される。
Here, the
そして、例えば、ターゲット記憶部221に記憶されたターゲット画像のフレームf2,f3,f4のうちのいずれかのフレームのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf2,f3,f4の直前と直後のフレームf1とf5が、それぞれパストリファレンス画像とフューチャリファレンス画像として、リファレンス記憶部222から読み出される。
For example, when the block of one of the frames f 2 , f 3 , and f 4 of the target image stored in the
また、例えば、ターゲット記憶部221に記憶されたターゲット画像のフレームf6,f7,f8のうちのいずれかのフレームのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf6,f7,f8の直前と直後のフレームf5とf9が、それぞれパストリファレンス画像とフューチャリファレンス画像として、リファレンス記憶部222から読み出される。
Further, for example, when the block of one of the frames f 6 , f 7 , and f 8 of the target image stored in the
さらに、例えば、ターゲット記憶部221に記憶されたターゲット画像のフレームf10,f11,f12のうちのいずれかのフレームのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf10,f11,f12の直前と直後のフレームf9とf13が、それぞれパストリファレンス画像とフューチャリファレンス画像として、リファレンス記憶部222から読み出される。
Further, for example, when the block of one of the frames f 10 , f 11 , and f 12 of the target image stored in the
データ処理部223は、入力端子231乃至233、6つの差分データ計算部234乃至239、選択回路240、および出力端子241で構成され、入力端子233から入力される注目ブロックを、入力端子231から入力されるパストリファレンス画像、または入力端子232から入力されるフューチャリファレンス画像を用いて圧縮し、その結果得られる差分圧縮データを、出力端子241から、図79の出力端子218に出力する。
The data processing unit 223 includes
即ち、データ処理部223は、ターゲット画像を、ブロック単位で圧縮する。 That is, the data processing unit 223 compresses the target image in units of blocks.
具体的には、データ処理部223において、入力端子231から入力されたパストリファレンス画像は、6つの差分データ計算部234乃至239のうちの、4つの差分データ計算部234乃至237に供給される。また、入力端子232から入力されたフューチャリファレンス画像は、6つの差分データ計算部234乃至239のうちの、4つの差分データ計算部234乃至236、および238に供給される。さらに、入力端子233から入力された注目ブロックは、6つの差分データ計算部234乃至239のすべてに供給される。
Specifically, in the data processing unit 223, the past reference image input from the
差分データ計算部234は、入力端子231からのパストリファレンス画像と、入力端子232からのフューチャリファレンス画像とを用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第1の差分データ(圧縮データ)を、選択回路240に供給する。
The difference
差分データ計算部235も、入力端子231からのパストリファレンス画像と、入力端子232からのフューチャリファレンス画像とを用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第2の差分データ(他の圧縮データ)を、選択回路240に供給する。
The difference
差分データ計算部236も、入力端子231からのパストリファレンス画像と、入力端子232からのフューチャリファレンス画像とを用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第3の差分データを、選択回路240に供給する。
The difference
差分データ計算部237は、入力端子231からのパストリファレンス画像を用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第4の差分データを、選択回路240に供給する。
The difference
差分データ計算部238は、入力端子232からのフューチャリファレンス画像を用い、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第5の差分データを、選択回路240に供給する。
The difference
差分データ計算部239は、入力端子233からの注目ブロックを圧縮し、その圧縮結果としての、後述する第6の差分データを、選択回路240に供給する。
The difference
選択回路240は、6つの差分データ計算部234乃至239からそれぞれ供給される第1乃至第6の差分データの中から、注目ブロックの圧縮結果として最適なものを選択する。ここで、第1乃至第6の差分データのうちの、選択回路240において選択されたものを、以下、適宜、選択差分データという。
The
選択回路240は、選択差分データに、その選択差分データが、第1乃至第6の差分データのうちのいずれであるかを識別するための識別情報としての、後述するケースID(Identification)を付加し、注目ブロックの圧縮結果である差分圧縮データとして、出力端子241から出力する。
The
次に、差分データ計算部234乃至239それぞれにおける注目ブロックの圧縮および復元の方法と、注目ブロックの圧縮により得られる第1乃至第6の差分データについて説明する。
Next, a method of compressing and restoring the target block in each of the difference
図82は、ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 FIG. 82 shows a target image V T , a past reference image V P , and a future reference image V F (frames thereof).
いま、sが、1,2,3のうちのいずれかの値をとる変数であるとして、ターゲット画像VTとフューチャリファレンス画像VFとの時間間隔を、s/240秒と表すと、ターゲット画像VTとパストリファレンス画像VPとの時間間隔は、(4-s)/240秒と表すことができる。
Now, s is as a variable which takes one of three
ここで、ターゲット画像VTが、例えば、図80の一番下に示した240-60fps動画データのフレームf2であるとすると、パストリファレンス画像VPとフューチャリファレンス画像VFは、それぞれ、図80の上から2番目に示した60fps動画データのフレームf1とf5であり、この場合、変数sは3である。 Here, if the target image V T is, for example, the frame f 2 of the 240-60 fps moving image data shown at the bottom of FIG. 80, the past reference image V P and the future reference image V F are respectively shown in FIG. The frames f 1 and f 5 of the 60 fps moving image data shown second from the top of 80 are shown. In this case, the variable s is 3.
また、ターゲット画像VTが、例えば、図80の一番下に示した240-60fps動画データのフレームf3であるとすると、パストリファレンス画像VPとフューチャリファレンス画像VFは、それぞれ、図80の上から2番目に示した60fps動画データのフレームf1とf5であり、この場合、変数sは2である。 Further, if the target image V T is, for example, the frame f 3 of the 240-60 fps moving image data shown at the bottom of FIG. 80, the past reference image V P and the feature reference image V F are respectively shown in FIG. The frames f 1 and f 5 of the 60 fps moving image data shown second from the top, in this case, the variable s is 2.
さらに、ターゲット画像VTが、例えば、図80の一番下に示した240-60fps動画データのフレームf4であるとすると、パストリファレンス画像VPとフューチャリファレンス画像VFは、それぞれ、図80の上から2番目に示した60fps動画データのフレームf1とf5であり、この場合、変数sは1である。他の場合も同様に、変数sは、1,2,3のうちのいずれかである。 Further, assuming that the target image V T is, for example, the frame f 4 of the 240-60 fps moving image data shown at the bottom of FIG. 80, the past reference image V P and the feature reference image V F are respectively shown in FIG. The frames f 1 and f 5 of the 60 fps moving image data shown second from the top are shown. In this case, the variable s is 1. Similarly, in other cases, the variable s is one of 1, 2, and 3.
ターゲット画像VTに対して、上述したパストリファレンス画像VPとフューチャリファレンス画像VFとが存在する場合、ターゲット画像VTの注目ブロックは、そのパストリファレンス画像VPとフューチャリファレンス画像VFを、いわばヒントとして圧縮をすることができ、その圧縮結果の復元も同様に、パストリファレンス画像VPとフューチャリファレンス画像VFをヒントとして行うことができる。 The target image V T, if the Pasto reference image V P described above and Futuresse reference image V F is present, the block of interest of the target image V T is the Past reference image V P and Futuresse reference image V F, so to speak can be compressed as a hint, can be carried out similarly restoration of the compressed result, the Past reference image V P and Futuresse reference image V F as a hint.
即ち、パストリファレンス画像VPにおいて、ターゲット画像VTの注目ブロックの位置(例えば、注目ブロックの左上の位置)から、ベクトルmv8201だけずれた位置の、注目ブロックと同一のサイズの領域R8201が、注目ブロック(の画像データ)と類似している場合、注目ブロックの各画素の画素値(画像データ)と、領域R8201の対応する画素の画素値との差分をとることにより、各画素の画素値の差分は、ほとんど0となることから、注目ブロックの画像データとして、そのほとんど0である差分を採用することにより、注目ブロックの画像データのデータ量を削減、即ち、注目ブロックを圧縮することができる。 That is, in the PAST reference image V P, the position of the target block of the target image V T (e.g., the position of the upper left of the target block) from the position shifted by vector mv 8201, a region R 8201 of the target block and the same size If it is similar to the target block (image data thereof), the difference between the pixel value (image data) of each pixel of the target block and the pixel value of the corresponding pixel in the region R 8201 is obtained. Since the difference between the pixel values is almost 0, by adopting the difference that is almost 0 as the image data of the block of interest, the data amount of the image data of the block of interest is reduced, that is, the block of interest is compressed. be able to.
同様に、フューチャリファレンス画像VFにおいて、ターゲット画像VTの注目ブロックの位置から、ベクトルmv8202だけずれた位置の、注目ブロックと同一のサイズの領域R8202が、注目ブロックと類似している場合には、注目ブロックの各画素の画素値と、領域R8202の対応する画素の画素値との差分をとることにより、各画素の画素値の差分は、ほとんど0となることから、注目ブロックの画像データとして、そのほとんど0である差分を採用することにより、注目ブロックの画像データのデータ量を削減、即ち、注目ブロックを圧縮することができる。 Similarly, in Futuresse reference image V F, when the position of the target block of the target image V T, the position shifted by vector mv 8202, region R 8202 of the target block and the same size, which are similar to the block of interest Since the difference between the pixel value of each pixel of the target block and the pixel value of the corresponding pixel in the region R 8202 is almost zero, the difference between the pixel values of each pixel is almost zero. By adopting a difference that is almost zero as the image data, it is possible to reduce the amount of image data of the block of interest, that is, to compress the block of interest.
差分データ計算部234乃至239(図81)は、基本的には、上述したように、注目ブロックと、パストリファレンス画像VPまたはフューチャリファレンス画像VFとの差分をとる方法により、注目ブロックを圧縮する。
Differential
ここで、以下においては、240fps動画データとして、例えば、図83に示す被写体が投影された動画データを考える。 Here, in the following, as the 240 fps moving image data, for example, moving image data on which a subject shown in FIG. 83 is projected is considered.
なお、図83における横軸は、空間方向の位置x,yを表している。即ち、図83においては、図が煩雑になるのを避けるため、x,yの2つの空間方向を、1軸で表している。後述する図84乃至図93においても同様である。 Note that the horizontal axis in FIG. 83 represents the position x, y in the spatial direction. That is, in FIG. 83, the two spatial directions x and y are represented by one axis in order to avoid making the diagram complicated. The same applies to FIGS. 84 to 93 described later.
図83において、その上側は、背景である被写体P8301の波形を示しており、下側は、前景である被写体P8302の波形を示している。 In FIG. 83, the upper side shows the waveform of the subject P 8301 as the background, and the lower side shows the waveform of the subject P 8302 as the foreground.
図83上側に示した被写体P8301は静止しており、図83下側に示した被写体P8302は、ある空間方向に移動している。 The subject P 8301 shown at the upper side of FIG. 83 is stationary, and the subject P 8302 shown at the lower side of FIG. 83 is moving in a certain spatial direction.
図84は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 FIG. 84 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.
図84においては、例えば、被写体P8302が、ゆっくりと一定速度で移動しており、被写体P8302の動きベクトル、即ち、240fps動画データにおけるフレーム周期である1/240秒あたりの、被写体P8302の空間方向x,yの移動量を表すベクトルが(U,V)であるとする。 In FIG. 84, for example, the subject P 8302 is has moved slowly at a constant speed, the motion vector of the subject P 8302, i.e., per 1/240 second is a frame period in 240fps video data, the subject P 8302 It is assumed that the vector representing the movement amount in the spatial direction x, y is (U, V).
上述したように、パストリファレンス画像VPとターゲット画像VTとの時間間隔は、(4-s)/240秒であり、ターゲット画像VTとフューチャリファレンス画像VFとの時間間隔は、s/240秒である。 As described above, the time interval between a past reference image V P and the target image V T, (4-s) was / 240 seconds, the time interval between the target image V T and Futuresse reference image V F, s / 240 seconds.
そして、被写体P8302が、ゆっくりと一定速度で移動している場合には、ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFのすべてに、被写体P8302が存在し、さらに、パストリファレンス画像VP上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(-(4-s)U,-(4-s)V)だけずれた位置にあり、フューチャリファレンス画像VF上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(sU,sV)だけずれた位置にある。 When the subject P 8302 is slowly moving at a constant speed, the subject P 8302 exists in all of the target image V T , the past reference image V P , and the future reference image V F , and The subject P 8302 on the past reference image V P is at a position shifted from the subject P 8302 on the target image V T by a vector (-(4-s) U,-(4-s) V). subject P 8302 on the image V F from the subject P 8302 on a target image V T, is the position shifted by vector (sU, sV).
従って、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB8401を、注目ブロックとして注目すると、パストリファレンス画像VPにおいて、注目ブロックB8401からベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックB8401と同一サイズの領域R8401の画像データは、(理想的には)注目ブロックB8401と同一になっている。また、フューチャリファレンス画像VFにおいても、注目ブロックB8401からベクトル(sU,sV)だけずれた位置の、注目ブロックB8401と同一サイズの領域R8402の画像データは、(理想的には)注目ブロックB8401と同一になっている。 Accordingly, in the target image V T, for example, a certain block B 8401 including only the subject P 8302, when attention as the subject block, in Past reference image V P, from the target block B 8401 vector (- (4-s) U , The image data of the region R 8401 having the same size as the target block B 8401 at a position shifted by- (4-s) V) is (ideally) the same as the target block B 8401 . Also in Futuresse reference image V F, a vector from the target block B 8401 (sU, sV) of position shifted by the image data of the target block B 8401 same size as the region R 8402 is (ideally) of interest It is the same as block B 8401 .
即ち、パストリファレンス画像VPの領域R8401、注目ブロックB8401、およびフューチャリファレンス画像VFの領域R8402の画像データは、(理想的には)同一になっている。 That is, the image data of Pasto reference image V P of region R 8401, the block of interest B 8401, and the region R 8402 of Futuresse reference image V F is made the same (ideally).
差分データ計算部234(図81)では、以上のような図84に示した場合に適した第1の差分データが求められる。 The difference data calculation unit 234 (FIG. 81) obtains first difference data suitable for the case shown in FIG. 84 as described above.
即ち、差分データ計算部234(図81)では、例えば、パストリファレンス画像VPの領域R8401と、フューチャリファレンス画像VFの領域R8402との画像データの平均値(領域R8401内の各画素の画素値と、領域R8402内の対応する画素の画素値との平均値)が演算され、その平均値を、注目ブロックB8401の推測値として、注目ブロックB8401とその推測値との差分(注目ブロックB8401の各画素の画素値と、その画素の画素値の推測値との差分)が演算される。この差分は、ほとんど0となるので、注目ブロックB8401のデータ量を削減することができる。差分データ計算部234は、以上のような注目ブロックB8401とその推測値との差分を、注目ブロックB8401の圧縮結果である第1の差分データとして出力する。
That is, the difference data calculating unit 234 (FIG. 81), for example, each pixel in the region R 8401 Past reference image V P, the average value of the image data of the area R 8402 of Futuresse reference image V F (region R 8401 and pixel value, the average value between the pixel value of the corresponding pixel in the region R 8402) is calculated, the difference of the average value, as estimated value of the block of interest B 8401, the block of interest B 8401 and its estimated value (The difference between the pixel value of each pixel of the target block B 8401 and the estimated value of the pixel value of the pixel) is calculated. Since this difference is almost 0, the data amount of the target block B 8401 can be reduced. The difference
ところで、第1の差分データを、元の注目ブロックB8401に復元するには、注目ブロックB8401からパストリファレンス画像VPへの動きベクトルとなるベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8401からフューチャリファレンス画像VFへの動きベクトルとなるベクトル(sU,sV)との2つの動きベクトルが必要となる。 Incidentally, the first difference data, to restore to the original block of interest B 8401 is a motion vector from the target block B 8401 to Pasto reference image V P vector (- (4-s) U , - (4 and -s) V), the motion vector from the target block B 8401 to Futuresse reference image V F vector (sU, two motion vectors with sV) is required.
しかしながら、第1の差分データに、2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)とを付加した場合には、その2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)の分だけ、データ量が増加することになる。 However, when two motion vectors (-(4-s) U,-(4-s) V) and (sU, sV) are added to the first difference data, the two motion vectors ( -(4-s) U,-(4-s) V) and (sU, sV) increase the amount of data.
そこで、差分データ計算部234では、次のようにして、注目ブロックB8401の推測値を求めるのに用いる領域R8401およびR8402(への動きベクトル)を求めることにより、動きベクトルなしで復元することができる第1の差分データを求める。
Therefore, the difference
即ち、いまの場合、被写体P8302が一定速度(速度=0の場合も含む)で移動していることを前提とするので、注目ブロックB8401から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8401、注目ブロックB8401から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8402、および注目ブロックB8401(の対応する画素)は、図84に示すように、時空間において一直線上に並ぶ。 That is, in this case, since it is assumed that the subject P 8302 is moving at a constant speed (including the case of speed = 0), the motion vector from the target block B 8401 (- (4-s ) U, - Region R 8401 on past reference image V P shifted by (4-s) V), region R 8402 on feature reference image V F shifted by motion vector (sU, sV) from target block B 8401 , and target block As shown in FIG. 84, B 8401 (corresponding pixels) are arranged in a straight line in space-time.
従って、注目ブロックB8401から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8401と、注目ブロックB8401から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8402は、いずれも、時空間において、注目ブロックB8401を通る直線上に存在する。 Therefore, the motion vector from the target block B 8401 (- (4-s ) U, - (4-s) V) a region R 8401 on which shifted by PAST reference image V P, the motion vector from the target block B 8401 (sU , sV), the region R 8402 on the feature reference image V F is located on a straight line passing through the block of interest B 8401 in time and space.
そして、パストリファレンス画像VP上の領域R8401と、フューチャリファレンス画像VF上の領域R8402の画像データは、上述したように、(理想的には)同一であるから、その領域R8401とR8402との(画像データ)の相関は、時空間において、注目ブロックB8401を通る直線上に存在するパストリファレンス画像VP上の領域と、フューチャリファレンス画像VF上の領域との相関の中で、最も高くなる。 Then, a region R 8401 on Pasto reference image V P, diffuser image data of a region R 8402 on tea reference image V F, as described above, (ideally) Since identical, and the area R 8401 correlation (image data) of the R 8402, in time and space, and the region on the Pasto reference image V P that exists on a straight line passing through the block of interest B 8401, in a correlation with Futuresse reference image V F on the region And get the highest.
従って、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、注目ブロックB8401を通る時空間の直線上にある領域から、相関が最も高い領域の位置関係を検出すれば、その位置関係にあるパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域とが、それぞれ領域R8401とR8402となる。 Accordingly, in the past reference image V P and the future reference image V F , if the positional relationship of the region having the highest correlation is detected from the region on the space-time straight line passing through the target block B 8401 , the past relationship image having the highest correlation is detected. a region of the reference image V P, and the area of Futuresse reference image V F, the respective regions R 8401 and R 8402.
即ち、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を検出することにより、注目ブロックB8401から領域R8401への動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8401から領域R8402への動きベクトル(sU,sV)がなくても、領域R8401とR8402を求めることができる。 That is, in the PAST reference image V P and Futuresse reference image V F, by detecting the positional relationship of the correlation is the highest region, the motion vector from the target block B 8401 to the area R 8401 (- (4-s ) U, -(4-s) V) and the regions R 8401 and R 8402 can be obtained without the motion vector (sU, sV) from the target block B 8401 to the region R 8402 .
差分データ計算部234(図81)は、以上のような原理を利用して、動きベクトルなしで復元することができる第1の差分データを求める。 The difference data calculation unit 234 (FIG. 81) obtains first difference data that can be restored without a motion vector by using the principle as described above.
具体的には、差分データ計算部234は、注目ブロックを通る時空間の直線上にあるパストリファレンス画像VPの領域Ipとフューチャリファレンス画像VFの領域Ifとの相関を表す相関情報e1(U',V')を、例えば、式(9)にしたがって求める。
Specifically, the difference
ここで、式(9)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表す。また、Ip(x-(4-s)U',y-(4-s)V')は、パストリファレンス画像VPにおける位置(x-(4-s)U',y-(4-s)V')にある画素の画素値を表す。さらに、If(x+sU',y+sV')は、フューチャリファレンス画像VFにおける位置(x+sU',y+sV')にある画素の画素値を表す。また、式(9)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in equation (9), (x, y ) represents the position of the pixel of the target block in the target image V T. Ip (x- (4-s) U ′, y- (4-s) V ′) is a position (x- (4-s) U ′, y- (4-s) in the past reference image V P. ) Represents the pixel value of the pixel in V ′). Furthermore, If (x + sU ', y + sV') represents the position (x + sU ', y + sV') pixel value of the pixel in the Futuresse reference image V F. Also, Σ in equation (9) represents summation for all the pixels constituting the block of interest.
なお、式(9)の相関情報e1(U',V')は、パストリファレンス画像VPの領域Ipと、フューチャリファレンス画像VFの領域Ifとの画素値の差分絶対値の総和であり、従って、パストリファレンス画像VPの領域Ipとフューチャリファレンス画像VFの領域Ifとの相関が高いほど、相関情報e1(U',V')の「値」は、小さくなる。 Incidentally, the correlation information e 1 of the formula (9) (U ', V ') is an sum of absolute differences of the pixel values of the region Ip Past reference image V P, a region If the Futuresse reference image V F , therefore, the higher the correlation between the region If region Ip and Futuresse reference image V F of Pasto reference image V P, the "value" of the correlation information e 1 (U ', V' ) is reduced.
差分データ計算部234は、式(9)の相関情報e1(U',V')を、考えられる全ての(U',V')について計算する。ここで、考えられる全ての(U',V')とは、例えば、位置(x-(4-s)U',y-(4-s)V')がパストリファレンス画像VP上にあり、かつ、位置(x+sU',y+sV')がフューチャリファレンス画像VF上にある場合(範囲)の、(U',V')である。なお、式(9)の相関情報e1(U',V')の計算は、その他、あらかじめ定められた範囲の(U',V')についてだけ行うようにしてもよい。
The difference
差分データ計算部234は、各値の(U',V')について計算した相関情報e1(U',V')から最小値を検出し、その相関情報e1(U',V')の最小値を与える(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表すベクトル(U,V)として検出する。
The difference
ここで、以上のような、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表すベクトル(U,V)を、以下、適宜、位置関係ベクトル(U,V)という。 Here, in the past reference image V P and the feature reference image V F as described above, the vector (U, V) representing the positional relationship of the region having the highest correlation is appropriately referred to as the positional relationship vector (U, V). ).
差分データ計算部234は、位置関係ベクトル(U,V)の検出後、その位置関係ベクトル(U,V)が表す位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。
Differential
即ち、差分データ計算部234は、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックからベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。
That is, the difference
そして、差分データ計算部234は、注目ブロックとその推測値との差分を演算し、注目ブロックの圧縮結果である第1の差分データとして出力する。
Then, the difference
このような第1の差分データは、注目ブロックからパストリファレンス画像VPへの動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックからフューチャリファレンス画像VFへの動きベクトル(sU,sV)がなくても(第1の差分データに動きベクトルが付加されていなくても)、元の注目ブロックに復元することができる。 Such first difference data, the motion vector from the target block to Pasto reference image V P (- (4-s ) U, - (4-s) V) and, from the target block to Futuresse reference image V F Even if there is no motion vector (sU, sV) (even if no motion vector is added to the first difference data), the original block of interest can be restored.
即ち、例えば、図85に示すように、ターゲット画像VT上のあるブロックB8501を注目ブロックとして、その注目ブロックB8501を復元する場合には、その注目ブロックB8501につき、式(9)の相関情報e1(U',V')を、考えられる全ての(U',V')について計算する。 That is, for example, as shown in FIG. 85, the block B 8501 with a top target image V T as the target block, when restoring the block of interest B 8501 is attached to the block of interest B 8501, formula (9) Correlation information e 1 (U ′, V ′) is calculated for all possible (U ′, V ′).
具体的には、例えば、図85に示すように、(U',V')=(U1',V1')として、相関情報e1(U1',V1')を計算する。さらに、例えば、図86に示すように、(U',V')=(U2',V2')として、相関情報e1(U2',V2')を計算する。 Specifically, for example, as shown in FIG. 85, correlation information e 1 (U 1 ′, V 1 ′) is calculated as (U ′, V ′) = (U 1 ′, V 1 ′). Further, for example, as shown in FIG. 86, correlation information e 1 (U 2 ′, V 2 ′) is calculated as (U ′, V ′) = (U 2 ′, V 2 ′).
ここで、図85では、(U',V')=(U1',V1')とすることにより、相関情報e1(U1',V1')の計算対象となるパストリファレンス画像VPの領域Ipが、動いている被写体P8302のある部分の領域R8501になっている。さらに、図85では、相関情報e1(U1',V1')の計算対象となるフューチャリファレンス画像VFの領域Ifが、やはり、動いている被写体P8302の同一部分の領域R8502になっている。領域R8501とR8502との相関は高いから、相関情報e1(U1',V1')の値は、小さくなる。なお、図85において、パストリファレンス画像VPの領域R8501は、注目ブロックB8501から、ベクトル(-(4-s)U1',-(4-s)V1')だけずれた位置にあり、その領域R8501内の画素の画素値Ip(x-(4-s)U1',y-(4-s)V1')が、式(9)の相関情報e1(U1',V1')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8502は、注目ブロックB8501から、ベクトル(sU1',sV1')だけずれた位置にあり、その領域R8502内の画素値If(x+sU1',y+sV1')が、式(9)の相関情報e1(U1',V1')の計算に用いられる。 Here, in FIG. 85, by setting (U ′, V ′) = (U 1 ′, V 1 ′), the past reference image that is a target of calculation of the correlation information e 1 (U 1 ′, V 1 ′). A region Ip of V P is a region R 8501 in a part of the moving subject P 8302 . Further, in FIG. 85, the correlation information e 1 (U 1 ', V 1') area If the Futuresse reference image V F as a calculation target of, again, the region R 8502 of the same portion of the subject P 8302 in motion It has become. Since the correlation between the regions R 8501 and R 8502 is high, the value of the correlation information e 1 (U 1 ′, V 1 ′) is small. In FIG. 85, the region R 8501 of the past reference image V P is shifted from the target block B 8501 by a vector (− (4-s) U 1 ′, − (4-s) V 1 ′). Yes , the pixel value Ip (x- (4-s) U 1 ′, y- (4-s) V 1 ′) of the pixel in the region R 8501 is the correlation information e 1 (U 1 ) in Expression (9). ', V 1 '). Further, the region R 8502 of the future reference image V F is located at a position shifted from the target block B 8501 by the vector (sU 1 ′, sV 1 ′), and the pixel value If (x + sU 1 in the region R 8502 ', Y + sV 1 ') is used to calculate the correlation information e 1 (U 1 ', V 1 ') in equation (9).
一方、図86では、(U',V')=(U2',V2')とすることにより、相関情報e1(U2',V2')の計算対象となるパストリファレンス画像VPの領域Ipが、静止している被写体P8301のある部分の領域R8601になっている。さらに、図86では、相関情報e1(U2',V2')の計算対象となるフューチャリファレンス画像VFの領域Ifが、静止している被写体P8301の他の部分の領域R8602になっている。領域R8601とR8602との相関はそれほど高くなく、相関情報e1(U2',V2')の値は、それほど小さくならない。なお、図86において、パストリファレンス画像VPの領域R8601は、注目ブロックB8501から、ベクトル(-(4-s)U2',-(4-s)V2')だけずれた位置にあり、その領域R8601内の画素の画素値Ip(x-(4-s)U2',y-(4-s)V2')が、式(9)の相関情報e1(U2',V2')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8602は、注目ブロックB8501から、ベクトル(sU2',sV2')だけずれた位置にあり、その領域R8602内の画素値If(x+sU2',y+sV2')が、式(9)の相関情報e1(U2',V2')の計算に用いられる。 On the other hand, in FIG. 86, by setting (U ′, V ′) = (U 2 ′, V 2 ′), the past reference image V that is the calculation target of the correlation information e 1 (U 2 ′, V 2 ′). P regions Ip has been in the region R 8601 of the portion of the subject P 8301 which is stationary. Further, in FIG. 86, the correlation information e 1 (U 2 ', V 2') regions If the Futuresse reference image V F which is an object of calculation of the area R 8602 of the other part of the subject P 8301 at rest It has become. The correlation between the regions R 8601 and R 8602 is not so high, and the value of the correlation information e 1 (U 2 ′, V 2 ′) is not so small. In FIG. 86, the region R 8601 of the past reference image V P is shifted from the target block B 8501 by a vector (− (4-s) U 2 ′, − (4-s) V 2 ′). Yes , the pixel value Ip (x- (4-s) U 2 ′, y- (4-s) V 2 ′) of the pixel in the region R 8601 is the correlation information e 1 (U 2 ) in Expression (9). ', V 2 '). Further, the region R 8602 of the future reference image V F is located at a position shifted from the target block B 8501 by the vector (sU 2 ′, sV 2 ′), and the pixel value If (x + sU 2 in the region R 8602 ', Y + sV 2 ') is used to calculate the correlation information e 1 (U 2 ', V 2 ') in equation (9).
いま、注目ブロックB8501について計算された相関情報e1(U',V')を最小にする(U',V')が、図85に示した(U1',V1')であったとする。この場合、注目ブロックB8501が、図84に示したブロックB8401であったとすると、図85の領域R8501とR8502は、それぞれ、図84の領域R8401とR8402に一致する。 Now, (U ′, V ′) that minimizes the correlation information e 1 (U ′, V ′) calculated for the target block B 8501 is (U 1 ′, V 1 ′) shown in FIG. Suppose. In this case, if the target block B 8501 is the block B 8401 shown in FIG. 84, the regions R 8501 and R 8502 in FIG. 85 match the regions R 8401 and R 8402 in FIG. 84, respectively.
従って、第1の差分データを求めるときに用いられた推測値を、図84の領域R8401とR8402とそれぞれ同一の図85の領域R8501とR8502から得ることができ、その推測値を、第1の差分データに加算することにより、注目ブロックB8501(B8401)を復元することができる。 Therefore, the estimated value used when obtaining the first difference data can be obtained from the regions R 8501 and R 8502 in FIG. 85 which are the same as the regions R 8401 and R 8402 in FIG. 84, respectively. The block of interest B 8501 (B 8401 ) can be restored by adding to the first difference data.
ここで、以上のような、第1の差分データを元のブロックに復元する方法は、画像圧縮の分野において、従来にはない、まったく新しい方法であり、例えば、60fps動画データなどの低フレームレートの動画データから、240fps動画データなどの高フレームレートの動画データを復元する場合に使用することができる。この復元の方法を要約すると、次のようになる。 Here, the method of restoring the first difference data to the original block as described above is a completely new method that has not been conventionally used in the field of image compression. For example, a low frame rate such as 60 fps moving image data is used. It can be used to restore high frame rate video data such as 240 fps video data from the video data. The following summarizes the restoration method.
即ち、復元したい高フレームレートの動画データの中の1枚(フレーム)の画像に注目する。この注目した「復元したい画像」に対して時間的に近くにある複数(例えば2枚)の「低フレームレートの動画データを構成する画像」を取り出し、その取り出された複数の画像同士において相関が高い位置関係にある部分を求め、その部分から注目している「復元したい画像」を復元する。 That is, attention is focused on one (frame) image in the high frame rate moving image data to be restored. A plurality of (for example, two) “images constituting moving image data with a low frame rate” that are close in time to the noticed “image to be restored” are extracted, and the correlation between the extracted images is correlated. A portion having a high positional relationship is obtained, and the “image to be restored” focused on from that portion is restored.
なお、第1の差分データを復元する方法は、例えば、MPEG2などに用いられているBピクチャのデコードとは異なる。 Note that the method of restoring the first difference data is different from, for example, decoding of a B picture used for MPEG2 or the like.
即ち、IピクチャとPピクチャのみから構成される動画データを、「低フレームレートの動画データ」と考え、さらにBピクチャを加えた動画データを、「高フレームレートの動画データ」と考えると、第1の差分データを復元する方法は、Bピクチャのデコード方法と、一見、同じように思える。 That is, moving image data composed only of I and P pictures is considered as “low frame rate moving image data”, and moving image data added with a B picture is considered as “high frame rate moving image data”. The method of restoring the difference data of 1 seems to be the same as the method of decoding a B picture.
しかしながら、MPEG2におけるBピクチャは、そのBピクチャ内の各ブロック(マクロブロック)について、そのブロックと類似しているテクスチャが、IピクチャまたはPピクチャのどの部分に存在しているかを、「動きベクトル」という情報で明示的に保持している。 However, a B picture in MPEG2 indicates, for each block (macroblock) in the B picture, in which part of the I picture or P picture a texture similar to that block exists, a “motion vector” This information is explicitly held.
一方、第1の差分データは、そのような「動きベクトル」の情報は保持していない。さらに、第1の差分データの復元は、低フレームレートの動画データの複数フレーム、即ち、例えば、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関の高い領域の位置関係を探索(検出)し、その位置関係にある領域を用いて行われる。 On the other hand, the first difference data does not hold such “motion vector” information. Furthermore, restoration of the first difference data, a plurality of frames of moving image data of a low frame rate, i.e., for example, in the Past reference image V P and Futuresse reference image V F, searches the positional relationship between the high correlation region (detection) However, it is performed using the region in the positional relationship.
このように、第1の差分データを復元する方法は、「動きベクトル」の情報を保持していない点、および低フレームレートの動画データの複数フレームにおいて相関の高い領域の位置関係を検出し、その位置関係にある領域を用いて行われる点において、Bピクチャのデコード方法とは大きく異なる。 As described above, the method of restoring the first difference data detects the positional relationship between the areas that do not hold the “motion vector” information and the areas having high correlation in the plurality of frames of the low-frame-rate moving image data, The method is greatly different from the B picture decoding method in that the processing is performed using regions in the positional relationship.
次に、図81の差分データ計算部235で求められる第2の差分データについて説明する。
Next, the second difference data obtained by the difference
差分データ計算部235では、注目ブロックについて、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す1つの動きベクトルが検出され、注目ブロックとの位置関係が、その1つの動きベクトルから求められる位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部235では、注目ブロックとその推測値との差分が、第2の差分データとして出力される。
In the difference
即ち、図87は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 87 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.
図87においては、例えば、被写体P8302が、図84における場合と同様に、一定速度で移動している。但し、図87では、被写体P8302は、図84における場合よりもやや速い速度で移動している。なお、図87でも、被写体P8302の動きベクトル、即ち、240fps動画データにおけるフレーム周期である1/240秒あたりの、被写体P8302の空間方向x,yの移動量を表すベクトルが(U,V)であるとする。 In FIG. 87, for example, the subject P 8302 is moving at a constant speed as in the case of FIG. However, in FIG. 87, the subject P 8302 is moving at a slightly higher speed than in the case of FIG. Also in FIG. 87, the motion vector of the subject P 8302, i.e., per 1/240 second is a frame period in 240fps video data, the spatial direction x of the object P 8302, a vector representing the movement amount of y (U, V ).
被写体P8302が、図84における場合よりもやや速い一定速度で移動している場合も、ターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VFのすべてに、被写体P8302が存在し、さらに、パストリファレンス画像VP上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(-(4-s)U,-(4-s)V)だけずれた位置にあり、フューチャリファレンス画像VF上の被写体P8302は、ターゲット画像VT上の被写体P8302から、ベクトル(sU,sV)だけずれた位置にある。 Subject P 8302 is also moving at a slightly higher constant rate than in FIG. 84, the target image V T, Past reference image V P, and all Futuresse reference image V F, there is a subject P 8302 Furthermore, the subject P 8302 on the past reference image V P is at a position shifted from the subject P 8302 on the target image V T by a vector (− (4-s) U, − (4-s) V). subject P 8302 on Futuresse reference image V F from the subject P 8302 on a target image V T, is the position shifted by vector (sU, sV).
従って、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB8701を、注目ブロックとして注目すると、パストリファレンス画像VPにおいて、注目ブロックB8701からベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックB8701と同一サイズの領域R8701の画像データは、(理想的には)注目ブロックB8701と同一になっている。また、フューチャリファレンス画像VFにおいても、注目ブロックB8701からベクトル(sU,sV)だけずれた位置の、注目ブロックB8701と同一サイズの領域R8702の画像データは、(理想的には)注目ブロックB8701と同一になっている。 Accordingly, in the target image V T, for example, a certain block B 8701 including only the subject P 8302, when attention as the subject block, in Past reference image V P, from the target block B 8701 vector (- (4-s) U , The image data of the region R 8701 having the same size as the target block B 8701 at a position shifted by- (4-s) V) is (ideally) the same as the target block B 8701 . Also in Futuresse reference image V F, a vector from the target block B 8701 (sU, sV) of position shifted by the image data of the target block B 8701 same size as the region R 8702 is (ideally) of interest It is the same as block B 8701 .
即ち、パストリファレンス画像VPの領域R8701、注目ブロックB8701、およびフューチャリファレンス画像VFの領域R8702の画像データは、(理想的には)同一になっている。 That is, the image data of Pasto reference image V P of region R 8701, the block of interest B 8701, and the region R 8702 of Futuresse reference image V F is made the same (ideally).
差分データ計算部235(図81)では、以上のような図87に示した場合に適した第2の差分データが求められる。 The difference data calculation unit 235 (FIG. 81) obtains second difference data suitable for the case shown in FIG. 87 as described above.
即ち、差分データ計算部235(図81)でも、例えば、差分データ計算部234における場合と同様に、パストリファレンス画像VPの領域R8701と、フューチャリファレンス画像VFの領域R8702との画像データの平均値が演算され、その平均値を、注目ブロックB8701の推測値として、注目ブロックB8701とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB8701のデータ量を削減することができる。差分データ計算部235は、以上のような注目ブロックB8701とその推測値との差分を、注目ブロックB8701の圧縮結果である第2の差分データとして出力する。
That is, even in the difference data calculation unit 235 (FIG. 81), for example, as in the case of the difference
ところで、第2の差分データを、元の注目ブロックB8701に復元するには、上述した第1の差分データを復元する場合と同様に、注目ブロックB8701からパストリファレンス画像VPへの動きベクトルとなるベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8701からフューチャリファレンス画像VFへの動きベクトルとなるベクトル(sU,sV)との2つの動きベクトルが必要となる。 Meanwhile, the second difference data, to restore to the original block of interest B 8701, as in the case of restoring the first differential data described above, the motion vector from the target block B 8701 to Pasto reference image V P Two motion vectors, a vector (-(4-s) U,-(4-s) V) and a vector (sU, sV) that is a motion vector from the target block B 8701 to the future reference image V F Is required.
しかしながら、第2の差分データに、2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)とを付加した場合には、その2つの動きベクトル(-(4-s)U,-(4-s)V)と(sU,sV)の分だけ、データ量が増加することになる。 However, when two motion vectors (-(4-s) U,-(4-s) V) and (sU, sV) are added to the second difference data, the two motion vectors ( -(4-s) U,-(4-s) V) and (sU, sV) increase the amount of data.
そこで、差分データ計算部235では、次のようにして、注目ブロックB8701の推測値を求めるのに用いる領域R8701およびR8702(への動きベクトル)を求めることにより、1つの動きベクトルだけで復元することができる第2の差分データを求める。
Therefore, the difference
即ち、上述したように、いまの場合、被写体P8302が一定速度で移動していることを前提とするので、注目ブロックB8701から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8701、注目ブロックB8701から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8702、および注目ブロックB8701(の対応する画素)は、図87に示すように、時空間において一直線上に並ぶ。 That is, as described above, in this case, since it is assumed that the subject P 8302 is moving at a constant speed, the motion from the target block B 8701 vector (- (4-s) U , - (4-s ) V) shifted by PAST reference image V region of the P R 8701, the block of interest B 8701 from the motion vector (sU, sV) shifted by Futuresse reference image V region on F R 8702, and the block of interest B 8701 (the As shown in FIG. 87, the corresponding pixels are aligned in a straight line in the space-time.
従って、注目ブロックB8701から動きベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の領域R8701と、注目ブロックB8701から動きベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の領域R8702は、いずれも、時空間において、注目ブロックB8701を通る直線上に存在する。 Therefore, the motion vector from the target block B 8701 (- (4-s ) U, - (4-s) V) a region R 8701 on which shifted by PAST reference image V P, the motion vector from the target block B 8701 (sU , sV), the region R 8702 on the feature reference image V F is located on a straight line passing through the block of interest B 8701 in time and space.
また、注目ブロックB8701と、パストリファレンス画像VP上の領域R8701との画像データは、上述したように、(理想的には)同一であるから、注目ブロックB8701と領域R8701との相関は、注目ブロックB8701とパストリファレンス画像VP上の領域との相関の中で最も高くなる。さらに、注目ブロックB8701と、フューチャリファレンス画像VF上の領域R8702との画像データも、上述したように、(理想的には)同一であるから、注目ブロックB8701と領域R8702との相関は、注目ブロックB8701とフューチャリファレンス画像VF上の領域との相関の中で最も高くなる。 Further, the block of interest B 8701, the image data of the area R 8701 on Pasto reference image V P, as described above, (ideally) from the same, the block of interest B 8701 and the region R 8701 correlation becomes highest in the correlation between the target block B 8701 and Pasto reference image V P on the region. Further, the block of interest B 8701, also image data of a region R 8702 on Futuresse reference image V F, as described above, (ideally) from the same, the block of interest B 8701 and the region R 8702 correlation becomes highest in the correlation between the target block B 8701 and Futuresse reference image V F on the region.
従って、パストリファレンス画像VPとフューチャリファレンス画像VFそれぞれにおいて、注目ブロックB8701との相関が最も高い領域を検出すれば、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域とが、それぞれ領域R8701とR8702となる。 Therefore, if a region having the highest correlation with the target block B 8701 is detected in each of the past reference image V P and the feature reference image V F , the past reference image V P region, the future reference image V F region, Are regions R 8701 and R 8702 , respectively.
ところで、パストリファレンス画像VP上の領域R8701は、注目ブロックB8701から動きベクトル(-(4-s)U,-(4-s)V)だけずれた位置にあり、フューチャリファレンス画像VF上の領域R8702は、注目ブロックB8701から動きベクトル(sU,sV)だけずれた位置にある。 By the way, the region R 8701 on the past reference image V P is located at a position shifted from the target block B 8701 by a motion vector (− (4-s) U, − (4-s) V), and the future reference image V F The upper region R 8702 is located at a position shifted from the target block B 8701 by a motion vector (sU, sV).
従って、パストリファレンス画像VP上の領域R8701の位置も、フューチャリファレンス画像VF上の領域R8702の位置も、1つの動きベクトル(U,V)から求めることができる。 Therefore, the position of the region R 8701 on Pasto reference image V P also, the position of the region R 8702 on Futuresse reference image V F, can be obtained from one motion vector (U, V).
即ち、注目ブロックB8701から領域R8701への動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8701から領域R8702への動きベクトル(sU,sV)との、合計で2つの動きベクトルがなくても、1つの動きベクトル(U,V)から、領域R8701とR8702を求めることができる。 That is, the motion vector from the target block B 8701 to the area R 8701 (- (4-s ) U, - (4-s) V) and the motion vector from the target block B 8701 to the area R 8702 (sU, sV) Thus, even if there are no two motion vectors in total, the regions R 8701 and R 8702 can be obtained from one motion vector (U, V).
差分データ計算部235(図81)は、以上のような原理を利用して、1つの動きベクトル(U,V)から復元することができる第2の差分データを求める。 The difference data calculation unit 235 (FIG. 81) obtains second difference data that can be restored from one motion vector (U, V) using the principle as described above.
具体的には、差分データ計算部235は、注目ブロックを通る時空間の直線上にあるパストリファレンス画像VPの領域Ip、またはフューチャリファレンス画像VFの領域Ifそれぞれと、注目ブロックとの相関を表す相関情報e2(U',V')を、例えば、式(10)にしたがって求める。
Specifically, the difference
ここで、式(10)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表す。また、Ip(x-(4-s)U',y-(4-s)V')は、パストリファレンス画像VPにおける位置(x-(4-s)U',y-(4-s)V')にある画素の画素値を表す。さらに、If(x+sU',y+sV')は、フューチャリファレンス画像VFにおける位置(x+sU',y+sV')にある画素の画素値を表す。また、Ic(x,y)は、ターゲット画像VTにおける位置(x,y)における画素の画素値(注目ブロックの画素の画素値)を表す。また、式(10)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in the formula (10), (x, y ) represents the position of the pixel of the target block in the target image V T. Ip (x- (4-s) U ′, y- (4-s) V ′) is a position (x- (4-s) U ′, y- (4-s) in the past reference image V P. ) Represents the pixel value of the pixel in V ′). Furthermore, If (x + sU ', y + sV') represents the position (x + sU ', y + sV') pixel value of the pixel in the Futuresse reference image V F. Further, Ic (x, y) represents the position in the target image V T (x, y) pixel value of the pixel in the (pixel value of the pixel of the target block). Further, Σ in Expression (10) represents summation for all the pixels constituting the block of interest.
なお、式(10)の相関情報e2(U',V')は、パストリファレンス画像VPの領域Ipと注目ブロックとの画素値の差分絶対値と、フューチャリファレンス画像VFの領域Ifと注目ブロックとの画素値の差分絶対値との加算値の総和であり、従って、パストリファレンス画像VPの領域Ipと注目ブロックとの相関や、フューチャリファレンス画像VFの領域Ifと注目ブロックとの相関が高いほど、相関情報e2(U',V')の「値」は、小さくなる。 Incidentally, the correlation information e 2 of the formula (10) (U ', V ') is the absolute difference of pixel values between the target block and the area Ip Past reference image V P, a region If the Futuresse reference image V F block of interest is the sum of the sum of the difference absolute values of the pixel values and, hence, correlation and the block of interest and the region Ip Past reference image V P, the area If the block of interest Futuresse reference image V F The higher the correlation, the smaller the “value” of the correlation information e 2 (U ′, V ′).
差分データ計算部235は、式(10)の相関情報e2(U',V')を、考えられる全ての(U',V')について計算する。ここで、考えられる全ての(U',V')とは、例えば、位置(x-(4-s)U',y-(4-s)V')がパストリファレンス画像VP上にあり、かつ、位置(x+sU',y+sV')がフューチャリファレンス画像VF上にある場合の、(U',V')である。なお、式(10)の相関情報e2(U',V')の計算は、その他、あらかじめ定められた範囲の(U',V')についてだけ行うようにしてもよい。
The difference
即ち、差分データ計算部235は、例えば、図88に示すように、(U',V')=(U1',V1')として、式(10)の相関情報e2(U1',V1')を計算する。さらに、差分データ計算部235は、例えば、図89に示すように、(U',V')=(U2',V2')として、式(10)の相関情報e2(U2',V2')を計算する。
That is, for example, as shown in FIG. 88, the difference
ここで、図88では、(U',V')=(U1',V1')とすることにより、相関情報e2(U1',V1')の計算対象となるパストリファレンス画像VPの領域Ipが、動いている被写体P8302のうちの注目ブロックB8701における部分と同一の領域R8801になっている。さらに、図88では、相関情報e2(U1',V1')の計算対象となるフューチャリファレンス画像VFの領域Ifが、やはり、動いている被写体P8302のうちの注目ブロックにおける部分と同一の領域R8802になっている。従って、注目ブロックB8701と、領域R8801またはR8802それぞれとの相関は、いずれも高いから、相関情報e2(U1',V1')の値は、小さくなる。なお、図88において、パストリファレンス画像VPの領域R8801は、注目ブロックB8701から、ベクトル(-(4-s)U1',-(4-s)V1')だけずれた位置にあり、その領域R8801内の画素の画素値Ip(x-(4-s)U1',y-(4-s)V1')が、式(10)の相関情報e2(U1',V1')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8802は、注目ブロックB8701から、ベクトル(sU1',sV1')だけずれた位置にあり、その領域R8802内の画素値If(x+sU1',y+sV1')が、式(10)の相関情報e2(U1',V1')の計算に用いられる。 Here, in FIG. 88, by setting (U ′, V ′) = (U 1 ′, V 1 ′), the past reference image that is a target of calculation of the correlation information e 2 (U 1 ′, V 1 ′). area Ip of V P has become the same region R 8801 and the partial block of interest B 8701 of the subject P 8302 is moving. Further, in FIG. 88, the correlation information e 2 (U 1 ', V 1') area If the Futuresse reference image V F as a calculation target of, again, a portion in the target block among the object P 8302 in motion It is the same region R 8802 . Accordingly, since the correlation between the block of interest B 8701 and each of the regions R 8801 and R 8802 is high, the value of the correlation information e 2 (U 1 ′, V 1 ′) is small. Incidentally, in FIG. 88, the region R 8801 Past reference image V P from the block of interest B 8701, vector (- (4-s) U 1 ', - (4-s) V 1') to a position shifted by Yes , the pixel value Ip (x- (4-s) U 1 ′, y- (4-s) V 1 ′) of the pixel in the region R 8801 is the correlation information e 2 (U 1 ) in Expression (10). ', V 1 '). Further, the region R 8802 of the future reference image V F is located at a position shifted from the target block B 8701 by the vector (sU 1 ′, sV 1 ′), and the pixel value If (x + sU 1 in the region R 8802 ', Y + sV 1 ') is used to calculate the correlation information e 2 (U 1 ', V 1 ') in equation (10).
一方、図89では、(U',V')=(U2',V2')とすることにより、相関情報e2(U2',V2')の計算対象となるパストリファレンス画像VPの領域Ipが、静止している被写体P8301のある部分の領域R8901になっている。さらに、図89では、相関情報e2(U2',V2')の計算対象となるフューチャリファレンス画像VFの領域Ifが、静止している被写体P8301の同一部分の領域R8902になっている。注目ブロックB8701は、動いている被写体P8302のある部分であり、従って、注目ブロックB8701と、領域R8901またはR8902それぞれとの相関は、いずれも、それほど高くなく、相関情報e2(U2',V2')の値は、それほど小さくならない。なお、図89において、パストリファレンス画像VPの領域R8901は、注目ブロックB8701から、ベクトル(-(4-s)U2',-(4-s)V2')だけずれた位置にあり、その領域R8901内の画素の画素値Ip(x-(4-s)U2',y-(4-s)V2')が、式(10)の相関情報e2(U2',V2')の計算に用いられる。また、フューチャリファレンス画像VFの領域R8902は、注目ブロックB8701から、ベクトル(sU2',sV2')だけずれた位置にあり、その領域R8902内の画素値If(x+sU2',y+sV2')が、式(10)の相関情報e2(U2',V2')の計算に用いられる。但し、図89では、(U2',V2')=(0,0)になっている。 On the other hand, in FIG. 89, by setting (U ′, V ′) = (U 2 ′, V 2 ′), the past reference image V that is the calculation target of the correlation information e 2 (U 2 ′, V 2 ′). P regions Ip has become a part of the region R 8901 with a subject P 8301 which is stationary. Further, in FIG. 89, the correlation information e 2 (U 2 ', V 2') regions If the calculated subject to Futuresse reference image V F of, become a region R 8902 of the same portion of the subject P 8301 at rest ing. The attention block B 8701 is a part of the moving subject P 8302. Therefore, the correlation between the attention block B 8701 and each of the regions R 8901 and R 8902 is not so high, and the correlation information e 2 ( The value of U 2 ', V 2 ') is not so small. In FIG. 89, the region R 8901 of the past reference image V P is shifted from the target block B 8701 by a vector (− (4-s) U 2 ′, − (4-s) V 2 ′). Yes , the pixel value Ip (x- (4-s) U 2 ′, y- (4-s) V 2 ′) of the pixel in the region R 8901 is the correlation information e 2 (U 2 ) in Expression (10). ', V 2 '). Further, the region R 8902 of the future reference image V F is located at a position shifted from the target block B 8701 by the vector (sU 2 ′, sV 2 ′), and the pixel value If (x + sU 2 in the region R 8902 ', Y + sV 2 ') is used to calculate the correlation information e 2 (U 2 ', V 2 ') in equation (10). However, in FIG. 89, (U 2 ′, V 2 ′) = (0, 0).
いま、注目ブロックB8701について計算された相関情報e2(U',V')を最小にする(U',V')が、図88に示した(U1',V1')であったとすると、図88の領域R8801とR8802は、それぞれ、図87の領域R8701とR8702に一致する。 Now, (U ′, V ′) that minimizes the correlation information e 2 (U ′, V ′) calculated for the target block B 8701 is (U 1 ′, V 1 ′) shown in FIG. Assuming that the regions R 8801 and R 8802 in FIG. 88 correspond to the regions R 8701 and R 8702 in FIG. 87, respectively.
そして、領域R8701とR8702の位置は、上述したように、注目ブロックB8701から領域R8701への動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックB8701から領域R8702への動きベクトル(sU,sV)との、合計で2つの動きベクトルがなくても、注目ブロックB8701について計算された相関情報e2(U',V')を最小にする(U',V')である1つの動きベクトル(U,V)から求めることができる。 Then, as described above, the positions of the regions R 8701 and R 8702 are the motion vector (-(4-s) U,-(4-s) V) from the target block B 8701 to the region R 8701, and the target block. The correlation information e 2 (U ′, V ′) calculated for the target block B 8701 is minimized even if there are no two motion vectors in total with the motion vector (sU, sV) from the B 8701 to the region R 8702 It can be obtained from one motion vector (U, V) which is (U ', V').
いま、この動きベクトル(U,V)を、相関最大ベクトル(U,V)ということとすると、差分データ計算部235は、式(10)の相関情報e2(U',V')を最小にする(U',V')である相関最大ベクトル(U,V)を検出した後、注目ブロックとの位置関係が、相関最大ベクトル(U,V)から求められる位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。
Now, assuming that the motion vector (U, V) is a correlation maximum vector (U, V), the difference
即ち、差分データ計算部235は、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックからベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。
That is, the difference
そして、差分データ計算部235は、注目ブロックとその推測値との差分を演算し、その演算結果を第2の差分データとして、その第2の差分データに、相関最大ベクトル(U,V)を付加して出力する。
Then, the difference
このような第2の差分データは、注目ブロックからパストリファレンス画像VPへの動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックからフューチャリファレンス画像VFへの動きベクトル(sU,sV)の2つの動きベクトルがなくても(第2の差分データに2つの動きベクトルが付加されていなくても)、それに付加されている1つの動きベクトルである相関最大ベクトル(U,V)を用いて、元の注目ブロックに復元することができる。 Such second difference data, the motion vector from the target block to Pasto reference image V P (- (4-s ) U, - (4-s) V) and, from the target block to Futuresse reference image V F Even if there is no two motion vectors (sU, sV) of (no two motion vectors are added to the second difference data), the maximum correlation that is one motion vector added to it The vector (U, V) can be used to restore the original block of interest.
即ち、第2の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第2の差分データに付加されている相関最大ベクトル(U,V)から求められる位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。具体的には、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックからベクトル(sU,sV)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。 That is, as in the case of obtaining the second difference data, first, the path relationship between the target block and the target block is the position relationship obtained from the maximum correlation vector (U, V) added to the second difference data. from the image data of the reference image V P and Futuresse reference image V F, obtains the estimated value of the block of interest. Specifically, an area of the same size as the target block on the past reference image V P shifted from the target block by a vector (-(4-s) U,-(4-s) V), and the vector from the target block An area of the same size as the target block on the future reference image V F shifted by (sU, sV) is obtained, and the average value of the image data of the area of the past reference image V P and the area of the future reference image V F As the estimated value of the block of interest.
そして、第2の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。 Then, the block of interest can be restored by adding the second difference data and the estimated value of the block of interest.
以上のように、第2の差分データは、1つの相関最大ベクトル(U,V)があれば復元することができるので、注目ブロックからパストリファレンス画像VPへの動きベクトル(-(4-s)U,-(4-s)V)と、注目ブロックからフューチャリファレンス画像VFへの動きベクトル(sU,sV)との2つの動きベクトルを付加する場合に比較して、データ量の増加を抑制することができる。 As described above, the second difference data, it is possible to one correlation maximum vector (U, V) is restored if the motion vector from the target block to Pasto reference image V P (- (4-s ) U, - (a 4-s) V), motion vector from the target block to Futuresse reference image V F (sU, as compared with the case of adding the two motion vectors with sV), an increase in the data amount Can be suppressed.
なお、第1と第2の差分データについては、そのうちのいずれか一方だけを求め、ブロックの圧縮結果としてもよいが、第1と第2の差分データの両方を求め、そのうちの適切な方を、ブロックの圧縮結果とすることにより、次のような利点がある。 For the first and second difference data, only one of them may be obtained and the compression result of the block may be obtained, but both the first and second difference data are obtained and the appropriate one of them is determined. The block compression result has the following advantages.
即ち、第1と第2の差分データについては、第2の差分データに相関最大ベクトル(U,V)が付加されることから、その分のデータ量の観点からすれば、動きベクトルが付加されない第1の差分データの方が優れている。 That is, with respect to the first and second difference data, since the correlation maximum vector (U, V) is added to the second difference data, no motion vector is added from the viewpoint of the corresponding data amount. The first difference data is superior.
しかしながら、第1の差分データは、そのデータ量が大になる場合があり、この場合、相関最大ベクトル(U,V)のデータ量を含めても、第2の差分データのデータ量の方が、第1の差分データのデータ量よりも少なくなることがある。 However, the first differential data may have a large data amount. In this case, even if the data amount of the correlation maximum vector (U, V) is included, the data amount of the second differential data is better. The data amount of the first difference data may be smaller.
即ち、例えば、図88に示したパストリファレンス画像VP上の領域R8801と、フューチャリファレンス画像VF上の領域R8802とは、動いている被写体P8302の部分の画像であるが、この領域R8801とR8802とが、動いている被写体P8302の同一部分の画像であった場合には、注目ブロックB8701について計算される式(9)の相関情報e1(U1',V1')が表す領域R8801とR8802との相関は高くなる。 That is, for example, the region R 8801 on Pasto reference image V P shown in FIG. 88, the region R 8802 on Futuresse reference image V F, but is an image of a part of the subject P 8302 is moving, the area When R 8801 and R 8802 are images of the same part of the moving subject P 8302 , the correlation information e 1 (U 1 ′, V 1 ) calculated for the block of interest B 8701 is calculated. The correlation between the regions R 8801 and R 8802 represented by ') is high.
一方、例えば、図89に示したパストリファレンス画像VPの領域R8901と、フューチャリファレンス画像VFの領域R8902とは、静止している被写体P8301の部分の画像であるが、この領域R8901とR8902とが、静止している被写体P8301の同一部分の画像であった場合も、式(9)の相関情報e1(U2',V2')が表す領域R8901とR8902との相関は高くなる。 On the other hand, for example, the past-reference image V P of region R 8901 shown in FIG. 89, the region R 8902 of Futuresse reference image V F, but is an image of a part of the subject P 8301 which is stationary, the area R Even when 8901 and R 8902 are images of the same portion of the stationary subject P 8301 , the regions R 8901 and R represented by the correlation information e 1 (U 2 ′, V 2 ′) in Expression (9) The correlation with 8902 is high.
つまり、図88における領域R8801とR8802との相関を表す式(9)の相関情報e1(U1',V1')の値と、図89における領域R8901とR8902との相関を表す式(9)の相関情報e1(U2',V2')の値とは、理想的には、0となり、同一になる。 That is, the value of the correlation information e 1 (U 1 ′, V 1 ′) in Expression (9) representing the correlation between the regions R 8801 and R 8802 in FIG. 88 and the correlation between the regions R 8901 and R 8902 in FIG. The value of the correlation information e 1 (U 2 ′, V 2 ′) in the equation (9) that represents is ideally 0 and is the same.
しかしながら、実際には、ノイズ等の影響によって、図88における領域R8801とR8802との相関情報e1(U1',V1')の値の方が小さくなることや、逆に、図89における領域R8901とR8902との相関情報e1(U2',V2')の値の方が小さくなることがある。 However, actually, the value of the correlation information e 1 (U 1 ′, V 1 ′) between the regions R 8801 and R 8802 in FIG. 88 becomes smaller due to the influence of noise or the like. The value of the correlation information e 1 (U 2 ′, V 2 ′) between the regions R 8901 and R 8902 in 89 may be smaller.
そして、図89における領域R8901とR8902との相関情報e1(U2',V2')の値の方が小さくなった場合には、その領域R8901とR8902から、注目ブロックB8701の推測値が求められる。 Then, when the value of the correlation information e 1 (U 2 ′, V 2 ′) between the regions R 8901 and R 8902 in FIG. 89 becomes smaller, the attention block B from the regions R 8901 and R 8902 An estimated value of 8701 is obtained.
即ち、静止している被写体P8301の部分の領域R8901とR8902から、動いている被写体P8302の部分の注目ブロックB8701の推測値が求められる。 That is, the estimated value of the target block B 8701 of the moving subject P 8302 is obtained from the regions R 8901 and R 8902 of the portion of the stationary subject P 8301 .
この、静止している被写体P8301の部分の領域R8901とR8902から求められる注目ブロックB8701の推測値は、注目ブロックB8701(の画像データ)と大きく異なったものとなり、その結果、注目ブロックB8701と、その推定値との差分をとっても、その差分、つまり、第1の差分データは、0または0に近い値にはならず、大きな値となって、データ量はほとんど削減されない。 The estimated value of the target block B 8701 obtained from the regions R 8901 and R 8902 of the portion of the stationary subject P 8301 is significantly different from the target block B 8701 (image data thereof). Even if the difference between the block B 8701 and the estimated value is taken, the difference, that is, the first difference data does not become 0 or a value close to 0 but becomes a large value, and the data amount is hardly reduced.
この場合、相関最大ベクトル(U,V)のデータ量を含めても、第2の差分データのデータ量の方が、第1の差分データのデータ量よりも少なくなる。 In this case, even if the data amount of the correlation maximum vector (U, V) is included, the data amount of the second difference data is smaller than the data amount of the first difference data.
さらに、ノイズ等の影響によって、注目ブロックB8701の第1の差分データへの圧縮時には、図88における領域R8801とR8802との相関情報e1(U1',V1')の値と、図89における領域R8901とR8902との相関情報e1(U2',V2')の値とのうちの一方の値の方が小さくなったのに、その第1の差分データの復元時には、他方の値の方が小さくなることがある。 Further, when the target block B 8701 is compressed into the first difference data due to the influence of noise or the like, the value of the correlation information e 1 (U 1 ′, V 1 ′) between the regions R 8801 and R 8802 in FIG. 89, the value of one of the correlation information e 1 (U 2 ′, V 2 ′) between the regions R 8901 and R 8902 is smaller, but the first difference data At the time of restoration, the other value may be smaller.
この場合、注目ブロックB8701の第1の差分データへの圧縮時に用いられた注目ブロックB8701の推測値と異なる推測値を用いて、第1の差分データが復元されることになるため、元の注目ブロックB8701を復元することができないことになる。 In this case, the first difference data is restored using an estimated value different from the estimated value of the target block B 8701 used when the target block B 8701 is compressed into the first difference data. The attention block B 8701 cannot be restored.
そこで、注目ブロックB8701について、第1と第2の差分データのうちの、相関最大ベクトル(U,V)が付加される第2の差分データだけを採用することにより、上述したような、データ量がほとんど削減されないことや、元の注目ブロックB8701を復元することができなくなることを防止することができる。 Therefore, for the target block B 8701 , by adopting only the second difference data to which the correlation maximum vector (U, V) is added, of the first and second difference data, the data as described above is obtained. It can be prevented that the amount is hardly reduced and the original attention block B 8701 cannot be restored.
しかしながら、第2の差分データだけを採用する場合には、相関最大ベクトル(U,V)の分だけのデータ量が、必ず増えることになる。 However, when only the second difference data is employed, the data amount corresponding to the maximum correlation vector (U, V) is necessarily increased.
そこで、注目ブロックB8701について、第1と第2の差分データの両方を求め、例えば、そのうちのデータ量の少ない方を、注目ブロックB8701の最終的な圧縮結果として選択することにより、データ量を低減するとともに、注目ブロックB8701を復元することができなくなることを防止することができる。 Therefore, for the target block B 8701, the first and obtains both the second difference data, for example, by selecting the lesser of the data amount of which, as the final compression result of the block of interest B 8701, the amount of data In addition, it is possible to prevent the target block B 8701 from being unable to be restored.
また、例えば、第1の差分データを求めるときに計算される式(9)の相関情報e1(U',V')の最小値と、2番目に小さい値との差が、ほとんどない場合(例えば、ある閾値以下である場合)には、第1の差分データのデータ量が少ないときでも、第2の差分データを、注目ブロックB8701の最終的な圧縮結果として選択することにより、元の注目ブロックB8701を復元することができなくなることを、より強固に防止することができる。 Further, for example, when there is almost no difference between the minimum value of the correlation information e 1 (U ′, V ′) of Equation (9) calculated when obtaining the first difference data and the second smallest value (For example, when it is below a certain threshold), even when the amount of the first difference data is small, the second difference data is selected as the final compression result of the block of interest B 8701. It is possible to more firmly prevent the attention block B 8701 from being unable to be restored.
次に、図81の差分データ計算部236で求められる第3の差分データについて説明する。
Next, the 3rd difference data calculated | required by the difference
差分データ計算部236では、注目ブロックについて、パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルと、フューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルとの、合計で2つの動きベクトルが求められる。
In the difference
ここで、以下、適宜、パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルを、前動きベクトルといい、また、フューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトルを、後動きベクトルという。 Here, hereinafter, the motion vector representing the correlation is high positional relationship between the target blocks in the PAST reference image V P, before called motion vector, also highly correlated positions of the target block in Futuresse reference image V F A motion vector representing the relationship is referred to as a post-motion vector.
差分データ計算部236では、注目ブロックとの位置関係が前動きベクトルで表される位置関係にあるパストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が後動きベクトルで表される位置関係にあるフューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値が求められる。そして、差分データ計算部236では、注目ブロックとその推測値との差分が、第3の差分データとして出力される。
In the difference
即ち、図90は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 90 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.
図90においては、例えば、被写体P8302が、一定でない速度で移動している。即ち、図90では、被写体P8302は、パストリファレンス画像VPからターゲット画像VTの時刻にかけては、遅い速度で移動し、ターゲット画像VTからフューチャリファレンス画像VFの時刻にかけては、速い速度で移動している。 In FIG. 90, for example, the subject P 8302 is moving at a non-constant speed. That is, in FIG. 90, the object P 8302 is subjected the time of the target image V T from Pasto reference image V P, moves at a slower rate, from the target image V T to a time of Futuresse reference image V F, at a faster rate Has moved.
いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9001を、注目ブロックとして注目すると、図90のパストリファレンス画像VPにおいて、注目ブロックB9001からベクトル(-U1,-V1)だけずれた位置の、注目ブロックB9001と同一サイズの領域R9001の画像データは、(理想的には)注目ブロックB9001と同一になっている。また、フューチャリファレンス画像VFにおいて、注目ブロックB9001からベクトル(U2,V2)だけずれた位置の、注目ブロックB9001と同一サイズの領域R9002の画像データは、(理想的には)注目ブロックB9001と同一になっている。従って、ベクトル(-U1,-V1)は前動きベクトルであり、ベクトル(U2,V2)は後動きベクトルである。 Now, in the target image V T, for example, a certain block B 9001 including only the subject P 8302, when attention as the subject block, in Past reference image V P of FIG. 90, the vector (-U 1 from the target block B 9001, - image data V 1) of the shifted position, the block of interest B 9001 and the region R 9001 of the same size is made equal to the (ideally) the block of interest B 9001. In the future reference image V F , the image data of the region R 9002 having the same size as the target block B 9001 at the position shifted from the target block B 9001 by the vector (U 2 , V 2 ) is (ideally) It is the same as the attention block B 9001 . Therefore, the vector (−U 1 , −V 1 ) is a front motion vector, and the vector (U 2 , V 2 ) is a back motion vector.
差分データ計算部236(図81)では、以上のような図90に示した場合に適した第3の差分データが求められる。 The difference data calculation unit 236 (FIG. 81) obtains third difference data suitable for the case shown in FIG. 90 as described above.
即ち、差分データ計算部236(図81)では、例えば、パストリファレンス画像VPの領域R9001と、フューチャリファレンス画像VFの領域R9002との画像データの平均値が演算され、その平均値を、注目ブロックB9001の推測値として、注目ブロックB9001とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB9001のデータ量を削減することができる。差分データ計算部236は、以上のような注目ブロックB9001とその推測値との差分を、注目ブロックB9001の圧縮結果である第3の差分データとして出力する。
That is, the difference data calculating unit 236 (FIG. 81), for example, the region R 9001 Past reference image V P, the average value of the image data of the area R 9002 of Futuresse reference image V F is calculated, the average value as an estimate of the block of interest B 9001, the difference between the target block B 9001 and its estimated value is calculated. Since this difference is almost 0, the data amount of the target block B 9001 can be reduced. The difference
ここで、差分データ計算部236は、パストリファレンス画像VPにおいて、注目ブロックB9001と同一の(最も類似する)画像データの領域R9001の位置を表す前動きベクトル(-U1,-V1)と、フューチャリファレンス画像VFにおいて、注目ブロックB9001と同一の(最も類似する)画像データの領域R9002の位置を表す後動きベクトル(U2,V2)を、次のようにして求める。
Here, the difference
即ち、差分データ計算部236は、注目ブロックと、パストリファレンス画像VPの領域Ipとの相関を表す相関情報e3(U',V')を、例えば、式(11)にしたがって求める。
That is, the difference
ここで、式(11)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表し、Ic(x,y)は、ターゲット画像VTにおける位置(x,y)における画素の画素値(注目ブロックの画素の画素値)を表す。また、Ip(x+U',y+V')は、パストリファレンス画像VPにおける位置(x+U',y+V')にある画素の画素値を表す。また、式(11)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in Expression (11), (x, y) represents the pixel position of the target block in the target image V T , and Ic (x, y) represents the position (x, y) in the target image V T. This represents the pixel value of the pixel (pixel value of the pixel of the target block). Also, Ip (x + U ', y + V') denotes the pixel value of the pixel at the position in Pasto reference image V P (x + U ', y + V'). Further, Σ in equation (11) represents summation for all the pixels constituting the block of interest.
なお、式(11)の相関情報e3(U',V')は、注目ブロックとパストリファレンス画像VPの領域Ipとの画素値の差分絶対値の総和であり、従って、注目ブロックとパストリファレンス画像VPの領域Ipとの相関が高いほど、相関情報e3(U',V')の「値」は、小さくなる。 Note that the correlation information e 3 (U ′, V ′) in Expression (11) is the sum of absolute differences of pixel values between the block of interest and the region Ip of the past reference image V P , and accordingly, the block of interest and the past the higher the correlation between the area Ip of the reference image V P, the "value" of the correlation information e 3 (U ', V' ) is reduced.
さらに、差分データ計算部236は、注目ブロックと、フューチャリファレンス画像VFの領域Ifとの相関を表す相関情報e4(U',V')を、例えば、式(12)にしたがって求める。
Further, the difference
ここで、式(12)において、(x,y)は、ターゲット画像VTにおける注目ブロックの画素の位置を表し、Ic(x,y)は、ターゲット画像VTにおける位置(x,y)における画素の画素値(注目ブロックの画素の画素値)を表す。また、If(x+U',y+V')は、フューチャリファレンス画像VFにおける位置(x+U',y+V')にある画素の画素値を表す。また、式(12)におけるΣは、注目ブロックを構成する画素すべてについてのサメーションを表す。 Here, in Expression (12), (x, y) represents the position of the pixel of the target block in the target image V T , and Ic (x, y) represents the position (x, y) in the target image V T. This represents the pixel value of the pixel (pixel value of the pixel of the target block). Also, If (x + U ', y + V') denotes the pixel value of the pixel at the position (x + U ', y + V') in Futuresse reference image V F. Further, Σ in Expression (12) represents summation for all the pixels constituting the block of interest.
なお、式(12)の相関情報e4(U',V')は、注目ブロックとフューチャリファレンス画像VFの領域Ifとの画素値の差分絶対値の総和であり、従って、注目ブロックとフューチャリファレンス画像VFの領域Ifとの相関が高いほど、相関情報e4(U',V')の「値」は、小さくなる。 Incidentally, formula (12) correlation information e 4 (U ', V' ) of a total sum of the difference absolute value of pixel values of a region If the block of interest and Futuresse reference image V F, therefore, the block of interest and Fuyucha the higher the correlation between the region If the reference image V F, the "value" of the correlation information e 4 (U ', V' ) is reduced.
差分データ計算部236は、式(11)の相関情報e3(U',V')と、式(12)の相関情報e4(U',V')とを、考えられる全ての(U',V')について計算する。ここで、考えられる全ての(U',V')とは、式(11)の相関情報e3(U',V')については、位置(x+U',y+V')がパストリファレンス画像VP上にある場合の(U',V')であり、式(12)の相関情報e4(U',V')については、位置(x+U',y+V')がフューチャリファレンス画像VF上にある場合の(U',V')である。なお、式(11)の相関情報e3(U',V')や、式(12)の相関情報e4(U',V')の計算は、その他、あらかじめ定められた範囲の(U',V')についてだけ行うようにしてもよい。
Differential
差分データ計算部236は、各値の(U',V')について計算した相関情報e3(U',V')から最小値を検出し、その相関情報e3(U',V')の最小値を与える(U',V')を、前動きベクトル(-U1,-V1)として検出する。さらに、差分データ計算部236は、各値の(U',V')について計算した相関情報e4(U',V')から最小値を検出し、その相関情報e4(U',V')の最小値を与える(U',V')を、後動きベクトル(U2,V2)として検出する。
The difference
差分データ計算部236では、注目ブロックとの位置関係が前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が後動きベクトル(U2,V2)で表される位置関係にあるフューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値が求められる。そして、差分データ計算部236では、注目ブロックとその推測値との差分を、第3の差分データとして、その第3の差分データに、前動きベクトル(-U1,-V1)と、後動きベクトル(U2,V2)とが付加されて出力される。
In the difference
このような第3の差分データは、それに付加されている前動きベクトル(-U1,-V1)と、後動きベクトル(U2,V2)とを用いて、元の注目ブロックに復元することができる。 Such third difference data is restored to the original block of interest using the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) added thereto. can do.
即ち、第3の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第3の差分データに付加されている前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)で表される位置関係にあるパストリファレンス画像VPとフューチャリファレンス画像VFとの画像データから、注目ブロックの推測値を求める。即ち、注目ブロックから前動きベクトル(-U1,-V1)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域と、注目ブロックから後動きベクトル(U2,V2)だけずれたフューチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域と、フューチャリファレンス画像VFの領域との画像データの平均値を、注目ブロックの推測値として求める。 That is, as in the case of obtaining the third difference data, first, the positional relationship with the block of interest is the previous motion vector (−U 1 , −V 1 ) added to the third difference data and the subsequent motion vector. from the image data of the Past reference image V P and Futuresse reference image V F at the position relationship represented by (U 2, V 2), we obtain the estimated value of the block of interest. That is, before the motion vector from the target block (-U 1, -V 1) shifted on Pasto reference image V P has a region of the block of interest and the same size, backward motion vector from the target block (U 2, V 2) An area of the same size as the target block on the future reference image V F that is shifted by a certain amount is obtained, and the average value of the image data of the past reference image V P area and the future reference image V F area Obtained as an estimated value.
そして、第3の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。 Then, the block of interest can be restored by adding the third difference data and the estimated value of the block of interest.
次に、図81の差分データ計算部237で求められる第4の差分データについて説明する。
Next, the fourth difference data obtained by the difference
差分データ計算部237では、注目ブロックについて、パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、前動きベクトル(-U1,-V1)だけが求められる(フューチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、後動きベクトル(U2,V2)は求められない)。
In the difference
差分データ計算部237では、注目ブロックとの位置関係が前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部237では、注目ブロックとその推測値との差分が、第4の差分データとして出力される。
The difference
即ち、図91は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 91 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.
図91においては、例えば、移動している被写体P8302が、突然消滅している。即ち、図91では、移動している被写体P8302が、パストリファレンス画像VPからターゲット画像VTの時刻にかけては存在しているが、ターゲット画像VTからフューチャリファレンス画像VFの時刻の間に消滅している。 In FIG. 91, for example, the moving subject P 8302 suddenly disappears. That is, in FIG. 91, the object P 8302 that is moving, although there are from Pasto reference image V P to a time of the target image V T, between the target image V T of time of Futuresse reference image V F It has disappeared.
いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9101を、注目ブロックとして注目すると、図91のパストリファレンス画像VPにおいて、注目ブロックB9101からベクトル(-U1,-V1)だけずれた位置の、注目ブロックB9101と同一サイズの領域R9101の画像データは、(理想的には)注目ブロックB9101と同一になっている。また、フューチャリファレンス画像VFにおいては、注目ブロックB9101と同一の(類似する)領域は、存在しない。 Now, in the target image V T, for example, a certain block B 9101 including only the subject P 8302, when attention as the subject block, in Past reference image V P of FIG. 91, the vector (-U 1 from the target block B 9101, - image data V 1) of the shifted position, the block of interest B 9101 and the same size of the area R 9101 is made identical to the (ideally) the block of interest B 9101. In the Futuresse reference image V F, the block of interest B same (similar) and 9101 regions are not present.
差分データ計算部237(図81)では、以上のような図91に示した場合に適した第4の差分データが求められる。 The difference data calculation unit 237 (FIG. 81) obtains fourth difference data suitable for the case shown in FIG. 91 as described above.
即ち、差分データ計算部237(図81)では、例えば、パストリファレンス画像VPの領域R9101の画像データを、そのまま、注目ブロックB9101の推測値として、注目ブロックB9101とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB9101のデータ量を削減することができる。差分データ計算部237は、以上のような注目ブロックB9101とその推測値との差分を、注目ブロックB9101の圧縮結果である第4の差分データとして出力する。
That is, the difference data calculating unit 237 (FIG. 81), for example, the image data of the area R 9101 Past reference image V P, it is, as inferred values of the target block B 9101, of the block of interest B 9101 and its estimated value The difference is calculated. Since this difference is almost zero, the data amount of the target block B 9101 can be reduced. The difference
ここで、差分データ計算部237は、パストリファレンス画像VPにおいて、注目ブロックB9101と同一の(最も類似する)画像データの領域R9101の位置を表す前動きベクトル(-U1,-V1)を、次のようにして求める。
Here, the difference
即ち、差分データ計算部237は、注目ブロックと、パストリファレンス画像VPの領域Ipとの相関を表す相関情報e3(U',V')を、例えば、上述した式(11)にしたがって求める。
That is, the difference
差分データ計算部237は、式(11)の相関情報e3(U',V')を、考えられる全ての(U',V')について計算する。さらに、差分データ計算部237は、各値の(U',V')について計算した相関情報e3(U',V')から最小値を検出し、その相関情報e3(U',V')の最小値を与える(U',V')を、前動きベクトル(-U1,-V1)として検出する。
The difference
差分データ計算部237では、注目ブロックとの位置関係が前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部237では、注目ブロックとその推測値との差分を、第4の差分データとして、その第4の差分データに、前動きベクトル(-U1,-V1)が付加されて出力される。
The difference
このような第4の差分データは、それに付加されている前動きベクトル(-U1,-V1)を用いて、元の注目ブロックに復元することができる。 Such fourth difference data can be restored to the original block of interest using the previous motion vector (−U 1 , −V 1 ) added thereto.
即ち、第4の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第4の差分データに付加されている前動きベクトル(-U1,-V1)で表される位置関係にあるパストリファレンス画像VPの画像データから、注目ブロックの推測値を求める。即ち、注目ブロックから前動きベクトル(-U1,-V1)だけずれたパストリファレンス画像VP上の、注目ブロックと同一サイズの領域を求め、そのパストリファレンス画像VPの領域の画像データを、そのまま、注目ブロックの推測値として求める。 That is, as in the case of obtaining the fourth difference data, first, the positional relationship with the block of interest is represented by the previous motion vector (−U 1 , −V 1 ) added to the fourth difference data. from the image data of Pasto reference image V P in the positional relationship, obtaining the estimated value of the block of interest. That is, an area of the same size as the target block on the past reference image V P shifted from the target block by the previous motion vector (−U 1 , −V 1 ) is obtained, and image data of the area of the past reference image V P is obtained. As it is, it is obtained as an estimated value of the target block.
そして、第4の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。 The block of interest can be restored by adding the fourth difference data and the estimated value of the block of interest.
次に、図81の差分データ計算部238で求められる第5の差分データについて説明する。
Next, the fifth difference data obtained by the difference
差分データ計算部238では、注目ブロックについて、フィーチャリファレンス画像VFにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、後動きベクトル(U2,V2)だけが求められる(パストリファレンス画像VPにおいて注目ブロックとの相関が高い位置関係を表す動きベクトル、つまり、前動きベクトル(-U1,-V1)は求められない)。
In the difference
差分データ計算部238では、注目ブロックとの位置関係が後動きベクトル(U2,V2)で表される位置関係にあるフィーチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部238では、注目ブロックとその推測値との差分が、第5の差分データとして出力される。
In the difference
即ち、図92は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 92 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.
図92においては、例えば、移動している被写体P8302が、突然出現している。即ち、図92では、移動している被写体P8302が、パストリファレンス画像VPの時刻には存在しないが、その後、ターゲット画像VTの時刻までの間に出現し、フューチャリファレンス画像VFの時刻でも存在している。 In FIG. 92, for example, the moving subject P 8302 suddenly appears. That is, in FIG. 92, the moving subject P 8302 does not exist at the time of the past reference image V P , but appears after that until the time of the target image V T , and the time of the future reference image V F But it exists.
いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9201を、注目ブロックとして注目すると、図92のフィーチャリファレンス画像VFにおいて、注目ブロックB9201からベクトル(U2,V2)だけずれた位置の、注目ブロックB9201と同一サイズの領域R9202の画像データは、(理想的には)注目ブロックB9201と同一になっている。また、パストリファレンス画像VPにおいては、注目ブロックB9201と同一の(類似する)領域は、存在しない。 Now, in the target image V T, for example, a certain block B 9201 including only the subject P 8302, when attention as the subject block, in the feature reference image V F of Figure 92, the vector from the target block B 9201 (U 2, V 2 The image data of the region R 9202 of the same size as the target block B 9201 at a position shifted by () is (ideally) the same as the target block B 9201 . Further, in the past reference image V P , there is no same (similar) area as the target block B 9201 .
差分データ計算部238(図81)では、以上のような図92に示した場合に適した第5の差分データが求められる。 The difference data calculation unit 238 (FIG. 81) obtains fifth difference data suitable for the case shown in FIG. 92 as described above.
即ち、差分データ計算部238(図81)では、例えば、フィーチャリファレンス画像VFの領域R9202の画像データを、そのまま、注目ブロックB9201の推測値として、注目ブロックB9201とその推測値との差分が演算される。この差分は、ほとんど0となるので、注目ブロックB9201のデータ量を削減することができる。差分データ計算部238は、以上のような注目ブロックB9201とその推測値との差分を、注目ブロックB9201の圧縮結果である第5の差分データとして出力する。
That is, the difference data calculating unit 238 (FIG. 81), for example, the image data of the area R 9202 of the feature reference image V F, it is, as inferred values of the target block B 9201, of the block of interest B 9201 and its estimated value The difference is calculated. Since this difference is almost 0, the data amount of the target block B 9201 can be reduced. The difference
ここで、差分データ計算部238は、フィーチャリファレンス画像VFにおいて、注目ブロックB9201と同一の(最も類似する)画像データの領域R9202の位置を表す後動きベクトル(U2,V2)を、次のようにして求める。
Here, the difference
即ち、差分データ計算部238は、注目ブロックと、フィーチャリファレンス画像VFの領域Ifとの相関を表す相関情報e4(U',V')を、例えば、上述した式(12)にしたがって求める。
That is, the difference
差分データ計算部238は、式(12)の相関情報e4(U',V')を、考えられる全ての(U',V')について計算する。さらに、差分データ計算部238は、各値の(U',V')について計算した相関情報e4(U',V')から最小値を検出し、その相関情報e4(U',V')の最小値を与える(U',V')を、後動きベクトル(U2,V2)として検出する。
The difference
差分データ計算部238では、注目ブロックとの位置関係が後動きベクトル(U2,V2)で表される位置関係にあるフィーチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値が求められる。そして、差分データ計算部238では、注目ブロックとその推測値との差分を、第5の差分データとして、その第5の差分データに、後動きベクトル(U2,V2)が付加されて出力される。
In the difference
このような第5の差分データは、それに付加されている後動きベクトル(U2,V2)を用いて、元の注目ブロックに復元することができる。 Such fifth difference data can be restored to the original block of interest using the post-motion vector (U 2 , V 2 ) added thereto.
即ち、第5の差分データを求める場合と同様に、まず、注目ブロックとの位置関係が、第5の差分データに付加されている後動きベクトル(U2,V2)で表される位置関係にあるフィーチャリファレンス画像VFの画像データから、注目ブロックの推測値を求める。即ち、注目ブロックから後動きベクトル(U2,V2)だけずれたフィーチャリファレンス画像VF上の、注目ブロックと同一サイズの領域を求め、そのフィーチャリファレンス画像VFの領域の画像データを、そのまま、注目ブロックの推測値として求める。 That is, as in the case of obtaining the fifth difference data, first, the positional relationship with the target block is the positional relationship represented by the rear motion vector (U 2 , V 2 ) added to the fifth differential data. from the image data of the feature reference image V F in, obtaining the estimated value of the block of interest. That is, on the feature reference image V F offset by backward motion vector (U 2, V 2) from the block of interest, determine the area of the block of interest and the same size, the image data of the area of the feature reference image V F, as As an estimated value of the target block.
そして、第5の差分データと、注目ブロックの推測値とを加算することにより、注目ブロックを復元することができる。 Then, the block of interest can be restored by adding the fifth difference data and the estimated value of the block of interest.
次に、図81の差分データ計算部239で求められる第6の差分データについて説明する。
Next, the sixth difference data obtained by the difference
差分データ計算部239では、注目ブロックの推定値が0であるとして、注目ブロックとその推測値との差分が、第6の差分データとして出力される。
In the difference
即ち、図93は、図83に示した被写体P8301とP8302とが投影されたターゲット画像VT、パストリファレンス画像VP、およびフューチャリファレンス画像VF(のフレーム)を示している。 That is, FIG. 93 shows the target image V T , past reference image V P , and feature reference image V F (frames) onto which the subjects P 8301 and P 8302 shown in FIG. 83 are projected.
図93においては、例えば、移動している被写体P8302が、突然出現し、その後、突然消滅している。即ち、図93では、移動している被写体P8302が、パストリファレンス画像VPの時刻には存在しないが、その後、ターゲット画像VTの時刻までの間に出現し、さらに、フューチャリファレンス画像VFの時刻までの間に消滅している。 In FIG. 93, for example, the moving subject P 8302 suddenly appears and then disappears suddenly. That is, in FIG. 93, the moving subject P 8302 does not exist at the time of the past reference image V P , but appears thereafter until the time of the target image V T , and further, the feature reference image V F It disappears by the time of.
いま、ターゲット画像VTにおいて、例えば、被写体P8302のみを含むあるブロックB9301を、注目ブロックとして注目すると、図93のパストリファレンス画像VPおよびフィーチャリファレンス画像VFのいずれにも、注目ブロックB9301と同一の(類似する)領域は、存在しない。 Now, in the target image V T , for example, when a block B 9301 including only the subject P 8302 is focused as a focused block, the focused block B is included in both the past reference image V P and the feature reference image V F in FIG. There is no region similar to (similar to) 9301 .
差分データ計算部239(図81)では、以上のような図93に示した場合に適した第6の差分データが求められる。 The difference data calculation unit 239 (FIG. 81) obtains sixth difference data suitable for the case shown in FIG. 93 as described above.
即ち、パストリファレンス画像VPおよびフィーチャリファレンス画像VFのいずれにも、注目ブロックB9301と同一の(類似する)領域が存在しない場合には、パストリファレンス画像VPやフィーチャリファレンス画像VFから、注目ブロックB9301の推測値を求めても、その推測値は、注目ブロックB9301の画像データとはかけ離れた値になる。従って、注目ブロックB9301と、そのような推測値との差分をとっても、その差分は、ほとんど0となることはなく、大きな値になるため、注目ブロックB9301のデータ量を削減することはできない。 In other words, in any of Pasto reference image V P and feature reference image V F, when the target block B the same (similar) and 9301 there is no region of Pasto reference image V P and feature reference image V F, also be determined estimate of the block of interest B 9301, the estimate has a value far from the image data of the target block B 9301. Therefore, even if the difference between the target block B 9301 and such an estimated value is taken, the difference is almost zero and becomes a large value, and therefore the data amount of the target block B 9301 cannot be reduced. .
そこで、差分データ計算部239は、注目ブロックB9301の推定値を求めずに、注目ブロックB9301を、第6の差分データとして出力する。ここで、第6の差分データは、上述したように、注目ブロックの推定値が0であるとして、注目ブロックとその推測値との差分をとった結果であるとみることもできる。
Therefore, the difference
なお、以上の第1乃至第6の差分データのうちの、第3乃至第6の差分データは、MPEGにおけるBピクチャと同様の概念のものである。 Of the above first to sixth difference data, the third to sixth difference data have the same concept as the B picture in MPEG.
また、上述の場合には、相関を表す相関情報として、計算量の削減のために、差分絶対値の総和を採用したが、相関情報としては、相関係数などを採用することもできる。 In the above case, the sum of absolute difference values is used as the correlation information representing the correlation in order to reduce the amount of calculation. However, a correlation coefficient or the like can also be used as the correlation information.
次に、図94は、第1の差分データを求める図81の差分データ計算部234の構成例を示している。
Next, FIG. 94 shows a configuration example of the difference
図94において、入力端子251には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。また、入力端子252には、図81の入力端子231からのパストリファレンス画像VPが入力され、入力端子253には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。
In FIG. 94, the target block (image data) from the
入力端子251から入力された注目ブロックは、減算部256に供給される。
The block of interest input from the
入力端子252から入力されたパストリファレンス画像VPは、相関最大位置検出部254および平均値計算部255に供給される。入力端子253から入力されたフューチャリファレンス画像VFも、相関最大位置検出部254および平均値計算部255に供給される。
The past reference image V P input from the
相関最大位置検出部254は、入力端子251からの注目ブロックについて、入力端子252からのパストリファレンス画像VPと、入力端子253からのフューチャリファレンス画像VFとにおいて、相関が高い位置関係を検出する。即ち、相関最大位置検出部254は、注目ブロックについて、式(9)の相関情報e1(U',V')を計算し、その相関情報e1(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e1(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部254は、相関情報e1(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表す位置関係ベクトル(U,V)として、平均値計算部255に供給する。
Maximum correlation
平均値計算部255は、相関最大位置検出部254からの位置関係ベクトル(U,V)が表す位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、減算部256に供給する。
The average value calculation unit 255 calculates the target block from the image data of the past reference image V P and the feature reference image V F in the positional relationship represented by the positional relationship vector (U, V) from the correlation maximum
即ち、平均値計算部255は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の領域との画像データの、例えば、重み付け平均値を、式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、減算部256に供給する。
That is, the average value calculation unit 255 determines the region at a position shifted from the target block by the vector (− (4-s) U, − (4-s) V) in the past reference image V P and the feature reference image V F. , For example, the weighted average value of the image data of the region at a position shifted from the target block by the vector (sU, sV) is calculated according to the equation (13), and the weighted average value is calculated as the estimated value of the target block. Obtained as Pre (x, y) and supplied to the
ここで、式(13)において、(x,y)は、ターゲット画像VTにおける注目ブロックの各画素の位置を表す。また、Ip(x-(4-s)U,y-(4-s)V)は、パストリファレンス画像VPにおける位置(x-(4-s)U,y-(4-s)V)の画素の画素値を表す。さらに、If(x+sU,y+sV)は、フューチャリファレンス画像VFにおける位置(x+sU,y+sV)の画素の画素値を表す。また、Wは、重みで、例えば、1/2などを採用することができる。 Here, in Expression (13), (x, y) represents the position of each pixel of the target block in the target image V T. Also, Ip (x- (4-s ) U, y- (4-s) V) is located in the Past reference image V P (x- (4-s ) U, y- (4-s) V) Represents the pixel value of the pixel. Furthermore, If (x + sU, y + sV) represents the pixel value of the pixel position (x + sU, y + sV ) in Futuresse reference image V F. W can be a weight, for example, 1/2.
なお、重みWは、例えば、ユーザの操作入力に応じて設定することができる。また、重みWは、その他、例えば、図82に示した、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒と、ターゲット画像VTとフューチャリファレンス画像VFとの時間差であるs/240秒との割合を考慮して決めても良い。 The weight W can be set, for example, according to a user operation input. Further, the weight W is, for example, (4-s) / 240 seconds, which is a time difference between the target image V T and the past reference image V P shown in FIG. 82, and the target image V T and the feature reference image V. It may be determined in consideration of the ratio with s / 240 seconds, which is the time difference from F.
即ち、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒が、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒よりも短いときは、注目ブロックの推測値は、パストリファレンス画像VPに重きをおいて求めた方が、より精度が高い値を求めることができる。一方、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒が、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒よりも短いときは、注目ブロックの推測値は、フューチャリファレンス画像VFに重きをおいて求めた方が、より精度が高い値を求めることができる。そこで、重みWは、上述の時間差を表す変数sに依存する値、即ち、例えば、s/4などとすることができる。 That is, when the time difference (4-s) / 240 seconds between the target image V T and the past reference image V P is shorter than s / 240 seconds, which is the time difference between the target image V T and the feature reference image V P. the estimated value of the block of interest, who found by emphasis on Past reference image V P is, it is possible to obtain a higher accuracy values. On the other hand, when the time difference between the target image V T and the future reference image V P is shorter than (4-s) / 240 seconds, which is the time difference between the target image V T and the past reference image V P the estimated value of the block of interest, who found by emphasis on Futuresse reference image V F is, it is possible to obtain a higher accuracy values. Therefore, the weight W can be a value that depends on the variable s representing the above-described time difference, that is, for example, s / 4.
減算部256は、平均値計算部255から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子251から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部256は、平均値計算部255から供給される注目ブロックの推測値Pre(x,y)と、入力端子251から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部257に供給する。
The subtracting
変換部257は、減算部256からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部257は、注目ブロックの差分値Sub(x,y)を、例えば、DCT(Discrete Cosine Transform)変換し、その結果得られるDCT係数を、量子化部258に供給する。
The conversion unit 257 converts the difference value Sub (x, y) of the target block from the
量子化部258は、変換部257からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部259に供給する。
The
可変長符号化部259は、量子化部258からの注目ブロックの量子化データを可変長符号化し、その結果得られる可変長符号を、第1の差分データとして、出力端子260から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部259において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなる。
The variable length coding unit 259 performs variable length coding on the quantized data of the block of interest from the
次に、図95のフローチャートを参照して、図94の差分データ計算部234の動作について説明する。
Next, the operation of the difference
まず最初に、ステップS211において、注目ブロック、パストリファレンス画像VP、およびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子251から減算部256に入力され、パストリファレンス画像VPが、入力端子252から、相関最大位置検出部254および平均値計算部255に入力される。さらに、フューチャリファレンス画像VFが、入力端子253から、相関最大位置検出部254および平均値計算部255に入力される。
First, in step S211, the block of interest, past reference image V P , and future reference image V F are input. That is, the block of interest is input from the
そして、ステップS211からS212に進み、相関最大位置検出部254は、入力端子251からの注目ブロックについて、入力端子252からのパストリファレンス画像VPと、入力端子253からのフューチャリファレンス画像VFとにおいて、相関が高い位置関係を検出する。即ち、相関最大位置検出部254は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(9)の相関情報e1(U',V')を計算し、その相関情報e1(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e1(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部254は、相関情報e1(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表す位置関係ベクトル(U,V)として、平均値計算部255に供給し、ステップS212からS213に進む。
Then, the process proceeds from step S211 to step S212, and the maximum correlation
ステップS213では、平均値計算部255は、式(13)にしたがい、相関最大位置検出部254からの位置関係ベクトル(U,V)が表す位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値Pre(x,y)を求め、減算部256に供給して、ステップS214に進む。
In step S213, the average value calculating unit 255, follows the equation (13), positional relation vector (U, V) from the maximum correlation
ステップS214では、減算部256は、平均値計算部255から供給される注目ブロックの推測値Pre(x,y)と、入力端子251から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部257に供給して、ステップS215に進む。
In step S214, the subtracting
ステップS215では、変換部257は、減算部256からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部258に供給して、ステップS216に進む。ステップS216では、量子化部258は、変換部257からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部259に供給して、ステップS217に進む。ステップS217では、可変長符号化部259は、量子化部258からの注目ブロックの量子化データを可変長符号化して、ステップS218に進み、可変長符号化の結果得られる可変長符号を、第1の差分データとして、出力端子260から、選択回路240(図81)に出力する。従って、第1の差分データには、位置関係ベクトル(U,V)は含まない。
In step S215, the converting unit 257 DCT-transforms the difference value Sub (x, y) of the target block from the subtracting
以上のようにして、差分データ計算部234では、ターゲット画像VTがブロック単位で、第1の差分データに圧縮される。
As described above, the difference
次に、図96は、第2の差分データを求める図81の差分データ計算部235の構成例を示している。
Next, FIG. 96 shows a configuration example of the difference
図96において、入力端子271には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。また、入力端子272には、図81の入力端子231からのパストリファレンス画像VPが入力され、入力端子273には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。
96, the target block (image data) from the
入力端子271から入力された注目ブロックは、相関最大位置検出部274および減算部276に供給される。
The block of interest input from the
入力端子272から入力されたパストリファレンス画像VPは、相関最大位置検出部274および平均値計算部275に供給される。入力端子273から入力されたフューチャリファレンス画像VFも、相関最大位置検出部274および平均値計算部275に供給される。
The past reference image V P input from the
相関最大位置検出部274は、入力端子271からの注目ブロックについて、入力端子272からのパストリファレンス画像VPと、入力端子273からのフューチャリファレンス画像VFとにおいて、入力端子271からの注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部274は、注目ブロックについて、式(10)の相関情報e2(U',V')を計算し、その相関情報e2(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e2(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部274は、相関情報e2(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す相関最大ベクトル(U,V)として、平均値計算部275および可変長符号化部279に供給する。
The correlation maximum
平均値計算部275は、注目ブロックとの位置関係が、相関最大位置検出部274からの相関最大ベクトル(U,V)から求められる位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、減算部276に供給する。
The average value calculation unit 275 has a positional relationship with the block of interest in a positional relationship obtained from the correlation maximum vector (U, V) from the correlation maximum
即ち、平均値計算部275は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の領域との画像データの、例えば、重み付け平均値を、上述の式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、減算部276に供給する。
That is, the average value calculating unit 275, in Pasto reference image V P, from the target block vector (- (4-s) U , - (4-s) V) shifted the position of the region, Futuresse reference image V F , For example, the weighted average value of the image data with the region at a position shifted from the target block by the vector (sU, sV) is calculated according to the above-described equation (13), and the weighted average value is calculated for the target block. The estimated value Pre (x, y) is obtained and supplied to the
減算部276は、平均値計算部275から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子271から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部276は、平均値計算部275から供給される注目ブロックの推測値Pre(x,y)と、入力端子271から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部277に供給する。
The
変換部277は、減算部276からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部277は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部278に供給する。
The conversion unit 277 converts the difference value Sub (x, y) of the target block from the
量子化部278は、変換部277からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部279に供給する。
The
可変長符号化部279は、量子化部278からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部274からの相関最大ベクトル(U,V)を可変長符号化する。さらに、可変長符号化部279は、注目ブロックの量子化データの可変長符号に、相関最大ベクトル(U,V)の可変長符号を付加し、第2の差分データとして、出力端子280から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部279において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第2の差分データは、相関最大ベクトル(U,V)の可変長符号だけとなる。
The variable length coding unit 279 performs variable length coding on the quantized data of the block of interest from the
次に、図97のフローチャートを参照して、図96の差分データ計算部235の動作について説明する。
Next, the operation of the difference
まず最初に、ステップS221において、注目ブロック、パストリファレンス画像VP、およびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子271から相関最大位置検出部274および減算部276に入力され、パストリファレンス画像VPが、入力端子272から、相関最大位置検出部274および平均値計算部275に入力される。さらに、フューチャリファレンス画像VFが、入力端子273から、相関最大位置検出部274および平均値計算部275に入力される。
First, in step S221, the block of interest, past reference image V P , and future reference image V F are input. That is, the block of interest is input from the
そして、ステップS221からS222に進み、相関最大位置検出部274は、入力端子271からの注目ブロックについて、入力端子272からのパストリファレンス画像VPと、入力端子273からのフューチャリファレンス画像VFとにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部274は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(10)の相関情報e2(U',V')を計算し、その相関情報e2(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e2(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部274は、相関情報e2(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す相関最大ベクトル(U,V)として、平均値計算部275および可変長符号化部279に供給し、ステップS222からS223に進む。
Then, the process proceeds from step S221 to step S222, and the maximum correlation
ステップS223では、平均値計算部275は、式(13)にしたがい、注目ブロックとの位置関係が、相関最大位置検出部274からの相関最大ベクトル(U,V)から求められる位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値Pre(x,y)を求め、減算部276に供給して、ステップS224に進む。
In step S223, the average value calculation unit 275 has a positional relationship with the block of interest obtained from the maximum correlation vector (U, V) from the maximum correlation
ステップS224では、減算部276は、平均値計算部275から供給される注目ブロックの推測値Pre(x,y)と、入力端子271から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部277に供給して、ステップS225に進む。
In step S224, the
ステップS225では、変換部277は、減算部276からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部278に供給して、ステップS226に進む。ステップS226では、量子化部278は、変換部277からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部279に供給して、ステップS227に進む。ステップS227では、可変長符号化部279は、量子化部278からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部274からの相関最大ベクトル(U,V)を可変長符号化する。さらに、ステップS227において、可変長符号化部279は、注目ブロックの量子化データの可変長符号に、相関最大ベクトル(U,V)の可変長符号を付加することにより、第2の差分データとして、ステップS228に進み、その第2の差分データを、出力端子280から、選択回路240(図81)に出力する。
In step S225, the converting unit 277 performs DCT conversion on the difference value Sub (x, y) of the target block from the subtracting
以上のようにして、差分データ計算部235では、ターゲット画像VTがブロック単位で、第2の差分データに圧縮される。
As described above, the difference
次に、図98は、第3の差分データを求める図81の差分データ計算部236の構成例を示している。
Next, FIG. 98 shows a configuration example of the difference
図98において、入力端子291には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。また、入力端子292には、図81の入力端子231からのパストリファレンス画像VPが入力され、入力端子293には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。
98, the target block (image data) from the
入力端子291から入力された注目ブロックは、相関最大位置検出部294,295、および減算部297に供給される。
The block of interest input from the
入力端子292から入力されたパストリファレンス画像VPは、相関最大位置検出部294および平均値計算部296に供給される。入力端子293から入力されたフューチャリファレンス画像VFは、相関最大位置検出部295および平均値計算部296に供給される。
The past reference image V P input from the
相関最大位置検出部294は、入力端子292からのパストリファレンス画像VPにおいて、入力端子291からの注目ブロックとの相関が高い位置関係を検出する相関最大位置検出部295は、入力端子293からのフューチャリファレンス画像VFにおいて、入力端子291からの注目ブロックとの相関が高い位置関係を検出する。
Maximum correlation
即ち、相関最大位置検出部294は、注目ブロックについて、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部294は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、平均値計算部296および可変長符号化部300に供給する。
That is, the maximum correlation
また、相関最大位置検出部295は、注目ブロックについて、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部295は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、平均値計算部296および可変長符号化部300に供給する。
In addition, the maximum correlation
平均値計算部296は、注目ブロックとの位置関係が、相関最大位置検出部294からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が、相関最大位置検出部295からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値を求め、減算部297に供給する。
The average
即ち、平均値計算部296は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の領域と、フューチャリファレンス画像VFにおいて、後ベクトル(U2,V2)だけずれた位置の領域との画像データの、例えば、重み付け平均値を、式(14)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、減算部297に供給する。
That is, the average
ここで、式(14)において、(x,y)は、ターゲット画像VTにおける注目ブロックの各画素の位置を表す。また、Ip(x-U1,y-V1)は、パストリファレンス画像VPにおける位置(x-U1,y-V1)の画素の画素値を表す。さらに、If(x+U2,y+V2)は、フューチャリファレンス画像VFにおける位置(x+U2,y+V2)の画素の画素値を表す。また、Wは、重みで、例えば、1/2などを採用することができる。 Here, in the formula (14), (x, y ) represents the position of each pixel of the block of interest in the target image V T. Also, Ip (xU 1, yV 1 ) represents the pixel value of the pixel position (xU 1, yV 1) in the PAST reference image V P. Furthermore, If (x + U 2, y + V 2) represents the pixel value of the pixel position in Futuresse reference image V F (x + U 2, y + V 2). W can be a weight, for example, 1/2.
なお、重みWは、例えば、ユーザの操作入力に応じて設定することができる。また、重みWは、その他、例えば、図82に示した、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒と、ターゲット画像VTとフューチャリファレンス画像VFとの時間差であるs/240秒との割合を考慮して決めても良い。 The weight W can be set, for example, according to a user operation input. Further, the weight W is, for example, (4-s) / 240 seconds, which is a time difference between the target image V T and the past reference image V P shown in FIG. 82, and the target image V T and the feature reference image V. It may be determined in consideration of the ratio with s / 240 seconds, which is the time difference from F.
即ち、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒が、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒よりも短いときは、注目ブロックの推測値は、パストリファレンス画像VPに重きをおいて求めた方が、より精度が高い値を求めることができる。一方、ターゲット画像VTとフューチャリファレンス画像VPとの時間差であるs/240秒が、ターゲット画像VTとパストリファレンス画像VPとの時間差である(4-s)/240秒よりも短いときは、注目ブロックの推測値は、フューチャリファレンス画像VFに重きをおいて求めた方が、より精度が高い値を求めることができる。そこで、重みWは、上述の時間差を表す変数sに依存する値、即ち、例えば、s/4などとすることができる。 That is, when the time difference (4-s) / 240 seconds between the target image V T and the past reference image V P is shorter than s / 240 seconds, which is the time difference between the target image V T and the feature reference image V P. the estimated value of the block of interest, who found by emphasis on Past reference image V P is, it is possible to obtain a higher accuracy values. On the other hand, when the time difference between the target image V T and the future reference image V P is shorter than (4-s) / 240 seconds, which is the time difference between the target image V T and the past reference image V P the estimated value of the block of interest, who found by emphasis on Futuresse reference image V F is, it is possible to obtain a higher accuracy values. Therefore, the weight W can be a value that depends on the variable s representing the above-described time difference, that is, for example, s / 4.
減算部297は、平均値計算部296から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子291から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部297は、平均値計算部296から供給される注目ブロックの推測値Pre(x,y)と、入力端子291から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部298に供給する。
The
変換部298は、減算部297からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部298は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部299に供給する。
The conversion unit 298 converts the difference value Sub (x, y) of the target block from the
量子化部299は、変換部298からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部300に供給する。
The
可変長符号化部300は、量子化部299からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部294からの前動きベクトル(-U1,-V1)と、相関最大位置検出部295からの後動きベクトル(U2,V2)とを可変長符号化する。さらに、可変長符号化部300は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)との可変長符号を付加し、第3の差分データとして、出力端子301から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部300において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第3の差分データは、前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)との可変長符号だけとなる。
The variable
次に、図99のフローチャートを参照して、図98の差分データ計算部236の動作について説明する。
Next, the operation of the difference
まず最初に、ステップS231において、注目ブロック、パストリファレンス画像VP、およびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子291から相関最大位置検出部294,295、および減算部297に入力され、パストリファレンス画像VPが、入力端子292から、相関最大位置検出部294および平均値計算部296に入力される。さらに、フューチャリファレンス画像VFが、入力端子293から、相関最大位置検出部295および平均値計算部296に入力される。
First, in step S231, the target block, past reference image V P , and future reference image V F are input. That is, the block of interest is input from the
そして、ステップS231からS232に進み、相関最大位置検出部294は、入力端子291からの注目ブロックについて、入力端子292からのパストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部294は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部294は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、平均値計算部296および可変長符号化部300に供給し、ステップS232からS233に進む。
Then, the process proceeds from step S231 to S232, and the maximum correlation
ステップS233では、相関最大位置検出部295は、入力端子291からの注目ブロックについて、入力端子293からのフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部295は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部294は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、平均値計算部296および可変長符号化部300に供給し、ステップS233からS234に進む。
In step S233, the maximum correlation
ステップS234では、平均値計算部296は、式(14)にしたがい、注目ブロックとの位置関係が、相関最大位置検出部294からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データと、注目ブロックとの位置関係が、相関最大位置検出部295からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データとから、注目ブロックの推測値Pre(x,y)を求め、減算部297に供給して、ステップS235に進む。
In step S234, the average
ステップS235では、減算部297は、平均値計算部296から供給される注目ブロックの推測値Pre(x,y)と、入力端子291から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部298に供給して、ステップS236に進む。
In step S <b> 235, the
ステップS236では、変換部298は、減算部297からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部299に供給して、ステップS237に進む。ステップS237では、量子化部299は、変換部298からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部300に供給して、ステップS238に進む。ステップS238では、可変長符号化部300は、量子化部299からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部294からの前動きベクトル(-U1,-V1)と、相関最大位置検出部295からの後動きベクトル(U2,V2)とを可変長符号化する。さらに、ステップS238において、可変長符号化部300は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)との可変長符号を付加することにより、第3の差分データとして、ステップS239に進み、その第3の差分データを、出力端子301から、選択回路240(図81)に出力する。
In step S236, the conversion unit 298 DCT-transforms the difference value Sub (x, y) of the target block from the
以上のようにして、差分データ計算部236では、ターゲット画像VTがブロック単位で、第3の差分データに圧縮される。
As described above, the difference
次に、図100は、第4の差分データを求める図81の差分データ計算部237の構成例を示している。
Next, FIG. 100 shows a configuration example of the difference
図100において、入力端子311には、図81の入力端子233からの注目ブロック(の画像データ)が入力され、入力端子312には、図81の入力端子231からのパストリファレンス画像VPが入力される。
In FIG. 100, the target block (image data) from the
入力端子311から入力された注目ブロックは、相関最大位置検出部313および減算部315に供給される。
The block of interest input from the
入力端子312から入力されたパストリファレンス画像VPは、相関最大位置検出部313および切り出し部314に供給される。
The past reference image V P input from the
相関最大位置検出部313は、入力端子312からのパストリファレンス画像VPにおいて、入力端子311からの注目ブロックとの相関が高い位置関係を検出する。
Maximum correlation
即ち、相関最大位置検出部313は、注目ブロックについて、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部313は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、切り出し部314および可変長符号化部318に供給する。
That is, the maximum correlation
切り出し部314は、注目ブロックとの位置関係が、相関最大位置検出部313からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データを切り出し、注目ブロックの推測値として、減算部315に供給する。
The cutout unit 314 has image data of a region of the past reference image V P in which the positional relationship with the target block is the positional relationship represented by the previous motion vector (−U 1 , −V 1 ) from the maximum correlation
即ち、切り出し部314は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し(求め)、減算部315に供給する。
In other words, the cutout unit 314 uses the estimated data Pre (x, y) of the block of interest in the region of the past reference image V P that is shifted from the block of interest by the previous motion vector (−U 1 , −V 1 ). ) Is cut out (obtained) and supplied to the
減算部315は、切り出し部314から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子311から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部315は、切り出し部314から供給される注目ブロックの推測値Pre(x,y)と、入力端子311から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部316に供給する。
The
変換部316は、減算部315からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部316は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部317に供給する。
The conversion unit 316 converts the difference value Sub (x, y) of the target block from the
量子化部317は、変換部316からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部318に供給する。
The
可変長符号化部318は、量子化部317からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部313からの前動きベクトル(-U1,-V1)を可変長符号化する。さらに、可変長符号化部318は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)の可変長符号を付加し、第4の差分データとして、出力端子319から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部318において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第4の差分データは、前動きベクトル(-U1,-V1)の可変長符号だけとなる。
The variable length encoding unit 318 performs variable length encoding on the quantized data of the block of interest from the
次に、図101のフローチャートを参照して、図100の差分データ計算部237の動作について説明する。
Next, the operation of the difference
まず最初に、ステップS241において、注目ブロックおよびパストリファレンス画像VPが入力される。即ち、注目ブロックが、入力端子311から相関最大位置検出部313および減算部315に入力され、パストリファレンス画像VPが、入力端子312から、相関最大位置検出部313および切り出し部314に入力される。
First, in step S241, the target block and past reference image V P are input. That is, the block of interest is input from the
そして、ステップS241からS242に進み、相関最大位置検出部313は、入力端子311からの注目ブロックについて、入力端子312からのパストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部313は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(11)の相関情報e3(U',V')を計算し、その相関情報e3(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e3(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部313は、相関情報e3(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す前動きベクトル(-U1,-V1)として、切り出し部314および可変長符号化部318に供給し、ステップS242からS243に進む。
Then, the process proceeds from step S241 to S242, and the maximum correlation
ステップS243では、切り出し部314は、注目ブロックとの位置関係が、相関最大位置検出部313からの前動きベクトル(-U1,-V1)が表す位置関係にある、パストリファレンス画像VPの領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し、減算部315に供給して、ステップS244に進む。
In step S243, the cutout unit 314 has the positional relationship with the target block of the past reference image V P in the positional relationship represented by the previous motion vector (−U 1 , −V 1 ) from the correlation maximum
ステップS244では、減算部315は、切り出し部314から供給される注目ブロックの推測値Pre(x,y)と、入力端子311から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部316に供給して、ステップS245に進む。
In step S244, the subtracting
ステップS245では、変換部316は、減算部315からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部317に供給して、ステップS246に進む。ステップS246では、量子化部317は、変換部316からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部318に供給して、ステップS247に進む。ステップS247では、可変長符号化部318は、量子化部317からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部313からの前動きベクトル(-U1,-V1)を可変長符号化する。さらに、ステップS247において、可変長符号化部318は、注目ブロックの量子化データの可変長符号に、前動きベクトル(-U1,-V1)の可変長符号を付加することにより、第4の差分データとして、ステップS248に進み、その第4の差分データを、出力端子319から、選択回路240(図81)に出力する。
In step S245, the conversion unit 316 DCT-transforms the difference value Sub (x, y) of the target block from the
以上のようにして、差分データ計算部237では、ターゲット画像VTがブロック単位で、第4の差分データに圧縮される。
As described above, the difference
次に、図102は、第5の差分データを求める図81の差分データ計算部238の構成例を示している。
Next, FIG. 102 shows a configuration example of the difference
図102において、入力端子331には、図81の入力端子233からの注目ブロック(の画像データ)が入力され、入力端子332には、図81の入力端子232からのフューチャリファレンス画像VFが入力される。
102, the target block (image data) from the
入力端子331から入力された注目ブロックは、相関最大位置検出部333および減算部335に供給される。
The block of interest input from the
入力端子332から入力されたフューチャリファレンス画像VFは、相関最大位置検出部333および切り出し部334に供給される。
The feature reference image V F input from the
相関最大位置検出部333は、入力端子332からのフューチャリファレンス画像VFにおいて、入力端子331からの注目ブロックとの相関が高い位置関係を検出する。
Maximum correlation
即ち、相関最大位置検出部333は、注目ブロックについて、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部333は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、切り出し部334および可変長符号化部338に供給する。
That is, the maximum correlation
切り出し部334は、注目ブロックとの位置関係が、相関最大位置検出部333からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データを切り出し、注目ブロックの推測値として、減算部335に供給する。
Clipping unit 334, the positional relationship between the block of interest, cut out image data of the motion vector (U 2, V 2) in a positional relationship represented by the area of Futuresse reference image V F after the maximum correlation
即ち、切り出し部334は、フューチャリファレンス画像VFにおいて、注目ブロックから後動きベクトル(U2,V2)だけずれた位置の領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し(求め)、減算部335に供給する。
That is, the cutout portion 334, in Futuresse reference image V F, the image data of the area of the position shifted by backward motion vector (U 2, V 2) from the target block, as estimated value Pre block of interest (x, y) Cutting out (obtaining) and supplying to the
減算部335は、切り出し部334から供給される注目ブロックの推測値Pre(x,y)を用いて、入力端子331から供給される注目ブロック(の画像データ)Ic(x,y)を圧縮する。即ち、減算部335は、切り出し部334から供給される注目ブロックの推測値Pre(x,y)と、入力端子331から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)=Ic(x,y)-Pre(x,y)を、変換部336に供給する。
The
変換部336は、減算部335からの注目ブロックの差分値Sub(x,y)を、周波数空間上のデータに変換する。即ち、変換部336は、注目ブロックの差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部337に供給する。
The conversion unit 336 converts the difference value Sub (x, y) of the target block from the
量子化部337は、変換部336からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部338に供給する。
The quantization unit 337 quantizes the DCT coefficient of the block of interest from the transform unit 336 and supplies the quantized data obtained as a result to the variable
可変長符号化部338は、量子化部337からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部333からの後動きベクトル(U2,V2)を可変長符号化する。さらに、可変長符号化部338は、注目ブロックの量子化データの可変長符号に、後動きベクトル(U2,V2)の可変長符号を付加し、第5の差分データとして、出力端子339から、選択回路240(図81)に出力する。なお、注目ブロック(の画像データ)Ic(x,y)とその推測値Pre(x,y)とが完全に一致する場合、可変長符号化部338において、注目ブロックの量子化データを可変長符号化することにより得られる可変長符号は、NULLを表すものとなり、第5の差分データは、後動きベクトル(U2,V2)の可変長符号だけとなる。
The variable
次に、図103のフローチャートを参照して、図102の差分データ計算部238の動作について説明する。
Next, the operation of the difference
まず最初に、ステップS251において、注目ブロックおよびフューチャリファレンス画像VFが入力される。即ち、注目ブロックが、入力端子331から相関最大位置検出部333および減算部335に入力され、フューチャリファレンス画像VFが、入力端子332から、相関最大位置検出部333および切り出し部334に入力される。
First, in step S251, the block of interest and Futuresse reference image V F is input. That is, the target block is input from the
そして、ステップS251からS252に進み、相関最大位置検出部333は、入力端子331からの注目ブロックについて、入力端子332からのフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出する。即ち、相関最大位置検出部333は、注目ブロックにつき、考えられるすべての(U',V')の値について、式(12)の相関情報e4(U',V')を計算し、その相関情報e4(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e4(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部333は、相関情報e4(U',V')の値を最小にする(U',V')を、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が最も高い領域の位置関係を表す後動きベクトル(U2,V2)として、切り出し部334および可変長符号化部338に供給し、ステップS252からS253に進む。
Then, the process proceeds from step S251 to S252, the maximum correlation
ステップS253では、切り出し部334は、注目ブロックとの位置関係が、相関最大位置検出部333からの後動きベクトル(U2,V2)が表す位置関係にある、フューチャリファレンス画像VFの領域の画像データを、注目ブロックの推測値Pre(x,y)として切り出し、減算部335に供給して、ステップS254に進む。
In step S253, the cutout unit 334 has the positional relationship with the block of interest in the region of the future reference image V F in which the positional relationship represented by the back motion vector (U 2 , V 2 ) from the maximum correlation
ステップS254では、減算部335は、切り出し部334から供給される注目ブロックの推測値Pre(x,y)と、入力端子331から供給される注目ブロックIc(x,y)との、対応する画素の画素値どうしの差分を計算し、その結果得られる差分値Sub(x,y)を、変換部336に供給して、ステップS255に進む。
In step S254, the
ステップS255では、変換部336は、減算部335からの注目ブロックの差分値Sub(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部337に供給して、ステップS256に進む。ステップS256では、量子化部337は、変換部336からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部338に供給して、ステップS257に進む。ステップS257では、可変長符号化部338は、量子化部337からの注目ブロックの量子化データを可変長符号化するとともに、相関最大位置検出部333からの後動きベクトル(U2,V2)を可変長符号化する。さらに、ステップS257において、可変長符号化部338は、注目ブロックの量子化データの可変長符号に、後動きベクトル(U2,V2)の可変長符号を付加することにより、第5の差分データとして、ステップS258に進み、その第5の差分データを、出力端子339から、選択回路240(図81)に出力する。
In step S255, the converting unit 336 performs DCT conversion on the difference value Sub (x, y) of the target block from the subtracting
以上のようにして、差分データ計算部238では、ターゲット画像VTがブロック単位で、第5の差分データに圧縮される。
As described above, the difference
次に、図104は、第6の差分データを求める図81の差分データ計算部239の構成例を示している。
Next, FIG. 104 shows a configuration example of the difference
図104において、入力端子351には、図81の入力端子233からの注目ブロック(の画像データ)が入力される。入力端子351から入力された注目ブロックは、変換部352に供給される。
104, the target block (image data thereof) from the
変換部352は、入力端子351から入力された注目ブロック、即ち、注目ブロック(の画像データ)Ic(x,y)と、その推測値Pre(x,y)としての0との差分値Sub(x,y)=Ic(x,y)-Pre(x,y)=Ic(x,y)を、周波数空間上のデータに変換する。即ち、変換部352は、注目ブロックの画像データIc(x,y)に等しい差分値Sub(x,y)を、例えば、DCT変換し、その結果得られるDCT係数を、量子化部353に供給する。
The converting unit 352 receives the difference value Sub () between the target block input from the
量子化部353は、変換部352からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部354に供給する。
The
可変長符号化部354は、量子化部353からの注目ブロックの量子化データを可変長符号化し、第6の差分データとして、出力端子355から、選択回路240(図81)に出力する。
The variable length coding unit 354 performs variable length coding on the quantized data of the block of interest from the
次に、図105のフローチャートを参照して、図104の差分データ計算部239の動作について説明する。
Next, the operation of the difference
まず最初に、ステップS261において、注目ブロックが入力される。即ち、注目ブロックが、入力端子351から変換部352に入力される。
First, in step S261, a target block is input. That is, the block of interest is input from the
そして、ステップS261からS262に進み、変換部352は、入力端子351から入力された注目ブロック、即ち、注目ブロック(の画像データ)Ic(x,y)と、その推測値Pre(x,y)としての0との差分値Sub(x,y)=Ic(x,y)-Pre(x,y)=Ic(x,y)をDCT変換し、その結果得られるDCT係数を、量子化部353に供給して、ステップS263に進む。ステップS263では、量子化部353は、変換部352からの注目ブロックのDCT係数を量子化し、その結果得られる量子化データを、可変長符号化部354に供給して、ステップS264に進む。ステップS264では、可変長符号化部354は、量子化部353からの注目ブロックの量子化データを可変長符号化し、その結果得られる可変長符号を、第6の差分データとして、ステップS265に進み、その第6の差分データを、出力端子355から、選択回路240(図81)に出力する。
Then, the process proceeds from step S261 to S262, and the conversion unit 352 receives the target block input from the
以上のようにして、差分データ計算部239では、ターゲット画像VTがブロック単位で、第6の差分データに圧縮される。
As described above, the difference
次に、図106は、図81の差分データ計算部234乃至239が選択回路240に対して出力する第1乃至第6の差分データそれぞれのデータ構造を、模式的に示している。
Next, FIG. 106 schematically illustrates a data structure of each of the first to sixth difference data output from the difference
差分データ計算部234が選択回路240に対して出力する第1の差分データは、図106上から1番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号からなる。即ち、第1の差分データには、位置関係ベクトル(U,V)は含まれない。
As shown first in FIG. 106, the first difference data output from the difference
差分データ計算部235が選択回路240に対して出力する第2の差分データは、図106上から2番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、相関最大ベクトル(U,V)の可変長符号とからなる。
The second difference data output from the difference
差分データ計算部236が選択回路240に対して出力する第3の差分データは、図106上から3番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)の可変長符号とからなる。
The third difference data output from the difference
差分データ計算部237が選択回路240に対して出力する第4の差分データは、図106上から4番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、前動きベクトル(-U1,-V1)の可変長符号とからなる。
The fourth difference data output from the difference
差分データ計算部238が選択回路240に対して出力する第5の差分データは、図106上から5番目に示すように、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号と、後動きベクトル(U2,V2)の可変長符号とからなる。
The fifth difference data output from the difference
差分データ計算部239が選択回路240に対して出力する第6の差分データは、図106上から6番目に示すように、注目ブロックとその推測値としての0との差分値、即ち、注目ブロックをDCT処理し、さらに量子化して得られる量子化データの可変長符号からなる。
The sixth difference data output from the difference
なお、注目ブロックとその推測値との差分値をDCT処理し、さらに量子化して得られる量子化データの可変長符号は、上述したように、注目ブロックとその推測値とが一致していれば、NULLとなる。 Note that the variable length code of the quantized data obtained by performing DCT processing on the difference value between the target block and its estimated value, and further quantizing it, as described above, if the target block and its estimated value match. , NULL.
次に、図107は、図81の選択回路240が出力端子241から差分圧縮データとして出力する第1乃至第6の差分データのデータ構造を、模式的に示している。
Next, FIG. 107 schematically shows the data structure of first to sixth difference data output from the
選択回路240は、注目ブロックについて、差分データ計算部234乃至239が出力する第1乃至第6の差分データのうちの1つを、選択差分データとして選択し、その選択差分データが、第1乃至第6の差分データのうちのいずれであるかを表すケースIDを付加して、出力端子241から、差分圧縮データとして出力する。
The
図107では、第1乃至第6の差分データに対し、ケースIDとして、1,2,3,4,5,6が、それぞれ付加されるようになっている。 In FIG. 107, 1, 2, 3, 4, 5, and 6 are added as case IDs to the first to sixth difference data, respectively.
次に、図108のフローチャートを参照して、図79の送信装置1の処理について説明する。
Next, processing of the
図79の入力端子211から帯域制限フィルタ部212には、240fps動画データが供給される。
The fps moving image data is supplied from the
帯域制限フィルタ部212は、ステップS281において、入力端子211からの240fps動画データを対象に、上述したような人間の視覚特性を考慮した必要な情報のみを残すフィルタリングを行い、その結果得られる240fps動画データを、分離回路213に供給して、ステップS282に進む。
In step S281, the band limiting
ステップS282では、分離回路213は、帯域制限フィルタ部212からの240fps動画データを、60fps動画データと、240fps動画データから60fps動画データを除いた残りの240-60fps動画データとに分離し、60fps動画データを、圧縮回路214に供給するとともに、240-60fps動画データを、ターゲット画像として、差分情報抽出部217に供給する。
In step S282, the
そして、ステップS283に進み、圧縮回路214は、分離回路213から供給される60fps動画データをエンコード(圧縮)し、その結果得られるビットストリームを出力する。このビットストリームは、解凍回路216と出力端子215に供給される。
In step S283, the
その後、ステップS284に進み、解凍回路216は、圧縮回路214からのビットストリームをローカルデコードし、そのローカルデコードの結果得られる60fps動画データを、リファレンス画像として、差分情報抽出部217に供給して、ステップS285に進む。
Thereafter, the process proceeds to step S284, and the
ステップS285では、差分情報抽出部217は、分離回路213からのターゲット画像である240-60fps動画データを、解凍回路216からのリファレンス画像である60fps動画データを用いて圧縮し、即ち、リファレンス画像(60fps動画データ)に対するターゲット画像(240-60fps動画データ)の差分に関する差分圧縮データを求めることにより、ターゲット画像を圧縮し、その差分圧縮データを出力端子218に供給して、ステップS286に進む。
In step S285, the difference
ステップS286では、60fps動画データ(リファレンス画像)のエンコード結果としてのビットストリームが、出力端子215から出力されるとともに、240-60fps動画データの圧縮結果としての差分圧縮データが、出力端子218から出力される。
In step S286, a bit stream as an encoding result of 60 fps moving image data (reference image) is output from the
以上のように、図79の送信装置1においては、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが、別々に独立に出力されるので、受信装置2(図24)では、例えば、60fps動画データのエンコード結果としてのビットストリームだけを受信することで、60fps動画データを復元することができる。また、受信装置2では、例えば、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとを受信することで、60fps動画データを復元することもできるし、240fps動画データも復元することができる。即ち、いわゆる、テンポラルスケーラビリティを持たせることが出来る。
As described above, in the
次に、図109のフローチャートを参照して、差分情報抽出部217が、図108のステップS285で行うターゲット画像(240-60fps動画データ)の圧縮について説明する。
Next, the compression of the target image (240-60 fps moving image data) performed by the difference
差分情報抽出部217(図81)では、ステップS291において、差分データ計算部234乃至239が、注目ブロックについて、図106に示した第1乃至第6の差分データを、図94乃至図105で説明したようにして求め、選択回路240に供給して、ステップS292に進む。
In the difference information extraction unit 217 (FIG. 81), in step S291, the difference
ステップS292では、選択回路240は、差分データ計算部234乃至239それぞれからの注目ブロックについての第1乃至第6の差分データのうちの、データ量が最小のものを、選択差分データとして選択し、ステップS293に進む。
In step S292, the
ここで、注目ブロックについての第1乃至第6の差分データのうちの第1の差分データのデータ量が最小である場合には、選択回路240において、第1の差分データを求めるときに計算される式(9)の相関情報e1(U',V')の最小値と、2番目に小さい値との差が、ある閾値以下であるかどうかを判定し、式(9)の相関情報e1(U',V')の最小値と、2番目に小さい値との差が、ある閾値以下であるときには、第1の差分データに代えて、第2乃至第6の差分データのうちのデータ量が最小のもの(第1乃至第6の差分データのうちのデータ量が2番目に小さいもの)を、選択差分データとして選択することができる。この場合、上述したように、第1の差分データを、元の注目ブロックに復元することができなくなることを、より強固に防止することができる。
Here, when the data amount of the first difference data among the first to sixth difference data for the block of interest is the minimum, the
ステップS293では、選択回路240は、選択差分データに対して、対応するケースIDを付加し、これにより、図107に示したいずれかのデータ構造の差分圧縮データを、注目ブロックの圧縮結果として、出力端子241から出力する。
In step S293, the
即ち、これにより、出力端子241からは、ブロックごとに、第1乃至第6の差分データのうちの最適なものが出力される。
That is, as a result, the optimum one of the first to sixth difference data is output from the
以上のように、図79の送信装置1では、入力端子211から入力した240fps動画データを圧縮し、2つの圧縮結果(第1と第2の圧縮結果)を出力する。第1の圧縮結果は、圧縮回路214により、240fps動画データから分離した60fps動画データを圧縮して得られるビットストリームである。このビットストリームは、出力端子215から出力される。第2の圧縮結果は、差分情報抽出部217により、240fps動画データから分離した240-60fps動画データを、60fps動画データとの差分をとることにより圧縮した差分圧縮データである。差分圧縮データは、ブロック単位で可変長符号化されており、出力端子218から出力される。
As described above, the
また、図79の送信装置1では、帯域制限フィルタ部212において、入力端子211からの240fps動画データに対して、人間の視覚特性を考慮した通過帯域のフィルタ、即ち、1/60秒程度のローパスフィルタ(ただし、被写体の動きを考慮して適応的にフィルタ係数(タップ係数)を変更している)をかけている。人間の視覚特性により、1/60秒程度の範囲内で不規則に移動する物体には人間の目は追従することが出来ずに、1/60秒の間積分された画素値を認識することから、このようなローパスフィルタ(帯域制限フィルタ)をかけても人間には画質劣化したと感じない。このローパスフィルタによるフィルタリングの結果得られる動画データは、およそ1/60秒(つまり4/240秒)程度の時間内では、被写体が一定速度で動いているような動画データとなる。なぜなら、1/60秒という間隔よりも短い時間に高速で速度が変化するような不規則な移動はローパスフィルタにより平均化されるからである。このような動画データは、まさに、式(9)の相関情報e1(U',V')や式(10)の相関情報e2(U',V')を最小とする(U',V')により、ターゲット画像内の注目ブロックの推測値を求めることに適している。なぜなら、式(9)の相関情報e1(U',V')や式(10)の相関情報e2(U',V')を最小にする(U',V')を求める場合には、図84あるいは図87で説明したが、被写体が一定速度で移動していることを前提としているからである。
Further, in the
次に、図110は、送信装置1が図79に示したように構成される場合の、図24の受信装置2の構成例を示している。
Next, FIG. 110 illustrates a configuration example of the
受信装置2には、図79の送信装置1が出力する、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが供給され、ビットストリームは入力端子361から、差分圧縮データは入力端子362から、それぞれ、受信装置2に入力される。そして、入力端子361から解凍回路363に対して、ビットストリームが供給されるとともに、入力端子362から差分情報復元部364に対して、差分圧縮データが供給される。
The receiving
なお、60fps動画データのエンコード結果としてのビットストリームと、240-60fps動画データの圧縮結果としての差分圧縮データとが多重化データに多重化されている場合には、その多重化データから、ビットストリームと差分圧縮データとが分離され、入力端子361と362にそれぞれ入力される。
In addition, when the bit stream as an encoding result of 60fps moving image data and the differential compression data as the compression result of 240-60fps moving image data are multiplexed in the multiplexed data, the bit stream is converted from the multiplexed data. And the differentially compressed data are separated and input to the
解凍回路363は、図79の解凍回路216と同様に、入力端子361からのビットストリームをデコード(解凍)し、60fps動画データを復元する。この60fps動画データは、リファレンス画像として、差分情報復元部364に供給されるとともに、合成部365に供給される。
Similar to the
差分情報復元部364は、解凍回路363からのリファレンス画像としての60fps動画データを用いて、入力端子362からの差分圧縮データを、ブロック単位で、240-60fps動画データに復元する。この240-60fps動画データは、合成部365に供給される。
The difference
合成部365は、解凍回路363からの60fps動画データと、差分情報復元部364からの240-60fps動画データとを合成し、これにより、240fps動画データを復元して、出力端子366から表示装置3(図24)に出力する。
The synthesizing
次に、図111のフローチャートを参照して、図110の受信装置2の処理について説明する。
Next, processing of the receiving
解凍回路363には、入力端子361から、60fps動画データのエンコード結果としてのビットストリームが供給される。また、差分情報復元部364には、入力端子362から、240-60fps動画データの圧縮結果としての差分圧縮データが供給される。
A bit stream as an encoding result of 60 fps moving image data is supplied from the
そして、ステップS301では、解凍回路363は、入力端子361からのビットストリームをデコードし、その結果得られる60fps動画データを、リファレンス画像として、差分情報復元部364に供給するとともに、合成部365に供給して、ステップS302に進む。
In step S301, the
ステップS302では、差分情報復元部364は、解凍回路363からのリファレンス画像としての60fps動画データを用いて、入力端子362からの差分圧縮データを、ブロック単位で、240-60fps動画データに復元し、合成部365に供給する。
In step S302, the difference
そして、ステップS302からS303に進み、合成部365は、解凍回路363からの60fps動画データと、差分情報復元部364からの240-60fps動画データとを合成し、これにより、240fps動画データを復元して、出力端子366から表示装置3(図24)に出力する。
Then, the process proceeds from step S302 to S303, and the combining
即ち、解凍回路363は、入力端子361からのビットストリームから、例えば、図80の上から2番目に示した60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・(の画像データ)を復元し、差分情報復元部および合成部365に供給する。
That is, the
また、差分情報復元部364では、解凍回路363からの60fps動画データをリファレンス画像として用い、入力端子362からの差分圧縮データを、例えば、図80の一番下に示した240-60fps動画データのフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・(の画像データ)に復元し、合成部365に供給する。
Further, the difference
合成部365は、解凍回路363からの60fps動画データの1フレームを選択し、次に、差分情報復元部364からの240-60fps動画データの3フレームを選択することを繰り返し、選択したフレームを、1/240秒ごとに、出力端子366から出力する。即ち、これにより、60fps動画データと240-60fps動画データとを合成した、図80の一番上に示したような240fps動画データが、出力端子366から出力される。
The synthesizing
次に、図112のフローチャートを参照して、図110の差分情報復元部364が図111のステップS302で行う、240-60fps動画データのデコードについて説明する。
Next, with reference to the flowchart of FIG. 112, the decoding of 240-60 fps moving image data performed by the difference
ステップS311において、差分情報復元部364は、解凍回路363(図110)からの60fps動画データをリファレンス画像として用い、入力端子362(図110)からの差分圧縮データを、240-60fps動画データに復元する、後述する処理を行うことで、240-60fps動画データの各フレーム、即ち、ターゲット画像の画素値を、ブロック単位で求め、ステップS312に進む。
In step S311, the difference
ステップS312では、差分情報復元部364は、ステップS311で画素値が求められたブロックを集めることで、240-60fps動画データの各フレームの画像データを得て、ステップS313に進む。ステップS313では、差分情報復元部364は、ステップS312で得た240-60fps動画データを、合成部365(図110)に出力する。
In step S312, the difference
次に、図113は、図110の差分情報復元部364の構成例を示している。
Next, FIG. 113 shows a configuration example of the difference
差分データ記憶部371には、入力端子362(図110)から差分圧縮データが供給される。差分データ記憶部371は、入力端子362からの差分圧縮データを一時記憶する。
The differential
リファレンス記憶部372には、解凍回路363からリファレンス画像としての60fps動画データが供給される。リファレンス記憶部372は、解凍回路363からのリファレンス画像を一時記憶する。
The
ケースID判定部373は、これから復元しようとするターゲット画像のブロックを、注目ブロックとして、その注目ブロックの差分圧縮データを、差分データ記憶部371から読み出し、その差分圧縮データに付加されているケースID(図107)を判定する。そして、ケースID判定部373は、注目ブロックについてのケースIDの判定結果を、相関最大位置検出部377に供給する。
The case
可変長復号部374は、注目ブロックの差分圧縮データを、差分データ記憶部371から読み出し、その差分圧縮データを可変長復号することで、量子化データを得て、逆量子化部375に供給する。さらに、可変長復号部374は、差分圧縮データを可変長復号することで、必要に応じて、相関最大ベクトル(U,V)、前動きベクトル(-U1,-V1)、または後動きベクトル(U2,V2)を得て、相関最大位置検出部377に供給する。
The variable
即ち、差分圧縮データが第1または第6の差分データである場合、つまり、注目ブロックのケースIDが1または6であった場合、図106で説明したように、第1または第6の差分データには、量子化データの可変長符号しか含まれていないので、可変長復号部374は、その可変長符号を、量子化データに復号し、逆量子化部375に供給する。
That is, when the differentially compressed data is the first or sixth differential data, that is, when the case ID of the target block is 1 or 6, as described with reference to FIG. 106, the first or sixth differential data Since only the variable length code of the quantized data is included, the variable
また、差分圧縮データが第2の差分データである場合、つまり、注目ブロックのケースIDが2であった場合、図106で説明したように、第2の差分データには、量子化データの可変長符号と、相関最大ベクトル(U,V)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと相関最大ベクトル(U,V)に復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、相関最大ベクトル(U,V)を、相関最大位置検出部377に供給する。
When the differentially compressed data is the second differential data, that is, when the case ID of the target block is 2, as described with reference to FIG. 106, the second differential data includes a variable of quantized data. Since the long code and the variable length code of the maximum correlation vector (U, V) are included, the variable
さらに、差分圧縮データが第3の差分データである場合、つまり、注目ブロックのケースIDが3であった場合、図106で説明したように、第3の差分データには、量子化データの可変長符号と、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)とに復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)を、相関最大位置検出部377に供給する。
Furthermore, when the differentially compressed data is the third differential data, that is, when the case ID of the target block is 3, as described with reference to FIG. 106, the third differential data includes a variable of quantized data. Since the long code and the variable length codes of the front motion vector (−U 1 , −V 1 ) and the back motion vector (U 2 , V 2 ) are included, the variable
また、差分圧縮データが第4の差分データである場合、つまり、注目ブロックのケースIDが4であった場合、図106で説明したように、第4の差分データには、量子化データの可変長符号と、前動きベクトル(-U1,-V1)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと前動きベクトル(-U1,-V1)とに復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、前動きベクトル(-U1,-V1)を、相関最大位置検出部377に供給する。
Further, when the differentially compressed data is the fourth differential data, that is, when the case ID of the target block is 4, as described with reference to FIG. 106, the fourth differential data includes the variable of the quantized data. Since the long code and the variable length code of the previous motion vector (−U 1 , −V 1 ) are included, the variable
さらに、差分圧縮データが第5の差分データである場合、つまり、注目ブロックのケースIDが5であった場合、図106で説明したように、第5の差分データには、量子化データの可変長符号と、後動きベクトル(U2,V2)の可変長符号とが含まれるので、可変長復号部374は、その可変長符号を、量子化データと後動きベクトル(U2,V2)とに復号する。そして、可変長復号部374は、量子化データを、逆量子化部375に供給し、後動きベクトル(U2,V2)を、相関最大位置検出部377に供給する。
Further, when the differentially compressed data is the fifth differential data, that is, when the case ID of the target block is 5, as described with reference to FIG. 106, the fifth differential data includes a variable of quantized data. Since the long code and the variable length code of the back motion vector (U 2 , V 2 ) are included, the variable
逆量子化部375は、可変長復号部374からの量子化データを逆量子化し、その結果得られる、周波数空間上のデータとしての、例えば、DCT係数を、変換部376に供給する。
The
変換部376は、逆量子化部375からのDCT係数を逆DCT変換し、その結果られる、注目ブロックの画像データ(画素値)Ic(x,y)とその推測値Pre(x,y)との差分値Sub(x,y)を、加算部379に供給する。
The
最大相関位置検出部377は、リファレンス記憶部372に記憶されたリファレンス画像のうちの、注目ブロックのフレームであるターゲット画像VTの直前と直後のフレームを、それぞれ、パストリファレンス画像VPとフューチャリファレンス画像VFとし、ケースID判定部373における注目ブロックのケースIDの判定結果、または可変長復号部374から供給される相関最大ベクトル(U,V)、前動きベクトル(-U1,-V1)、後動きベクトル(U2,V2)に基づき、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて相関が高い位置関係や、パストリファレンス画像VPまたはフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出して、推測部378に供給する。
The maximum correlation
推測部378は、相関最大位置検出部377からの位置関係に基づき、リファレンス記憶部372に記憶されたリファレンス画像のうちのパストリファレンス画像VPまたはフューチャリファレンス画像VFから、注目ブロックの推測値Pre(x,y)を求め、加算部379に供給する。
加算部379は、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロック(の画像データ)Ic(x,y)=Sub(x,y)+Pre(x,y)を復元して、合成部365(図110)に出力する。
The adding
次に、図114乃至図121のフローチャートを参照して、図113の差分情報復元部364が、図112のステップS311で行うブロックの画素値(画像データ)を求める処理について説明する。
Next, processing for obtaining the pixel value (image data) of the block performed in step S311 of FIG. 112 by the difference
まず、ステップS321において、復元しようとする240-60fps動画データのあるフレームをターゲット画像VTとし、さらに、ターゲット画像VTをブロック分割したあるブロックを注目ブロックとして、差分データ記憶部371に記憶された差分圧縮データのうちの、注目ブロックの差分圧縮データが、差分データ記憶部371から読み出され、ケースID判定部373および可変長復号部374に入力されて、ステップS322に進む。
First, in step S321, a frame having 240-60fps moving image data to be restored is set as a target image V T, and a block obtained by dividing the target image V T into blocks is stored in the difference
ステップS322では、リファレンス記憶部372に記憶されているリファレンス画像のうちの、ターゲット画像VTの直前と直後のフレームが、それぞれ、パストリファレンス画像VPとフューチャリファレンス画像VFとされ、相関最大位置検出部377および推測部378に入力されて、ステップS323に進む。
In step S322, among the reference images stored in the
ここで、例えば、図80の一番下に示したターゲット画像のフレームf2,f3,f4のうちのいずれかのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf2,f3,f4の直前と直後のフレームf1とf5が、それぞれパストリファレンス画像とフューチャリファレンス画像とされる。 Here, for example, when one of the blocks f 2 , f 3 , and f 4 of the target image shown at the bottom of FIG. 80 is the target block, the frames f 1 and f of the reference image Of frames 5 , f 9 , and f 13 , the frames f 1 and f 5 immediately before and immediately after the frames f 2 , f 3 , and f 4 of the target image are used as a past reference image and a feature reference image, respectively.
また、例えば、ターゲット画像のフレームf6,f7,f8のうちのいずれかのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf6,f7,f8の直前と直後のフレームf5とf9が、それぞれパストリファレンス画像とフューチャリファレンス画像とされる。 Also, for example, when any of the blocks f 6 , f 7 , and f 8 of the target image is the target block, the frames of the reference image frames f 1 , f 5 , f 9 , and f 13 The frames f 5 and f 9 immediately before and after the frames f 6 , f 7 , and f 8 of the target image are set as a past reference image and a feature reference image, respectively.
さらに、例えば、ターゲット画像のフレームf10,f11,f12のうちのいずれかのブロックが注目ブロックである場合には、リファレンス画像のフレームf1,f5,f9,f13のうちの、ターゲット画像のフレームf10,f11,f12の直前と直後のフレームf9とf13が、それぞれパストリファレンス画像とフューチャリファレンス画像とされる。 Further, for example, when any of the blocks f 10 , f 11 , and f 12 of the target image is the target block, the frames of the reference image frames f 1 , f 5 , f 9 , and f 13 The frames f 9 and f 13 immediately before and after the frames f 10 , f 11 , and f 12 of the target image are set as a past reference image and a feature reference image, respectively.
ステップS323では、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDを解析し、そのケースIDの値を求めて、ステップS324に進む。
In step S323, the case
ステップS324では、可変長復号部374は、注目ブロックの差分圧縮データを解析し、その差分圧縮データにおいて可変長符号となっている量子化データを復号(可変長復号)する。可変長復号部374で可変長復号が行われることにより得られた量子化データは、可変長復号部374から逆量子化部375に供給される。なお、量子化データは、ない場合(NULLの場合)もある。
In step S324, the variable
ステップS324の処理後は、ステップS325に進み、逆量子化部375は、可変長復号部374からの量子化データを逆量子化し、その結果得られる、周波数空間上のデータとしての、例えば、DCT係数を、変換部376に供給して、ステップS325に進む。
After the process of step S324, the process proceeds to step S325, and the
ステップS325では、変換部376は、逆量子化部375からのDCT係数を、2次元空間上のデータに変換する逆DCT変換を行い、その結果られる、注目ブロックの画像データ(画素値)とその推測値との差分値Sub(x,y)を、加算部379に供給する。なお、ステップS324での可変長復号において、量子化データがなかった場合(NULLの場合)、変換部376は、注目ブロックの差分値Sub(x,y)として0を、加算部379に供給する。
In step S325, the
ステップS326の処理後は、図115のステップS327に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが1であるかどうか、即ち、注目ブロックの差分圧縮データが第1の差分データであるかどうかを判定する。
After the processing in step S326, the process proceeds to step S327 in FIG. 115, and the case
ステップS327に進み、注目ブロックの差分圧縮データに付加されているケースIDが1であると判定された場合、即ち、注目ブロックの差分圧縮データが第1の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図116のステップS351に進み、以下、後述するように、注目ブロックの差分圧縮データである第1の差分データが復元される。
In step S327, when it is determined that the case ID added to the differential compression data of the target block is 1, that is, when the differential compression data of the target block is the first differential data, the case
また、ステップS327において、注目ブロックの差分圧縮データに付加されているケースIDが1でないと判定された場合、ステップS328に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが2であるかどうか、即ち、注目ブロックの差分圧縮データが第2の差分データであるかどうかを判定する。
If it is determined in step S327 that the case ID added to the differential compression data of the target block is not 1, the process proceeds to step S328, and the case
ステップS328において、注目ブロックの差分圧縮データに付加されているケースIDが2であると判定された場合、即ち、注目ブロックの差分圧縮データが第2の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図117のステップS361に進み、以下、後述するように、注目ブロックの差分圧縮データである第2の差分データが復元される。
If it is determined in step S328 that the case ID added to the differential compressed data of the block of interest is 2, that is, if the differential compressed data of the block of interest is the second differential data, the case
また、ステップS328において、注目ブロックの差分圧縮データに付加されているケースIDが2でないと判定された場合、ステップS329に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが3であるかどうか、即ち、注目ブロックの差分圧縮データが第3の差分データであるかどうかを判定する。
If it is determined in step S328 that the case ID added to the differential compression data of the block of interest is not 2, the process proceeds to step S329, and the case
ステップS329において、注目ブロックの差分圧縮データに付加されているケースIDが3であると判定された場合、即ち、注目ブロックの差分圧縮データが第3の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図118のステップS381に進み、以下、後述するように、注目ブロックの差分圧縮データである第3の差分データが復元される。
If it is determined in step S329 that the case ID added to the differential compressed data of the block of interest is 3, that is, if the differential compressed data of the block of interest is the third differential data, the case
また、ステップS329において、注目ブロックの差分圧縮データに付加されているケースIDが3でないと判定された場合、ステップS330に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが4であるかどうか、即ち、注目ブロックの差分圧縮データが第4の差分データであるかどうかを判定する。
If it is determined in step S329 that the case ID added to the differential compression data of the target block is not 3, the process proceeds to step S330, and the case
ステップS330において、注目ブロックの差分圧縮データに付加されているケースIDが4であると判定された場合、即ち、注目ブロックの差分圧縮データが第4の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図119のステップS391に進み、以下、後述するように、注目ブロックの差分圧縮データである第4の差分データが復元される。
If it is determined in step S330 that the case ID added to the differential compressed data of the block of interest is 4, that is, if the differential compressed data of the block of interest is the fourth differential data, the case
また、ステップS330において、注目ブロックの差分圧縮データに付加されているケースIDが4でないと判定された場合、ステップS331に進み、ケースID判定部373は、注目ブロックの差分圧縮データに付加されているケースIDが5であるかどうか、即ち、注目ブロックの差分圧縮データが第5の差分データであるかどうかを判定する。
If it is determined in step S330 that the case ID added to the differential compression data of the target block is not 4, the process proceeds to step S331, and the case
ステップS331において、注目ブロックの差分圧縮データに付加されているケースIDが5であると判定された場合、即ち、注目ブロックの差分圧縮データが第5の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図120のステップS401に進み、以下、後述するように、注目ブロックの差分圧縮データである第5の差分データが復元される。
If it is determined in step S331 that the case ID added to the differential compressed data of the block of interest is 5, that is, if the differential compressed data of the block of interest is the fifth differential data, the case
また、ステップS331において、注目ブロックの差分圧縮データに付加されているケースIDが5でないと判定された場合、即ち、注目ブロックの差分圧縮データに付加されているケースIDが6であり、注目ブロックの差分圧縮データが第6の差分データである場合、ケースID判定部373は、その判定結果を、相関最大位置検出部377に供給して、図121のステップS411に進み、以下、後述するように、注目ブロックの差分圧縮データである第6の差分データが復元される。
If it is determined in step S331 that the case ID added to the differential compression data of the block of interest is not 5, that is, the case ID added to the differential compression data of the block of interest is 6, and the block of interest If the difference compressed data is the sixth difference data, the case
次に、図116のフローチャートを参照して、注目ブロックの差分圧縮データが第1の差分データである場合の、その第1の差分データの復元について説明する。 Next, with reference to the flowchart of FIG. 116, restoration of the first difference data when the difference compressed data of the target block is the first difference data will be described.
相関最大位置検出部377は、ケースID判定部373から、ケースIDが1である旨の判定結果を受信した場合、ステップS351において、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPとフューチャリファレンス画像VFとにおいて、相関が高い位置関係を検出する。即ち、相関最大位置検出部377は、注目ブロックにつき、図94の相関最大位置検出部254における場合と同様に、考えられる(U',V')の各値について、式(9)の相関情報e1(U',V')を計算し、その相関情報e1(U',V')が表す相関を最大にする(U',V')、つまり、相関情報e1(U',V')の値を最小にする(U',V')を検出する。そして、相関最大位置検出部377は、相関情報e1(U',V')の値を最小にする(U',V')を、パストリファレンス画像VPとフューチャリファレンス画像VFにおいて、相関が最も高い領域の位置関係を表す位置関係ベクトル(U,V)として、推測部378に供給し、ステップS351からS352に進む。
When the correlation maximum
ステップS352では、推測部378は、相関最大位置検出部377からの位置関係ベクトル(U,V)が表す位置関係にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。
In step S352, the
即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックと同一サイズの領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の、注目ブロックと同一サイズの領域との画像データの、例えば、重み付け平均値を、式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、加算部379に供給して、ステップS352からS353に進む。
That is, the estimating
ステップS353では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロック(の画像データ)Ic(x,y)を復元して、ステップS354に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。
In step S353, the
次に、図117のフローチャートを参照して、注目ブロックの差分圧縮データが第2の差分データである場合の、その第2の差分データの復元について説明する。 Next, with reference to the flowchart of FIG. 117, the restoration of the second differential data when the differential compressed data of the block of interest is the second differential data will be described.
注目ブロックの差分圧縮データが、第2の差分データである場合には、その第2の差分データには、上述したように、相関最大ベクトル(U,V)が含まれる。そこで、可変長復号部374は、ステップS361において、注目ブロックの差分圧縮データである第2の差分データを解析し、その第2の差分データにおいて可変長符号となっている相関最大ベクトル(U,V)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた相関最大ベクトル(U,V)は、可変長復号部374から相関最大位置検出部377に供給される。
When the differential compressed data of the block of interest is the second differential data, the second differential data includes the correlation maximum vector (U, V) as described above. Therefore, in step S361, the variable
さらに、ステップS361では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが2である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPとフューチャリファレンス画像VFとにおいて、注目ブロックとの相関が高い位置関係を検出する。
Further, in step S361, the maximum correlation
即ち、相関最大位置検出部377は、可変長復号部374からの相関最大ベクトル(U,V)から、パストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置が、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置であることを検出するとともに、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置が、注目ブロックからベクトル(sU,sV)だけずれた位置であることを検出し、その位置関係を表すベクトル(-(4-s)U,-(4-s)V)および(sU,sV)を、推測部378に供給して、ステップS361からS362に進む。
That is, the maximum correlation
ステップS362では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からのベクトル(-(4-s)U,-(4-s)V)と(sU,sV)が表す位置にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。
In step S362, the
即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックからベクトル(-(4-s)U,-(4-s)V)だけずれた位置の、注目ブロックと同一サイズの領域と、フューチャリファレンス画像VFにおいて、注目ブロックからベクトル(sU,sV)だけずれた位置の、注目ブロックと同一サイズの領域との画像データの、例えば、重み付け平均値を、式(13)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、加算部379に供給して、ステップS362からS363に進む。
That is, the estimating
ステップS363では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS364に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。
In step S363, the
次に、図118のフローチャートを参照して、注目ブロックの差分圧縮データが第3の差分データである場合の、その第3の差分データの復元について説明する。 Next, with reference to the flowchart of FIG. 118, the restoration of the third difference data when the difference compressed data of the block of interest is the third difference data will be described.
注目ブロックの差分圧縮データが、第3の差分データである場合には、その第3の差分データには、上述したように、前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)が含まれる。そこで、可変長復号部374は、ステップS381において、注目ブロックの差分圧縮データである第3の差分データを解析し、その第3の差分データにおいて可変長符号となっている前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)は、可変長復号部374から相関最大位置検出部377に供給される。
When the differential compressed data of the block of interest is the third differential data, the third differential data includes the previous motion vector (−U 1 , −V 1 ) and the subsequent motion vector as described above. (U 2 , V 2 ) is included. Therefore, in step S381, the variable
さらに、ステップS381では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが3である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPとフューチャリファレンス画像VFとのそれぞれにおいて、注目ブロックとの相関が高い位置関係を検出する。
Furthermore, in step S381, the correlation maximum
即ち、相関最大位置検出部377は、パストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置が、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置であることを、可変長復号部374からの前動きベクトル(-U1,-V1)から検出するとともに、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置が、注目ブロックから後動きベクトル(U2,V2)だけずれた位置であることを、可変長復号部374からの後動きベクトル(U2,V2)から検出し、その位置関係、つまり、可変長復号部374からの前動きベクトル(-U1,-V1)、および後動きベクトル(U2,V2)を、推測部378に供給して、ステップS381からS382に進む。
That is, the maximum correlation
ステップS382では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からの前動きベクトル(-U1,-V1)と後動きベクトル(U2,V2)が表す位置にある、パストリファレンス画像VPとフューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。
In step S382, the
即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の、注目ブロックと同一サイズの領域と、フューチャリファレンス画像VFにおいて、注目ブロックから後動きベクトル(U2,V2)だけずれた位置の、注目ブロックと同一サイズの領域との画像データの、例えば、重み付け平均値を、式(14)にしたがって計算し、その重み付け平均値を、注目ブロックの推測値Pre(x,y)として求め、加算部379に供給して、ステップS382からS383に進む。
That is, the estimating
ステップS383では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS384に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。
In step S383, the
次に、図119のフローチャートを参照して、注目ブロックの差分圧縮データが第4の差分データである場合の、その第4の差分データの復元について説明する。 Next, with reference to the flowchart of FIG. 119, description will be given of restoration of the fourth difference data when the difference compressed data of the target block is the fourth difference data.
注目ブロックの差分圧縮データが、第4の差分データである場合には、その第4の差分データには、上述したように、前動きベクトル(-U1,-V1)が含まれる。そこで、可変長復号部374は、ステップS391において、注目ブロックの差分圧縮データである第4の差分データを解析し、その第4の差分データにおいて可変長符号となっている前動きベクトル(-U1,-V1)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた前動きベクトル(-U1,-V1)は、可変長復号部374から相関最大位置検出部377に供給される。
When the differential compressed data of the block of interest is the fourth differential data, the fourth differential data includes the previous motion vector (−U 1 , −V 1 ) as described above. Therefore, in step S391, the variable
さらに、ステップS391では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが4である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたパストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置関係を検出する。
Further, in step S391, the maximum correlation
即ち、相関最大位置検出部377は、パストリファレンス画像VPにおいて、注目ブロックとの相関が高い位置が、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置であることを、可変長復号部374からの前動きベクトル(-U1,-V1)から検出し、その位置関係、つまり、可変長復号部374からの前動きベクトル(-U1,-V1)を、推測部378に供給して、ステップS391からS392に進む。
That is, the maximum correlation
ステップS392では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からの前動きベクトル(-U1,-V1)が表す位置にある、パストリファレンス画像VPの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。
In step S392, the
即ち、推測部378は、パストリファレンス画像VPにおいて、注目ブロックから前動きベクトル(-U1,-V1)だけずれた位置の、注目ブロックと同一サイズの領域の画像データを切り出し、注目ブロックの推測値Pre(x,y)として、加算部379に供給して、ステップS392からS393に進む。
That is, the estimating
ステップS393では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS394に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。
In step S393, the
次に、図120のフローチャートを参照して、注目ブロックの差分圧縮データが第5の差分データである場合の、その第5の差分データの復元について説明する。 Next, with reference to the flowchart of FIG. 120, restoration of the fifth difference data when the difference compressed data of the target block is the fifth difference data will be described.
注目ブロックの差分圧縮データが、第5の差分データである場合には、その第5の差分データには、上述したように、後動きベクトル(U2,V2)が含まれる。そこで、可変長復号部374は、ステップS401において、注目ブロックの差分圧縮データである第5の差分データを解析し、その第5の差分データにおいて可変長符号となっている後動きベクトル(U2,V2)を可変長復号する。可変長復号部374で可変長復号が行われることにより得られた後動きベクトル(U2,V2)は、可変長復号部374から相関最大位置検出部377に供給される。
When the differential compressed data of the block of interest is the fifth differential data, the fifth differential data includes the back motion vector (U 2 , V 2 ) as described above. Therefore, in step S401, the variable
さらに、ステップS401では、相関最大位置検出部377は、ケースID判定部373から、ケースIDが5である旨の判定結果を受信し、この場合、注目ブロックについて、リファレンス記憶部372から読み出されたフューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置関係を検出する。
Further, in step S401, the maximum correlation
即ち、相関最大位置検出部377は、フューチャリファレンス画像VFにおいて、注目ブロックとの相関が高い位置が、注目ブロックから後動きベクトル(U2,V2)だけずれた位置であることを、可変長復号部374からの後動きベクトル(U2,V2)から検出し、その位置関係、つまり、可変長復号部374からの後動きベクトル(U2,V2)を、推測部378に供給して、ステップS401からS402に進む。
In other words, the maximum correlation
ステップS402では、推測部378は、注目ブロックからの位置が、相関最大位置検出部377からの後動きベクトル(U2,V2)が表す位置にある、フューチャリファレンス画像VFの領域の画像データから、注目ブロックの推測値を求め、加算部379に供給する。
In step S402, the
即ち、推測部378は、フューチャリファレンス画像VFにおいて、注目ブロックから後動きベクトル(U2,V2)だけずれた位置の、注目ブロックと同一サイズの領域の画像データを切り出し、注目ブロックの推測値Pre(x,y)として、加算部379に供給して、ステップS402からS403に進む。
That is, the estimating
ステップS403では、加算部379が、変換部376からの注目ブロックの差分値Sub(x,y)と、推測部378からの注目ブロックの推測値Pre(x,y)とを加算し、これにより、注目ブロックIc(x,y)を復元して、ステップS404に進み、その注目ブロックIc(x,y)を、合成部365(図110)に出力する。
In step S403, the
次に、図121のフローチャートを参照して、注目ブロックの差分圧縮データが第6の差分データである場合の、その第6の差分データの復元について説明する。 Next, with reference to the flowchart in FIG. 121, restoration of the sixth difference data when the difference compressed data of the block of interest is the sixth difference data will be described.
注目ブロックの差分圧縮データが、第6の差分データである場合には、その第6の差分データは、注目ブロックの推定値Pre(x,y)を0として、注目ブロックIc(x,y)とその推定値Pre(x,y)との差分をとったものとなっている。 When the difference compressed data of the block of interest is the sixth difference data, the sixth difference data sets the estimated value Pre (x, y) of the block of interest to 0, and the block of interest Ic (x, y) And the estimated value Pre (x, y).
そこで、相関最大位置検出部377は、ケースID判定部373から、ケースIDが6である旨の判定結果が供給された場合、その判定結果を、推定部378に供給し、推定部378は、相関最大位置検出部377から、ケースIDが6である旨の判定結果が供給された場合には、注目ブロックの推測値Pre(x,y)として0を、加算部379に供給する。
Therefore, when the determination result indicating that the case ID is 6 is supplied from the case
この場合、加算部379は、ステップS411において、変換部376からの注目ブロックの差分値Sub(x,y)(但し、ここでは、注目ブロックの画像データIc(x,y)に等しい)と、推測部378からの注目ブロックの推測値Pre(x,y)(但し、ここでは、0)とを加算し、これにより、注目ブロックIc(x,y)を復元して、合成部365(図110)に出力する。
In this case, in step S411, the adding
なお、表示装置3(図24)が、例えば、60fpsのフレームレートでの表示しか行うことができない場合には、図110の受信装置では、入力端子361からのビットストリームのみを、解凍回路363において復元し、その結果得られる60fps動画データを、そのまま、合成部365を介して、表示装置3に出力すればよい。
For example, when the display device 3 (FIG. 24) can only display at a frame rate of 60 fps, the receiving device of FIG. 110 receives only the bit stream from the
また、表示装置3(図24)が、例えば、120fpsのフレームレートでの表示しか行うことができない場合には、図110の受信装置では、以下のような処理を行えばよい。 In addition, when the display device 3 (FIG. 24) can only display at a frame rate of 120 fps, for example, the receiving device of FIG. 110 may perform the following processing.
即ち、解凍回路363では、入力端子361からのビットストリームを、60fps動画データに復元し、合成部365に供給する。また、差分情報復元部364では、入力端子362からの差分圧縮データのうちの、図82で説明した変数sが2のフレームのブロックの差分圧縮データを復元し、合成部365に供給する。
That is, the
この場合、解凍回路363から合成部365に対しては、例えば、図80の上から2番目に示した60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・が供給される。また、差分情報復元部364から合成部365に対しては、例えば、図80の一番下に示した240-60fps動画データのフレーム・・・,f2,f3,f4,f6,f7,f8,f10,f11,f12,・・・のうちの、フレーム・・・,f3,f7,f11,・・・が供給される。 In this case, for example, the frame of 60 fps moving image data shown second from the top in FIG. 80..., F 1 , f 5 , f 9 , f 13 ,.・ Is supplied. Further, for example, the frame of 240-60 fps moving image data shown at the bottom of FIG. 80..., F 2 , f 3 , f 4 , f 6 , Of f 7 , f 8 , f 10 , f 11 , f 12 ,..., frames..., f 3 , f 7 , f 11 ,.
従って、合成部365では、解凍回路363からの60fps動画データのフレーム・・・,f1,f5,f9,f13,・・・と、差分情報復元部364からのフレーム・・・,f3,f7,f11,・・・を、フレーム・・・,f1,f3,f5,f7,f9,f11,f13,・・・の順で選択して出力することにより、フレームレートが120fpsの動画データを得ることができる。このフレームレートが120fpsの動画データを、表示装置3に出力すればよい。
Therefore, in the
このようにして、図110の受信装置2では、表示装置3(図24)の表示能力(フレームレート)に応じて適切なフレームレートの動画データを得ることができる。
In this manner, the receiving
以上説明したように、図79の送信装置1では、例えば、240fps動画データなどの高フレームレートの動画データを高圧縮し、また、図110の受信装置2では、そのように高圧縮された高フレームレートの動画データを復元することができる。
As described above, the
特に、第1の差分データに関しては、高フレームレート(例えば、240fps)の動画を復元する際に、復元したい高フレームレートの動画の中の1枚の画像に注目する。この注目した「復元したい画像」(ターゲット画像)に対して時間的に近くにある複数(例えば2枚)の「低フレームレートを構成する画像(例えば、前述のパストリファレンス画像とフューチャリファレンス画像)」を取り出し、その取り出された複数の画像同士において相関が高い位置関係にある部分(例えば、式(9)の相関情報e1(U',V')を最小とする(U',V'))を求め、その部分から注目している「復元したい画像」を復元するようにしている。これにより、圧縮側(送信装置1)から解凍側(受信装置2)へ、動きベクトルを送信しなくてよいという利点がある。これは、データ量削減に効果がある。 In particular, regarding the first difference data, when restoring a high frame rate (for example, 240 fps) moving image, attention is paid to one image in the high frame rate moving image to be restored. A plurality of (for example, two) “images constituting a low frame rate (for example, the above-described past reference image and feature reference image)” that are close in time to this noticed “image to be restored” (target image) And a portion (for example, correlation information e 1 (U ′, V ′) in Expression (9)) that has a high correlation in the extracted images is minimized (U ′, V ′). ) To restore the “image you want to restore”. Thereby, there is an advantage that it is not necessary to transmit a motion vector from the compression side (transmission device 1) to the decompression side (reception device 2). This is effective in reducing the amount of data.
さらに、動きベクトルを含まない第1の差分データについては、パストリファレンス画像とフューチャリファレンス画像において、相関が高い位置関係が複数あるときに復元に失敗することがあり得る。そこで、そのような場合に対処すべく、送信装置1では、第1の差分データの他に、相関最大ベクトル(U,V)を含む第2の差分データ、さらには、前動きベクトル(-U1,-V1)および後動きベクトル(U2,V2)の両方を含む第3の差分データ、前動きベクトル(-U1,-V1)を含む第4の差分データ、後動きベクトル(U2,V2)を含む第5の差分データ、リファレンス画像を参照せずに復元することができる第6の差分データを採用し、必要に応じて、第1乃至第6の差分データのうちのいずれかを選択する。従って、動画データの復元に失敗することを防止することができる。
Further, the first difference data that does not include a motion vector may fail to be restored when there are a plurality of positional relationships with high correlation in the past reference image and the future reference image. Therefore, in order to deal with such a case, in the
さらに、図79の送信装置1では、低フレームレートの動画に関するデータ(前述のビットストリーム)と、その低フレームレートの動画から高フレームレートの動画を復元する際に必要となるデータ(前述の差分圧縮データ)とを別々に分けていることにより、「低フレームレートの動画に関するデータ」だけを、図110の受信装置2が受信することで、低フレームレートの動画を復元することが出来る。また、「低フレームレートの動画に関するデータ」と「その低フレームレートの動画から高フレームレートの動画を復元する際に必要となるデータ」の両方を受信装置2が受信することで、高フレームレートの動画を復元することが出来る。即ち、いわゆる、テンポラルスケーラビリティを持たせることが出来る。
Further, in the
次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。 Next, the series of processes described above can be performed by dedicated hardware or by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
そこで、図122は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。 Therefore, FIG. 122 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.
コンピュータのメイン・コントローラであるCPU(Central Processing Unit)401は、バス408を介して、各部に接続されており、オペレーティング・システム(OS)の制御下で、アプリケーションプログラムを実行することにより、上述した一連の処理を行う。CPU401が実行するアプリケーションプログラムには、上述した一連の処理を行うためのものが含まれており、CPU401は、例えば、VTR(Video Tape Recorder)410から、VTRインターフェース409、バス408、および外部機器インターフェース407を介して、HDD(Hard disk Drive)414へダウンロードされた動画データを処理する。
A CPU (Central Processing Unit) 401, which is the main controller of the computer, is connected to each unit via a
メモリ402は、CPU401において実行されるプログラム・コードを格納したり、実行中の作業データを一時保管するために使用される記憶装置である。なお、メモリ402には、ROM(Read Only Memory)などの不揮発性メモリ及びDRAM(Dynamic Random Access Memory)などの揮発性メモリの双方が含まれる。
The
ディスプレイコントローラ403は、CPU401が発行する描画命令を実際に処理するための専用コントローラである。ディスプレイ・コントローラ403において処理された描画データは、例えばフレーム・バッファ(図示しない)に一旦書き込まれた後、ディスプレイ411によって画面出力される。例えば、HDD414から再生された動画は、上述したように、ディスプレイ411で画面表示される。
The
入力機器インターフェース404は、キーボード412やマウス413などのユーザ入力機器をコンピュータに接続するための装置である。ユーザは、キーボード412やマウス413を介して、動画を再生するためのコマンドなどを入力することができる。
The
ネットワークインターフェース405は、Ethernet(登録商標)などの所定の通信プロトコルに従って、コンピュータをLAN(Local Area Network)などの局所的ネットワーク、さらにはインターネットのような広域ネットワークに接続することができる。なお、ネットワーク上では、複数のホスト端末やサーバ(図示しない)がトランスペアレントな状態で接続され、分散コンピューティング環境が構築されている。ネットワーク上では、上述した一連の処理を実行するためのアプリケーションプログラムを含むソフトウェア・プログラムや、上述のビットストリーム(エンコードデータ)、差分圧縮データを含むデータ・コンテンツなどの配信サービスを行うことができる。また、コンピュータでは、例えば、他人が撮影した動画等が保存されているサーバから、動画データや、上述のビットストリーム、差分圧縮データを、ネットワークを経由してネットワークインターフェース405で受信し、HDD414へダウンロードすることができる。
The
外部機器インターフェース407は、HDD414やメディア・ドライブ415などの外部装置をコンピュータに接続するための装置である。
The
HDD414は、記憶媒体としての磁気ディスクを固定的に搭載したランダムアクセス可能な外部記憶装置であり、記憶容量やデータ転送速度などの点で他の外部記憶装置よりも優れている。HDD414には、上述した一連の処理を実行するアプリケーションプログラム等がインストールされる。ここで、「インストール」とは、ソフトウェア・プログラムを実行可能な状態でHDD414上に置くことを意味する。HDD414には、CPU401が実行すべきオペレーティング・システムのプログラム・コードや、アプリケーション・プログラム、デバイス・ドライバなどが不揮発的に格納される。なお、アプリケーションプログラムは、可搬形メディア416から、あるいは、ネットワークインターフェース405を介してダウンロードして、HDD414にインストールすることができる。また、アプリケーションプログラムは、あらかじめHDD414にインストールしておくことができる。
The
メディア・ドライブ415は、CD(Compact Disc)やMO(Magneto-Optical disc)、DVD(Digital Versatile Disc)などの可搬型メディア416を装填して、そのデータ記録面にアクセスするための装置である。 The media drive 415 is a device for loading portable media 416 such as CD (Compact Disc), MO (Magneto-Optical disc), DVD (Digital Versatile Disc), etc., and accessing the data recording surface.
可搬型メディア416は、主として、ソフトウェア・プログラムやデータ・ファイルなどをコンピュータ可読形式のデータとしてバックアップすることや、これらをシステム間で移動(すなわち販売・流通・配布を含む)する目的で使用される。上述した一連の処理を実行するアプリケーションプログラムや、そのアプリケーションプログラムを実行することにより得られるデータは、可搬型メディア416を利用して複数の機器間で物理的に流通・配布することができる。また、データは、ネットワークインターフェース405を介して配信することもできる。
The portable media 416 is used mainly for the purpose of backing up software programs, data files, and the like as data in a computer-readable format, and for moving them between systems (that is, including sales, distribution, and distribution). . An application program that executes the above-described series of processing and data obtained by executing the application program can be physically distributed and distributed among a plurality of devices by using the portable medium 416. Data can also be distributed via the
VTRインターフェース409は、VTR410から再生される動画をコンピュータ内に取り込むための装置である。
The
ここで、図122に示すコンピュータとしては、米IBM社のパーソナル・コンピュータ"PC/AT(Personal Computer/Advanced Technology)"の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。 Here, as the computer shown in FIG. 122, a compatible computer or a successor of IBM's personal computer “PC / AT (Personal Computer / Advanced Technology)” can be employed. Of course, you may employ | adopt the computer provided with the other architecture.
なお、図79の送信装置1では、240fps動画データを処理するようにしたが、送信装置1で処理する動画データのフレームレートは、240fpsに限定されるものではない。さらに、分離回路213における動画データの分離の仕方も、動画データを、60fps動画データと、残りの240-60fps動画データとに分離するものに限定されるものではない。即ち、分離回路213では、例えば、240fps動画データを、30fps、あるいは120fpsの動画データと、残りの動画データとに分離することなどが可能である。
Note that although the
また、上述の説明における「フレーム」は、「フィールド」と読み替えることができる。 Further, “frame” in the above description can be read as “field”.
さらに、本実施の形態では、注目ブロックの推測値を、パストリファレンス画像またはフューチャリファレンス画像を用いて求めるようにしたが、注目ブロックの推測値は、さらに、パストリファレンス画像の時間的に前にあるフレームや、フューチャリファレンス画像の時間的に後にあるフレームを用いて求めるようにすることも可能である。 Furthermore, in the present embodiment, the estimated value of the target block is obtained using the past reference image or the future reference image. However, the estimated value of the target block is further in time before the past reference image. It is also possible to use a frame or a frame that is temporally after the future reference image.
また、図79の送信装置1では、1つのブロックごとに、第1乃至第6の差分データを求め、その中から、ブロックの圧縮結果となるものを選択するようにしたが、送信装置1では、第1の差分データだけ、または第2の差分データだけを求め、その第1または第2の差分データを、そのまま、ブロックの圧縮結果(差分圧縮データ)としてもよい。さらに、送信装置1では、第1の差分データと、第2乃至第6のうちの1以上の差分データとを求め、その中から、ブロックの圧縮結果となるものを選択してもよい。また、送信装置1では、第2の差分データと、第1の差分データおよび第3乃至第6のうちの1以上の差分データとを求め、その中から、ブロックの圧縮結果となるものを選択してもよい。
79 obtains the first to sixth difference data for each block, and selects the data that is the block compression result from the first to sixth difference data. Alternatively, only the first difference data or only the second difference data may be obtained, and the first or second difference data may be used as the block compression result (difference compressed data) as it is. Further, the
1 送信装置, 2 受信装置, 3 表示装置, 11 記録媒体, 12 伝送媒体, 21 バッファ部, 22 フィルタ部, 23 フィルタ生成部, 24 エンコード部, 31 主成分方向取得部, 32 フィルタ情報供給部, 50 デコード部, 51 バッファ部, 52 フィルタ部, 53 フィルタ生成部, 61 主成分方向取得部, 62 フィルタ情報供給部, 101 バッファ部, 102 ブロック抽出部, 103 相関演算部, 104 スケーリング合成部, 105 最小値検出部, 124 合成部, 125 最小値検出部, 211 入力端子, 212 帯域制限フィルタ部, 213 分離回路, 214 圧縮回路, 215 出力端子, 216 解凍回路, 217 差分情報抽出部, 218 出力端子, 221 リファレンス記憶部, 222 ターゲット記憶部, 223 データ処理部, 231乃至233 入力端子, 234乃至239 差分データ計算部, 240 選択回路, 241 出力端子, 251乃至253 入力端子, 254 相関最大位置検出部, 255 平均値計算部, 256 減算部, 257 変換部, 258 量子化部, 259 可変長符号化部, 260 出力端子, 271乃至273 入力端子, 274 相関最大位置検出部, 275 平均値計算部, 276 減算部, 277 変換部, 278 量子化部, 279 可変長符号化部, 280 出力端子, 291乃至293 入力端子, 294,295 相関最大位置検出部, 296 平均値計算部, 297 減算部, 298 変換部, 299 量子化部, 300 可変長符号化部, 301 出力端子, 311,312 入力端子, 313 相関最大位置検出部, 314 切り出し部, 315 減算部, 316 変換部, 317 量子化部, 318 可変長符号化部, 319 出力端子, 331,332 入力端子, 333 相関最大位置検出部, 334 切り出し部, 335 減算部, 336 変換部, 337 量子化部, 338 可変長符号化部, 339 出力端子, 351 入力端子, 352 変換部, 353 量子化部, 354 可変長符号化部, 355 出力端子, 361,362 入力端子, 363 解凍回路, 364 差分情報復元部, 365 合成部, 366 出力端子, 371 差分データ記憶部, 372 リファレンス記憶部, 373 ケースID判定部, 374 可変長復号部, 375 逆量子化部, 376 変換部, 377 相関最大位置検出部, 378 推測部, 379 加算部, 401 CPU, 402 メモリ, 403 ディスプレイコントローラ, 404 入力機器インターフェース, 405 ネットワークインターフェース, 407 外部機器インターフェース, 409 VTRインターフェース, 410 VTR, 411 ディスプレイ, 412 キーボード, 413 マウス, 414 HDD, 415 メディアドライブ, 416 可搬型メディア DESCRIPTION OF SYMBOLS 1 Transmission apparatus, 2 Reception apparatus, 3 Display apparatus, 11 Recording medium, 12 Transmission medium, 21 Buffer part, 22 Filter part, 23 Filter production | generation part, 24 Encoding part, 31 Main component direction acquisition part, 32 Filter information supply part, 50 Decoding unit, 51 Buffer unit, 52 Filter unit, 53 Filter generation unit, 61 Principal component direction acquisition unit, 62 Filter information supply unit, 101 Buffer unit, 102 Block extraction unit, 103 Correlation calculation unit, 104 Scaling synthesis unit, 105 Minimum value detection unit, 124 synthesis unit, 125 minimum value detection unit, 211 input terminal, 212 band limiting filter unit, 213 separation circuit, 214 compression circuit, 215 output terminal, 216 decompression circuit, 217 difference information extraction unit, 218 output terminal , 22 Reference storage unit, 222 Target storage unit, 223 Data processing unit, 231 to 233 input terminal, 234 to 239 Difference data calculation unit, 240 selection circuit, 241 output terminal, 251 to 253 input terminal, 254 Correlation maximum position detection unit, 255 Average value calculation unit, 256 subtraction unit, 257 conversion unit, 258 quantization unit, 259 variable length coding unit, 260 output terminal, 271 to 273 input terminal, 274 maximum correlation position detection unit, 275 average value calculation unit, 276 subtraction Unit, 277 conversion unit, 278 quantization unit, 279 variable length coding unit, 280 output terminal, 291 to 293 input terminal, 294,295 correlation maximum position detection unit, 296 average value calculation unit, 297 subtraction unit, 298 conversion unit , 299 Quantizer, 00 variable length encoding unit, 301 output terminal, 311, 312 input terminal, 313 maximum correlation position detection unit, 314 clipping unit, 315 subtraction unit, 316 conversion unit, 317 quantization unit, 318 variable length encoding unit, 319 output Terminal, 331, 332 input terminal, 333 maximum correlation position detection unit, 334 extraction unit, 335 subtraction unit, 336 conversion unit, 337 quantization unit, 338 variable length coding unit, 339 output terminal, 351 input terminal, 352 conversion unit , 353 quantization unit, 354 variable length coding unit, 355 output terminal, 361, 362 input terminal, 363 decompression circuit, 364 differential information restoration unit, 365 synthesis unit, 366 output terminal, 371 differential data storage unit, 372 reference storage Part, 373 case ID judgment part, 374 variable length decoding unit, 375 inverse quantization unit, 376 conversion unit, 377 correlation maximum position detection unit, 378 estimation unit, 379 addition unit, 401 CPU, 402 memory, 403 display controller, 404 input device interface, 405 network interface, 407 External device interface, 409 VTR interface, 410 VTR, 411 display, 412 keyboard, 413 mouse, 414 HDD, 415 media drive, 416 portable media
Claims (39)
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段と
を備えることを特徴とする画像処理装置。 In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separation means for separating data,
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. When,
An image processing apparatus comprising: a compression unit that compresses the third moving image data in units of blocks using the estimated value of the block.
ことを特徴とする請求項1に記載の画像処理装置。 The output of the second moving image data and the compression result of the third moving image data by the compression unit are independently output as the compression result of the first moving image data. Image processing device.
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測手段と、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮手段と、
前記圧縮手段による前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮手段による前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択手段と
をさらに備えることを特徴とする請求項1に記載の画像処理装置。 Other detection means for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
Other estimation means for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Other compression means for compressing the third moving image data in units of blocks using another estimated value of the block;
Selecting either one of the compressed data obtained by compressing the third moving image data by the compressing unit or the compressed data obtained by compressing the third moving image data by the other compressing unit; The image processing apparatus according to claim 1, further comprising: selection means for adding identification information for identifying the compressed data and outputting the identification data.
ことを特徴とする請求項3に記載の画像処理装置。 The selection unit has a data amount of compressed data obtained by compression of the third moving image data by the compression unit or compressed data obtained by compression of the third moving image data by the other compression unit. The image processing apparatus according to claim 3, wherein a smaller amount of compressed data is selected.
ことを特徴とする請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the second moving image data and the compressed data to which the identification information is added are independently output as a compression result of the first moving image data.
ことを特徴とする請求項1に記載の画像処理装置。 The estimation unit obtains a weighted average value of image data of a plurality of frames of the second moving image data in the positional relationship detected by the detection unit as an estimation value of the block. Item 8. The image processing apparatus according to Item 1.
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする請求項1に記載の画像処理装置。 In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data, with a region having a specific width in the direction as a passband,
The image processing apparatus according to claim 1, wherein the separation unit separates the first moving image data after filtering by the filter unit into the second and third moving image data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とする画像処理方法。 In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップと、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップと、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップと
をさらに含むことを特徴とする請求項8に記載の画像処理方法。 Another detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Another compression step of compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. The image processing method according to claim 8, further comprising: a selection step of adding identification information for identifying the compressed data and outputting the identification data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラム。 In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップと、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップと、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップと
をさらに含むことを特徴とする請求項10に記載のプログラム。 Another detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Another compression step of compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. The program according to claim 10, further comprising a selection step of adding identification information for identifying the compressed data and outputting the identification data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラムが記録されているプログラム記録媒体。 In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
And a compressing step of compressing the third moving image data in units of blocks using the estimated value of the block.
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの他の推測値を求める他の推測ステップと、
前記ブロックの他の推測値を用いて、前記第3の動画データをブロック単位で圧縮する他の圧縮ステップと、
前記圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データ、または前記他の圧縮ステップによる前記第3の動画データの圧縮により得られる圧縮データのうちのいずれか一方の圧縮データを選択し、その圧縮データを識別するための識別情報を付加して出力する選択ステップと
をさらに含むことを特徴とするプログラムが記録されている請求項12に記載のプログラム記録媒体。 Another detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block;
Another estimation step for obtaining another estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
Another compression step of compressing the third moving image data in units of blocks using another estimated value of the block;
One of the compressed data obtained by compressing the third moving image data by the compression step or the compressed data obtained by compressing the third moving image data by the other compression step is selected. The program recording medium according to claim 12, further comprising: a selection step of adding and outputting identification information for identifying the compressed data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含むことを特徴とするデータ構造。 In the data structure of data obtained by compressing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
Compressed data obtained by compressing the block using the estimated value of the block;
A data structure comprising: the second moving image data.
前記他のブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記他のブロックの推測値を求め、
前記他のブロックの推測値を用いて、前記他のブロックを圧縮する
ことにより得られる他の圧縮データをさらに含み、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
ことを特徴とする請求項14に記載のデータ構造。 For another block of the third moving image data, detect one motion vector representing a positional relationship having a high correlation with the other block in a plurality of frames of the second moving image data;
Obtaining an estimated value of the other block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the other block is a positional relationship obtained from the one motion vector,
Further including other compressed data obtained by compressing the other block using the estimated value of the other block;
The compressed data and the other compressed data include identification information for identifying each,
The data structure according to claim 14, wherein the other compressed data further includes the one motion vector.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含むことを特徴とするデータが記録されているデータ記録媒体。 In a data recording medium on which data obtained by compressing moving image data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
Compressed data obtained by compressing the block using the estimated value of the block;
A data recording medium on which data is recorded, comprising the second moving image data.
前記他のブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記他のブロックの推測値を求め、
前記他のブロックの推測値を用いて、前記他のブロックを圧縮する
ことにより得られる他の圧縮データをさらに含み、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
ことを特徴とするデータが記録されている請求項16に記載のデータ記録媒体。 For another block of the third moving image data, detect one motion vector representing a positional relationship having a high correlation with the other block in a plurality of frames of the second moving image data;
Obtaining an estimated value of the other block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the other block is a positional relationship obtained from the one motion vector,
Further including other compressed data obtained by compressing the other block using the estimated value of the other block;
The compressed data and the other compressed data include identification information for identifying each,
The data recording medium according to claim 16, wherein the other compressed data further includes the one motion vector.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段と
を備え、
前記第1の復元手段は、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出手段と、
前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測手段と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元手段と
を有する
ことを特徴とする画像処理装置。 In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block to the third moving image data using the second moving image data;
A second restoring means for synthesizing the second and third moving image data and restoring the first moving image data;
The first restoration means includes
Detecting means for detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating means for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detecting means. When,
An image processing apparatus comprising: a block restoration unit that restores the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出手段は、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測手段は、前記検出手段で検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元手段は、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出手段は、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測手段は、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元手段は、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とする請求項18に記載の画像処理装置。 The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
The detecting means detects a positional relationship having a high correlation in a plurality of frames of the second moving image data;
The estimation means estimates a block obtained by dividing a frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected by the detection means. Find the value
The block restoration means restores the block using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
The detection means detects a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data for the block from the one motion vector,
The estimation means determines an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship determined from the one motion vector,
The image processing apparatus according to claim 18, wherein the block restoration unit restores the block using an estimated value of the block and the other compressed data.
ことを特徴とする請求項18に記載の画像処理装置。 The estimation unit obtains a weighted average value of image data of a plurality of frames of the second moving image data in the positional relationship detected by the detection unit as an estimation value of the block. Item 19. The image processing apparatus according to Item 18.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップと
を含む
ことを特徴とする画像処理方法。 In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
An image processing method comprising: a block restoration step of restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出ステップでは、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測ステップでは、前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出ステップでは、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測ステップでは、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とする請求項21に記載の画像処理方法。 The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
In the detecting step, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data,
In the estimating step, a block obtained by dividing a frame of the third moving image data into blocks from a plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. Find the value
In the block restoration step, the block is restored using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
In the detection step, a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data is detected for the block from the one motion vector,
In the estimating step, an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
The image processing method according to claim 21, wherein in the block restoration step, the block is restored using the estimated value of the block and the other compressed data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップと
を含む
ことを特徴とするプログラム。 In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A block restoring step of restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出ステップでは、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測ステップでは、前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出ステップでは、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測ステップでは、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とする請求項23に記載のプログラム。 The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
In the detecting step, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data,
In the estimating step, a block obtained by dividing a frame of the third moving image data into blocks from a plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. Find the value
In the block restoration step, the block is restored using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
In the detection step, a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data is detected for the block from the one motion vector,
In the estimating step, an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
The program according to claim 23, wherein in the block restoration step, the block is restored using the estimated value of the block and the other compressed data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記相関が高い位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出する検出ステップと、
前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記第3の動画データをブロック単位で復元するブロック復元ステップと
を含む
ことを特徴とするプログラムが記録されているプログラム記録媒体。 In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
Detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Obtaining an estimated value of a block obtained by dividing a frame of the third moving image data from a plurality of frames of image data of the second moving image data having a high correlation with the correlation,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
A detection step of detecting a positional relationship having a high correlation in a plurality of frames of the second moving image data;
Estimating step for obtaining an estimated value of a block obtained by dividing the frame of the third moving image data from the plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. When,
A program recording medium on which a program is recorded, comprising: a block restoring step of restoring the third moving image data in units of blocks using the estimated value of the block and the compressed data.
前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる他の圧縮データか、
または前記圧縮データに圧縮されており、
前記圧縮データと他の圧縮データは、それぞれを識別するための識別情報を含み、
前記他の圧縮データは、前記1つの動きベクトルをさらに含む
場合において、
前記識別情報が前記圧縮データを表しているとき、
前記検出ステップでは、前記第2の動画データの複数フレームにおいて、相関が高い位置関係を検出し、
前記推測ステップでは、前記検出ステップで検出された前記位置関係にある、前記第2の動画データの複数フレームの画像データから、前記第3の動画データのフレームをブロック分割して得られるブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元し、
前記識別情報が前記他の圧縮データを表しているとき、
前記検出ステップでは、前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を検出し、
前記推測ステップでは、前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロック復元ステップでは、前記ブロックの推測値と、前記他の圧縮データとを用いて、前記ブロックを復元する
ことを特徴とするプログラムが記録されている請求項25に記載のプログラム記録媒体。 The block is
For the block, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Other compressed data obtained by compressing the block using the estimated value of the block,
Or compressed into the compressed data,
The compressed data and the other compressed data include identification information for identifying each,
In the case where the other compressed data further includes the one motion vector,
When the identification information represents the compressed data,
In the detecting step, a positional relationship having a high correlation is detected in a plurality of frames of the second moving image data,
In the estimating step, a block obtained by dividing a frame of the third moving image data into blocks from a plurality of frames of image data of the second moving image data in the positional relationship detected in the detecting step. Find the value
In the block restoration step, the block is restored using the estimated value of the block and the compressed data,
When the identification information represents the other compressed data,
In the detection step, a positional relationship having a high correlation with the block in the plurality of frames of the second moving image data is detected for the block from the one motion vector,
In the estimating step, an estimated value of the block is obtained from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
26. The program recording medium according to claim 25, wherein in the block restoration step, the block is restored using the estimated value of the block and the other compressed data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離手段と、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出手段と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段と、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮手段と
を備えることを特徴とする画像処理装置。 In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separation means for separating data,
Detecting means for detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data into blocks;
Inference means for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
An image processing apparatus comprising: a compression unit that compresses the third moving image data in units of blocks using the estimated value of the block.
ことを特徴とする請求項27に記載の画像処理装置。 The said 2nd moving image data and the compression result of the said 3rd moving image data by the said compression means are output independently as a compression result of the said 1st moving image data. Image processing device.
ことを特徴とする請求項27に記載の画像処理装置。 The estimation means uses, as an estimated value of the block, a weighted average value of image data of a plurality of frames of the second moving image data in which the positional relationship with the block is a positional relationship obtained from the one motion vector. The image processing apparatus according to claim 27, wherein the image processing apparatus is obtained.
前記分離手段は、前記フィルタ手段によるフィルタリング後の前記第1の動画データを、前記第2と第3の動画データに分離する
ことを特徴とする請求項27に記載の画像処理装置。 In the frequency domain defined by the frequency axis in the time direction and the frequency axis in the spatial direction, the region extends in the principal component direction that is the direction of the principal component of the first moving image data, and the frequency axis in the time direction Filter means for filtering the first moving image data, with a region having a specific width in the direction as a passband,
The image processing apparatus according to claim 27, wherein the separating unit separates the first moving image data after filtering by the filtering unit into the second and third moving image data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とする画像処理方法。 In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data.
An estimation step of obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラム。 In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data.
An estimation step of obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A compression step of compressing the third moving image data in units of blocks using the estimated value of the block.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離する分離ステップと、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出する検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値を用いて、前記第3の動画データをブロック単位で圧縮する圧縮ステップと
を含むことを特徴とするプログラムが記録されているプログラム記録媒体。 In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. A separation step for separating data,
A detection step of detecting one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for a block obtained by dividing the frame of the third moving image data.
An estimation step of obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
And a compressing step of compressing the third moving image data in units of blocks using the estimated value of the block.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含み、
前記圧縮データは、前記1つの動きベクトルを含む
ことを特徴とするデータ構造。 In the data structure of data obtained by compressing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Compressed data obtained by compressing the block using the estimated value of the block;
Including the second moving image data,
The compressed data includes the one motion vector.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データと、
前記第2の動画データと
を含み、
前記圧縮データは、前記1つの動きベクトルを含む
ことを特徴とするデータが記録されているデータ記録媒体。 In a data recording medium on which data obtained by compressing moving image data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
Compressed data obtained by compressing the block using the estimated value of the block;
Including the second moving image data,
The compressed data includes the one motion vector. A data recording medium on which data is recorded.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元手段と、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元手段と
を備え、
前記第1の復元手段は、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出手段と、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測手段と、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元手段と
を有する
ことを特徴とする画像処理装置。 In an image processing apparatus that processes video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
First restoration means for restoring compressed data obtained by compressing the block using the estimated value of the block to the third moving image data using the second moving image data;
A second restoring means for synthesizing the second and third moving image data and restoring the first moving image data;
The first restoration means includes
Detecting means for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data from the one motion vector;
An estimation means for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
An image processing apparatus comprising: a block restoration unit that restores the block using the estimated value of the block and the compressed data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップと
を含む
ことを特徴とする画像処理方法。 In an image processing method for processing video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
From the one motion vector, a detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
An image processing method comprising: a block restoration step of restoring the block using the estimated value of the block and the compressed data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップと
を含む
ことを特徴とするプログラム。 In a program that causes a computer to process video data,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
From the one motion vector, a detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A block restoration step of restoring the block using the estimated value of the block and the compressed data.
第1の動画データを、その第1の動画データのフレームレートよりも低いフレームレートの第2の動画データと、前記第1の動画データから第2の動画データを除いた残りの第3の動画データとに分離し、
前記第3の動画データのフレームをブロック分割して得られるブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を表す1つの動きベクトルを検出し、
前記ブロックとの位置関係が前記1つの動きベクトルから求められる位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求め、
前記ブロックの推測値を用いて、前記ブロックを圧縮する
ことにより得られる圧縮データを、前記第2の動画データを用いて、前記第3の動画データに復元する第1の復元ステップと、
前記第2と第3の動画データを合成し、前記第1の動画データを復元する第2の復元ステップと
を含み、
前記第1の復元ステップは、
前記1つの動きベクトルから、前記ブロックについて、前記第2の動画データの複数フレームにおいて前記ブロックとの相関が高い位置関係を求める検出ステップと、
前記ブロックとの位置関係が前記1つの動きベクトルから求められた位置関係にある、前記第2の動画データの複数フレームの画像データから、前記ブロックの推測値を求める推測ステップと、
前記ブロックの推測値と、前記圧縮データとを用いて、前記ブロックを復元するブロック復元ステップと
を含む
ことを特徴とするプログラムが記録されているプログラム記録媒体。 In a program recording medium in which a program for causing a computer to process video data is recorded,
The first moving image data includes the second moving image data having a frame rate lower than the frame rate of the first moving image data, and the remaining third moving image obtained by removing the second moving image data from the first moving image data. Separated into data,
For a block obtained by dividing the frame of the third moving image data into blocks, one motion vector representing a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data is detected;
Obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector,
A first restoration step of restoring compressed data obtained by compressing the block using the estimated value of the block into the third moving image data using the second moving image data;
Combining the second and third moving image data and restoring the first moving image data;
The first restoration step includes
From the one motion vector, a detection step for obtaining a positional relationship having a high correlation with the block in a plurality of frames of the second moving image data for the block;
An estimation step for obtaining an estimated value of the block from image data of a plurality of frames of the second moving image data, wherein the positional relationship with the block is a positional relationship obtained from the one motion vector;
A program recording medium on which a program is recorded, comprising: a block restoring step for restoring the block using the estimated value of the block and the compressed data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268305A JP2006086707A (en) | 2004-09-15 | 2004-09-15 | Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004268305A JP2006086707A (en) | 2004-09-15 | 2004-09-15 | Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006086707A true JP2006086707A (en) | 2006-03-30 |
Family
ID=36164866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004268305A Withdrawn JP2006086707A (en) | 2004-09-15 | 2004-09-15 | Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006086707A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210279474A1 (en) * | 2013-05-17 | 2021-09-09 | Canon Kabushiki Kaisha | Surveillance camera system and surveillance camera control apparatus |
US20210392347A1 (en) * | 2015-01-07 | 2021-12-16 | Texas Instruments Incorporated | Multi-pass video encoding |
-
2004
- 2004-09-15 JP JP2004268305A patent/JP2006086707A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210279474A1 (en) * | 2013-05-17 | 2021-09-09 | Canon Kabushiki Kaisha | Surveillance camera system and surveillance camera control apparatus |
US12118792B2 (en) * | 2013-05-17 | 2024-10-15 | Canon Kabushiki Kaisha | Surveillance camera system and surveillance camera control apparatus |
US20210392347A1 (en) * | 2015-01-07 | 2021-12-16 | Texas Instruments Incorporated | Multi-pass video encoding |
US11930194B2 (en) * | 2015-01-07 | 2024-03-12 | Texas Instruments Incorporated | Multi-pass video encoding |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11653065B2 (en) | Content based stream splitting of video data | |
US6400763B1 (en) | Compression system which re-uses prior motion vectors | |
EP2214137B1 (en) | A method and apparatus for frame interpolation | |
US20120163446A1 (en) | Object Archival Systems and Methods | |
JP5130381B2 (en) | Method and apparatus for efficient video processing | |
JP2009501479A (en) | Image coder for texture areas | |
US7295711B1 (en) | Method and apparatus for merging related image segments | |
WO2006016789A1 (en) | Method and device for making virtual image region for motion estimation and compensation of panorama image | |
FR2884027A1 (en) | Digital video images transmitting method for communication network, involves determining spatial zone, in image, corresponding to specified zone based on movement estimated in images sequence, and sending part of data of image of zone | |
Croci et al. | Visual attention-aware quality estimation framework for omnidirectional video using spherical Voronoi diagram | |
JP2002518723A (en) | Creating animation from video | |
JP7563864B2 (en) | Videoconferencing based on adaptive face reconstruction and face restoration | |
US20060133472A1 (en) | Spatial scalable compression | |
FR2729266A1 (en) | METHOD FOR INTERPOLATING IMAGES | |
JP2013128260A (en) | Image encoder, image decoder, image encoding method and image decoding method | |
JP2006086707A (en) | Image processing method and image processing apparatus, program and program recording medium, and data structure and data recording medium | |
JP4441865B2 (en) | Image processing method, image processing apparatus, program, and program recording medium | |
JP2008182347A (en) | Video processing system | |
US20060159177A1 (en) | Motion estimation method, device, and system for image processing | |
US12063389B2 (en) | 3D prediction method for video coding | |
JP4441866B2 (en) | Image processing method, image processing apparatus, program, and program recording medium | |
JP5140637B2 (en) | Spatiotemporal downsampling processing device, spatiotemporal upsampling processing device, encoding device, decoding device, and program | |
US5990959A (en) | Method, system and product for direct rendering of video images to a video data stream | |
US20240163476A1 (en) | 3d prediction method for video coding | |
CN116708863A (en) | Live video encoding method, live video apparatus and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071204 |