JP2010114474A - Image processing device and image processing method using dynamic image motion information - Google Patents
Image processing device and image processing method using dynamic image motion information Download PDFInfo
- Publication number
- JP2010114474A JP2010114474A JP2007038007A JP2007038007A JP2010114474A JP 2010114474 A JP2010114474 A JP 2010114474A JP 2007038007 A JP2007038007 A JP 2007038007A JP 2007038007 A JP2007038007 A JP 2007038007A JP 2010114474 A JP2010114474 A JP 2010114474A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- frame
- image
- motion vector
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 307
- 238000012545 processing Methods 0.000 title claims abstract description 211
- 238000003672 processing method Methods 0.000 title claims description 16
- 239000013598 vector Substances 0.000 claims abstract description 218
- 238000006243 chemical reaction Methods 0.000 claims abstract description 84
- 230000001186 cumulative effect Effects 0.000 claims abstract description 75
- 238000004364 calculation method Methods 0.000 claims abstract description 23
- 238000012937 correction Methods 0.000 claims description 25
- 230000006872 improvement Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 14
- 238000000034 method Methods 0.000 description 145
- 230000008569 process Effects 0.000 description 96
- 238000007792 addition Methods 0.000 description 62
- 238000010586 diagram Methods 0.000 description 23
- 230000010354 integration Effects 0.000 description 8
- 238000006073 displacement reaction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 101000969688 Homo sapiens Macrophage-expressed gene 1 protein Proteins 0.000 description 4
- 102100021285 Macrophage-expressed gene 1 protein Human genes 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000007430 reference method Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
【課題】動画像データ内に記録されている画像間の動き情報を利用して、複雑な演算無く高精度な位置合わせを可能にした、動画像の動き情報を利用した画像処理装置を提供する。
【解決手段】動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理装置であって、動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、参照フレームから基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部とを備え、動きベクトル累積加算変換処理部は、動画像データに記録された動き情報を元に、累積加算及び方向変換による演算によって、参照フレームから基準フレームへの動きベクトル値を算出する。
【選択図】図1
The present invention provides an image processing apparatus using motion information of a moving image, which enables high-precision alignment without complicated calculations using motion information between images recorded in the moving image data. .
An image processing apparatus using motion information between frame images recorded in moving image data, wherein a reference frame is obtained from two or more consecutive frame images obtained by decoding moving image data. And a frame selection processing unit for designating a reference frame, and a motion vector cumulative addition conversion processing unit for calculating a motion vector value from the reference frame to the base frame. The motion vector value from the reference frame to the base frame is calculated based on the motion information recorded in (2) by calculation based on cumulative addition and direction conversion.
[Selection] Figure 1
Description
本発明は、画像処理技術に関し、特に、動画像の動き情報を利用した画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing technique, and more particularly to an image processing apparatus and an image processing method that use motion information of a moving image.
従来、例えば、特許文献1では、インタレース走査MPEG2からプログレッシブ走査MPEG4へビットストリーム変換する際のブロック毎の動きベクトル変換技術について開示されている。 Conventionally, for example, Patent Document 1 discloses a motion vector conversion technique for each block when bitstream conversion is performed from interlace scanning MPEG2 to progressive scanning MPEG4.
特許文献1に記載されている動きベクトル変換技術とは、インタレースからプログレッシブに変換時に、フレームレート変換が行われ、元のMPEG2のフレームが破棄され、そして、破棄するフレームの隣接する後フレームから隣接する前フレームまでの動きベクトル値を、破棄するフレームと隣接する後フレームの対応するブロックの動きベクトル値を元に変換し決定後、隣接する後フレームの対応ブロックの新しい動きベクトル値として記録する技術である。 In the motion vector conversion technique described in Patent Document 1, frame rate conversion is performed at the time of conversion from interlace to progressive, the original MPEG2 frame is discarded, and the frame after the adjacent frame to be discarded is discarded. The motion vector value up to the adjacent previous frame is converted and determined based on the motion vector value of the corresponding block of the discarded frame and the adjacent subsequent frame, and then recorded as the new motion vector value of the corresponding block of the adjacent subsequent frame Technology.
特許文献1では、破棄するフレームから隣接する前フレームまでの動きベクトルが存在する場合に、隣接する後フレームの動きベクトル値と破棄するフレームから前フレームまでの動きベクトル値を累積加算した値を新の動きベクトル値とし、一方、破棄するフレームから隣接する前フレームまでの動きベクトルが存在しない場合に、隣接する後フレームの動きベクトルを破棄するフレーム分の時間を考慮した定数倍に変換した値を新の動きベクトル値として記録する。 In Patent Document 1, when there is a motion vector from a frame to be discarded to an adjacent previous frame, a value obtained by cumulatively adding the motion vector value of the adjacent subsequent frame and the motion vector value from the discarded frame to the previous frame is newly added. On the other hand, when there is no motion vector from the discarded frame to the adjacent previous frame, the value converted to a constant multiple considering the time for the discarded frame motion vector is discarded. Record as new motion vector value.
また、従来、位置合わせを行う際に必要となる動き推定技術として、特許文献2では、画像のサブピクセルマッチングにおける多パラメータ高精度同時推定技術について開示されている。 Conventionally, Patent Document 2 discloses a multi-parameter high-accuracy simultaneous estimation technique in image sub-pixel matching as a motion estimation technique required when performing alignment.
更に、特許文献3では、複数枚の低解像度画像から一枚の高解像度画像を生成する超解像処理技術について開示されており、超解像処理に必要となる位置合わせ処理(以下、単に、位置合わせとも称する。)として、例えば、特許文献2に記載されたような高精度なサブピクセルマッチングによる動き推定技術を利用することができる。
近年、画像処理分野において、MPEGなどの動画像を使って、電子ブレ補正、ノイズ低減、超解像処理などの位置合わせが必要な画像処理(以下、これらの画像処理を単に「画質改善処理」とも称する。)を行うニーズは、増えつつある。 In recent years, in the image processing field, image processing that requires alignment such as electronic blur correction, noise reduction, and super-resolution processing using moving images such as MPEG (hereinafter, these image processing is simply referred to as “image quality improvement processing”). The need to do this is also increasing.
しかしながら、MPEG(Moving Picture Expert Group)のような動き情報が記録されている動画像データ内の複数フレーム画像を用いて、位置合わせをし、画質改善処理を行い、高精細な画像を生成する場合、その一例として、例えば、超解像処理を行い、高解像度画像を生成する場合に、特許文献2に開示されている動き推定技術を位置合わせに適用すると、MPEG復号後の複数枚画像を使って新たに演算しなければならない為、処理時間が多大になると共にハードウェア規模が大きくなるという問題点がある。 However, when using multiple frame images in moving image data in which motion information such as MPEG (Moving Picture Expert Group) is recorded, alignment is performed, image quality improvement processing is performed, and a high-definition image is generated. As an example, for example, when super-resolution processing is performed and a high-resolution image is generated, if the motion estimation technique disclosed in Patent Document 2 is applied to alignment, a plurality of images after MPEG decoding are used. Therefore, there is a problem that the processing time is increased and the hardware scale is increased.
また、特許文献1に開示されている動きベクトル変換技術を位置合わせ処理に適用すると、記録時の各MPEGエンコーダーによって動き補償手法が異なっており、記録された動きベクトル値の精度はエンコーダーに依存し必ずしも高いわけではないので、位置合わせが失敗してしまうという問題点がある。 Further, when the motion vector conversion technique disclosed in Patent Document 1 is applied to the alignment process, the motion compensation method differs depending on each MPEG encoder at the time of recording, and the accuracy of the recorded motion vector value depends on the encoder. Since it is not necessarily high, there is a problem that the alignment fails.
したがって、位置合わせが失敗すると、例えば、特許文献3に開示された超解像処理を利用した場合であっても、高解像度画像が生成できなくなるという問題が生じる。 Therefore, if the alignment fails, for example, even when the super-resolution processing disclosed in Patent Document 3 is used, there is a problem that a high-resolution image cannot be generated.
本発明は、上述のような事情よりなされたものであり、本発明の目的は、動画像データ内に記録されている画像間の動き情報を利用して、複雑な演算無く高精度な位置合わせを可能にした、動画像の動き情報を利用した画像処理装置及び画像処理方法を提供することにある。 The present invention has been made under the circumstances as described above, and an object of the present invention is to use high-precision alignment without complicated calculations using motion information between images recorded in moving image data. It is an object of the present invention to provide an image processing apparatus and an image processing method using motion information of a moving image that enable the above.
本発明は、動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理装置に関し、本発明の上記目的は、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部とを備え、前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することにより、或いは、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部とを備え、前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することにより、或いは、前記動画像データはMPEG1/2/4、H.261/263/264の動画像データであることにより、或いは、前記動画像データに記録された前記動き情報は、フレーム画像間のブロックベースのマッチング処理によって求めた動きベクトル値、又は、求めた動きベクトル値を元に変換した値であることにより、或いは、前記動きベクトル累積加算変換処理部によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせする、位置合わせ処理部と、前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択する、画素選択処理部とを備えることにより、或いは、前記画素選択処理部により選択された画素のみを利用して、前記基準フレームに対して画質改善処理を行う、画質改善処理部を備えることにより、或いは、前記動きベクトル累積加算変換処理部によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせする、位置合わせ処理部と、前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正する、画素選択処理部とを備えることにより、或いは、前記画素選択処理部により選択・明度補正された画素を利用して、前記基準フレームに対して画質改善処理を行う、画質改善処理部を備えることによって効果的に達成される。 The present invention relates to an image processing apparatus using motion information between frame images recorded in moving image data, and the object of the present invention is to provide two or more consecutive images obtained by decoding the moving image data. A frame selection processing unit for designating a base frame and a reference frame from a frame image; and a motion vector cumulative addition conversion processing unit for calculating a motion vector value from the reference frame to the base frame. The addition conversion processing unit calculates a motion vector value from the reference frame to the base frame by calculation based on cumulative addition and direction conversion based on the motion information recorded in the moving image data, or A base frame and a reference frame are designated from two or more consecutive frame images obtained by decoding the moving image data. A frame selection processing unit, and a motion vector cumulative addition conversion processing unit that calculates a motion vector value from the reference frame to the base frame, wherein the motion vector cumulative addition conversion processing unit adds the motion vector data to the moving image data. The recorded motion information is converted into a motion vector value, the target pixel is tracked from the reference frame to the base frame using the motion vector value, and the motion vector value used at the time of tracking is cumulatively added and direction By converting, the moving image data is MPEG 1/2/4, H.261 / 263/264 moving image data, or the motion information recorded in the moving image data is a frame Converted based on motion vector values obtained by block-based matching processing between images or based on the obtained motion vector values Or a registration processing unit that performs registration based on correspondence information of each pixel between the reference frame and the base frame obtained by the motion vector cumulative addition conversion processing unit. A pixel selection processing unit that selects, for each pixel of the registration image output from the processing unit, a similarity, an estimated amount of misalignment, or the estimated amount of similarity and the misregistration. Providing an image quality improvement processing unit that performs image quality improvement processing on the reference frame using only the pixels selected by the pixel selection processing unit, or adding the motion vector cumulative addition An alignment process that performs alignment based on correspondence information of each pixel between the reference frame and the base frame obtained by the conversion processing unit. And the registration image output from the registration processing unit, the degree of similarity that is not affected by the change in brightness, the estimated amount of the position shift that is not affected by the change in brightness, or the estimation of the degree of similarity and the position shift A pixel selection processing unit that selects the pixel based on the amount and corrects the pixel value of the selected pixel so that the brightness of the selected pixel matches the brightness of the corresponding pixel of the reference image; It is effectively achieved by providing an image quality improvement processing unit that performs image quality improvement processing on the reference frame using pixels that have been selected and lightness corrected by the pixel selection processing unit. .
また、本発明は、動画像データ内に記録されているフレーム画像間の動き情報を利用した画像処理方法に関し、本発明の上記目的は、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップとを有し、前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することにより、或いは、前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップとを有し、前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することにより、或いは、前記動画像データはMPEG1/2/4、H.261/263/264の動画像データであることにより、或いは、前記動画像データに記録された前記動き情報は、フレーム画像間のブロックベースのマッチング処理によって求めた動きベクトル値、又は、求めた動きベクトル値を元に変換した値であることにより、或いは、前記動きベクトル累積加算変換処理手段によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせし、位置合わせにより得られたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択することにより、或いは、選択された画素のみを利用して、前記基準フレームに対して画質改善処理を行うことにより、或いは、前記動きベクトル累積加算変換処理手段によって求めた前記参照フレームと前記基準フレームとの各画素の対応情報を元に位置合わせし、位置合わせにより得られたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正することにより、或いは、選択・明度補正された画素を利用して、前記基準フレームに対して画質改善処理を行うことによってより効果的に達成される。 The present invention also relates to an image processing method using motion information between frame images recorded in moving image data, and the above object of the present invention is to provide continuous 2 obtained by decoding the moving image data. The step of designating a base frame and a reference frame from the above frame images and the movement from the reference frame to the base frame by the motion vector cumulative addition conversion processing means when aligning the reference frame with the base frame Calculating a vector value, wherein the motion vector cumulative addition conversion processing means is based on the motion information recorded in the moving image data, and is calculated from the reference frame by calculation based on cumulative addition and direction conversion. Obtained by calculating a motion vector value for a reference frame or by decoding the moving image data The step of designating a reference frame and a reference frame from two or more consecutive frame images, and when the reference frame is aligned with the reference frame, the motion vector cumulative addition conversion processing means converts the reference frame from the reference frame to the reference frame. The motion vector cumulative addition conversion processing means converts the motion information recorded in the moving image data into a motion vector value, and applies the reference frame to the target pixel. The motion vector value is tracked from the reference frame to the reference frame, and the motion vector value used at the time of tracking is accumulated and converted, or the moving image data is MPEG1 / 2/4, H.261. / 263/264 moving image data or recorded in the moving image data The motion information obtained is a motion vector value obtained by a block-based matching process between frame images, or a value converted based on the obtained motion vector value, or the motion vector cumulative addition conversion process Alignment based on the correspondence information of each pixel of the reference frame and the base frame obtained by means, for each pixel of the registration image obtained by the alignment, similarity, an estimated amount of displacement, or By selecting the pixel based on the similarity and the estimated amount of positional deviation, or by performing image quality improvement processing on the reference frame using only the selected pixel, or The correspondence information of each pixel between the reference frame and the base frame obtained by the motion vector cumulative addition conversion processing means For each pixel of the registration image obtained by the alignment, the degree of similarity that is not affected by the change in brightness, the estimated amount of misalignment that is not affected by the change in brightness, or the estimated amount of the similarity and the misalignment The pixel value of the selected pixel is corrected so that the lightness of the selected pixel matches the lightness of the corresponding pixel of the reference image, or the selected / lightness is selected. This is achieved more effectively by performing image quality improvement processing on the reference frame using the corrected pixels.
本発明によれば、MPEG(Moving Picture Expert Group)のような動き情報が記録されている動画像データ内の動き情報を利用して、簡単な演算や変換で、参照フレーム画像から基準フレーム画像への動きベクトル値を求め、求めた動きベクトル値で参照フレーム画像と基準フレーム画像との位置合わせを行い、その後に更に画素選択・明度補正することで、簡単な演算や変換によるそれほど高精度な動きベクトル値でなくても、高精度な位置合わせ処理ができるため、高解像度画像や高画質化画像の生成ができると共に、演算時間の短縮、ハードウェア規模の縮小が可能となる。 According to the present invention, the motion information in motion picture data in which motion information such as MPEG (Moving Picture Expert Group) is recorded is used to convert the reference frame image to the reference frame image by simple calculation and conversion. The motion vector value is calculated, the reference frame image and the base frame image are aligned with the calculated motion vector value, and then the pixel selection and brightness correction are performed, so that the motion is so highly accurate by simple calculation and conversion. Even if it is not a vector value, highly accurate alignment processing can be performed, so that a high-resolution image and a high-quality image can be generated, and calculation time can be reduced and hardware scale can be reduced.
特許文献2に記載された動き推定処理手法及び本発明による動き推定処理をソフトウェアで実装した場合の動き推定処理の演算時間計測結果例を以下に示す。 An example of calculation time measurement results of motion estimation processing when the motion estimation processing method described in Patent Document 2 and the motion estimation processing according to the present invention are implemented by software is shown below.
ソフトウェアを実行するパーソナルコンピュータ環境(PC環境)については、CPUが3.2GHzで、RAMが2GByteである。また、画像サイズが352×288[pixel]の画像を30枚使用し、特許文献2に記載された動き推定手法を実装したソフトウェアの場合、その計測時間は38.041[s]で、一方、本発明を実装したソフトウェアの場合、その計測時間は16.812[s]である。 As for a personal computer environment (PC environment) for executing software, the CPU is 3.2 GHz and the RAM is 2 GB. In addition, in the case of software using 30 images with an image size of 352 × 288 [pixel] and implementing the motion estimation method described in Patent Document 2, the measurement time is 38.041 [s], In the case of software implementing the present invention, the measurement time is 16.812 [s].
両者の計測時間を比較することにより、本発明による計測時間が、特許文献2による計測時間の半分以下になるほど、明らかに短いことが分かる。 By comparing the measurement times of both, it can be seen that the measurement time according to the present invention is clearly shorter as it is less than half the measurement time according to Patent Document 2.
最初に、本発明の着眼点について述べる。 First, the focus of the present invention will be described.
MPEG(Moving Picture Experts Group)1/2/4やH.261/263/264は、標準規格化されており、多くの既存システムの出力データ形式に使用されている。これらの動画像データには、圧縮効率を良好にするために、フレーム画像間の動き情報が記録されており、それを元に復号化される。つまり、符号化時に、フレーム画像間の動き情報を算出しているので、その動き情報を有効的に活用し、更に、画素選択・明度補正処理と組み合わせることにより、高精細な位置合わせを実現する。 MPEG (Moving Picture Experts Group) 1/2/4 and H.261 / 263/264 have been standardized and are used in output data formats of many existing systems. In these moving image data, motion information between frame images is recorded in order to improve compression efficiency, and decoding is performed based on the information. In other words, since motion information between frame images is calculated at the time of encoding, high-precision alignment is realized by effectively using the motion information and further combining with pixel selection / lightness correction processing. .
要するに、本発明では、例えばMPEGなどのフレーム画像間の動き情報が記録されている動画像データの復号画像に対し、高精細化する際、複数枚の画像(フレーム画像)を使って位置合わせを必要とする場合に、動画像データに記録された動き情報を元に、使用する参照フレーム画像から高精細化したい基準フレーム画像への動きベクトル値を、累積加算や方向変換など簡単な手法による演算によって画素毎に求め、求めた動きベクトル値で位置合わせ処理を行い、位置合わせ処理により生成された「レジストレーション画像」に対し、画素選択・明度補正処理によって、レジストレーション画像内の各画素が有効な画素か無効な画素かを判定し、有効な画素と判定された画素のみを選択することで、画素選択・明度補正したレジストレーション画像が得られた。つまり、本発明は、計算コストが低い簡単な動きベクトル演算で、高精細な位置合わせを実現している。 In short, in the present invention, for example, when using a plurality of images (frame images) for alignment, a decoded image of moving image data in which motion information between frame images such as MPEG is recorded is made high-definition. When necessary, based on the motion information recorded in the moving image data, calculate the motion vector value from the reference frame image to be used to the base frame image to be refined using a simple method such as cumulative addition or direction conversion. For each pixel in the registration image, the pixel registration and brightness correction processing is performed on the “registration image” generated by the registration processing. Pixel selection and brightness correction by selecting only pixels that have been determined to be valid pixels. Deployment image was obtained. That is, the present invention realizes high-definition alignment by simple motion vector calculation with low calculation cost.
以下、本発明を実施するための最良の形態を、図面を参照して詳細に説明する。
(実施形態1)
図1は、本発明に係る「動画像の動き情報を利用した画像処理装置」(以下、単に、本発明の画像処理装置とも言う。)の第1の実施形態を示すブロック構成図である。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
FIG. 1 is a block diagram showing a first embodiment of an “image processing apparatus using moving image motion information” (hereinafter also simply referred to as an image processing apparatus of the present invention) according to the present invention.
図1に示すように、第1の実施形態に係る画像処理装置は、動画像入力処理部101と、動画像復号処理部102と、動きベクトル累積加算変換処理部103と、フレーム選択処理部105と、位置合わせ処理部106と、画素選択処理部107と、高解像度化処理部108と、メモリ109と、画像表示部110とを備える。 As shown in FIG. 1, an image processing apparatus according to the first embodiment includes a moving image input processing unit 101, a moving image decoding processing unit 102, a motion vector cumulative addition conversion processing unit 103, and a frame selection processing unit 105. A registration processing unit 106, a pixel selection processing unit 107, a high resolution processing unit 108, a memory 109, and an image display unit 110.
第1の実施形態における動き情報付き動画像データ100(即ち、フレーム画像間の動き情報が記録されている動画像データ)は、既に存在しているものとし、フレーム画像間の動き情報を持つ全ての動画像データのことを指しており、例えば、MPEG(Moving Picture Experts Group)1/2/4やH.261/263/264などの動画像データである。 The moving image data with motion information 100 in the first embodiment (that is, moving image data in which motion information between frame images is recorded) already exists, and all the motion information between the frame images is present. For example, moving picture data such as MPEG (Moving Picture Experts Group) 1/2/4 or H.261 / 263/264.
図1に示されるように、動き情報付き動画像データ100は、動画像入力処理部101に入力された後に、動画像復号処理部102で連続するフレーム画像として復号化され、復号した連続するフレーム画像は、メモリ109に保存される。 As shown in FIG. 1, moving image data with motion information 100 is input to the moving image input processing unit 101, then decoded as a continuous frame image by the moving image decoding processing unit 102, and decoded continuous frames. The image is stored in the memory 109.
ここで、例えば、動き情報付き動画像データ100がMPEG動画像データの場合、動画像復号処理部102は、フレーム画像の復号化をすると共に、フレーム画像間の動き情報を復号化し変換することで、フレーム画像間の動きベクトル情報を抽出する。変換とは、MPEG動画像データに記録されている動き情報は、対象ブロックの隣接するブロックとの動きベクトル値の差分値を圧縮符号化しているため、復号化後に隣接するブロックの動き量に加算することである。また、動画像復号処理部102は、後述する図3のMPEG4の復号器に対応する。 Here, for example, when the moving image data with motion information 100 is MPEG moving image data, the moving image decoding processing unit 102 decodes the frame information and also decodes and converts the motion information between the frame images. Then, motion vector information between frame images is extracted. Conversion is motion information recorded in MPEG video data, because the difference value of the motion vector value with the adjacent block of the target block is compression-encoded, and added to the motion amount of the adjacent block after decoding It is to be. The moving image decoding processing unit 102 corresponds to an MPEG4 decoder shown in FIG.
メモリ109に保存された復号化データは、画像表示部110にて動画表示することができる。使用者(ユーザ)は、画像表示部110で表示された動画像(フレーム画像)を閲覧し、高画質化に使用するフレーム画像(以下、単に「使用フレーム」とも呼ぶ)と、高画質化させたい基準フレーム画像(以下、単に「基準フレーム」とも呼ぶ)を指定することが可能である。 The decoded data stored in the memory 109 can be displayed as a moving image on the image display unit 110. A user (user) browses a moving image (frame image) displayed on the image display unit 110 to improve the image quality with a frame image (hereinafter also simply referred to as “used frame”) used for image quality improvement. It is possible to designate a desired reference frame image (hereinafter also simply referred to as “reference frame”).
本発明では、「使用フレーム」とは、高画質化に使用する全てのフレーム画像を意味し、指定された「使用フレーム」のうち、1枚のフレーム画像を「基準フレーム」とし、基準フレームを除いて残りの全ての使用フレームは、「参照フレーム」と呼ぶ。つまり、使用フレームと基準フレームを指定すれば、参照フレーム(参照フレーム画像)も決まる訳である。 In the present invention, “use frame” means all frame images used for image quality improvement, and one frame image of the designated “use frames” is set as a “reference frame”, and the reference frame is set as the reference frame. Except for the remaining used frames, they are called “reference frames”. That is, if the use frame and the reference frame are designated, the reference frame (reference frame image) is also determined.
使用者によって指定された基準フレーム及び使用フレームに関する指定フレーム情報は、フレーム選択処理部105を介して、動きベクトル累積加算変換処理部103に入力される。 Designated frame information related to the reference frame and the used frame designated by the user is input to the motion vector cumulative addition conversion processing unit 103 via the frame selection processing unit 105.
動きベクトル累積加算変換処理部103は、動画像復号処理部102によって抽出された動きベクトル情報をメモリ109経由又は動画像復号処理部102経由で取得し、取得した動きベクトル情報を使用して、指定フレーム情報に基づき、各参照フレーム画像から基準フレーム画像までの動きベクトル値を算出する。 The motion vector cumulative addition conversion processing unit 103 acquires the motion vector information extracted by the moving image decoding processing unit 102 via the memory 109 or the moving image decoding processing unit 102, and uses the acquired motion vector information to specify Based on the frame information, a motion vector value from each reference frame image to the base frame image is calculated.
動きベクトル累積加算変換処理部103で算出された動きベクトル値は、位置合わせ処理部106に入力される。 The motion vector value calculated by the motion vector cumulative addition conversion processing unit 103 is input to the alignment processing unit 106.
位置合わせ処理部106では、入力された動きベクトル値を用いて、各参照フレーム画像を基準フレーム画像へ位置合わせするように、位置合わせ処理を行うことにより、レジストレーション画像を生成する。 The alignment processing unit 106 generates a registration image by performing alignment processing so that each reference frame image is aligned with the standard frame image using the input motion vector value.
位置合わせ処理が行われた後に、画素選択処理部107は、レジストレーション画像の各画素が有効な画素か無効な画素かを判定し、有効な画素と判定された画素のみを選択する。なお、位置合わせ処理部106、画素選択処理部107は、メモリに保存されている復号画像へのアクセスが自由にできる。 After the alignment process is performed, the pixel selection processing unit 107 determines whether each pixel of the registration image is a valid pixel or an invalid pixel, and selects only the pixels determined to be valid pixels. The alignment processing unit 106 and the pixel selection processing unit 107 can freely access the decoded image stored in the memory.
画素選択処理が行われた後に、選択された画素のみ(即ち、画素選択・明度補正したレジストレーション画像)が高解像度化処理部108へ入力される。高解像度化処理部108では、画素選択・明度補正したレジストレーション画像に対し、高解像度化処理を施すことにより、高解像度画像を生成し、生成した高解像度画像をメモリ109へ保存する。 After the pixel selection processing is performed, only the selected pixel (that is, a registration image with pixel selection / lightness correction) is input to the high resolution processing unit 108. The high resolution processing unit 108 generates a high resolution image by performing high resolution processing on the registration image that has undergone pixel selection and brightness correction, and stores the generated high resolution image in the memory 109.
メモリ109に保存された高解像度画像は、画像表示部101に表示することができ、使用者は、画像表示部101で生成された高解像度画像を確認することが出来る。 The high resolution image stored in the memory 109 can be displayed on the image display unit 101, and the user can check the high resolution image generated by the image display unit 101.
図1の高解像度化処理部108では、画素選択・明度補正したレジストレーション画像に対し、高解像度画像を生成するとなっているが、本発明はそれに限定されることはなく、高解像度化処理部108を、ノイズ低減や電子ブレなどの位置合わせが必要な画像処理部、即ち、画質改善処理部に置き換えても良いことは、言うまでもない。 In the high resolution processing unit 108 in FIG. 1, a high resolution image is generated for the registration image subjected to pixel selection and brightness correction. However, the present invention is not limited to this, and the high resolution processing unit Needless to say, the image processing unit 108 may be replaced with an image processing unit that requires alignment such as noise reduction or electronic blur, that is, an image quality improvement processing unit.
図2は、図1に示す本発明の第1の実施形態に係る画像処理装置で行われる画像処理の流れを示すフローチャートである。即ち、図2に示す流れは、本発明に係る「動画像の動きベクトルを利用した画像処理方法」の手順を示している。 FIG. 2 is a flowchart showing a flow of image processing performed by the image processing apparatus according to the first embodiment of the present invention shown in FIG. That is, the flow shown in FIG. 2 shows a procedure of “an image processing method using a motion vector of a moving image” according to the present invention.
図2に示されるように、先ず、動き情報付き動画像データ入力処理(A01)により、動き情報付き動画像データの入力を行う。次に、入力した動き情報付き動画像データを動画像データ復号処理(A02)により、動きベクトル値と連続フレーム画像を復号する。 As shown in FIG. 2, first, moving image data with motion information is input by moving image data with motion information input processing (A01). Next, the motion vector value and the continuous frame image are decoded from the input moving image data with motion information by a moving image data decoding process (A02).
そして、使用者(ユーザ)により指定されたフレーム情報(指定された使用フレーム情報及び指定された基準フレーム情報)から、フレーム選択処理(A03)により、動画像中の高解像度化する対象フレーム(基準フレーム)と高解像度化に使用するフレーム(使用フレーム)を選択する。前述したように、使用フレームと基準フレームを選択すれば、自然に、参照フレームも選択される。 Then, from the frame information designated by the user (user) (designated used frame information and designated reference frame information), the frame selection process (A03) is used to increase the resolution of the target frame (reference) in the moving image. Frame) and the frame used for higher resolution (used frame). As described above, if the use frame and the reference frame are selected, the reference frame is also naturally selected.
動画像データ復号処理(A02)により復号された動きベクトル値を元に、動きベクトル累積加算変換処理(A04)により、基準フレーム画像と各参照フレーム画像との各画素における動きベクトル値を算出する。 Based on the motion vector value decoded by the moving image data decoding process (A02), the motion vector value at each pixel of the base frame image and each reference frame image is calculated by the motion vector cumulative addition conversion process (A04).
基準フレーム画像と各参照フレーム画像との各画素における動きベクトル値が算出された後に、位置合わせ処理(A05)により、基準フレーム画像に対して各参照フレームの位置合わせを行う。 After the motion vector values at the respective pixels of the reference frame image and the reference frame images are calculated, the reference frames are aligned with the reference frame image by the alignment process (A05).
位置合わせ処理の後に、画素選択処理(A06)により画素選択を行い、画素選択された画素に対し、高解像度化処理(A07)により、高解像度画像を生成する。 After the alignment processing, pixel selection is performed by pixel selection processing (A06), and a high-resolution image is generated by high-resolution processing (A07) for the selected pixels.
図3には、MPEG4の符号化/復号化処理のブロック構成を示している。図1に示す本発明の第1の実施形態における動画像復号処理部102は、MPEG4の復号化処理ブロック構成に対応しており、即ち、図3の復号器と対応する。 FIG. 3 shows a block configuration of MPEG4 encoding / decoding processing. The moving picture decoding processing unit 102 in the first embodiment of the present invention shown in FIG. 1 corresponds to the MPEG4 decoding processing block configuration, that is, corresponds to the decoder of FIG.
また、図1における動き情報付き動画像データ100は、図3の符号化信号312と対応し、可変長復号化ブロック314で復号化され、映像データは逆量子化ブロック315へ、動き情報データは動きベクトル復号化ブロック318へそれぞれ出力される。 1 corresponds to the encoded signal 312 in FIG. 3 and is decoded by the variable-length decoding block 314, the video data is sent to the inverse quantization block 315, and the motion information data is Each is output to the motion vector decoding block 318.
その後、映像データは、逆DCTブロック316で逆DCTされる。動きベクトル復号化ブロック318で復号された動きベクトルは、動き補償ブロック319で、メモリ320に保存されている前のフレーム画像の対象ブロックに対し、動き補償される。 Thereafter, the video data is subjected to inverse DCT in an inverse DCT block 316. The motion vector decoded by the motion vector decoding block 318 is motion-compensated for the target block of the previous frame image stored in the memory 320 by the motion compensation block 319.
そして、動き補償された動きベクトルを逆DCTされた映像データに加算することで、復号画像321を生成する。 Then, the decoded image 321 is generated by adding the motion compensated motion vector to the video data subjected to inverse DCT.
図4は、本発明の第1の実施形態におけるフレーム選択処理部105で、使用者が指定フレームを設定する際の設定方法の一例を示した模式図である。 FIG. 4 is a schematic diagram illustrating an example of a setting method when the user sets a designated frame in the frame selection processing unit 105 according to the first embodiment of the present invention.
図4に示されるように、フレームを指定するための表示画面201において、使用者は、復号画像表示フレーム切り替えつまみ203を動かしながら、復号画像202の表示を確認し、そして、高解像度化したいフレーム番号を指定フレーム設定タブ204の基準フレーム設定タブ205に、高解像度化に使用するフレーム番号を使用フレーム設定タブ206に設定することで、フレームを指定することができる。 As shown in FIG. 4, on the display screen 201 for designating a frame, the user checks the display of the decoded image 202 while moving the decoded image display frame switching knob 203, and the frame to be increased in resolution. A frame can be specified by setting a number in the reference frame setting tab 205 of the specified frame setting tab 204 and a frame number used for higher resolution in the used frame setting tab 206.
図5は、本発明の第1の実施形態における「動きベクトル累積加算変換処理」の概要を示す模式図である。 FIG. 5 is a schematic diagram showing an outline of the “motion vector cumulative addition conversion process” in the first embodiment of the present invention.
図5に示されるように、フレーム選択処理(A03)によって使用フレーム及び基準フレームが指定される。図5において、使用フレームは全部10フレームで、使用フレームから基準フレームを除いて得られた参照フレームは、参照フレーム1から参照フレーム9までの9フレームである。 As shown in FIG. 5, the frame to be used and the reference frame are designated by the frame selection process (A03). In FIG. 5, the use frames are all 10 frames, and the reference frames obtained by removing the base frame from the use frames are 9 frames from the reference frame 1 to the reference frame 9.
図5に示されるように、参照フレーム1と参照フレーム2との間の動きベクトル値はMV1で、参照フレーム2と参照フレーム3との間の動きベクトル値はMV2で、参照フレーム3と参照フレーム4との間の動きベクトル値はMV3で、参照フレーム4と基準フレームとの間の動きベクトル値はMV4である。 As shown in FIG. 5, the motion vector value between the reference frame 1 and the reference frame 2 is MV1, the motion vector value between the reference frame 2 and the reference frame 3 is MV2, and the reference frame 3 and the reference frame The motion vector value between 4 and 4 is MV3, and the motion vector value between the reference frame 4 and the base frame is MV4.
よって、参照フレーム1と基準フレームとの間の動きベクトル値MVは、MV=+MV1+MV2+MV3+MV4で求めることができる。 Therefore, the motion vector value MV between the reference frame 1 and the base frame can be obtained by MV = + MV1 + MV2 + MV3 + MV4.
このように、本発明の「動きベクトル累積加算変換処理」により、指定された基準フレーム画像と各参照フレーム画像(参照フレーム1〜参照フレーム9)との間の動きベクトル値を求めることができる。求めた動きベクトル値で、各参照フレーム画像を基準フレーム画像に変形させることで、位置合わせすることができる。 In this manner, the motion vector value between the designated base frame image and each reference frame image (reference frame 1 to reference frame 9) can be obtained by the “motion vector cumulative addition conversion process” of the present invention. By aligning each reference frame image into a standard frame image with the obtained motion vector value, alignment can be performed.
これらの動きベクトル値を求める「動きベクトル累積加算変換処理」をフレーム画像間の各画素に対して行う。なお、上記とは逆に、「動きベクトル累積加算変換処理」で求めた動きベクトル値の方向を全て反転した値で、基準フレーム画像を変形することで、各参照フレーム画像に対して、位置合わせすることもできる。 A “motion vector cumulative addition conversion process” for obtaining these motion vector values is performed on each pixel between frame images. Contrary to the above, each reference frame image is aligned with each reference frame image by transforming the base frame image with a value obtained by inverting all the directions of the motion vector values obtained in the “motion vector cumulative addition conversion process”. You can also
図6は、本発明の第1の実施形態における「動きベクトル累積加算変換処理」のフローチャートを示したものである。なお、図6のフローチャートにおける判別処理1〜9(処理1〜9)の各処理内容は、図7に示す。 FIG. 6 shows a flowchart of the “motion vector cumulative addition conversion process” in the first embodiment of the present invention. In addition, each processing content of the discrimination | determination processes 1-9 (process 1-9) in the flowchart of FIG. 6 is shown in FIG.
以下に、図6及び図7に沿って、本発明における「動きベクトル累積加算変換処理」を詳細に説明する。なお、以下の説明において、Iとは「Iフレーム(Intra-coded Frame)/I-Picture/I−VOP(Intra-coded Video Object Plane)」を示し、Pとは「Pフレーム(Predicted Frame)/P-Picture/P−VOP(Predicted Video Object Plane)」を示し、Bとは「Bフレーム(Bi-directional Predicted Frame)/B-Picture/B−VOP(Bi-directional Predicted Video Object Plane)」を示すものとする。 Hereinafter, the “motion vector cumulative addition conversion process” in the present invention will be described in detail with reference to FIGS. 6 and 7. In the following description, I indicates “I frame (Intra-coded Frame) / I-Picture / I-VOP (Intra-coded Video Object Plane)”, and P indicates “P frame (Predicted Frame) / “P-Picture / P-VOP (Predicted Video Object Plane)”, and “B” indicates “B-Picture (B-directional Predicted Frame) / B-Picture / B-VOP (Bi-directional Predicted Video Object Plane)”. Shall.
図6に示されるように、「動きベクトル累積加算変換処理」における動きベクトル値の算出においては、フレーム選択処理(A03)で指定された基準フレームと使用フレームから基準フレーム以外のフレーム数分(参照フレーム数分)のループ(B01、B25)と各参照フレーム内全画素分のループ(B02、B24)で処理される。 As shown in FIG. 6, in the calculation of the motion vector value in the “motion vector cumulative addition conversion process”, the reference frame specified in the frame selection process (A03) and the number of frames other than the reference frame from the used frame (see Processing is performed in a loop (B01, B25) of the number of frames) and a loop (B02, B24) of all pixels in each reference frame.
ループ内処理として、まず、対象フレーム・対象画素設定処理(B03)で、元対象フレームと対象フレームを参照フレームに、元対象画素と対象画素を参照フレーム内の対象画素に設定する。 As the in-loop process, first, in the target frame / target pixel setting process (B03), the original target frame and the target frame are set as reference frames, and the original target pixel and the target pixel are set as target pixels in the reference frame.
その後、対象フレームと基準フレームとの前後(時間の前後)関係を判定(B04)し、処理1(B05、B12)で基準フレームの符号化タイプを判別し、処理2(B06、B07、B13、B14)で対象フレームの符号化タイプを判別する。 After that, the relationship between the target frame and the reference frame is determined (B04), the encoding type of the reference frame is determined in process 1 (B05, B12), and the process 2 (B06, B07, B13, In B14), the encoding type of the target frame is determined.
その後、各符号化タイプの組み合わせを考慮して、処理3〜9(B08、B09、B10、B11、B15、B16、B17、B18)で判別選択処理を行う。 Thereafter, in consideration of combinations of encoding types, discrimination selection processing is performed in processing 3 to 9 (B08, B09, B10, B11, B15, B16, B17, and B18).
処理3〜9(B08、B09、B10、B11、B15、B16、B17、B18)で、対応フレームと対応画素が選択されない(NOの)場合は、動きベクトル値なし(B22)として参照フレーム内全画素分ループエンド(B24)へ進む。 If the corresponding frame and the corresponding pixel are not selected (NO) in the processes 3 to 9 (B08, B09, B10, B11, B15, B16, B17, B18), all motions in the reference frame are assumed as no motion vector value (B22) Proceed to the pixel loop end (B24).
一方、処理3〜9(B08、B09、B10、B11、B15、B16、B17、B18)で、対応フレームと対応画素が選択される(YESの)場合は、動きベクトル値更新処理(B19)で方向変換や累積加算し動きベクトル値を更新する。 On the other hand, if the corresponding frame and the corresponding pixel are selected (YES) in processes 3 to 9 (B08, B09, B10, B11, B15, B16, B17, B18), the motion vector value update process (B19) The direction vector or cumulative addition is performed to update the motion vector value.
動きベクトル更新方法は2種類ある。図6の注釈にあるように、「動きベクトル更新方法1」とは、対象フレームの対象画素と選択されたフレーム内の対応する画素が持つ動きベクトル値を方向を考慮して累積加算する方法である。 There are two types of motion vector update methods. As shown in the annotation of FIG. 6, “motion vector update method 1” is a method in which the motion vector values of the target pixel of the target frame and the corresponding pixel in the selected frame are cumulatively added in consideration of the direction. is there.
また、「動きベクトル更新方法2」とは、選択されたフレーム内の対応する画素への対象フレームの対象画素が持つ動きベクトル値を方向を考慮して累積加算する方法である。 The “motion vector update method 2” is a method of accumulatively adding the motion vector value of the target pixel of the target frame to the corresponding pixel in the selected frame in consideration of the direction.
動きベクトル更新方法の選択は、図6の注釈内の表に示すように、対象フレーム、選択フレームの符号化タイプと、対象フレームと基準フレームとの前後(時間の前後)関係から決定される。 The selection of the motion vector update method is determined based on the target frame, the encoding type of the selected frame, and the relationship between the target frame and the reference frame (before and after time), as shown in the table in the annotation of FIG.
その後、選択フレームと基準フレームの比較(B20)を行い、両者が一致していれば、参照フレームの対象画素から基準フレームまでの対応画素までの動きベクトル値が求められたことになるので、その動きベクトル値を元対象フレームの元対象画素として保存(B23)する。参照フレーム内全画素分ループエンド(B24)へ進む。 Thereafter, the selected frame and the reference frame are compared (B20). If the two match, the motion vector value from the target pixel of the reference frame to the corresponding pixel from the reference frame is obtained. The motion vector value is saved as the original target pixel of the original target frame (B23). The process proceeds to the loop end (B24) for all pixels in the reference frame.
選択フレームと基準フレームの比較(B20)で両者が一致していなければ、対象フレーム・対象画素更新処理(B21)で対象フレームを選択フレームに対象画素を選択対象画素に更新し、対象フレームと基準フレームの前後関係判定処理(B04)へ戻る。 If they do not match in the comparison of the selected frame and the reference frame (B20), the target frame is updated to the selected frame and the target pixel is updated to the selected target pixel in the target frame / target pixel update process (B21). The process returns to the frame context determination process (B04).
これらのループ内処理を各参照フレーム内全画素分のループ(B02、B24)と参照フレーム数分のループ(B01、B25)とで処理することにより、動きベクトル累積加算変換処理を終了する。 The motion vector cumulative addition conversion process is completed by processing these in-loop processes in a loop (B02, B24) for all pixels in each reference frame and a loop (B01, B25) for the number of reference frames.
以上の動きベクトル累積加算変換処理の詳細を幾つかのパターンを例に説明する。その説明の前提として、MPEG4によるフレームの符号化タイプと各符号化タイプ内のマクロブロック符号化タイプについて説明する。 The details of the above motion vector cumulative addition conversion process will be described by taking several patterns as an example. As a premise for the description, the MPEG4 frame coding type and the macroblock coding type in each coding type will be described.
MPEG4には、I−VOP、P−VOP、B−VOPの3種類があり、I−VOPはイントラ符号化と呼び、I−VOP自体の符号化時には、フレーム内で符号化が完結するため、他のフレームとの予測を必要としない。P−VOPとB−VOPは、インター符号化と呼び、P−VOP自体の符号化時には、前方のI−VOPかP−VOPから予測符号化をする。B−VOP自体の符号化時には、双方向のI−VOPかP−VOPから予測符号化をする。 In MPEG4, there are three types of I-VOP, P-VOP, and B-VOP. I-VOP is called intra coding. When I-VOP itself is coded, coding is completed within the frame. No prediction with other frames is required. P-VOP and B-VOP are called inter coding, and when P-VOP itself is coded, predictive coding is performed from the front I-VOP or P-VOP. When encoding the B-VOP itself, predictive encoding is performed from a bidirectional I-VOP or P-VOP.
図8に、動き補償時の予測方向(1)と、(1)によって各フレームが持つ(各フレーム内に符号化記録される)動きベクトルの方向(どのフレームに対する動きベクトルか)(2)を示す。 FIG. 8 shows the prediction direction (1) at the time of motion compensation and the direction of the motion vector (which is encoded and recorded in each frame) (which frame is the motion vector) (2) possessed by each frame by (1). Show.
例えば、図8の(1)の左から4番目のI−VOPは、他のフレーム予測には使用されるが、I−VOP自体の符号化に他のフレームからの予測は必要としない。つまり、図8の(2)に示すように、対応する左から4番目のI−VOPからの動きベクトルは、存在しないので、I−VOP自体は、動きベクトルを持たない。 For example, the fourth I-VOP from the left in (1) of FIG. 8 is used for other frame predictions, but the prediction from other frames is not required for encoding the I-VOP itself. That is, as shown in (2) of FIG. 8, since there is no corresponding motion vector from the fourth I-VOP from the left, the I-VOP itself has no motion vector.
また、図8の(1)の左から7番目のP−VOPは、左から4番目のI−VOPから予測される。つまり、図8の(2)に示すように、対応する左から7番目のP−VOPからの動きベクトルは、左から4番目のI−VOPへの動きベクトルが存在するので、P−VOP自体は動きベクトルを持つ。 Also, the seventh P-VOP from the left in (1) of FIG. 8 is predicted from the fourth I-VOP from the left. That is, as shown in (2) of FIG. 8, since the corresponding motion vector from the seventh P-VOP from the left has a motion vector to the fourth I-VOP from the left, the P-VOP itself Has a motion vector.
さらに、図8の(1)の左から5番目のB−VOPは、左から4番目のI−VOPと左から7番目のP−VOPから予測される。つまり、図8の(2)に示すように、対応する左から5番目のB−VOPからの動きベクトルは、左から4番目のI−VOPと左から7番目のP−VOPへの動きベクトルが存在するので、B−VOP自体は動きベクトルを持つ。 Further, the fifth B-VOP from the left in (1) of FIG. 8 is predicted from the fourth I-VOP from the left and the seventh P-VOP from the left. That is, as shown in (2) of FIG. 8, the corresponding motion vectors from the fifth B-VOP from the left are the motion vectors from the left to the fourth I-VOP and from the left to the seventh P-VOP. Therefore, B-VOP itself has a motion vector.
しかしながら、MPEG4などの符号化は、フレーム全体を一度に符号化するわけではなく、フレーム内を複数のマクロブロックに分けて符号化をする。この際、各マクロブロックの符号化には、いくつかのモードが設けられている為、必ずしも上記のような方向への動きベクトルを持つとは限らない。 However, in encoding such as MPEG4, the entire frame is not encoded at once, but the frame is divided into a plurality of macroblocks. At this time, since several modes are provided for encoding each macroblock, it does not necessarily have a motion vector in the above-described direction.
ここで、各フレーム符号化タイプの各マクロブロック符号化モードと各モードにおいてそのマクロブロックが持つ動きベクトルについて、図9に示す。 Here, FIG. 9 shows each macroblock coding mode of each frame coding type and the motion vector of the macroblock in each mode.
図9に示されるように、I−VOPのマクロブロック符号化タイプは、「INTRA(+Q)」モードのみで、16×16ピクセルのフレーム内符号化を行うので、動きベクトルは存在しない。 As shown in FIG. 9, the macroblock coding type of I-VOP is “INTRA (+ Q)” mode only, and 16 × 16 pixel intraframe coding is performed, so there is no motion vector.
P−VOPのマクロブロック符号化タイプは、「INTRA(+Q)」、「INTER(+Q)」、「INTER4V」、「NOT CODED」の4種類のモードがある。 There are four types of P-VOP macroblock coding types: “INTRA (+ Q)”, “INTER (+ Q)”, “INTER4V”, and “NOT CODED”.
「INTRA(+Q)」は、16×16ピクセルのフレーム内符号化を行うので、動きベクトルは存在しない。「INTER(+Q)」は、16×16ピクセルの前方向予測符号化を行うので、前予測フレームへの動きベクトルを1つ持つ。「INTER4V」は、16×16ピクセルを4分割した8×8ピクセルごとに前方向予測符号化を行うので、前予測フレームへの動きベクトルを4つ持つ。「NOT CODED」は、前予測フレームとの差分が小さいため、符号化せず、前予測フレームの同じ位置におけるマクロブロックの画像データをそのまま使用するので、実際には動きベクトルは持たないが、本発明の実施においては前予測フレームへの動きベクトル値“0”を1つ持つと考えられる。 Since “INTRA (+ Q)” performs 16 × 16 pixel intraframe coding, there is no motion vector. Since “INTER (+ Q)” performs forward prediction encoding of 16 × 16 pixels, it has one motion vector for the previous prediction frame. Since “INTER4V” performs forward prediction encoding for every 8 × 8 pixels obtained by dividing 16 × 16 pixels into four, it has four motion vectors for the previous prediction frame. Since “NOT CODED” has a small difference from the previous prediction frame, encoding is not performed and the image data of the macroblock at the same position of the previous prediction frame is used as it is. In the practice of the invention, it is considered to have one motion vector value “0” for the previous prediction frame.
B−VOPのマクロブロック符号化タイプは、「INTERPOLATE」、「FORWARD」、「BACKWARD」、「DIRECT」の4種類のモードがある。 There are four types of B-VOP macroblock coding types: “INTERPOLATE”, “FORWARD”, “BACKWARD”, and “DIRECT”.
「INTERPOLATE」は、16×16ピクセルの双方向予測符号化を行うので、前後予測フレームへの動きベクトルをそれぞれ1つずつ持つ。「FORWARD」は、16×16ピクセルの前方向予測符号化を行うので、前予測フレームへの動きベクトルを1つ持つ。「BACKWARD」は、16×16ピクセルの後方向予測符号化を行うので、後予測フレームへの動きベクトルを1つ持つ。「DIRECT」は、16×16ピクセルを4分割した8×8ピクセルごとに前後方向予測符号化を行うので、前後予測フレームへの動きベクトルをそれぞれ4つずつ持つ。 “INTERPOLATE” performs bi-directional predictive encoding of 16 × 16 pixels, and thus has one motion vector for each of the preceding and following prediction frames. Since “FORWARD” performs forward prediction encoding of 16 × 16 pixels, it has one motion vector for the previous prediction frame. Since “BACKWARD” performs backward prediction encoding of 16 × 16 pixels, it has one motion vector for the backward prediction frame. “DIRECT” performs forward / backward predictive coding for every 8 × 8 pixels obtained by dividing 16 × 16 pixels into four, and thus has four motion vectors for the forward and backward predicted frames.
以上の前提を元に、動きベクトル累積加算変換処理の詳細をいくつかのパターンを例に図10〜図20を使用して説明する。 Based on the above assumptions, the details of the motion vector cumulative addition conversion process will be described with reference to FIGS.
図10は、例えば、1フレーム目はI−VOP、2フレーム目と3フレーム目はP−VOPとし、基準フレームを1フレーム目、参照フレームを3フレーム目とする。 In FIG. 10, for example, the first frame is an I-VOP, the second and third frames are P-VOPs, the base frame is the first frame, and the reference frame is the third frame.
図10に示されるように、3フレーム目参照フレームのある対象画素が図中の斜線画素である時に、その対象画素が含まれるマクロブロック(MB)の持つ動きベクトルを探す。この例の場合、マクロブロック符号化タイプはINTERで、このマクロブロックが持つ動きベクトルはMV5なので、対象画素の位置をMV5を使って移動する。 As shown in FIG. 10, when a target pixel in the third frame reference frame is a hatched pixel in the drawing, a motion vector of a macroblock (MB) including the target pixel is searched. In this example, since the macroblock coding type is INTER and the motion vector of this macroblock is MV5, the position of the target pixel is moved using MV5.
移動した画素の位置を2フレーム目のP−VOPのフレーム内の位置に対応させ、対応した2フレーム目の対象画素位置に対して,同様に対象画素が含まれるマクロブロックが持つ動きベクトルを探す。この例の場合、マクロブロック符号化タイプは,INTER4Vで、このマクロブロックが持つ動きベクトルは4つ存在するが、対象画素が含まれている8×8ピクセルのブロックが持つ動きベクトルは、MV4なので、追従中の対象画素の位置をさらにMV4を使って移動する。 The position of the moved pixel is made to correspond to the position in the frame of the P-VOP of the second frame, and the motion vector of the macroblock including the target pixel is similarly searched for the corresponding target pixel position of the second frame. . In this example, the macroblock coding type is INTER4V, and there are four motion vectors that the macroblock has, but the motion vector that the 8 × 8 pixel block that includes the target pixel has is MV4. The position of the target pixel being followed is further moved using MV4.
移動した画素の位置を1フレーム目のI−VOPのフレーム内の位置に対応させる。この例の場合、1フレーム目が基準フレームなので、参照フレームの対象画素は、基準フレームまで追従できたことになり、追従時に使用した初期値0とMV5とMV4を加算することで、参照フレームの対象画素における基準フレームまでの動きベクトル値を求めることができる。 The moved pixel position is made to correspond to the position in the I-VOP frame of the first frame. In this example, since the first frame is the base frame, the target pixel of the reference frame has been able to follow up to the base frame, and by adding the initial values 0, MV5, and MV4 used at the time of tracking, The motion vector value up to the reference frame in the target pixel can be obtained.
図11は、例えば、1フレーム目はI−VOP、2フレーム目と3フレーム目はP−VOPとし、基準フレームを3フレーム目、参照フレームを1フレーム目とする。 In FIG. 11, for example, the first frame is an I-VOP, the second and third frames are P-VOPs, the base frame is the third frame, and the reference frame is the first frame.
図11に示されるように、1フレーム目参照フレームのある対象画素が図中の斜線画素である時に、1フレーム目との動き情報を持つ2フレーム目のP−VOPの全画素から、1フレーム目の対象画素に対応する画素を探す。対応する画素が見つかったら、その画素が含まれる2フレーム目のマクロブロックが持つ動きベクトル値(この例の場合INTER4VでMV4)の方向を反転した−MV4で、対象画素の位置を移動し、移動した画素の位置を2フレーム目のP−VOPのフレーム内の位置に対応させ、対応した2フレーム目の対象画素位置に対して、同様に3フレーム目のP−VOPの全画素から、2フレーム目の対象画素に対応する画素を探す。 As shown in FIG. 11, when a target pixel in the first frame reference frame is a hatched pixel in the drawing, all frames of the P-VOP in the second frame having motion information with the first frame are used for one frame. Find the pixel corresponding to the target pixel of the eye. When a corresponding pixel is found, the position of the target pixel is moved by -MV4, in which the direction of the motion vector value (MV4 in INTER4V in this example) of the macroblock in the second frame including the pixel is reversed. The position of the selected pixel is made to correspond to the position in the frame of the P-VOP of the second frame, and from the corresponding pixel position of the second frame, similarly, all the pixels of the P-VOP of the third frame are Find the pixel corresponding to the target pixel of the eye.
対応する画素が見つかったら、その画素が含まれる3フレーム目のマクロブロックが持つ動きベクトル値(この例の場合INTERでMV5)の方向を反転した−MV5で対象画素の位置を移動し、移動した画素の位置を3フレーム目のP−VOPのフレーム内の位置に対応させる。この例の場合、3フレーム目が基準フレームなので、参照フレームの対象画素は、基準フレームまで追従できたことになり、追従時に使用した初期値0と−MV4と−MV5を加算することで、参照フレームの対象画素における基準フレームまでの動きベクトル値を求めることができる。 When the corresponding pixel is found, the direction of the motion vector value (MV5 in INTER in this example) of the macroblock in the third frame including the pixel is inverted, and the position of the target pixel is moved by -MV5. The pixel position is made to correspond to the position in the third frame P-VOP. In this example, since the third frame is the base frame, the target pixel of the reference frame has been able to follow up to the base frame, and can be referred to by adding the initial values 0, −MV4, and −MV5 used at the time of tracking. The motion vector value up to the reference frame in the target pixel of the frame can be obtained.
なお、図11のような例で、1フレーム目との動き情報を持つ2フレーム目のP−VOPの全画素から1フレーム目の対象画素に対応する画素を探す方法や、3フレーム目のP−VOPの全画素から2フレーム目の対象画素に対応する画素を探す方法について、図12に示す。 In the example as shown in FIG. 11, a method of searching for a pixel corresponding to the target pixel of the first frame from all the pixels of the P-VOP of the second frame having motion information with the first frame, or P of the third frame FIG. 12 shows a method of searching for a pixel corresponding to the target pixel in the second frame from all the pixels of −VOP.
図12には、左から4番目の参照フレームI−VOPの対象画素が、左から7番目の基準フレームP−VOPのどの画素(その画素が含まれるマクロブロックが持つ動きベクトル値(図中のMV1))と対応するかを探す場合についての例を示している。 In FIG. 12, the target pixel of the fourth reference frame I-VOP from the left is the pixel of the seventh reference frame P-VOP from the left (the motion vector value of the macroblock including the pixel ( An example of searching for a correspondence with MV1)) is shown.
図12における例1のように、基準フレーム(P)の全てのマクロブロック(全画素)を、各マクロブロック(全画素)が持つ動きベクトル値で、位置を移動する。移動した結果が図12における例1の左の図である。この位置移動された画像領域内において、参照フレームの対象画素がどの位置にあたるかをマークし、その位置にある基準フレームの移動画素が対応する。図12の例1の場合は、マクロブロック2の中のある一つの画素がそれに対応する。このようにして対応画素を探す。 As in Example 1 in FIG. 12, the positions of all macroblocks (all pixels) of the reference frame (P) are moved by the motion vector values of the macroblocks (all pixels). The result of movement is the left figure of Example 1 in FIG. In this image area that has been moved, the position where the target pixel of the reference frame corresponds is marked, and the moving pixel of the reference frame at that position corresponds. In the case of Example 1 in FIG. 12, one pixel in the macroblock 2 corresponds to it. In this way, the corresponding pixel is searched.
図12における例2は、対象画素をマークした位置に複数の基準フレームの移動画素が存在する場合であり、どれを選択しても良い。例えば、図12の例2では、対象画素のマークした位置は、マクロブロック1と6の内のある画素に対応しているが、マクロブロック1の方が中心に近いのでマクロブロック1の対応画素を選択するようにしても良いし、処理の都合上、ラスタスキャン順に処理をし、フラグを上書きしているような場合は、順番の遅いマクロブロック6を選択するようにしても良い。 Example 2 in FIG. 12 is a case where there are a plurality of reference frame moving pixels at the position where the target pixel is marked, and any of them may be selected. For example, in Example 2 of FIG. 12, the marked position of the target pixel corresponds to a certain pixel in the macroblocks 1 and 6, but since the macroblock 1 is closer to the center, the corresponding pixel of the macroblock 1 For the convenience of processing, when processing is performed in the raster scan order and the flag is overwritten, the macroblock 6 with the later order may be selected.
図13〜図15は、参照フレームが基準フレームより前方向にあるいくつかのパターンを示しており、また、図16〜図18は、参照フレームが基準フレームより後方向にあるいくつかのパターンを示しており、そして、図19は、追従ができないいくつかのパターンを示している。 13 to 15 show some patterns in which the reference frame is in the forward direction from the reference frame, and FIGS. 16 to 18 show some patterns in which the reference frame is in the backward direction from the reference frame. And FIG. 19 shows several patterns that cannot be followed.
以下に、それぞれのパターンについて説明する。 Below, each pattern is demonstrated.
図13に示すパターン1の場合の動きベクトル累積加算変換処理では、左から4番目の参照フレームのマクロブロック符号化タイプINTRA内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=−MV1−MV2で求めることができる。 In the motion vector cumulative addition conversion process in the case of pattern 1 shown in FIG. 13, the target pixel in the macroblock encoding type INTRA of the fourth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. MV1 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock encoding type INTER of the tenth P-VOP from the left, so that the target pixel in the reference frame The motion vector value up to the corresponding pixel of the reference frame can be obtained by MV = −MV1−MV2.
図13に示すパターン2の場合の動きベクトル累積加算変換処理では、左から5番目の参照フレームのマクロブロック符号化タイプINTERPOLATE内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER4V内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV1−MV2で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 2 shown in FIG. 13, the target pixel in the macroblock encoding type INTERPOLATE of the fifth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. MV1 corresponds to the target pixel in type INTER4V, and further corresponds to MV2 in the macroblock coding type INTER of the tenth P-VOP from the left. The motion vector value up to the corresponding pixel of the reference frame can be obtained by MV = MV1-MV2.
図13に示すパターン2の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から5番目の参照フレームのマクロブロック符号化タイプINTERPOLATE内の対象画素は、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER4V内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3−MV4−MV5で求めることができる。 In the motion vector cumulative addition conversion process in the case of pattern 2 shown in FIG. 13, as another method, the target pixel in the macroblock encoding type INTERPOLATE of the fifth reference frame from the left is the fourth pixel from the left. MV3 corresponds to the target pixel in the I-VOP macroblock encoding type INTRA, and MV4 corresponds to the target pixel in the seventh P-VOP macroblock encoding type INTER4V from the left. Further, since the MV5 corresponds to the target pixel in the tenth P-VOP macroblock encoding type INTER from the left, the motion vector value from the target pixel of the reference frame to the corresponding pixel of the base frame is MV = MV3-MV4-MV5.
図13に示すパターン2のように、動きベクトルの求め方が複数ある場合は、下記の条件を考慮して求める。
条件1:ベクトル累積加算する回数を少なくするように選択すること
条件2:基準フレームまでの追従できるように選択すること
条件1<条件2
図14に示すパターン3の場合の動きベクトル累積加算変換処理では、左から4番目の参照フレームのマクロブロック符号化タイプINTRA内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV3で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=−MV1−MV2−MV3で求めることができる。
When there are a plurality of methods for obtaining motion vectors as in pattern 2 shown in FIG. 13, the following conditions are taken into consideration.
Condition 1: Selection to reduce the number of vector cumulative additions Condition 2: Selection to follow the reference frame Condition 1 <Condition 2
In the motion vector cumulative addition conversion process in the case of the pattern 3 shown in FIG. 14, the target pixel in the macroblock encoding type INTRA of the fourth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. MV1 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock coding type INTER of the tenth P-VOP from the left, MV2, and the eleventh from the left. Since the corresponding pixel in the B-VOP macroblock coding type DIRECT corresponds to MV3, the motion vector value from the target pixel in the reference frame to the corresponding pixel in the base frame is MV = −MV1−MV2−MV3. Can be sought.
図14に示すパターン3の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から4番目の参照フレームのマクロブロック符号化タイプINTRA内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV1で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに,左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに,左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV5で対応しているので,参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は,MV=−MV1−MV2−MV4−MV5で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 3 shown in FIG. 14, as another method, the target pixel in the macroblock encoding type INTRA of the fourth reference frame from the left is the seventh pixel from the left. MV1 corresponds to the target pixel in the macroblock encoding type INTER of P-VOP, and further corresponds to the target pixel in MV2 of the macroblock encoding type INTER of the tenth P-VOP from the left. Further, the target pixel in the 13th P-VOP macroblock encoding type INTER from the left corresponds to the target pixel in MV4, and further the target in the 11th B-VOP macroblock encoding type DIRECT from the left. Since MV5 corresponds to the pixel, the motion vector from the target pixel of the reference frame to the corresponding pixel of the base frame It can be obtained by MV = -MV1-MV2-MV4-MV5.
図15に示すパターン4の場合の動きベクトル累積加算変換処理では、左から3番目の参照フレームのマクロブロック符号化タイプBACKWARD内の対象画素は、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV4で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV1−MV2−MV3−MV4で求めることができる。 In the motion vector cumulative addition conversion process in the case of pattern 4 shown in FIG. 15, the target pixel in the macroblock coding type BACKWARD of the third reference frame from the left is the macroblock coding of the fourth I-VOP from the left. It corresponds to the target pixel in the type INTRA by MV1, and further corresponds to the target pixel in the seventh P-VOP macroblock encoding type INTER from the left by MV2, and further, the tenth from the left MV3 corresponds to the target pixel in the macroblock encoding type INTER of P-VOP, and further corresponds to the target pixel in the eleventh B-VOP macroblock encoding type DIRECT from the left in MV4. Therefore, the motion vector value from the target pixel of the reference frame to the corresponding pixel of the base frame is MV = MV1-MV. It can be obtained by -MV3-MV4.
図15に示すパターン4の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から3番目の参照フレームのマクロブロック符号化タイプBACKWARD内の対象画素は、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から11番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV6で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV1−MV2−MV3−MV5−MV6で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 4 shown in FIG. 15, as another method, the target pixel in the macroblock encoding type BACKWARD of the third reference frame from the left is the fourth pixel from the left. MV1 corresponds to the target pixel in the I-VOP macroblock encoding type INTRA, and MV2 corresponds to the target pixel in the seventh P-VOP macroblock encoding type INTER from the left. Furthermore, it corresponds to the target pixel in the macroblock coding type INTER of the tenth P-VOP from the left by MV3, and further, the target in the macroblock coding type INTER of the thirteenth P-VOP from the left This corresponds to the pixel and MV5, and the eleventh B-VOP macroblock coding type DIR from the left Since addressable by pixel and MV6 in CT, the motion vector value from the target pixel of the reference frame to the corresponding pixels of the reference frame may be determined in MV = MV1-MV2-MV3-MV5-MV6.
図16に示すパターン5の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER4V内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV2+MV1で求めることができる。 In the motion vector cumulative addition conversion process in the case of pattern 5 shown in FIG. 16, the target pixel in the macroblock encoding type INTER4V of the tenth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. MV2 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock encoding type INTRA of the fourth I-VOP from the left in the MV1. The motion vector value up to the corresponding pixel of the reference frame can be obtained by MV = MV2 + MV1.
図16に示すパターン6の場合の動きベクトル累積加算変換処理では、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2+MV1で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 6 shown in FIG. 16, the target pixel in the macroblock encoding type DIRECT of the eleventh reference frame from the left is the macroblock encoding of the tenth P-VOP from the left. MV3 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock coding type INTER of the seventh P-VOP type INTER from the left, and the fourth from the left. Since the corresponding pixel in the macroblock coding type INTRA of I-VOP is associated with MV1, the motion vector value from the target pixel of the reference frame to the corresponding pixel of the base frame can be obtained by MV = MV3 + MV2 + MV1.
図16に示すパターン6の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV4+MV5+MV2+MV1で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 6 shown in FIG. 16, as another method, the target pixel in the macroblock encoding type DIRECT of the eleventh reference frame from the left is the thirteenth pixel from the left. MV4 corresponds to the target pixel in the macroblock coding type INTER of P-VOP, and MV5 corresponds to the target pixel in the tenth P-VOP macroblock coding type INTER from the left. Furthermore, it corresponds to the target pixel in the seventh macroblock coding type INTER of P-VOP from the left by MV2, and further the target in macroblock coding type INTRA of the fourth I-VOP from the left Since MV1 corresponds to the pixel, the motion vector from the target pixel of the reference frame to the corresponding pixel of the base frame It can be obtained by MV = MV4 + MV5 + MV2 + MV1.
図17に示すパターン7の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV2で対応しており、さらに、左から3番目のB−VOPのマクロブロック符号化タイプDIRECT内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2−MV1で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 7 shown in FIG. 17, the target pixel in the macroblock encoding type INTER of the tenth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. MV3 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock coding type INTRA of the fourth I-VOP from the left in the MV2, and the third from the left Since MV1 corresponds to the target pixel in the B-VOP macroblock coding type DIRECT, the motion vector value from the target pixel of the reference frame to the corresponding pixel of the base frame can be obtained by MV = MV3 + MV2-MV1. it can.
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2−MV1で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 8 shown in FIG. 18, the target pixel in the macroblock coding type DIRECT of the eleventh reference frame from the left is the macroblock coding of the tenth P-VOP from the left. MV3 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock coding type INTER of the seventh P-VOP type INTER from the left, and the fifth from the left. Since the target pixel in the B-VOP macroblock coding type INTERPOLATE corresponds to MV1, the motion vector value from the target pixel of the reference frame to the corresponding pixel of the base frame can be obtained by MV = MV3 + MV2−MV1. it can.
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV4+MV5+MV2−MV1で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 8 shown in FIG. 18, as another method, the target pixel in the macroblock encoding type DIRECT of the eleventh reference frame from the left is the thirteenth pixel from the left. MV4 corresponds to the target pixel in the macroblock coding type INTER of P-VOP, and MV5 corresponds to the target pixel in the tenth P-VOP macroblock coding type INTER from the left. Furthermore, it corresponds to the target pixel in the macroblock coding type INTER of the seventh P-VOP from the left by MV2, and further, the target in the macroblock coding type INTERPOLATE of the fifth B-VOP from the left Since it corresponds to the pixel with MV1, from the target pixel of the reference frame to the corresponding pixel of the base frame Can vector value can be obtained by MV = MV4 + MV5 + MV2-MV1.
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV6で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV1で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV3+MV2+MV6−MV7で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 8 shown in FIG. 18, as another method, the target pixel in the macroblock encoding type DIRECT of the eleventh reference frame from the left is the tenth pixel from the left. MV3 corresponds to the target pixel in the macroblock coding type INTER of P-VOP, and MV2 corresponds to the target pixel in the macroblock coding type INTER of the seventh P-VOP from the left. Furthermore, the target pixel in the fourth I-VOP macroblock encoding type INTRA from the left corresponds to the target pixel in MV6, and the target in the fifth B-VOP macroblock encoding type INTERPOLATE from the left Since MV1 corresponds to the pixel, the motion from the target pixel in the reference frame to the corresponding pixel in the base frame Vector value can be obtained by MV = MV3 + MV2 + MV6-MV7.
図18に示すパターン8の場合の動きベクトル累積加算変換処理では、またもう一つの求め方として、左から11番目の参照フレームのマクロブロック符号化タイプDIRECT内の対象画素は、左から13番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV4で対応しており、さらに、左から10番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV5で対応しており、さらに、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV6で対応しており、さらに、左から5番目のB−VOPのマクロブロック符号化タイプINTERPOLATE内の対象画素とMV7で対応しているので、参照フレームの対象画素から基準フレームの対応画素までの動きベクトル値は、MV=MV4+MV5+MV2+MV6−MV7で求めることができる。 In the motion vector cumulative addition conversion process in the case of the pattern 8 shown in FIG. 18, as another method, the target pixel in the macroblock encoding type DIRECT of the eleventh reference frame from the left is the thirteenth pixel from the left. MV4 corresponds to the target pixel in the macroblock coding type INTER of P-VOP, and MV5 corresponds to the target pixel in the tenth P-VOP macroblock coding type INTER from the left. Furthermore, it corresponds to the target pixel in the seventh macroblock coding type INTER of P-VOP from the left by MV2, and further the target in macroblock coding type INTRA of the fourth I-VOP from the left This corresponds to the pixel and MV6, and the fifth B-VOP macroblock encoding type INTER from the left Since addressable by pixel and MV7 in Olate, the motion vector value from the target pixel to the corresponding pixel of the reference frame of the reference frame may be determined in MV = MV4 + MV5 + MV2 + MV6-MV7.
図19に示すパターン9の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV2で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV1で対応しているが、左から1番目のP−VOPまでは動き情報がなく対応が取れないので、追従できず、参照フレームの対応画素から基準フレームの対応画素までの動きベクトル値は存在しない。 In the motion vector cumulative addition conversion process in the case of the pattern 9 shown in FIG. 19, the target pixel in the macroblock encoding type INTER of the tenth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. MV2 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock coding type INTRA of the fourth I-VOP from the left in the MV1, but the first P from the left Since there is no motion information and no correspondence can be obtained up to -VOP, it cannot follow and there is no motion vector value from the corresponding pixel of the reference frame to the corresponding pixel of the base frame.
図19に示すパターン10の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応しており、さらに、左から4番目のI−VOPのマクロブロック符号化タイプINTRA内の対象画素とMV2で対応しているが、左から1番目のP−VOPまたは左から2番目のB−VOPまでは、動き情報がなく対応が取れないので、追従できず、参照フレームの対応画素から基準フレームの対応画素までの動きベクトル値は存在しない。 In the motion vector cumulative addition conversion process in the case of the pattern 10 shown in FIG. 19, the target pixel in the macroblock encoding type INTER of the tenth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. MV3 corresponds to the target pixel in the type INTER, and further corresponds to the target pixel in the macroblock coding type INTRA of the fourth I-VOP from the left in the MV2, but the first P from the left -VOP or the second B-VOP from the left cannot be handled because there is no motion information, and therefore cannot follow, and there is no motion vector value from the corresponding pixel in the reference frame to the corresponding pixel in the base frame.
図19に示すパターン11の場合の動きベクトル累積加算変換処理では、左から10番目の参照フレームのマクロブロック符号化タイプINTER内の対象画素は、左から7番目のP−VOPのマクロブロック符号化タイプINTER内の対象画素とMV3で対応している。しかし、左から4番目のI−VOPまでは、動き情報がないわけではないが、例えば、左から7番目の対象画素が持つMV2で位置を移動してみると、画像領域の範囲外に移動してしまう為、対応が取れないので追従できず、参照フレームの対応画素から基準フレームの対応画素までの動きベクトル値は存在しない。 In the motion vector cumulative addition conversion process in the case of the pattern 11 shown in FIG. 19, the target pixel in the macroblock encoding type INTER of the tenth reference frame from the left is the macroblock encoding of the seventh P-VOP from the left. The target pixel in the type INTER corresponds to MV3. However, although there is no motion information up to the fourth I-VOP from the left, for example, if the position is moved by MV2 of the seventh target pixel from the left, it moves outside the range of the image area Therefore, since the correspondence cannot be obtained, it is not possible to follow, and there is no motion vector value from the corresponding pixel of the reference frame to the corresponding pixel of the base frame.
ここで、画像領域の範囲外に移動してしまう原因について、図20に示す。 Here, the cause of the movement outside the range of the image area is shown in FIG.
図20は、MPEG1/2とMPEG4の予測符号化時における予測用参照画像への参照方法の違いについて示したものである。図20に示されたように、MPEG1/2の場合は、対象画像のマクロブロックは予測用参照画像の画像領域内におさまっていなければならなかったが、MPEG4の場合は、画像領域内に参照マクロブロックが全ておさまっていなくても良いという「無制限動きベクトル」手法が取り入れられたため、本発明を実施する際に、パターン11のように画像領域の範囲外に移動してしまうことがある。 FIG. 20 shows the difference in the reference method to the reference image for prediction at the time of MPEG1 / 2 and MPEG4 predictive encoding. As shown in FIG. 20, in the case of MPEG1 / 2, the macroblock of the target image has to be within the image area of the reference image for prediction, but in the case of MPEG4, the macroblock is referenced in the image area. Since the “unrestricted motion vector” method is adopted in which all the macroblocks need not be stored, when the present invention is implemented, the macroblock may move out of the image area.
図21乃至図22を用いて、高解像度化処理部108で行う超解像処理の流れを説明する。 The flow of super-resolution processing performed by the resolution enhancement processing unit 108 will be described with reference to FIGS.
図21に超解像処理アルゴリズムを示す。以下、アルゴリズムの処理の流れに添って説明を行う。 FIG. 21 shows a super-resolution processing algorithm. Hereinafter, description will be given along the flow of the algorithm processing.
S1:
高解像度画像推定に用いるため、複数枚の低解像度画像を読み込む。
S1:
A plurality of low-resolution images are read for use in high-resolution image estimation.
S2:
フレーム選択処理部105で選択した基準フレーム画像を高解像化のターゲット画像とする。そのターゲット画像に対し補完処理を行うことで、初期の高解像度画像を作成する。この補間処理は、場合により省略することができる。
S2:
The reference frame image selected by the frame selection processing unit 105 is set as a high resolution target image. An initial high-resolution image is created by performing complement processing on the target image. This interpolation process can be omitted in some cases.
S3:
動きベクトル累積加算変換処理部103で変換された画像変位情報により、ターゲット画像とその他の画像との画像間の画素対応位置を明らかにし、その画像対応位置情報を元に、ターゲット画像の拡大座標を基準とする座標空間で、重ねあわせ処理を行い、レジストレーション画像yを生成する。このレジストレーション画像yは、位置合わせ処理部106により生成する。レジストレーション画像yを生成する方法の詳細については、非特許文献1に開示されている。ここでの重ねあわせ処理は、例えば複数枚画像の各ピクセル値とターゲット画像の拡大座標との間で位置を対応付けた時に、各ピクセル値をターゲット画像の拡大座標の最も近い格子点上に画素をおいていく処理を行う。このとき、同一格子点上に複数のピクセル値をおくことが考えられるが、その場合は、複数のピクセル値において平均化処理を実施する。ターゲット画像とその他の画像との間の画像変位は、画像変位推定部201で推定された、基準画像とターゲット画像との画像間変位及び基準画像とターゲット画像以外の画像との画像間変位を統合することによって生成する。
S3:
Based on the image displacement information converted by the motion vector cumulative addition conversion processing unit 103, the pixel corresponding position between the target image and the other image is clarified, and the enlarged coordinates of the target image are obtained based on the image corresponding position information. A registration image y is generated by performing an overlapping process in a reference coordinate space. The registration image y is generated by the alignment processing unit 106. The details of the method for generating the registration image y are disclosed in Non-Patent Document 1. For example, when the position is associated between each pixel value of a plurality of images and the enlarged coordinates of the target image, the superimposing process is performed by setting each pixel value on a lattice point closest to the enlarged coordinates of the target image. The process that keeps it. At this time, it is conceivable to set a plurality of pixel values on the same grid point. In this case, averaging processing is performed on the plurality of pixel values. The image displacement between the target image and the other images is integrated with the inter-image displacement between the reference image and the target image and the inter-image displacement between the reference image and an image other than the target image estimated by the image displacement estimation unit 201. To generate.
S4:
光学伝達関数(OTF)、CCDアパーチャ等の撮像特性を考慮した点広がり関数(PSF)を求める。PSFは、例えば、Gauss関数を簡易的に用いる。
S4:
A point spread function (PSF) taking into consideration imaging characteristics such as an optical transfer function (OTF) and a CCD aperture is obtained. The PSF simply uses a Gauss function, for example.
S5:
S3、S4の情報を元に、評価関数f(z)の最小化を行う。
S5:
Based on the information of S3 and S4, the evaluation function f (z) is minimized.
ただし、f(z)は下記数1のような形となる。 However, f (z) takes the form of the following formula 1.
S6:
S5で求めたf(z)が最小化された場合、処理を終了し、ターゲット画像の高解像度化画像zを得る。
S6:
When f (z) obtained in S5 is minimized, the process is terminated and a high-resolution image z of the target image is obtained.
以上の処理をフレーム選択処理部105で選択された使用フレームの全ての低解像度画像について行う。 The above processing is performed for all the low resolution images of the used frames selected by the frame selection processing unit 105.
図22に超解像処理の構成を示す。以下に複数枚の画像を使って高解像度画像を生成する処理の一例として、図22を用いて超解像処理の概略を示す。 FIG. 22 shows the configuration of super-resolution processing. The outline of the super-resolution processing will be described below with reference to FIG. 22 as an example of processing for generating a high-resolution image using a plurality of images.
図22において、超解像処理部は補間拡大部01、画像蓄積部02、PSFデータ保持部3、畳込み積分部04、レジストレーション画像生成部05、画像比較部06、畳込み積分部07、正則化項演算部08、更新画像生成部09、収束判定部10から構成される。 In FIG. 22, the super-resolution processing unit includes an interpolation enlargement unit 01, an image storage unit 02, a PSF data holding unit 3, a convolution integration unit 04, a registration image generation unit 05, an image comparison unit 06, a convolution integration unit 07, The regularization term calculation unit 08, the update image generation unit 09, and the convergence determination unit 10 are configured.
まず、メモリ109に保存された複数枚の復号画像のうちフレーム選択処理部105で選択された高解像化のターゲット画像を補間拡大部01に与え、ここでこの画像の補間拡大を行う(S1に対応)。ここで用いられる補間拡大の手法としては、例えばバイリニア補間やバイキュービック補間などが挙げられる。 First, a high-resolution target image selected by the frame selection processing unit 105 among a plurality of decoded images stored in the memory 109 is given to the interpolation enlargement unit 01, and this image is subjected to interpolation enlargement (S1). Corresponding). Examples of the interpolation enlargement method used here include bilinear interpolation and bicubic interpolation.
補間拡大された画像は画像蓄積部02に送られ、ここに蓄積される。 The interpolated and enlarged image is sent to the image storage unit 02 where it is stored.
補間拡大された画像は畳込み積分部04に与えられ、PSFデータ保持部03により与えられるPSFデータとの間で畳込み積分が行われる(数2のAT(y−Az)の演算のA×zに対応)。 The interpolated and enlarged image is given to the convolution integration unit 04, and convolution integration is performed with the PSF data given by the PSF data holding unit 03 (A of the calculation of A T (y−Az) in Expression 2). Xz).
また、ターゲット画像以外の複数枚画像は位置合わせ処理部106のレジストレーション画像生成部05に与えられ、動きベクトル累積加算変換処理部103で変換された各フレーム間の画像変位情報を元に、ターゲット画像の拡大座標を基準とする座標空間で、重ねあわせ処理を行い、レジストレーション画像を生成する(S3に対応)。ここでの重ねあわせ処理は、例えば複数枚画像の各ピクセル値とターゲット画像の拡大座標との間で位置を対応付けた時に、各ピクセル値をターゲット画像の拡大座標の最も近い格子点上に画素をおいていく処理を行う。このとき、同一格子点上に複数のピクセル値を置くことが考えられるが、その場合は、複数のピクセル値において平均化処理を実施する。 Further, a plurality of images other than the target image are given to the registration image generation unit 05 of the alignment processing unit 106, and based on the image displacement information between the frames converted by the motion vector cumulative addition conversion processing unit 103, the target image Overlay processing is performed in a coordinate space based on the enlarged coordinates of the image to generate a registration image (corresponding to S3). For example, when the position is associated between each pixel value of a plurality of images and the enlarged coordinates of the target image, the superimposing process is performed by setting each pixel value on a lattice point closest to the enlarged coordinates of the target image. The process that keeps it. At this time, it is conceivable to place a plurality of pixel values on the same grid point. In this case, averaging processing is performed on the plurality of pixel values.
畳込み演算された画像データは画像比較部06に送られ、レジストレーション画像生成部05において生成されたレジストレーション画像との間で、同一ピクセル位置においてそのピクセル値の差分値を算出し、差分画像データが生成される(数2のAT(y−Az)の演算のy−Azに対応)。 The image data subjected to the convolution operation is sent to the image comparison unit 06, and the difference value of the pixel value is calculated at the same pixel position with the registration image generated in the registration image generation unit 05, and the difference image Data is generated (corresponding to y-Az in the calculation of AT (y-Az) in Equation 2).
画像比較部06において生成された差分画像は畳込み積分部07に与えられ、PSFデータ保持部03により与えられるPSFデータとの間で畳込み積分が行われる(数2のAT(y−Az)の演算のAT×(y−Az)に対応)。 The difference image generated in the image comparison unit 06 is given to the convolution integration unit 07, and the convolution integration is performed with the PSF data given by the PSF data holding unit 03 (A T (y-Az in Equation 2). ) Corresponding to the calculation of AT ) (y-Az)).
また、画像蓄積部02に蓄積された画像は、正則化項演算部によって正則化画像を生成する。 In addition, a regularized image is generated from the image stored in the image storage unit 02 by the regularization term calculation unit.
正則化項演算部として、例えば画像蓄積部02に蓄積された画像に対して、RGB→YCr,Cbの色変換処理を行い、そのCr,Cb成分(色差成分)において、周波数高域通過フィルタ(ラプラシアンフィルタ)の畳込み演算処理を行い、正則化画像を生成する方法がある。この方法で生成した正則化画像を更新画像生成部09において用いることにより、「一般に画像の色差成分は滑らかな変化である」という画像の先験情報を用いることになるので、色差を抑制した高解像度画像を安定して求めることが出来るようになる(数2のg(z)の偏微分に対応)。 As the regularization term calculation unit, for example, RGB → YCr, Cb color conversion processing is performed on the image stored in the image storage unit 02, and the frequency high-pass filter (color difference component) in the Cr, Cb component (color difference component) There is a method of generating a regularized image by performing a convolution operation processing of a Laplacian filter). By using the regularized image generated by this method in the updated image generation unit 09, the a priori information of the image that “the color difference component of the image is generally a smooth change” is used. A resolution image can be obtained stably (corresponding to the partial differentiation of g (z) in Equation 2).
畳込み積分部07で生成された画像、画像蓄積部02に蓄積された画像、正則化項演算部08で生成された画像は更新画像生成部09に与えられ、上記3枚の画像の重み付け加算された画像を生成することにより、更新画像を生成する(数3に対応)。 The image generated by the convolution integration unit 07, the image stored in the image storage unit 02, and the image generated by the regularization term calculation unit 08 are given to the update image generation unit 09, and the weighted addition of the three images is performed. An updated image is generated by generating the processed image (corresponding to Equation 3).
更新画像生成部09において生成された画像は、収束判定部10へ与えられ、収束判定が行われる。 The image generated in the updated image generation unit 09 is given to the convergence determination unit 10 and the convergence determination is performed.
収束判定には、収束にかかった繰り返し演算回数が一定回数よりも多くなった場合に画像の更新作業は収束したと判断しても良いし、また、過去の更新画像を保持しておき、現在の更新画像との差分をとり、その更新量が一定の値よりも少ないと判断された場合に画像の更新作業は収束したと判断しても良い。 In the convergence determination, it may be determined that the update operation of the image has converged when the number of repeated computations required for the convergence is greater than a certain number of times, or past update images are retained and the current The update operation of the image may be determined to have converged when it is determined that the update amount is less than a certain value.
収束判定部10において、更新作業が収束したと判断された場合、更新画像は高解像度生成画像として外部へ出力される。更新作業が収束していないと判断された場合、更新画像は画像蓄積部02へ渡され、次回の更新画像生成に利用される。また、次回の更新画像生成の為に、畳込み積分部04、正則化項演算部08へ与えられる。 When the convergence determination unit 10 determines that the update operation has converged, the updated image is output to the outside as a high-resolution generated image. If it is determined that the update operation has not converged, the updated image is transferred to the image storage unit 02 and used for the next updated image generation. In addition, it is given to the convolution integration unit 04 and the regularization term calculation unit 08 for the next updated image generation.
以上の処理を繰り返すことにより、更新画像生成部09で生成される更新画像を更新していき、良好な高解像度画像を得る。 By repeating the above processing, the update image generated by the update image generation unit 09 is updated to obtain a good high-resolution image.
以上で説明される高解像度化処理部108内の超解像処理によって高解像度化される。 The resolution is increased by the super-resolution processing in the resolution enhancement processing unit 108 described above.
なお、図1の高解像度化処理部108の代わりに、ランダムノイズを低減させるような加算平均による平滑化処理で画像を高画質化する構成にしても良い。
(実施形態2)
図23に、本発明の第2の実施形態を示す。
Instead of the high resolution processing unit 108 in FIG. 1, a configuration may be adopted in which an image is improved in image quality by a smoothing process using addition averaging that reduces random noise.
(Embodiment 2)
FIG. 23 shows a second embodiment of the present invention.
図23に示されたように、動画像である複数枚の入力画像400は、ブロックベースのマッチング処理ブロックで、メモリ401に保存された前フレームの画像データと現フレームの画像データとの間で、ブロックベースのマッチング処理による動き検出403と動き補償402を行うことで、画像間の動き情報(動きベクトル)データ404を、動画像400に付属するようにデータ記録し、動き情報付動画像データ405が得られる。 As shown in FIG. 23, a plurality of input images 400 that are moving images is a block-based matching processing block, and between the previous frame image data and the current frame image data stored in the memory 401. By performing motion detection 403 and motion compensation 402 by block-based matching processing, motion information (motion vector) data 404 between images is recorded so as to be attached to the moving image 400, and moving image data with motion information is recorded. 405 is obtained.
動き情報付動画像データ405のうち、画像データ406は位置合わせ処理ブロックのメモリ409へ、動き情報(動きベクトル)データ407は動きベクトル累積加算変換処理手段408へ入力され、動きベクトル累積加算変換処理手段408で算出された動きベクトル値とメモリ409に保存された画像データ406を使用して、位置合わせ画像410が生成でき、画像間の位置合わせが実施できる。 Of the moving image data with motion information 405, the image data 406 is input to the memory 409 of the alignment processing block, and the motion information (motion vector) data 407 is input to the motion vector cumulative addition conversion processing means 408, and motion vector cumulative addition conversion processing is performed. Using the motion vector value calculated by the means 408 and the image data 406 stored in the memory 409, an alignment image 410 can be generated, and alignment between images can be performed.
ここで、動きベクトル累積加算変換処理手段408で行われる「動きベクトル累積加算変換処理」の詳細は、実施形態1と同様に行うものとする。
以下、図1に示す本発明の第1の実施形態において、その画素選択処理部107で行う「画素選択処理(A06)」について説明する。
Here, the details of the “motion vector cumulative addition conversion processing” performed by the motion vector cumulative addition conversion processing means 408 are performed in the same manner as in the first embodiment.
The “pixel selection process (A06)” performed by the pixel selection processing unit 107 in the first embodiment of the present invention shown in FIG. 1 will be described below.
前述したように、動きベクトル累積加算変換処理部103で算出された動きベクトル値に基づき、位置合わせ処理部106により、レジストレーション画像が生成される。 As described above, the registration processing unit 106 generates a registration image based on the motion vector value calculated by the motion vector cumulative addition conversion processing unit 103.
図24は、画素選択処理部107で行われる「画素選択処理」を説明するための模式図である。 FIG. 24 is a schematic diagram for explaining the “pixel selection process” performed by the pixel selection processing unit 107.
ここで、ある入力画像Ik(x,y)と基準画像T(x,y)について、位置合わせ処理(変形)が行われた後に、行う「画素選択処理」を詳細に説明する。 Here, the “pixel selection process” performed after the alignment process (deformation) is performed on a certain input image I k (x, y) and the reference image T (x, y) will be described in detail.
図24に示されるように、入力画像Ik(x,y)に一致するように、基準画像T(x,y)を変形させて得られた画像を
とする。以下、この
を単に「変形基準画像」と呼ぶ。
As shown in FIG. 24, an image obtained by deforming the reference image T (x, y) so as to match the input image I k (x, y)
And Hereafter, this
Is simply referred to as a “deformation reference image”.
つまり、基準画像と入力画像との位置合わせ処理を行うことにより、変形基準画像が得られる。ちなみに、この位置合わせ処理(変形処理)には、既存の方法を利用する。 That is, a deformed reference image can be obtained by performing alignment processing between the reference image and the input image. Incidentally, an existing method is used for this alignment process (deformation process).
ただし、入力画像に対する基準画像の変形は完全であるとは限らず、つまり、基準画像・入力画像間の位置合わせ処理は必ず精密に行われたとは限らず、位置合わせ誤差を含んでいたり、遮蔽(遮蔽領域)が存在したりする場合もある。 However, the deformation of the reference image with respect to the input image is not necessarily complete, that is, the alignment process between the reference image and the input image is not necessarily performed precisely, and may include an alignment error, There may be a (shielded area).
ここで、入力画像のある位置(x,y)の画素(以下、単に「注目画素」とも言う。)について、画素選択処理を行う場合を考える。 Here, a case is considered where pixel selection processing is performed on a pixel at a position (x, y) in the input image (hereinafter also simply referred to as “target pixel”).
注目画素の周辺の小領域に対して、下記2つの条件を満足している場合、当該注目画素を「高解像度化処理に利用する画素」として選択する。
条件1:
注目画素を含む入力画像の小領域と、当該入力画像と基準画像との位置合わせ処理により得られた「位置合わせ処理済基準画像」(図24の場合、当該入力画像に合わせて基準画像を変形させて得られた変形基準画像
)の対応する小領域の類似度が、所定の閾値(単に、第1の閾値とも称する。)以上である。
条件2:
入力画像の小領域又は、位置合わせ処理済基準画像(変形基準画像)の対応する小領域のいずれかを利用した、当該注目画素の位置ずれの推定量が、所定の閾値(単に、第2の閾値とも称する。)以下である。
When the following two conditions are satisfied for a small region around the pixel of interest, the pixel of interest is selected as a “pixel to be used for high resolution processing”.
Condition 1:
“Registered reference image” obtained by aligning the input image and the reference image with a small area of the input image including the target pixel (in the case of FIG. 24, the reference image is deformed to match the input image) Deformation reference image obtained by
) Is equal to or greater than a predetermined threshold (also simply referred to as a first threshold).
Condition 2:
The estimated amount of positional deviation of the target pixel using either the small area of the input image or the corresponding small area of the alignment-processed reference image (deformation reference image) is a predetermined threshold value (simply the second value). Also referred to as a threshold.)
上記条件1及び条件2を満足している注目画素を画素値1、満足していない注目画素を画素値0とすることで、入力画像に対応して図24に示すような二値画像(画素選択結果)を生成することができ、つまり、高解像度化処理に利用する画素を選び出すことができる。 A pixel of interest that satisfies the above conditions 1 and 2 is set to a pixel value 1 and a pixel of interest that is not satisfied is set to a pixel value 0, so that a binary image (pixel) as shown in FIG. (Selection result) can be generated, that is, a pixel to be used for high resolution processing can be selected.
具体的な、図24の二値画像(画素選択結果)において、白色部分の画素の画素値は1で、当該画素は、高解像度化処理に利用する画素として、選択され、また、黒色部分の画素の画素値は0で、高解像度化処理に利用する画素として選択されない。つまり、黒色部分の画素は、本発明の「画素選択処理」により取り除く画素である。図24の二値画像は、マスク画像と考えることができる。 Specifically, in the binary image (pixel selection result) of FIG. 24, the pixel value of the white portion pixel is 1, and the pixel is selected as a pixel used for the high resolution processing, and the black portion The pixel value of the pixel is 0, and it is not selected as a pixel used for the high resolution processing. That is, the black portion of the pixel is a pixel that is removed by the “pixel selection process” of the present invention. The binary image in FIG. 24 can be considered as a mask image.
更に、「画素選択処理」において、必要があれば、図24の二値画像にローパスフィルタを施し、適切な閾値を用いた二値化処理を行うことにより、高解像度化処理に利用する画素の選択を行うことも可能である。 Furthermore, in the “pixel selection process”, if necessary, a low-pass filter is applied to the binary image in FIG. 24 and a binarization process using an appropriate threshold value is performed, so that the pixels used for the high resolution process are processed. It is also possible to make a selection.
要するに、「画素選択処理」において、上記条件1及び条件2を満たす注目画素を高解像度化処理に利用する画素として選択し、上記条件1及び条件2を満たさない注目画素を取り除くようにすることにより、画素選択を行い、画素選択結果である二値画像(画素値1の画素は高解像度化処理に利用する画素を意味し、画素値0の画素は高解像度化処理に利用しない画素、即ち、取り除かれる画素を意味する。)と入力画像に基づいて画像合成(マスク合成)を行うことにより、図24に示すような「画素選択された入力画像」を生成する。 In short, in the “pixel selection process”, a target pixel that satisfies the above condition 1 and condition 2 is selected as a pixel to be used for the resolution enhancement process, and a target pixel that does not satisfy the above condition 1 and condition 2 is removed. , A pixel selection is performed, and a binary image as a result of pixel selection (a pixel having a pixel value of 1 means a pixel to be used for the high resolution processing, and a pixel having a pixel value of 0 is a pixel not to be used for the high resolution processing, This means a pixel to be removed.) And an image composition (mask composition) based on the input image, thereby generating a “pixel-selected input image” as shown in FIG.
上述した「画素選択処理」の実施形態では、上記条件1及び条件2の満足を画素選択の条件としているが、「画素選択処理」では、それに限定されることがなく、上記条件1のみを満足する注目画素、又は、上記条件2のみを満足する注目画素を高解像度化処理に利用する画素として、選択することも可能である。 In the above-described embodiment of “pixel selection processing”, the above conditions 1 and 2 are satisfied as the pixel selection conditions. However, the “pixel selection processing” is not limited to this and satisfies only the above conditions 1. It is also possible to select a pixel of interest to be used or a pixel of interest that satisfies only the above condition 2 as a pixel to be used for the high resolution processing.
画素選択処理部107は、「画素選択処理」を行った後に、「明度補正処理」を行うことができる。 The pixel selection processing unit 107 can perform “lightness correction processing” after performing “pixel selection processing”.
ここで言う「明度補正処理」とは、当該明度補正処理における入力画像の注目画素の明度が、対応する「位置合わせ処理済基準画像(即ち、変形基準画像)」の画素の明度と等しくなるように、当該明度補正処理における入力画像の当該注目画素の画素値を補正する処理である。 The “lightness correction process” here means that the lightness of the target pixel of the input image in the lightness correction process is equal to the lightness of the pixel of the corresponding “aligned reference image (ie, deformation reference image)”. In addition, this is a process of correcting the pixel value of the target pixel of the input image in the brightness correction process.
ちなみに、明度補正処理における入力画像は、「画素選択処理」により生成された「画素選択された入力画像」である。 Incidentally, the input image in the brightness correction process is the “pixel-selected input image” generated by the “pixel selection process”.
図25は、この「明度補正処理」を説明するための模式図である。 FIG. 25 is a schematic diagram for explaining the “lightness correction process”.
図25に示す「明度補正処理」は、「画素選択処理」が行われた後に、行う「明度補正処理」であり、図25の「明度補正処理」における入力画像とは、「画素選択処理」により生成された「画素選択された入力画像」を意味する。 The “brightness correction process” shown in FIG. 25 is a “brightness correction process” performed after the “pixel selection process” is performed. The input image in the “brightness correction process” in FIG. Means the “pixel-selected input image”.
図25に示されるように、明度補正処理では、「画素選択された入力画像」の注目画素と、対応する変形基準画像
の画素の明度を「明度推定処理」によりそれぞれ推定し、推定された明度に基づき、変形基準画像に対する明度画像(第1の明度画像)及び画素選択された入力画像に対する明度画像(第2の明度画像)を生成する。
As shown in FIG. 25, in the brightness correction process, the target pixel of the “pixel-selected input image” and the corresponding modified reference image
The brightness of each of the pixels is estimated by “lightness estimation processing”, and based on the estimated brightness, the brightness image (first brightness image) for the deformation reference image and the brightness image (second brightness) for the pixel-selected input image Image).
そして、生成された第1の明度画像及び第2の明度画像に基づき、両者の明度比を計算し、「画素選択された入力画像」の注目画素の明度が対応する変形基準画像の画素の明度と等しくなるように、「画素選択された入力画像」の注目画素の画素値を補正する「明度補正処理」を行うことにより、「画素選択及び明度補正された入力画像」を生成する。 Based on the generated first brightness image and second brightness image, the brightness ratio between them is calculated, and the brightness of the pixel of the deformation reference image corresponding to the brightness of the target pixel of the “pixel-selected input image” By performing “brightness correction processing” for correcting the pixel value of the target pixel of the “pixel-selected input image” so as to be equal to the “pixel-selected and lightness-corrected input image”.
ここで、注目画素の明度を推定する方法の具体例として、注目画素を含む小領域の各画素毎に明度を求め、求めた明度を平均化または重み付き平均化することにより、平均化又は重み付き平均化された明度を、当該注目画素の明度として推定する方法が考えられる。対応する変形基準画像の画素の明度も、同じ方法で推定することができる。 Here, as a specific example of the method for estimating the lightness of the target pixel, the lightness is obtained for each pixel in the small area including the target pixel, and the obtained lightness is averaged or weighted. A method may be considered in which the averaged brightness is estimated as the brightness of the target pixel. The brightness of the pixels of the corresponding deformation reference image can also be estimated by the same method.
また、各画素毎の明度の求め方としては、例えば、六角錘モデルのHSI色空間のIを使う方法などがある。六角錘モデルのHSI色空間のIは、各画素のRチャネル、Gチャネル又はBチャネルの画素値の最大値となる(非特許文献2を参照)。 Further, as a method for obtaining the brightness for each pixel, for example, there is a method of using I in the HSI color space of a hexagonal pyramid model. I in the HSI color space of the hexagonal spindle model is the maximum value of the R channel, G channel, or B channel pixel value of each pixel (see Non-Patent Document 2).
以上は、画素選択処理の後に、明度補正処理が行われる流れとなっているので、画素選択処理では、明度変化に対して頑強な画素選択方法を用いる。要するに、上記条件1で言う類似度は、明度変化に依存しない類似度を用い、そして、上記条件2で言う位置ずれの推定量は、明度変化に依存しない位置ずれ量の推定方法を用いて推定することが好ましい。 As described above, since the brightness correction process is performed after the pixel selection process, the pixel selection method uses a pixel selection method that is robust against a change in brightness. In short, the similarity referred to in the above condition 1 uses the similarity that does not depend on the change in brightness, and the estimated amount of misregistration referred to in the above condition 2 is estimated using the estimation method of the misalignment amount that does not depend on the change in brightness. It is preferable to do.
明度変化に依存しない類似度の具体的な好適例としては、例えば、対応する小領域の正規化相互相関が挙げられる。また、明度変化に依存しない位置ずれの推定方法の具体的な好適例としては、例えば、平行移動を仮定して、画素単位の位置ずれにおける正規化相互相関のパラボラフィッティングを利用して、位置ずれ量を推定する方法が挙げられる。
ここで、「standard video sequence (mobile & calendar)」と呼ばれる標準動画像を用いて、本発明を適用した上で、超解像処理を行った。上記標準動画像をMPEG4エンコードしたデータ(MPEG4動画像)のうち、1〜50フレームを使用フレームとして用いた。また、25フレーム目を基準フレームとした。
A specific preferred example of the similarity that does not depend on the change in brightness is, for example, normalized cross-correlation of a corresponding small region. Further, as a specific preferred example of the positional deviation estimation method that does not depend on the brightness change, for example, assuming parallel translation, the positional deviation is calculated by using parabolic fitting of normalized cross-correlation in the positional deviation in pixel units. There is a method for estimating the quantity.
Here, using the standard moving image called “standard video sequence (mobile & calendar)”, super-resolution processing was performed after applying the present invention. Of the data obtained by MPEG4-encoding the standard moving image (MPEG4 moving image), 1 to 50 frames were used as used frames. The 25th frame was used as a reference frame.
図26乃至図28は、50フレームの使用フレームのうち、5フレーム分(1、13、25、38、50フレーム)を示した画像であり、被写体には動きがある。 FIGS. 26 to 28 are images showing five frames (1, 13, 25, 38, and 50 frames) out of the 50 used frames, and the subject has a motion.
図29及び図30は、本発明の第1の実施形態における動きベクトル累積加算変換処理によって位置合わせした画像である。 29 and 30 are images aligned by the motion vector cumulative addition conversion process according to the first embodiment of the present invention.
図31は、位置合わせ処理部106により、生成されたレジストレーション画像である。 FIG. 31 is a registration image generated by the alignment processing unit 106.
画素選択処理部107により、生成された画素選択・明度補正したレジストレーション画像を図32に示す。 FIG. 32 shows a registration image that has been generated by the pixel selection processing unit 107 and has undergone pixel selection and brightness correction.
図33に本発明を適用した超解像画像を示し、図34にニアレストネイバー手法による画像を示す。本発明を適用することで、少ない計算量で高精細な画像を得ることができる。 FIG. 33 shows a super-resolution image to which the present invention is applied, and FIG. 34 shows an image by the nearest neighbor method. By applying the present invention, a high-definition image can be obtained with a small amount of calculation.
Claims (16)
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、
前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部と、
を備え、
前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することを特徴とする動画像の動き情報を利用した画像処理装置。 An image processing apparatus using motion information between frame images recorded in moving image data,
A frame selection processing unit for designating a base frame and a reference frame from two or more consecutive frame images obtained by decoding the moving image data;
A motion vector cumulative addition conversion processing unit for calculating a motion vector value from the reference frame to the base frame;
With
The motion vector cumulative addition conversion processing unit calculates a motion vector value from the reference frame to the base frame by calculation based on cumulative addition and direction conversion based on the motion information recorded in the moving image data. An image processing apparatus using motion information of a moving image characterized by
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定する、フレーム選択処理部と、
前記参照フレームから前記基準フレームへの動きベクトル値を算出する、動きベクトル累積加算変換処理部と、
を備え、
前記動きベクトル累積加算変換処理部は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することを特徴とする動画像の動き情報を利用した画像処理装置。 An image processing apparatus using motion information between frame images recorded in moving image data,
A frame selection processing unit for designating a base frame and a reference frame from two or more consecutive frame images obtained by decoding the moving image data;
A motion vector cumulative addition conversion processing unit for calculating a motion vector value from the reference frame to the base frame;
With
The motion vector cumulative addition conversion processing unit converts the motion information recorded in the moving image data into a motion vector value, and uses the motion vector value from the reference frame toward the base frame for a target pixel. An image processing apparatus using motion information of a moving image, wherein the motion vector value used for tracking is cumulatively added and direction-converted.
前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択する、画素選択処理部と、
を備える請求項1乃至4の何れかに記載の動画像の動き情報を利用した画像処理装置。 An alignment processing unit that performs alignment based on correspondence information of each pixel between the reference frame and the base frame obtained by the motion vector cumulative addition conversion processing unit;
Pixel selection processing for selecting each pixel of the registration image output from the alignment processing unit based on the similarity, the estimated amount of misalignment, or the estimated amount of similarity and misalignment And
An image processing apparatus using motion information of a moving image according to any one of claims 1 to 4.
前記位置合わせ処理部から出力されたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正する、画素選択処理部と、
を備える請求項1乃至4の何れかに記載の動画像の動き情報を利用した画像処理装置。 An alignment processing unit that performs alignment based on correspondence information of each pixel between the reference frame and the base frame obtained by the motion vector cumulative addition conversion processing unit;
For each pixel of the registration image output from the registration processing unit, based on the similarity that is not affected by the change in brightness, the estimated amount of misalignment that is not affected by the change in brightness, or the estimated amount of similarity and the misalignment A pixel selection processing unit that selects the pixel and corrects the pixel value of the selected pixel so that the brightness of the selected pixel matches the brightness of the corresponding pixel of the reference image;
An image processing apparatus using motion information of a moving image according to any one of claims 1 to 4.
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、
前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップと、
を有し、
前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を元に、累積加算及び方向変換による演算によって、前記参照フレームから前記基準フレームへの動きベクトル値を算出することを特徴とする動画像の動き情報を利用した画像処理方法。 An image processing method using motion information between frame images recorded in moving image data,
Designating a base frame and a reference frame from two or more consecutive frame images obtained by decoding the moving image data;
A step of calculating a motion vector value from the reference frame to the base frame by motion vector cumulative addition conversion processing means when aligning the reference frame with the base frame;
Have
The motion vector cumulative addition conversion processing means calculates a motion vector value from the reference frame to the reference frame by calculation based on the cumulative addition and direction conversion based on the motion information recorded in the moving image data. An image processing method using motion information of a moving image characterized by the above.
前記動画像データを復号化して得られた連続する2以上のフレーム画像から、基準フレーム及び参照フレームを指定するステップと、
前記参照フレームを前記基準フレームに位置合わせする場合に、動きベクトル累積加算変換処理手段により、前記参照フレームから前記基準フレームへの動きベクトル値を算出するステップと、
を有し、
前記動きベクトル累積加算変換処理手段は、前記動画像データに記録された前記動き情報を動きベクトル値に変換し、対象画素に対し前記参照フレームから前記基準フレームに向かって前記動きベクトル値を使って追従し、追従時に使用した動きベクトル値を累積加算及び方向変換することを特徴とする動画像の動き情報を利用した画像処理方法。 An image processing method using motion information between frame images recorded in moving image data,
Designating a base frame and a reference frame from two or more consecutive frame images obtained by decoding the moving image data;
A step of calculating a motion vector value from the reference frame to the base frame by motion vector cumulative addition conversion processing means when aligning the reference frame with the base frame;
Have
The motion vector cumulative addition conversion processing means converts the motion information recorded in the moving image data into a motion vector value, and uses the motion vector value from the reference frame toward the reference frame for the target pixel. An image processing method using motion information of a moving image, wherein the motion vector value used for tracking is cumulatively added and the direction is changed.
位置合わせにより得られたレジストレーション画像の各画素について、類似度、位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択する請求項9乃至12の何れかに記載の動画像の動き情報を利用した画像処理方法。 Based on the correspondence information of each pixel of the reference frame and the base frame obtained by the motion vector cumulative addition conversion processing means,
The pixel according to any one of claims 9 to 12, wherein for each pixel of the registration image obtained by registration, the pixel is selected based on the similarity, the estimated amount of positional deviation, or the estimated amount of the similarity and the positional deviation. An image processing method using the motion information of the moving image described in the above.
位置合わせにより得られたレジストレーション画像の各画素について、明度変化に影響されない類似度、明度変化に影響されない位置ずれの推定量、又は、前記類似度及び前記位置ずれの推定量に基づき、当該画素を選択し、
選択された画素の明度を対応する前記基準画像の画素の明度と一致するように、前記選択された画素の画素値を補正する請求項9乃至12の何れかに記載の動画像の動き情報を利用した画像処理方法。 Based on the correspondence information of each pixel of the reference frame and the base frame obtained by the motion vector cumulative addition conversion processing means,
For each pixel of the registration image obtained by the alignment, the pixel based on the similarity that is not affected by the change in brightness, the estimated amount of misalignment that is not affected by the change in brightness, or the estimated amount of similarity and the misalignment Select
The moving image motion information according to claim 9, wherein the pixel value of the selected pixel is corrected so that the brightness of the selected pixel matches the brightness of the corresponding pixel of the reference image. The image processing method used.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007038007A JP2010114474A (en) | 2007-02-19 | 2007-02-19 | Image processing device and image processing method using dynamic image motion information |
PCT/JP2008/053131 WO2008102904A1 (en) | 2007-02-19 | 2008-02-19 | Image processing device and image processing method using dynamic image motion information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007038007A JP2010114474A (en) | 2007-02-19 | 2007-02-19 | Image processing device and image processing method using dynamic image motion information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010114474A true JP2010114474A (en) | 2010-05-20 |
Family
ID=39710174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007038007A Withdrawn JP2010114474A (en) | 2007-02-19 | 2007-02-19 | Image processing device and image processing method using dynamic image motion information |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2010114474A (en) |
WO (1) | WO2008102904A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014207554A (en) * | 2013-04-12 | 2014-10-30 | 三菱電機株式会社 | Image associating device and image associating method |
WO2015019474A1 (en) * | 2013-08-08 | 2015-02-12 | 株式会社島津製作所 | Image processing device |
US20220245766A1 (en) * | 2019-10-28 | 2022-08-04 | Denso Corporation | Image processing device, image processing method, image processing program, and image processing system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020141501A1 (en) * | 1998-11-20 | 2002-10-03 | Philips Electronics North America Corporation | System for performing resolution upscaling on frames of digital video |
JP2005150808A (en) * | 2003-11-11 | 2005-06-09 | Ntt Data Corp | Monitoring video recording system |
JP2006033141A (en) * | 2004-07-13 | 2006-02-02 | Seiko Epson Corp | Image processing apparatus, image processing method, program, and recording medium |
-
2007
- 2007-02-19 JP JP2007038007A patent/JP2010114474A/en not_active Withdrawn
-
2008
- 2008-02-19 WO PCT/JP2008/053131 patent/WO2008102904A1/en active Application Filing
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014207554A (en) * | 2013-04-12 | 2014-10-30 | 三菱電機株式会社 | Image associating device and image associating method |
WO2015019474A1 (en) * | 2013-08-08 | 2015-02-12 | 株式会社島津製作所 | Image processing device |
CN105359185A (en) * | 2013-08-08 | 2016-02-24 | 株式会社岛津制作所 | Image processing device |
JP5991438B2 (en) * | 2013-08-08 | 2016-09-14 | 株式会社島津製作所 | Image processing device |
US9727964B2 (en) | 2013-08-08 | 2017-08-08 | Shimadzu Corporation | Image processing device |
CN105359185B (en) * | 2013-08-08 | 2018-02-06 | 株式会社岛津制作所 | Image processing apparatus |
US20220245766A1 (en) * | 2019-10-28 | 2022-08-04 | Denso Corporation | Image processing device, image processing method, image processing program, and image processing system |
Also Published As
Publication number | Publication date |
---|---|
WO2008102904A1 (en) | 2008-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7388659B2 (en) | Video processing method, bitstream generation method, video processing device, and program | |
JP3386142B2 (en) | Image decoding device and image decoding method | |
JP5098081B2 (en) | Image processing method and image processing apparatus | |
JP5389297B2 (en) | Image decoding apparatus and image decoding method | |
JP4572010B2 (en) | Methods for sprite generation for object-based coding systems using masks and rounded averages | |
US6618439B1 (en) | Fast motion-compensated video frame interpolator | |
US20100272184A1 (en) | System and Method for Real-Time Super-Resolution | |
US9247250B2 (en) | Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing | |
JP4739651B2 (en) | Apparatus and method for realizing high-precision intermediate pixel high-speed search in video encoding | |
CN108012155A (en) | Video coding method and video decoding method of pre-spliced image and related devices | |
JP2007067731A (en) | Coding method | |
JP2010154490A (en) | Video decoding method | |
Kim et al. | Zoom motion estimation using block-based fast local area scaling | |
JP3823767B2 (en) | Moving image foreground / background region separation method, and moving image encoding method using conditional pixel interpolation using the method | |
JP2009027446A (en) | Image processing method and image processing apparatus | |
JP2010114474A (en) | Image processing device and image processing method using dynamic image motion information | |
JP4494471B2 (en) | Circular pixel reference pixel interpolation method, apparatus thereof, circular video encoding method, apparatus thereof, circular video decoding method, and apparatus thereof | |
KR100926752B1 (en) | Fine Motion Estimation Method and Apparatus for Video Coding | |
JP4000928B2 (en) | Motion compensation device | |
JP6152642B2 (en) | Moving picture compression apparatus, moving picture decoding apparatus, and program | |
JP5067471B2 (en) | Decoding method, decoding apparatus, and program | |
JP2002010267A (en) | Motion vector conversion apparatus and its method | |
JP2013098713A (en) | Video encoding device, video decoding device, video encoding method, and video decoding method | |
JP2017200199A (en) | Video compression device, video decoding device, and program | |
JP2018107683A (en) | Video encoding apparatus and video decoding apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100601 |