JP2006014086A - Moving image encoding apparatus and moving image encoding method - Google Patents
Moving image encoding apparatus and moving image encoding method Download PDFInfo
- Publication number
- JP2006014086A JP2006014086A JP2004190305A JP2004190305A JP2006014086A JP 2006014086 A JP2006014086 A JP 2006014086A JP 2004190305 A JP2004190305 A JP 2004190305A JP 2004190305 A JP2004190305 A JP 2004190305A JP 2006014086 A JP2006014086 A JP 2006014086A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- encoding
- data
- unit
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/127—Prioritisation of hardware or computational resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
- H04N19/64—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
- H04N19/645—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission by grouping of coefficients into blocks after the transform
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
- H04N19/64—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
- H04N19/647—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission using significance based coding, e.g. Embedded Zerotrees of Wavelets [EZW] or Set Partitioning in Hierarchical Trees [SPIHT]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
本発明は、動画像符号化装置及び方法に関し、更に詳しくは、動き予測を用いて動画像を符号化する動画像符号化装置及び方法に関する。 The present invention relates to a moving image encoding apparatus and method, and more particularly, to a moving image encoding apparatus and method for encoding a moving image using motion prediction.
近年、ネットワークを介して流れるコンテンツは文字情報から静止画像情報、さらには動画像情報と大容量化、多様化している。これに合わせて、情報量を圧縮する符号化技術の開発も進み、開発された符号化技術は国際標準化によって広く普及するようになった。 In recent years, contents flowing through a network have become larger and diversified from character information to still image information and further to moving image information. Along with this, the development of an encoding technique for compressing the information amount has progressed, and the developed encoding technique has been widely spread by international standardization.
一方で、ネットワーク自体も大容量化、多様化が進んでおり、1つのコンテンツが送信側から受信側に届くまでに様々な環境を通過することになった。また、送信/受信側機器の処理性能も多様化している。送受信機器として主に用いられるPCではCPU性能、グラフィクス性能など、大幅な性能向上が進む一方、PDA、携帯電話機、TV、ハードディスクレコーダなど、処理性能の異なる様々な機器がネットワーク接続機能を持つようになってきている。このため、1つのデータで、変化する通信回線容量や受信側機器の処理性能に対応できるスケーラビリティという機能が注目されている。 On the other hand, the network itself has been increased in capacity and diversified, and one content has passed through various environments before it reaches the receiving side from the transmitting side. In addition, the processing performance of transmission / reception side devices is diversified. While PCs that are mainly used as transmission / reception devices have greatly improved performance such as CPU performance and graphics performance, various devices such as PDAs, mobile phones, TVs, and hard disk recorders have network connection functions. It has become to. For this reason, attention has been paid to a function called scalability that can cope with changing communication line capacity and processing performance of the receiving side device with a single data.
このスケーラビリティ機能を持つ静止画像符号化方式としてJPEG2000符号化方式が広く知られている。この方式は国際標準化され、非特許文献1に詳細が記述されている。その特徴は入力された画像データに対して離散ウェーブレット変換(DWT:Discrete Wavelet Transform)を施し、複数周波数帯に分離する。それらの係数を量子化し、その値をビットプレーン毎に算術符号化するというものである。ビットプレーンを必要な数だけ符号化したり、復号したりすることで、きめの細かい階層の制御を可能にしている。
The JPEG 2000 encoding method is widely known as a still image encoding method having this scalability function. This method is internationally standardized and is described in detail in Non-Patent
また、JPEG2000符号化方式では、従来の符号化技術には無い、画像の中で興味がある領域の画質を相対的に向上させるROI(Region Of Interest)といった技術も実現している。 In addition, the JPEG2000 encoding method also realizes a technology called ROI (Region Of Interest) that relatively improves the image quality of a region of interest in an image, which is not found in the conventional encoding technology.
図23はJPEG2000符号化方式による符号化部を示す。タイル分割部9001は入力画像を複数の領域(タイル)に分割する。この機能はオプションである。DWT部9002は離散ウェーブレット変換を行い、周波数帯に分離する。量子化部9003で、各係数を量子化する。ROI指定部9007はオプションであり、興味のある領域を設定することができる。量子化部9003はシフトアップを行う。エントロピー符号化部9004でEBCOT(Embeded Block Coding with Optimized Truncation)方式でエントロピー符号化を行い、符号化されたデータはビット切り捨て部9005で必要に応じて下位ビットを切り捨てられてレート制御を行う。符号形成部9006でヘッダ情報を付加し、種々のスケーラビリティの機能を選択して符号化データを出力する。
FIG. 23 shows an encoding unit according to the JPEG2000 encoding method. A tile dividing
図24はJPEG2000符号化方式による復号化部を示す。符号解析部9020はヘッダを解析し、階層を構成するための情報を得る。ビット切り捨て部9021は入力される符号化データを内部バッファの容量、復号処理能力に対応して、下位のビットを切り捨てる。エントロピー復号部9022はEBCOT符号化方式の符号化データを復号し、量子化されたウェーブレット変換係数を得る。逆量子化9023部はこれに逆量子化を施し、逆DWT部は逆離散ウェーブレット変換を施して画像データを再生する。タイル合成部9025は複数のタイルを合成して画像データ再生する。
FIG. 24 shows a decoding unit according to the JPEG2000 encoding method. The
このJPEG2000符号化方式を動画像の各フレームに対応させることで動画像符号化を行うMotion JPEG2000方式も勧告されている(例えば、非特許文献2参照)。この方式ではフレーム単位に独立に符号化処理が行われており、時間相関を用いて符号化を行わないため、フレーム間に冗長性が残る。このため、時間相関を用いた動画像符号化方式に比べて符号量を効果的に削減することは難しいという問題がある。 The Motion JPEG2000 system that performs moving picture coding by making this JPEG2000 coding system correspond to each frame of a moving picture is also recommended (see, for example, Non-Patent Document 2). In this method, encoding processing is performed independently for each frame, and encoding is not performed using time correlation, so that redundancy remains between frames. For this reason, there is a problem that it is difficult to effectively reduce the code amount as compared with the moving picture coding method using time correlation.
一方で、MPEG符号化方式では動き補償を行い、符号化効率の改善を図っている(例えば、非特許文献3参照)。図25にその符号化部の構成を示す。ブロック分割部9031で8×8のブロックに分割し、差分部9032で動き補償による予測データを引き、DCT部9033で離散コサイン変換を行い、量子化部9034で量子化を行う。その結果はエントロピー符号化部9035で符号化され、符号形成部9036でヘッダ情報を付加して、符号化データを出力する。
On the other hand, in the MPEG encoding method, motion compensation is performed to improve encoding efficiency (see, for example, Non-Patent Document 3). FIG. 25 shows the configuration of the encoding unit. The
同時に、エントロピー符号化部9035の処理と同じタイミングで逆量子化部9037で逆量子化し、逆DCT部9038で離散コサイン変換の逆変換を施し、加算部9039で予測データを加算してフレームメモリ9040に格納する。動き補償部9041は入力画像とフレームメモリ9040に格納されている参照フレームを参照して動きベクトルを求め、予測データを生成する。
At the same time, the
このJPEG2000符号化の効率を高めることを目的として、JPEG2000に動き補償を追加した圧縮方式がある。このような動画像の圧縮方式では、図26に示したように、下位ビットプレーンの切り捨てなどにより、予測先のデータが部分的に破棄される場合、予測誤差が積み重なり、インターフレームの画質が大きく劣化する問題があった。 For the purpose of improving the efficiency of JPEG2000 encoding, there is a compression method in which motion compensation is added to JPEG2000. In such a moving image compression method, as shown in FIG. 26, when the prediction destination data is partially discarded due to truncation of lower bit planes, prediction errors accumulate, and the image quality of the inter frame increases. There was a problem of deterioration.
本発明は上記問題点を鑑みてなされたものであり、動き予測を用いて動画像を符号化する場合に、インターフレームにおける画質劣化を抑制することを目的としている。 The present invention has been made in view of the above problems, and an object thereof is to suppress image quality deterioration in an inter frame when a moving image is encoded using motion prediction.
上記目的を達成するために、フレーム間動き予測を用いて動画像を符号化する本発明の動画像符号化装置は、各フレームを複数の分割領域に分割する分割手段と、フレーム内から重要領域を決定する決定手段と、前フレームの重要領域の範囲内で、符号化対象のフレームの各分割領域毎に相関性が高い画素集合を探索し、該各分割領域のデータと、探索した画素集合のデータとの差分を取って差分データを出力するフレーム間予測手段と、前記差分データを符号化する符号化手段とを有する。 In order to achieve the above object, a moving picture coding apparatus according to the present invention for coding a moving picture using inter-frame motion prediction includes dividing means for dividing each frame into a plurality of divided areas, and an important area from within the frame. A pixel unit having a high correlation for each divided region of the frame to be encoded within the important region of the previous frame, and data of each divided region and the searched pixel set Inter-frame prediction means for taking the difference from the data and outputting the difference data, and encoding means for encoding the difference data.
また、フレーム間動き予測を用いて動画像を符号化する本発明の動画像符号化方法は、各フレームを複数の分割領域に分割する分割工程と、フレーム内から重要領域を決定する決定工程と、前フレームの重要領域の範囲内で、符号化対象のフレームの各分割領域毎に相関性が高い画素集合を探索し、該各分割領域のデータと、探索した画素集合のデータとの差分を取って差分データを出力するフレーム間予測工程と、前記差分データを符号化する符号化工程とを有する。 The moving image encoding method of the present invention for encoding a moving image using inter-frame motion prediction includes a dividing step of dividing each frame into a plurality of divided regions, and a determining step of determining an important region from within the frame. In the range of the important area of the previous frame, a pixel set having high correlation is searched for each divided area of the encoding target frame, and the difference between the data of each divided area and the searched pixel set data is calculated. An inter-frame prediction step for outputting difference data, and an encoding step for encoding the difference data.
また、別の構成によれば、フレーム間動き予測を用いて動画像を符号化する本発明の動画像符号化装置は、各フレームを複数の分割領域に分割する分割手段と、フレーム内から重要領域を決定する決定手段と、各分割領域毎にデータ変換を行い、変換係数を生成する変換手段と、前フレームの重要領域の範囲に対応する変換係数から、符号化対象のフレームの各分割領域の変換係数毎に相関性が高い変換係数を探索し、該各分割領域の変換係数と、探索した変換係数との差分を取って差分データを出力するフレーム間予測手段と、前記差分データを符号化する符号化手段とを有する。 According to another configuration, the moving image encoding apparatus of the present invention that encodes a moving image using inter-frame motion prediction includes a dividing unit that divides each frame into a plurality of divided regions, Each divided region of the encoding target frame is determined from a determining unit that determines a region, a conversion unit that performs data conversion for each divided region and generates a conversion coefficient, and a conversion coefficient corresponding to the range of the important region of the previous frame. An inter-frame prediction unit that searches for a transform coefficient having a high correlation for each transform coefficient, takes a difference between the transform coefficient of each divided region and the found transform coefficient, and outputs difference data, and encodes the difference data And encoding means for converting.
また、フレーム間動き予測を用いて動画像をフレーム毎に符号化する本発明の動画像符号化方法は、各フレームを複数の分割領域に分割する分割工程と、フレーム内から重要領域を決定する決定工程と、各分割領域毎にデータ変換を行い、変換係数を生成する変換工程と、前フレームの重要領域の範囲に対応する変換係数から、符号化対象のフレームの各分割領域の変換係数毎に相関性が高い変換係数を探索し、該各分割領域の変換係数と、探索した変換係数との差分を取って差分データを出力するフレーム間予測工程と、前記差分データを符号化する符号化工程とを有する。 In addition, the moving image encoding method of the present invention that encodes a moving image for each frame using inter-frame motion prediction determines a division step for dividing each frame into a plurality of divided regions and an important region from within the frame. From the determination step, the conversion step of performing data conversion for each divided region, and generating the conversion coefficient, and the conversion coefficient corresponding to the range of the important region of the previous frame, for each conversion coefficient of each divided region of the encoding target frame An inter-frame prediction step of searching for a transform coefficient having a high correlation with each other, taking a difference between the transform coefficient of each divided region and the found transform coefficient, and outputting difference data, and encoding for encoding the difference data Process.
上記構成によれば、動き予測を用いて動画像を符号化する場合に、インターフレームの画質劣化を抑制することができる。 According to the above configuration, when a moving image is encoded using motion prediction, it is possible to suppress image quality deterioration of an inter frame.
以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。 The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.
(第1の実施形態)
本発明における処理対象となる動画像は、図1に示されているように、画像と音声から構成され、さらに画像は瞬間瞬間の情報を表すフレームから構成されている。
(First embodiment)
As shown in FIG. 1, a moving image to be processed in the present invention is composed of an image and a sound, and the image is composed of a frame representing information of an instantaneous moment.
図2は、本第1の実施形態における動画像処理装置の構成を示すブロック図である。同図において、200はCPU、201はメモリ、202は端末、203は蓄積部、204は撮像部、205は表示部、206は符号化部である。 FIG. 2 is a block diagram illustrating a configuration of the moving image processing apparatus according to the first embodiment. In the figure, 200 is a CPU, 201 is a memory, 202 is a terminal, 203 is a storage unit, 204 is an imaging unit, 205 is a display unit, and 206 is an encoding unit.
<符号化部206の処理説明>
次に、符号化部206におけるフレームデータの符号化処理について、図3に示す符号化部206の構成および図4のフローチャートを参照して説明する。なお、ヘッダの作成方法等、詳細についてはISO/IEC勧告書に説明されている通りであるので、ここでは説明を省略する。
<Description of Processing of
Next, frame data encoding processing in the
また、以下の説明では、符号化対象となるフレームデータが8ビットのモノクロフレームデータであるものとして説明をする。しかしながら、フレームデータの形態はこれに限るものではなく、各画素4ビット、10ビット、12ビットと言った具合に8ビット以外のビット数で表すモノクロ画像、或いは各画素における各色成分(RGB/Lab/YCrCb)を8ビットで表現するカラーの多値フレームデータである場合に適用することも可能である。また、画像を構成する各画素の状態等を表す多値情報である場合、例えば各画素の色を表す多値のインデックス値である場合にも適用できる。これらに応用する場合には、各種類の多値情報を後述するモノクロフレームデータとすればよい。 In the following description, it is assumed that the frame data to be encoded is 8-bit monochrome frame data. However, the form of the frame data is not limited to this, and a monochrome image represented by a number of bits other than 8 bits such as 4 bits, 10 bits, and 12 bits for each pixel, or each color component (RGB / Lab) for each pixel. / YCrCb) can also be applied to color multivalued frame data expressing 8 bits. Further, the present invention can be applied to multi-value information representing the state of each pixel constituting an image, for example, multi-value index value representing the color of each pixel. When applied to these, each type of multi-value information may be monochrome frame data described later.
まず、撮像部204から、フレームデータ入力部301へ、符号化対象となる画像のフレームデータを構成する画素データがラスタースキャン順に入力され、タイル分割部302に出力される。
First, pixel data constituting frame data of an image to be encoded is input from the
タイル分割部302は、フレームデータ入力部301から入力される1枚の画像を図5に示すようなN枚のタイルに分割し(ステップS401)、各タイルを識別するために、本第1の実施形態ではラスタースキャン順にタイル番号0, 1, 2, ...,N-1を割り振る。以下、各タイルを表すデータを「タイルデータ」と呼ぶ。なお、図5では画像を横8縦6の48枚のタイルに分割した例を示しているが、分割タイル数は適宜変更可能であることは言うまでもない。これら生成されたタイルデータは、順に離散ウェーブレット変換部303に送られる。離散ウェーブレット変換部303以降の処理においては、タイルデータ毎に符号化される。
The
また、ROIタイル決定部317が高画質に符号化するタイル(ROIタイル)がいずれであるかを決定する(ステップS402)。図6は決定したROIタイルの例を示す図である。なお、ROIタイル決定部317は、ユーザが不図示の入力デバイスにより指定した優先領域を包含する領域に対して、ROIタイルと決定する。次にステップS403において、処理しているタイルを認識するためのカウンタをi=0に設定する。
Further, the ROI
次に、フレーム属性判定部316は、符号化対象のフレームがIフレーム(Intra frame)/Pフレーム(Predictive frame)のいずれであるかを判定する(ステップS404)。符号化対象フレームがIフレームならば、タイルデータは離散ウェーブレット変換部303に出力される。一方、符号化対象フレームがPフレームならば、動き補償(MC:Motion Compensation)予測部310にフレームデータをコピーする。
Next, the frame
[符号化対象フレームがIフレームの場合]
符号化対象フレームがIフレームの場合、ステップS405において離散ウェーブレット変換部303は、タイル分割部302から入力される、1フレーム画像のフレームデータ中の1つのタイルデータx(n)における複数の画素(参照画素)のデータ(以下、「参照画素データ」)を用いて離散ウェーブレット変換を行う。
[When encoding target frame is I frame]
When the encoding target frame is an I frame, in step S405, the discrete
ここで、離散ウェーブレット変換後のフレームデータ(離散ウェーブレット変換係数)を示す。
Y(2n) = X(2n)+floor{ (Y(2n-1)+Y(2n+1)+2)/4 }
Y(2n+1) = X(2n+1)-floor{ (X(2n)+X(2n+2))/2 } …(1)
Here, the frame data (discrete wavelet transform coefficient) after the discrete wavelet transform is shown.
Y (2n) = X (2n) + floor {(Y (2n-1) + Y (2n + 1) +2) / 4}
Y (2n + 1) = X (2n + 1) -floor {(X (2n) + X (2n + 2)) / 2} (1)
Y(2n),Y(2n+1)は離散ウェーブレット変換係数列であり、Y(2n)は低周波サブバンド、Y(2n+1)は高周波サブバンドである。また、上記変換式(1)においてfloor{X}はXを超えない最大の整数値を表す。この離散ウェーブレット変換を模式的に表わしたのが図7である。 Y (2n) and Y (2n + 1) are discrete wavelet transform coefficient sequences, Y (2n) is a low-frequency subband, and Y (2n + 1) is a high-frequency subband. In the conversion formula (1), floor {X} represents a maximum integer value not exceeding X. FIG. 7 schematically shows the discrete wavelet transform.
上記変換式(1)は一次元のデータに対するものであるが、この変換を水平方向、垂直方向の順に適用して二次元の変換を行うことにより、図8(a)に示すようなLL,HL,LH,HHの4つのサブバンドに分割することができる。ここで、Lは低周波サブバンド、Hは高周波サブバンドを示している。次にLLサブバンドを、同じようにして4つのサブバンドに分け(図8(b))、その中のLLサブバンドを更に4つのサブバンドに分ける(図8(c))。このようにして合計10のサブバンドを作る。10個のサブバンドそれぞれを、図8(c)の様にHH1,HL1,…と呼ぶ。ここで、各サブバンドの名称における数字は、それぞれのサブバンドのレベルを示す。つまり、レベル1のサブバンドは、HL1,HH1,LH1、レベル2のサブバンドは、HL2,HH2,LH2、レベル3のサブバンドは、HL3,HH3,LH3である。なおLLサブバンドは、レベル0のサブバンドである。LLサブバンドは一つしかないので添字を付けない。またレベル0からレベルnまでのサブバンドを復号することで得られる復号画像を、レベルnの復号画像と呼ぶ。復号画像は、そのレベルが高い程解像度は高い。
The conversion equation (1) is for one-dimensional data. By applying this conversion in the order of the horizontal direction and the vertical direction, and performing two-dimensional conversion, the LL, as shown in FIG. It can be divided into four subbands HL, LH, and HH. Here, L indicates a low-frequency subband, and H indicates a high-frequency subband. Next, the LL subband is divided into four subbands in the same manner (FIG. 8B), and the LL subband is further divided into four subbands (FIG. 8C). In this way, a total of 10 subbands are created. Each of the ten subbands is called HH1, HL1,... As shown in FIG. Here, the number in the name of each subband indicates the level of each subband. That is, the
10個のサブバンドの変換係数は、一旦バッファ304に格納され、LL,HL1,LH1,HH1,HL2,LH2,HH2,HL3,LH3,HH3の順に、つまり、レベルが低いサブバンドからレベルが高いサブバンドの順に、係数量子化部305へ出力される。
The transform coefficients of 10 subbands are temporarily stored in the
係数量子化部305では、バッファ304から出力される各サブバンドの変換係数を各周波数成分毎に定めた量子化ステップで量子化し、量子化後の値(係数量子化値)をエントロピー符号化部306へ出力する(ステップS406)。係数値をX、この係数の属する周波数成分に対する量子化ステップの値をqとすると、量子化後の係数値Q(X)は次式(2)によって求めるものとする。
Q(X)=floor{(X/q)+0.5} …(2)
The
Q (X) = floor {(X / q) +0.5} (2)
本実施の形態における各周波数成分と量子化ステップとの対応を図9に示す。同図に示すように、よりレベルが高いサブバンドの方に、大きい量子化ステップを与えている。なお、各サブバンド毎の量子化ステップは予め不図示のRAMやROMなどのメモリに格納されているものとする。そして、一つのサブバンドにおける全ての変換係数を量子化した後、それら係数量子化値をエントロピー符号化部306と逆係数量子化部312に出力する。
FIG. 9 shows the correspondence between each frequency component and the quantization step in the present embodiment. As shown in the figure, a larger quantization step is given to a sub-band having a higher level. Note that the quantization step for each subband is stored in advance in a memory such as a RAM or a ROM (not shown). After all the transform coefficients in one subband are quantized, the coefficient quantized values are output to the
逆係数量子化部312は、図9の量子化ステップを利用し、以下の式(3)に基づいて、係数量子化値を逆量子化する(ステップS407)。
Y=q*Q …(3)
The inverse
Y = q * Q (3)
ここで、qを量子化ステップ、Qを係数量子化値、Yを逆量子化値とする。
逆離散ウェーブレット変換部313は、逆量子化値を以下の式(4)に従って逆離散ウェーブレット変換する(ステップS408)。
X(2n)=Y(2n)-floor{(Y(2n-1)+Y(2n+1)+2)/4}
X(2n+1)=Y(2n+1)+floor{(X(2n)+X(2n+2))/2} …(4)
Here, q is a quantization step, Q is a coefficient quantization value, and Y is an inverse quantization value.
The inverse discrete
X (2n) = Y (2n) -floor {(Y (2n-1) + Y (2n + 1) +2) / 4}
X (2n + 1) = Y (2n + 1) + floor {(X (2n) + X (2n + 2)) / 2} (4)
そして、得られた復号画素をフレームメモリ311に記録する(ステップS409)。 Then, the obtained decoded pixel is recorded in the frame memory 311 (step S409).
一方、エントロピー符号化部306は、入力された係数量子化値をエントロピー符号化する(ステップS410)。ここでは、まず、図10に示すように、入力された係数量子化値の集まりである各サブバンドが矩形(「コードブロック」と呼ぶ。)に分割される。なお、このコードブロックの大きさには、2m×2n(m、nは2以上の整数)等が設定される。さらにこのコードブロックを、図11に示すように、ビットプレーンに分割する。その上で、各ビットプレーンにおける各ビットは、図12に示すように所定分類規則に基づいて3種類に分けられて、同じ種類のビットを集めたコーディングパスが3種類生成される。この3種類のコーディングパスは、有意な係数が周囲にある有意でない係数の符号パスであるsignificance propagation passと、有意な係数の符号パスであるmagnitude refinement passと、残りの係数情報の符号パスであるcleanup passである。
On the other hand, the
入力された係数量子化値は、ここで得られたコーディングパスを単位として、エントロピー符号化である二値算術符号化が行われ、エントロピー符号化値が生成される。 The input coefficient quantization value is subjected to binary arithmetic coding, which is entropy coding, with the coding pass obtained here as a unit, and an entropy coded value is generated.
なお、エントロピー符号化は、1つのコードブロックに注目すると上位ビットプレーンから下位ビットプレーンの順に符号化され、更にそのコードブロックのあるビットプレーンに注目すると、図12に示す3種類のパスを上から順に符号化するようになっている。なお、図12は図11の第4のビットプレーンにおけるコーディングパスの分類を示す。 Note that entropy encoding is performed in order from the upper bit plane to the lower bit plane when attention is paid to one code block. Further, when attention is paid to a bit plane having the code block, the three types of paths shown in FIG. The encoding is performed in order. FIG. 12 shows the classification of coding paths in the fourth bit plane of FIG.
エントロピー符号化されたコーディングパスは、タイル符号化データ生成部307に出力される。
The coding path subjected to entropy encoding is output to the tile encoded
タイル符号化データ生成部307では、入力された複数のコーディングパスから、単一もしくは複数のレイヤーを構成し、それらレイヤーをデータの単位としてタイル符号化データを生成する(ステップS411)。以下にレイヤーの構成に関する説明を行う。
The tile encoded
タイル符号化データ生成部307は、図13に示すように、複数のサブバンドにおける複数のコードブロックから、エントロピー符号化されたコーディングパスを集めた上で、レイヤーを構成する。図13は5枚のレイヤーを生成する場合を示している。なお、任意のコードブロックからコーディングパスを取得する際には、図14に示すように、常にそのコードブロックにおいて最上位に存在するコーディングパスから順に選択する。その後、タイル符号化データ生成部307は、図15に示すように、生成したレイヤーを上位に位置するレイヤーから順に並べた上で、その先頭にタイルヘッダを付加してタイル符号化データを生成する。このヘッダには、タイルを識別する情報や、当該タイル符号化データの符号長や、圧縮に使用した様々なパラメータ等が格納される。このように生成されたタイル符号化データは、フレーム符号化データ生成部308に出力される。
As shown in FIG. 13, the tile encoded
次に、ステップS412で符号化すべきタイルデータが残っているかどうかをカウンタiの値とタイル番号とを比較することにより判断する。符号化すべきタイルデータが残っている場合(つまりi<N−1)は、ステップS413でカウンタiを1増やし、ステップS405に戻って次のタイルに対してステップS412までの処理を繰り返す。符号化すべきタイルデータが残っていない場合(つまりi=N−1)は、ステップS426に進む。 Next, in step S412, whether or not tile data to be encoded remains is determined by comparing the value of the counter i with the tile number. If tile data to be encoded remains (that is, i <N−1), the counter i is incremented by 1 in step S413, and the process returns to step S405 to repeat the processing up to step S412 for the next tile. If no tile data to be encoded remains (that is, i = N−1), the process proceeds to step S426.
ステップS426において、フレーム符号化データ生成部308では、図15に示すようなタイル符号化データを、図16に示すように所定の順番(例えば、タイル番号順)に並べた上で、先頭にヘッダを付加してフレーム符号化データを生成する。このヘッダには、入力画像やタイルの縦横のサイズ、圧縮に使用した様々なパラメータ等が格納される。このように生成されたフレーム符号化データは、フレーム符号化データ出力部309から記録部212に出力される。
In step S426, the frame encoded
なお、上記説明では、ステップS407〜S409の処理をステップS410、S411の処理に先立って行うように説明しているが、逆の順序で行っても、また並行して行っても構わない。 In the above description, the processes of steps S407 to S409 are described as being performed prior to the processes of steps S410 and S411. However, the processes may be performed in the reverse order or in parallel.
[符号化対象フレームがPフレームの場合]
次に、ステップS404の判定で、符号化対象フレームがPフレームの場合の処理について説明する。その場合、上述したようにタイル分割部302は、MC予測部310にフレームデータをコピーし、MC予測部310は、フレームメモリ311に記録されているフレーム(前フレーム)と符号化対象フレームとの間でMC予測をする(ステップS414)。ここで、図17に示したように、MC予測先のデータとして、前フレームのROIタイルに限定する。これは、タイル符号化データ生成部におけるデータ破棄の累積による非ROIタイルの画質低減を避けるためである。
[When encoding target frame is P frame]
Next, a process when the encoding target frame is a P frame in the determination in step S404 will be described. In that case, as described above, the
減算器314は、予測結果を基に、前フレームと符号化対象フレームの差を演算する(ステップS415)。そこで得られる減算結果(差分データ)について、Iフレームに対する処理と同様に、離散ウェーブレット変換(ステップS416)、量子化(ステップS417)、逆量子化(ステップS418)、逆離散ウェーブレット変換(ステップS419)、エントロピー符号化(ステップS422)、タイル符号化データ生成(ステップS423)、タイル番号判定(ステップS424)、画像符号化データ生成(ステップS426)を実施する。
The
Iフレームの処理との違いは、和演算器315により、差分データと前フレームの和を取って、符号化対象フレームを復元して(ステップS420)、そこで得られた復号フレームをフレームメモリ311に記録する処理(ステップS421)が存在する点である。上述したステップS414では、ここで記録された復号フレームを用いてMC予測を行う。
The difference from the processing of the I frame is that the
上記ステップS414〜S423の処理は、ステップS424で符号化すべきタイルデータが残っていないと判断されるまで、ステップS425におけるカウンタiを1ずつ増やす処理を介して繰り返し行われる。 The processes of steps S414 to S423 are repeatedly performed through the process of incrementing the counter i by 1 in step S425 until it is determined in step S424 that there is no tile data to be encoded.
なお、予測で使用するデータの単位として、タイル、もしくはタイルをさらに分割して得られるブロック等が考えられる。 As a unit of data used in prediction, a tile or a block obtained by further dividing the tile can be considered.
また、図4では、ステップS418〜S421の処理をステップS422、S423の処理に先立って行うように説明しているが、逆の順序で行っても、また並行して行っても構わない。 In FIG. 4, the processing of steps S418 to S421 is described as being performed prior to the processing of steps S422 and S423. However, the processing may be performed in the reverse order or in parallel.
上記の通り本第1の実施形態によれば、前フレームにおけるROIタイルのみをMC予測先と設定することで、タイル符号化データ生成部におけるデータ破棄の累積によるPフレームの画質低減を回避することができる。 As described above, according to the first embodiment, by setting only the ROI tile in the previous frame as the MC prediction destination, it is possible to avoid image quality reduction of the P frame due to accumulation of data discard in the tile encoded data generation unit. Can do.
(第2の実施形態)
上記第1の実施形態においては、予測先データとしてROIタイルに限定することで、タイル符号化データ生成部におけるデータ破棄の累積によるPフレームの画質低減を回避する方法を示した。
(Second Embodiment)
In the first embodiment, the method of avoiding the image quality reduction of the P frame due to accumulation of data discard in the tile encoded data generation unit by limiting to the ROI tile as the prediction destination data has been shown.
一般的に、ユーザはある対象物をROIと設定し、その対象物を包含するタイルがROIタイルと決定される。このため、前後するフレーム間でROIタイルの画素分布や特性は似ている。このため、ROIタイル間における予測は、高い符号化効率を実現できると考えられる。しかし、ROIタイルと非ROIタイル間における予測は、それ程高い符号化効率を実現できないことも考えられる。それ程高い符号化効率を実現できないならば、MC予測処理は無駄となり得る。そこで本第2の実施形態では、ROIタイル間のみで、MC予測を行う。なお、本第2の実施形態は、上記第1の実施形態とは図4に示す符号化処理のステップS415における処理が異なるだけであるので、その点のみを説明する。 In general, the user sets an object as an ROI, and a tile that includes the object is determined as an ROI tile. For this reason, the pixel distribution and characteristics of the ROI tile are similar between the following frames. For this reason, it is thought that the prediction between ROI tiles can implement | achieve high encoding efficiency. However, it is also conceivable that prediction between ROI tiles and non-ROI tiles cannot achieve such high coding efficiency. If the encoding efficiency is not so high, the MC prediction process can be wasted. Therefore, in the second embodiment, MC prediction is performed only between ROI tiles. Note that the second embodiment is different from the first embodiment only in the process in step S415 of the encoding process shown in FIG. 4, and only this point will be described.
図18は、本第2の実施形態においてステップS415で行われる、MC予測部310における処理を示している。ここでは、図18に示すようにROIタイル間のみでMC予測を実施し、非ROIタイルのMC予測は行わない。
FIG. 18 shows the processing in the
上記の通り本第2の実施形態では、ROIタイル間のみでMC予測を実施することで、無駄な演算を省いた上で、Pフレームの画質低減を回避することができる。 As described above, in the second embodiment, by performing MC prediction only between ROI tiles, it is possible to avoid a reduction in image quality of P frames while omitting useless calculations.
(第3の実施形態)
第3の実施形態では、タイル毎にROI領域を設定せずに、離散ウェーブレット変換係数空間上でROI領域を設定する。そして、予測先としてROI係数に限定することで、Pフレームの画質低減を回避する。
(Third embodiment)
In the third embodiment, the ROI region is set on the discrete wavelet transform coefficient space without setting the ROI region for each tile. Then, by limiting to the ROI coefficient as a prediction destination, image quality reduction of the P frame is avoided.
図19は、本第3の実施形態における符号化部206のブロック図である。なお、動画像処理装置は、図2に示すものと同様であるものとする。図19に示す構成は、第1の実施形態における符号化部206のブロック図と比較して、ROIタイル決定部317がROI決定部417に変わったものである。ROIタイル決定部317はタイル単位で領域を決定するのに対して、ROI決定部417は画素単位で領域を決定する点に違いがある。例えば、前者のROIタイル決定部317は、不図示のオブジェクト抽出部が抽出した領域を包含するタイルをROIタイルと決定するのに対して、後者のROIタイル決定部417は、抽出された領域を画素単位でROI領域と決定する。
FIG. 19 is a block diagram of the
また、予測を行うデータが画素から係数に変わったことにより減算部314の位置が変更した点、ROI部418、逆ROI部419が追加された点、逆離散ウェーブレット変換部313が不要になった点に違いがある。なお、逆ROI部419は、係数を図21における(c)から(a)に処理する。
Further, the position of the
また、図20は、本第3の実施形態における符号化処理を示すフローチャートである。図3のフローチャートと同様の処理には同じ参照番号を付し、説明を省略する。 FIG. 20 is a flowchart showing the encoding process in the third embodiment. The same processes as those in the flowchart of FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.
[符号化対象フレームがIフレームの場合]
本第3の実施形態では、符号化対象フレームがIフレームの場合、離散ウェーブレット変換部303により変換された変換係数を量子化した後(ステップS406)、ステップS506で、ROI部418はROIか否かに応じて、係数量子化値を次式(5)に基づいて変更する。
Q"= Q * 2B;(Q:ROI内の画素から得られた係数量子化値の絶対値)
Q' = Q;(Q:上記以外の係数量子化値の絶対値) …(5)
[When encoding target frame is I frame]
In the third embodiment, when the encoding target frame is an I frame, after quantizing the transform coefficient transformed by the discrete wavelet transform unit 303 (step S406), whether or not the
Q "= Q * 2 B ; (Q: absolute value of coefficient quantization value obtained from pixels in ROI)
Q '= Q; (Q: absolute value of coefficient quantization value other than above) (5)
ここで、Bはサブバンド毎に与えられるものであり、注目サブバンドにおいて、各Q'はいかなるQ"よりも大きくなるように設定される。つまり、Q'の元の係数量子化値を構成するビットと、Q"の元の係数量子化値を構成するビットが、同じ桁に存在することのないように、ビットのシフトアップがなされるのである。
以上の処理により、ROIと関連する係数量子化値のみがBビット上方にシフトアップされる。
図21(a)は各サブバンドにおけるROIと非ROIを示し、図21(b)および(c)はシフトアップによる係数量子化値の変化を示す概念図である。図21(b)において、3つのサブバンドに各々3個の係数量子化値が存在しており、網がけされた係数量子化値がROIを構成している係数量子化値である。それらはシフトアップ後、図21(c)のようになる。
Here, B is given for each subband, and each Q ′ is set to be larger than any Q ″ in the target subband. That is, the original coefficient quantization value of Q ′ is configured. Therefore, the bits are shifted up so that the bits constituting the original coefficient quantized value of Q "and the bits constituting Q" do not exist in the same digit.
With the above processing, only the coefficient quantization value related to the ROI is shifted up by B bits.
FIG. 21A shows ROI and non-ROI in each subband, and FIGS. 21B and 21C are conceptual diagrams showing changes in coefficient quantization values due to shift-up. In FIG. 21B, three coefficient quantized values exist in each of the three subbands, and the coefficient quantized values that are shaded are the coefficient quantized values constituting the ROI. After shifting up, they become as shown in FIG.
ステップS507で、逆ROI部419によりROI部418でビットのシフトアップされたROI領域をシフトダウンする処理を行う。
In step S507, the
[符号化対象フレームがPフレームの場合]
符号化対象フレームがPフレームの場合、本第3の実施形態では、まずステップS514において離散ウェーブレット変換を行う。その後、ステップS515において離散ウェーブレット変換係数空間上でMC予測を行う。ここで、MC予測部310では、図22に示すようにROI係数に関係するDWT係数のみを予測対象のデータと限定する。
[When encoding target frame is P frame]
When the encoding target frame is a P frame, in the third embodiment, first, discrete wavelet transform is performed in step S514. Thereafter, MC prediction is performed on the discrete wavelet transform coefficient space in step S515. Here, the
ステップS516において予測結果を基に、前フレームと符号化対象フレームの差(差分データ)を演算する。係数量子化部305ではこの差分データの量子化を行う(ステップS417)。その後、ステップS517において、ROI部418はROIか否かに応じて、差分データの係数量子化値を上述した式(5)に基づいて変更する。
In step S516, the difference (difference data) between the previous frame and the encoding target frame is calculated based on the prediction result. The
ステップS518において、逆ROI部419によりROI部418でビットのシフトアップされたROI領域をシフトダウンする処理を行う。
In step S518, the
上記の通り本第3の実施形態では、ROIに関連する係数のみでMC予測を実施することで、Pフレームの画質低減を回避することができる。 As described above, in the third embodiment, it is possible to avoid a reduction in the image quality of the P frame by performing MC prediction using only the coefficients related to the ROI.
(その他の実施形態)
上記第1〜第3の実施形態では、離散ウェーブレット変換を対象として発明を説明したが、離散コサイン変換を適用した実施形態も本発明の範疇に入る。
(Other embodiments)
In the first to third embodiments, the invention has been described with respect to the discrete wavelet transform. However, embodiments to which the discrete cosine transform is applied are also within the scope of the present invention.
また、本発明は複数の機器(例えばホストコンピュ−タ、インタ−フェ−ス機器、リ−ダ、プリンタ等)から構成されるシステムの一部として適用しても、1つの機器(例えば複写機、デジタルカメラ等)からなる装置の一部に適用しても良い。 Further, even if the present invention is applied as part of a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), a single device (for example, a copying machine) The present invention may be applied to a part of an apparatus including a digital camera.
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。ここでプログラムコードを記憶する記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、ROM、RAM、磁気テープ、不揮発性のメモリカード、CD−ROM、CD−R、DVD、光ディスク、光磁気ディスク、MOなどが考えられる。また、LAN(ローカル・エリア・ネットワーク)やWAN(ワイド・エリア・ネットワーク)などのコンピュータネットワークを、プログラムコードを供給するために用いることができる。 Another object of the present invention is to supply a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or Needless to say, this can also be achieved by the MPU) reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included. Examples of the storage medium for storing the program code include a flexible disk, hard disk, ROM, RAM, magnetic tape, nonvolatile memory card, CD-ROM, CD-R, DVD, optical disk, magneto-optical disk, MO, and the like. Can be considered. Also, a computer network such as a LAN (Local Area Network) or a WAN (Wide Area Network) can be used to supply the program code.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.
301 フレームデータ入力部
302 タイル分割部
303 離散ウェーブレット変換部
304 バッファ
305 係数量子化部
306 エントロピー符号化部
307 タイル符号化データ生成部
308 フレーム符号化データ生成部
309 フレーム符号化データ出力部
310 動き補償(MC)予測部
311 フレームメモリ
312 逆係数量子化部
313 逆離散ウェーブレット変換部
314 減算器
315 和演算器
316 フレーム属性判定部
317 ROIタイル決定部
417 ROI決定部
418 ROI部
DESCRIPTION OF
Claims (17)
各フレームを複数の分割領域に分割する分割手段と、
フレーム内から重要領域を決定する決定手段と、
前フレームの重要領域の範囲内で、符号化対象のフレームの各分割領域毎に相関性が高い画素集合を探索し、該各分割領域のデータと、探索した画素集合のデータとの差分を取って差分データを出力するフレーム間予測手段と、
前記差分データを符号化する符号化手段と
を有することを特徴とする動画像符号化装置。 A video encoding device that encodes a video using inter-frame motion prediction,
A dividing means for dividing each frame into a plurality of divided regions;
A determination means for determining an important area from within the frame;
Within the important area of the previous frame, a pixel set having a high correlation is searched for each divided area of the encoding target frame, and the difference between the data of each divided area and the data of the searched pixel set is obtained. Inter-frame prediction means for outputting difference data by
A moving picture coding apparatus comprising: coding means for coding the difference data.
前記判別手段がフレーム内符号化するフレームであると判別した場合に、前記フレーム間予測手段による処理を行わず、前記符号化手段は、前記符号化対象のフレームの各分割領域のデータを符号化することを特徴とする請求項1または2に記載の動画像符号化装置。 A determination unit for determining whether a frame to be encoded is a frame to be intra-frame encoded or a frame to be encoded between frames;
When the determination unit determines that the frame is an intra-frame encoded frame, the encoding unit encodes the data of each divided region of the encoding target frame without performing the processing by the inter-frame prediction unit. The moving picture coding apparatus according to claim 1 or 2, wherein
各フレームを複数の分割領域に分割する分割手段と、
フレーム内から重要領域を決定する決定手段と、
各分割領域毎にデータ変換を行い、変換係数を生成する変換手段と、
前フレームの重要領域の範囲に対応する変換係数から、符号化対象のフレームの各分割領域の変換係数毎に相関性が高い変換係数を探索し、該各分割領域の変換係数と、探索した変換係数との差分を取って差分データを出力するフレーム間予測手段と、
前記差分データを符号化する符号化手段と
を有することを特徴とする動画像符号化装置。 A video encoding device that encodes a video using inter-frame motion prediction,
A dividing means for dividing each frame into a plurality of divided regions;
A determination means for determining an important area from within the frame;
A conversion means for performing data conversion for each divided region and generating a conversion coefficient;
From the transform coefficients corresponding to the range of the important area of the previous frame, a transform coefficient having a high correlation is searched for each transform coefficient of each divided area of the frame to be encoded, and the transform coefficient of each divided area and the searched transform An inter-frame prediction means for taking a difference from a coefficient and outputting difference data;
A moving picture coding apparatus comprising: coding means for coding the difference data.
前記判別手段がフレーム内符号化するフレームであると判別した場合に、前記フレーム間予測手段による処理を行わず、前記符号化手段は、前記符号化対象のフレームの各分割領域毎に変換係数を符号化することを特徴とする請求項8又は9に記載の動画像符号化装置。 A determination unit for determining whether a frame to be encoded is a frame to be intra-frame encoded or a frame to be encoded between frames;
When the determination unit determines that the frame is an intra-frame encoded frame, the encoding unit does not perform the process by the inter-frame prediction unit, and the encoding unit calculates a transform coefficient for each divided region of the encoding target frame. The moving image encoding apparatus according to claim 8 or 9, wherein encoding is performed.
各フレームを複数の分割領域に分割する分割工程と、
フレーム内から重要領域を決定する決定工程と、
前フレームの重要領域の範囲内で、符号化対象のフレームの各分割領域毎に相関性が高い画素集合を探索し、該各分割領域のデータと、探索した画素集合のデータとの差分を取って差分データを出力するフレーム間予測工程と、
前記差分データを符号化する符号化工程と
を有することを特徴とする動画像符号化方法。 A moving image encoding method for encoding a moving image using inter-frame motion prediction,
A dividing step of dividing each frame into a plurality of divided regions;
A decision process to determine important areas from within the frame;
Within the important area of the previous frame, a pixel set having a high correlation is searched for each divided area of the encoding target frame, and a difference between the data of each divided area and the searched pixel set data is obtained. Inter-frame prediction process for outputting difference data
And a coding process for coding the difference data.
各フレームを複数の分割領域に分割する分割工程と、
フレーム内から重要領域を決定する決定工程と、
各分割領域毎にデータ変換を行い、変換係数を生成する変換工程と、
前フレームの重要領域の範囲に対応する変換係数から、符号化対象のフレームの各分割領域の変換係数毎に相関性が高い変換係数を探索し、該各分割領域の変換係数と、探索した変換係数との差分を取って差分データを出力するフレーム間予測工程と、
前記差分データを符号化する符号化工程と
を有することを特徴とする動画像符号化方法。 A moving image encoding method for encoding a moving image for each frame using inter-frame motion prediction,
A dividing step of dividing each frame into a plurality of divided regions;
A decision process to determine important areas from within the frame;
A conversion step of performing data conversion for each divided area and generating a conversion coefficient;
From the transform coefficients corresponding to the range of the important area of the previous frame, a transform coefficient having a high correlation is searched for each transform coefficient of each divided area of the frame to be encoded, and the transform coefficient of each divided area and the searched transform An inter-frame prediction step of taking the difference with the coefficient and outputting the difference data;
And a coding process for coding the difference data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004190305A JP2006014086A (en) | 2004-06-28 | 2004-06-28 | Moving image encoding apparatus and moving image encoding method |
PCT/JP2005/012008 WO2006001490A1 (en) | 2004-06-28 | 2005-06-23 | Moving image encoding apparatus and moving image encoding method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004190305A JP2006014086A (en) | 2004-06-28 | 2004-06-28 | Moving image encoding apparatus and moving image encoding method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006014086A true JP2006014086A (en) | 2006-01-12 |
Family
ID=34971519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004190305A Withdrawn JP2006014086A (en) | 2004-06-28 | 2004-06-28 | Moving image encoding apparatus and moving image encoding method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2006014086A (en) |
WO (1) | WO2006001490A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014148310A1 (en) * | 2013-03-21 | 2014-09-25 | ソニー株式会社 | Device and method for encoding image, and device and method for decoding image |
JP2016048888A (en) * | 2014-08-28 | 2016-04-07 | ソニー株式会社 | Transmitter, transmission method, receiver and reception method |
JP2018078602A (en) * | 2013-04-08 | 2018-05-17 | ソニー株式会社 | Region of interest scalability in shvc |
JP2018137808A (en) * | 2018-04-26 | 2018-08-30 | ソニー株式会社 | Transmitter, transmission method, receiver and reception method |
JP2021192558A (en) * | 2020-01-16 | 2021-12-16 | ソニーグループ株式会社 | Transmitter, transmission method, receiver and reception method |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8948822B2 (en) | 2008-04-23 | 2015-02-03 | Qualcomm Incorporated | Coordinating power management functions in a multi-media device |
US8908763B2 (en) * | 2008-06-25 | 2014-12-09 | Qualcomm Incorporated | Fragmented reference in temporal compression for video coding |
US8964828B2 (en) | 2008-08-19 | 2015-02-24 | Qualcomm Incorporated | Power and computational load management techniques in video processing |
US8948270B2 (en) | 2008-08-19 | 2015-02-03 | Qualcomm Incorporated | Power and computational load management techniques in video processing |
CN103997785B (en) * | 2014-05-22 | 2017-03-01 | 无锡爱维特信息技术有限公司 | Target object motion prediction data retrieval method based on base station information window |
CN114363548B (en) * | 2022-01-10 | 2024-01-30 | 浙江齐安信息科技有限公司 | Screen video recording method and system for electronic equipment |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5946040A (en) * | 1993-03-25 | 1999-08-31 | Sony Corporation | Moving picture coding/decoding method and apparatus for decoders of various processing capability |
SG116400A1 (en) * | 1997-10-24 | 2005-11-28 | Matsushita Electric Ind Co Ltd | A method for computational graceful degradation inan audiovisual compression system. |
EP1061749B1 (en) * | 1998-01-27 | 2010-04-07 | Sharp Kabushiki Kaisha | Moving picture decoder |
US6498816B1 (en) * | 1999-09-03 | 2002-12-24 | Equator Technologies, Inc. | Circuit and method for formatting each of a series of encoded video images into respective regions |
JP3952459B2 (en) * | 2002-11-15 | 2007-08-01 | 株式会社リコー | Image processing apparatus, program, storage medium, and image processing method |
-
2004
- 2004-06-28 JP JP2004190305A patent/JP2006014086A/en not_active Withdrawn
-
2005
- 2005-06-23 WO PCT/JP2005/012008 patent/WO2006001490A1/en active Application Filing
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014148310A1 (en) * | 2013-03-21 | 2014-09-25 | ソニー株式会社 | Device and method for encoding image, and device and method for decoding image |
US12113976B2 (en) | 2013-03-21 | 2024-10-08 | Sony Corporation | Image encoding device and method and image decoding device and method |
JPWO2014148310A1 (en) * | 2013-03-21 | 2017-02-16 | ソニー株式会社 | Image encoding apparatus and method, and image decoding apparatus and method |
CN110234007A (en) * | 2013-03-21 | 2019-09-13 | 索尼公司 | Picture decoding apparatus and method |
CN110177273A (en) * | 2013-03-21 | 2019-08-27 | 索尼公司 | Picture coding device and method |
US10390024B2 (en) | 2013-04-08 | 2019-08-20 | Sony Corporation | Region of interest scalability with SHVC |
JP2018078602A (en) * | 2013-04-08 | 2018-05-17 | ソニー株式会社 | Region of interest scalability in shvc |
US10225539B2 (en) | 2014-08-28 | 2019-03-05 | Sony Corporation | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
US10791311B2 (en) | 2014-08-28 | 2020-09-29 | Sony Corporation | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
US11272149B2 (en) | 2014-08-28 | 2022-03-08 | Sony Corporation | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
JP2016048888A (en) * | 2014-08-28 | 2016-04-07 | ソニー株式会社 | Transmitter, transmission method, receiver and reception method |
JP2018137808A (en) * | 2018-04-26 | 2018-08-30 | ソニー株式会社 | Transmitter, transmission method, receiver and reception method |
JP2021192558A (en) * | 2020-01-16 | 2021-12-16 | ソニーグループ株式会社 | Transmitter, transmission method, receiver and reception method |
JP7205590B2 (en) | 2020-01-16 | 2023-01-17 | ソニーグループ株式会社 | Transmitting device, transmitting method, receiving device and receiving method |
Also Published As
Publication number | Publication date |
---|---|
WO2006001490A1 (en) | 2006-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI436287B (en) | Method and apparatus for coding image | |
WO2010001916A1 (en) | Image processing device and method | |
JP4208378B2 (en) | Image processing apparatus and method, and recording medium | |
JP2005295504A (en) | Moving image encoder, decoder, control method, computer program and computer readable memory medium | |
JP2008258994A (en) | Image processor | |
US7440624B2 (en) | Image compression apparatus, image decompression apparatus, image compression method, image decompression method, program, and recording medium | |
JP2002176553A (en) | Picture processor, its method, program, and storage medium | |
WO2012081162A1 (en) | Moving image encoding device, moving image decoding device, moving image encoding method and moving image decoding method | |
US20080089413A1 (en) | Moving Image Encoding Apparatus And Moving Image Encoding Method | |
JP2006014086A (en) | Moving image encoding apparatus and moving image encoding method | |
JP2004254300A (en) | Image processing apparatus, program and storage medium | |
JP2006115459A (en) | System and method for increasing svc compression ratio | |
US20040057514A1 (en) | Image processing apparatus and method thereof | |
JPWO2013001720A1 (en) | Image encoding device, image decoding device, image encoding method, and image decoding method | |
JP2005295505A (en) | Moving image coding apparatus, moving image decoding apparatus, control method therefor, computer program, and computer-readable storage medium | |
JP4073333B2 (en) | Image compression apparatus and image compression method | |
JP4678814B2 (en) | Image processing method and apparatus | |
WO2006046550A1 (en) | Image encoding method and device, image decoding method, and device | |
US20060056714A1 (en) | Image process device, image processing program, and recording medium | |
JP4522951B2 (en) | Moving picture encoding method and apparatus, decoding method and apparatus, moving picture processing program, and computer-readable recording medium | |
JP4054430B2 (en) | Image processing apparatus and method, and storage medium | |
JP2007005844A (en) | Coding processor, coding processing method, program and information recording medium | |
JP4111909B2 (en) | Image processing apparatus, image processing program, and storage medium | |
JP2004214740A (en) | Moving picture encoder | |
JP2006295561A (en) | Coding processing apparatus, coding processing method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070904 |