[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2003230147A - Apparatus and method for coding image signal - Google Patents

Apparatus and method for coding image signal

Info

Publication number
JP2003230147A
JP2003230147A JP2002025609A JP2002025609A JP2003230147A JP 2003230147 A JP2003230147 A JP 2003230147A JP 2002025609 A JP2002025609 A JP 2002025609A JP 2002025609 A JP2002025609 A JP 2002025609A JP 2003230147 A JP2003230147 A JP 2003230147A
Authority
JP
Japan
Prior art keywords
edge
information
video data
level
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002025609A
Other languages
Japanese (ja)
Inventor
Yasuhiko Yamane
靖彦 山根
Toshihiro Tanaka
俊啓 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002025609A priority Critical patent/JP2003230147A/en
Publication of JP2003230147A publication Critical patent/JP2003230147A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and a method for coding image data in which deteriorations of colors of an edge and a macro block including an edge of an image are suppressed. <P>SOLUTION: In the coding apparatus (EN) for compression-coding an image signal (Dv) to be input, an edge detector (1006) detects the edge at each frame of the image signal (Dc) to generate edge information (Ie) representing a strength of the edge. An edge class information generator (1007) generates edge class information (Iec) representing an importance of the macro block (MB) based on the edge information (Ie). An amount-of-quantization deciding unit (1008) reduces a quantizing step (VQc) for the macro block (MB) having a high importance based on the edge class information (Iec) and increases the step (VQc) for the macro block (MB) having a low importance. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は動画像を表す映像信
号の高能率符号化方法に関するもので、特に光ディスク
およびハードディスク等の蓄積形メディアに適した符号
化方法に関し、さらに詳述すれば、輝度レベルでのエッ
ジ情報および色差レベルのエッジ情報に基づいて生成さ
れるエッジクラス情報に基づいて各マクロブロックの量
子化器の制御を行う符号化方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-efficiency coding method for video signals representing moving images, and more particularly to a coding method suitable for storage media such as optical disks and hard disks. The present invention relates to a coding method for controlling a quantizer of each macroblock based on edge class information generated based on edge information at a level and edge information at a color difference level.

【0002】[0002]

【従来の技術】近年、一般家庭においても、パーソナル
コンピュータ等を利用して、映像データを蓄積して保有
する要求が高まっている。しかしながら、映像データは
従来のデジタルデータに比べて非常にサイズが大きいた
めに、その蓄積には膨大な記憶容量を有するデータ蓄積
器が必要である。また、近年データ蓄積器の大容量化が
進んでいるが、蓄積すべき映像データの個々のサイズに
比べると、その蓄積容量はまだまだ不十分である。ま
た、データ蓄積器の大容量化が飛躍的に進行した場合で
も、データ蓄積器およびその蓄積媒体は高価であるの
で、従来のビデオテープのように気楽に使う訳にはいか
ない。
2. Description of the Related Art In recent years, there has been an increasing demand for storing and storing video data in personal homes using personal computers. However, since video data is much larger than conventional digital data, a data accumulator having an enormous storage capacity is required for its storage. In addition, the capacity of the data storage device has been increasing in recent years, but the storage capacity is still insufficient as compared with the size of each video data to be stored. Further, even when the capacity of the data storage device is drastically increased, the data storage device and its storage medium are expensive, so that it cannot be used as easily as a conventional video tape.

【0003】さらに、パーソナルコンピュータにおいて
は、データ蓄積器および蓄積媒体には映像データ以外の
デジタルデータも記憶される。よって、データ蓄積器お
よび蓄積媒体が安価になった場合においても、やはり、
映像データも他のデジタルデータと同様に効率的に圧縮
して蓄積する技術が極めて重要である。映像データの圧
縮技術としては、一般にMPEGが使用されている。ま
た、MPEGにおいても、圧縮データがユーザに提供さ
れる形態に応じて、固定レート符号化および可変レート
符号化が使い分けられている。
Further, in the personal computer, digital data other than video data is also stored in the data storage and storage medium. Therefore, even when the data storage device and storage medium become cheaper,
A technology for efficiently compressing and storing video data as well as other digital data is extremely important. MPEG is generally used as a video data compression technique. Also in MPEG, fixed rate coding and variable rate coding are selectively used according to the form in which compressed data is provided to the user.

【0004】例えば、一般的な伝送路を経由して配信さ
れる場合は、固定レート符号化が一般的に採用される。
一方、DVD等の蓄積容量に制約のあるパッケージメデ
ィアに蓄積されて提供される場合は、シーンに応じて符
号化レートを可変にする可変レート符号化が採用され
る。可変レート符号化は、映像には一般に情報量を多く
含むシーンと情報量を多く含まないシーンがあるという
性質を効果的に利用している。
For example, when data is distributed via a general transmission line, fixed rate coding is generally adopted.
On the other hand, in the case of being provided by being stored in a package medium such as a DVD having a limited storage capacity, variable rate coding that makes the coding rate variable according to the scene is adopted. Variable rate coding effectively utilizes the property that a video generally includes a large amount of information and a non-information-rich scene.

【0005】以下に、図15、図16、図17、図1
8、および図19を参照して、従来より使用されている
MPEG符号化装置およびその映像符号化方法について
説明する。図17に、従来より一般的に用いられる、動
き補償DCT方式を用いてデータを圧縮するMPEG映
像符号化装置(以下、「符号化装置」と略称)の構成を
示す。なお、動き補償DCT方式とは、入力映像データ
の内で、周期的に選択された1フレームをそのフレーム
内のデータのみを用いて圧縮(フレーム内圧縮)し、残
りのフレームに関しては前のフレームとの差分を圧縮
(フレーム間圧縮)して伝送する方法である。
Below, FIG. 15, FIG. 16, FIG. 17, and FIG.
A conventional MPEG encoding device and a video encoding method thereof will be described with reference to FIGS. FIG. 17 shows the configuration of an MPEG video encoding device (hereinafter, abbreviated as “encoding device”) that compresses data using a motion-compensated DCT method, which is generally used in the past. The motion-compensated DCT method compresses one frame selected periodically in the input video data by using only the data in the frame (intra-frame compression), and the remaining frames are processed in the previous frame. This is a method of compressing (compressing between frames) the difference between and and transmitting.

【0006】フレーム内圧縮およびフレーム間圧縮に
は、典型的には、直交基底変換の1種である離散コサイ
ン変換が使用される。また、フレーム間の差分を計算す
る際に、前フレームとの間で映像の動きベクトルを検出
し、動きを合わせてから差分を取ることにより圧縮率を
大幅に向上させている。
For the intra-frame compression and the inter-frame compression, a discrete cosine transform, which is a kind of orthogonal basis transform, is typically used. In addition, when calculating the difference between frames, the motion vector of the video with respect to the previous frame is detected, and the difference is calculated after matching the motions, thereby significantly improving the compression rate.

【0007】図17に示すように、符号化装置ENc
は、入力端子1800、リオーダ器1801、セレクタ
1802、第1符号化器1803、符号発生量記録器1
804、目標符号量算出器1805、第2符号化器18
08、および出力端子1809を含む。なお、符号化装
置ENcの全体の動作は、ユーザの符号化指示に基づい
て、入力される映像データDvの種類、符号化対象部
分、および符号化方法等の符号化情報およびスキームを
決定する符号化制御器(図示せず)によって、制御され
る。そして、符号化装置ENcの個々の構成要素は、符
号化制御器によって決定され且つ制御される動作を実行
するために、以下に述べる処理を行う。
As shown in FIG. 17, an encoder ENc is used.
Is an input terminal 1800, a reorder unit 1801, a selector 1802, a first encoder 1803, a code generation amount recorder 1
804, target code amount calculator 1805, second encoder 18
08, and an output terminal 1809. Note that the overall operation of the encoding device ENc is a code that determines encoding information such as the type of input video data Dv, an encoding target portion, and an encoding method based on an encoding instruction from the user. It is controlled by an activation controller (not shown). Then, the individual components of the encoding device ENc perform the processing described below in order to execute the operation determined and controlled by the encoding controller.

【0008】第2符号化器1808は、映像データDv
を符号化して、蓄積器あるいは蓄積媒体に実際に蓄積さ
れる符号化映像データDencを生成するために設けら
れている。一方、第1符号化器1803、符号発生量記
録器1804、および目標符号量算出器1805は、第
2符号化器1808が映像データDvを効率良く符号化
できるように、第2符号化器1808における映像デー
タDvの符号化が実行される前に、映像データDvの目
標符号量を決定するために設けられている。この決定さ
れた目標符号量に基づいて、第2符号化器1808は映
像データDvを実際に符号化して、符号化データDen
cを生成する。
The second encoder 1808 outputs the video data Dv
Is provided to encode encoded video data Denc that is actually stored in the storage device or storage medium. On the other hand, the first encoder 1803, the code generation amount recorder 1804, and the target code amount calculator 1805 include the second encoder 1808 so that the second encoder 1808 can efficiently encode the video data Dv. It is provided to determine the target code amount of the video data Dv before the video data Dv is encoded. The second encoder 1808 actually encodes the video data Dv on the basis of the determined target code amount to obtain the encoded data Den.
produces c.

【0009】入力端子1800を経由して、外部に設け
られた映像データ源(図示せず)から映像データDvが
リオーダ器1801に入力される。リオーダ器1801
は、映像データDvの表示順に入力された映像を符号化
順に並び替えて、符号化順映像データDcを生成する。
なお、映像の順番の観点から、映像データDvを表示順
映像データDvとも称する。
Video data Dv is input to the reorder unit 1801 from an external video data source (not shown) via the input terminal 1800. Reorder device 1801
Generates the coding order video data Dc by rearranging the videos input in the display order of the video data Dv in the coding order.
From the viewpoint of the order of images, the image data Dv is also referred to as display order image data Dv.

【0010】図15に、映像データDvに表示順に配置
された映像を符号化順に並び替えて、符号化順映像デー
タDcを生成する様子を示す。同図において、“I”は
フレーム内符号化するイントラ・ピクチャ・フレーム
(以降、「Iピクチャ」と称す)、“P”は前方向予測
符号化するプレディクティブ・ピクチャ・フレーム(以
降、「Pピクチャ」と称す)、“B”は前後より予測符
号化するバイディレクショナリィ・プレディクティブ・
ピクチャ・フレーム(以降、「Bピクチャ」と称す)を
示す。本例においては、表示順映像データDvは表示順
OvwにフレームI0、B1、B2、P3、B4、B
5、およびP6を含む。なお、フレームP6以降は、簡
便化のために省略している。符号化順映像データDcに
おいて、映像はI0、P3、B1、B2、P6、B4、
およびB5との符号化順Oenに配置されている。
FIG. 15 shows a state in which the videos arranged in the video data Dv in the display order are rearranged in the coding order to generate the coding order video data Dc. In the figure, “I” is an intra picture frame (hereinafter referred to as “I picture”) to be intra-frame coded, and “P” is a predictive picture frame to be forward predictive coded (hereinafter “P picture”). ")," B "is a bidirectional predictive coding that predictively codes from the front and back.
A picture frame (hereinafter referred to as "B picture") is shown. In this example, the display order video data Dv is displayed in the display order Ovw in the frames I0, B1, B2, P3, B4, B.
5 and P6. The frame P6 and the subsequent frames are omitted for simplification. In the encoding order video data Dc, the video is I0, P3, B1, B2, P6, B4,
And B5 are arranged in the encoding order Oen.

【0011】図17に戻って、セレクタ1802は、第
2符号化器1808による符号化順映像データDcの符
号化および符号化データDenc生成に先立って、先ず
目標符号量を算出するために、リオーダ器1801から
入力される符号化順映像データDcを第1符号化器18
03に出力する。この符号化順映像データDcに基づい
て、第1符号化器1803、符号発生量記録器180
4、および目標符号量算出器1805による処理の結
果、目標符号量が決定される。次に、第2符号化器18
08によって算出された目標符号量に基づいて符号化す
るように、セレクタ1802は、符号化順映像データD
cを第2符号化器1808に出力する。なお、第2符号
化器1808による符号化順映像データDcの符号化
は、ユーザの指示する符号化を完了するまで何度でも繰
り返し行われる。
Returning to FIG. 17, the selector 1802 reorders the target encoder in order to calculate the target code amount before the second encoder 1808 encodes the encoded video data Dc and generates the encoded data Denc. The encoding order video data Dc input from the encoder 1801 is converted into the first encoder 18
Output to 03. The first encoder 1803 and the code generation amount recorder 180 are based on the encoded video data Dc.
4, and as a result of the processing by the target code amount calculator 1805, the target code amount is determined. Next, the second encoder 18
In order to perform encoding based on the target code amount calculated by 08, the selector 1802 determines that the encoding order video data D
c is output to the second encoder 1808. Note that the encoding of the encoding-order video data Dc by the second encoder 1808 is repeatedly performed until the encoding instructed by the user is completed.

【0012】つまり、セレクタ1802は、上述の符号
化制御器から供給されるパス切り替え信号Swに基づい
て、1回目の符号化と第2回目以降の符号化処理の際に
符号化順映像データDcの出力先を切り替える。なお、
説明の便宜上、1回目の符号化時に第1符号化器180
3に出力される符号化順映像データDcを1回目符号化
映像データDc1と称し、2回目以降の符号化時に第2
符号化器1808に出力される符号化順映像データDc
を第1の2回目以降符号化映像データDc2と称して、
それぞれを識別するものとする。
That is, the selector 1802, based on the path switching signal Sw supplied from the above-mentioned encoding controller, performs the encoding sequence video data Dc during the first encoding and the second and subsequent encoding processes. Switch the output destination of. In addition,
For convenience of explanation, the first encoder 180 is used in the first encoding.
The encoded sequence video data Dc output to 3 is referred to as first-time encoded video data Dc1 and is referred to as the second encoded data after the second encoding.
Encoding order video data Dc output to the encoder 1808
Is referred to as encoded video data Dc2 from the first second time onward,
Each shall be identified.

【0013】先ず、1回目の符号化時には、入力映像
(1回目符号化映像データDc1)は第1符号化器18
03で符号化されて、第1の符号化映像データDc1e
が生成される。符号発生量記録器1804は、第1符号
化器1803から入力される第1の符号化映像データD
c1eに基づいて、符号化により発生した発生符号量D
1を検出して、フレーム(F)単位あるいはマクロブロ
ック(MB)単位に記録すると共に、検出した発生符号
量D1を目標符号量算出器1805に通知する。
First, at the time of the first encoding, the input image (first-time encoded image data Dc1) is processed by the first encoder 18
The first encoded video data Dc1e encoded by
Is generated. The code generation amount recorder 1804 receives the first encoded video data D input from the first encoder 1803.
Generated code amount D generated by encoding based on c1e
1 is detected and recorded in frame (F) units or macroblock (MB) units, and the detected generated code amount D1 is notified to the target code amount calculator 1805.

【0014】目標符号量算出器1805では、符号発生
量記録器1804から通知された発生符号量D1に基づ
いて、各フレームの発生符号量D1(F)およびシーン
全体の発生符号量D1(S)より、各フレームの目標符
号量DTを算出して、第2符号化器1808に通知す
る。
In the target code amount calculator 1805, based on the generated code amount D1 notified from the code generation amount recorder 1804, the generated code amount D1 (F) of each frame and the generated code amount D1 (S) of the entire scene. Then, the target code amount DT of each frame is calculated and notified to the second encoder 1808.

【0015】図16において、実線Ld1は第1符号化
器1803における各フレームの発生符号量の変動を示
し、実線Ldtは各フレームの目標符号量DT(t)の
変動の様子を示す。なお、横軸はフレームtを表し、縦
軸のD1(t)はフレーム毎の発生符号量を表し、DT
(t)はフレームの目標符号量DT(t)を表す。総発
生符号量はΣD1(t)で表され、各フレームにおける
目標符号量DTの総量である目標総符号量はΣDT
(t)で表される。
In FIG. 16, the solid line Ld1 shows the variation of the generated code amount of each frame in the first encoder 1803, and the solid line Ldt shows the variation of the target code amount DT (t) of each frame. The horizontal axis represents the frame t, the vertical axis D1 (t) represents the generated code amount for each frame, and DT
(T) represents the target code amount DT (t) of the frame. The total generated code amount is represented by ΣD1 (t), and the target total code amount, which is the total amount of the target code amount DT in each frame, is ΣDT.
It is represented by (t).

【0016】目標符号量算出器1805は、目標総符号
量ΣDT(t)、t番目のフレームの発生符号量D1
(t)、および総発生符号量ΣD1(t)に基づいて、
次式1を用いて、各フレームの目標符号量DT(t)を
算出する。 DT(t)=D1(t)*(ΣDT(t)/ΣDT1(t)) ・・・(式1)
The target code amount calculator 1805 calculates the target total code amount ΣDT (t) and the generated code amount D1 of the t-th frame.
(T) and the total generated code amount ΣD1 (t),
The target code amount DT (t) of each frame is calculated using the following Expression 1. DT (t) = D1 (t) * (ΣDT (t) / ΣDT1 (t)) (Equation 1)

【0017】第2符号化器1808は、目標符号量算出
器1805から通知されるこのフレーム毎の目標符号量
DT(t)に基づいて、第1の2回目以降符号化映像デ
ータDc2に対して2回目以降の符号化を行う。このよ
うに、1回目の符号化が終わり、各フレームの目標符号
量DT(t)を算出した後に、2回目以降の符号化を行
われる。
The second encoder 1808, based on the target code amount DT (t) for each frame notified from the target code amount calculator 1805, for the first and subsequent encoded video data Dc2. The second and subsequent encodings are performed. In this way, after the first encoding is completed and the target code amount DT (t) of each frame is calculated, the second and subsequent encodings are performed.

【0018】2回目以降の符号化では、セレクタ180
2が符号化順映像データDcを第2符号化器1808に
出力することによって、第2符号化器1808に第1の
2回目以降符号化映像データDc2を符号化させる。第
2符号化器1808では、目標符号量算出器1805で
算出された各フレームの目標符号量DT(t)になるよ
うに符号化を行い、符号化データDencを生成する。
In the second and subsequent encodings, the selector 180
2 outputs the encoded video data Dc to the second encoder 1808, which causes the second encoder 1808 to encode the encoded video data Dc2 for the first and subsequent times. The second encoder 1808 performs encoding so that the target code amount DT (t) of each frame calculated by the target code amount calculator 1805 is obtained, and the encoded data Denc is generated.

【0019】次に、図18に、第1符号化器1803の
構成を示す。第1符号化器1803は、入力端子190
0、減算器1901、離散コサイン変換(DCT)器1
902、量子化器1903、可変長符号化(VLC)器
1904、逆量子化器1905、逆DCT(IDCT)
器1906、加算器1907、リフレッシュ制御器19
08、リフレッシュスイッチ1909、リフレッシュス
イッチ1910、フレームメモリ1911、動き補償器
1912、出力端子1913、および動き検出器191
4を含む。
Next, FIG. 18 shows the configuration of the first encoder 1803. The first encoder 1803 has an input terminal 190.
0, subtractor 1901, discrete cosine transform (DCT) device 1
902, quantizer 1903, variable length coding (VLC) device 1904, inverse quantizer 1905, inverse DCT (IDCT)
1906, adder 1907, refresh controller 19
08, refresh switch 1909, refresh switch 1910, frame memory 1911, motion compensator 1912, output terminal 1913, and motion detector 191.
Including 4.

【0020】入力端子1900は、セレクタ1802に
接続されて、1回目符号化映像データDc1が入力され
る。減算器1901は、一方の入力ポートが入力端子1
900に接続され、もう一方の入力ポートはリフレッシ
ュスイッチ1909、リフレッシュスイッチ1910、
動き補償器1912、フレームメモリ1911、加算器
1907、逆DCT器1906、逆量子化器1905、
量子化器1903、および離散コサイン変換器1902
を経由して、自身の出力ポートに接続されて、現フレー
ムの1回目符号化映像データDc1tと、後述する種々
の処理の結果復元される所定フレーム数(d)前の第1
の動き補償化映像データαとの差分である1回目符号化
映像差分△Dc1を算出する。
The input terminal 1900 is connected to the selector 1802 and receives the first-time encoded video data Dc1. One of the input ports of the subtractor 1901 has an input terminal 1
900, and the other input port is refresh switch 1909, refresh switch 1910,
Motion compensator 1912, frame memory 1911, adder 1907, inverse DCT unit 1906, inverse quantizer 1905,
Quantizer 1903 and discrete cosine transformer 1902
Connected to its own output port via the first encoded video data Dc1t of the current frame and the first frame before the predetermined number of frames (d) restored as a result of various processes described later.
The first-time encoded video difference ΔDc1 that is the difference from the motion-compensated video data α of is calculated.

【0021】なお、後ほど詳述するように、第1の動き
補償化映像データαには、第1の遅延フレーム内映像デ
ータDc1rdの動き補償をして生成されたものと、第
1の遅延フレーム間映像データ(△Dc1r+α)dの
動き補償をして生成されたものとが含まれる。しかしな
がら、1回目符号化映像差分△Dc1は、1回目符号化
映像データDc1と第1の遅延フレーム間映像データ
(△Dc1r+α)dの動き補償された第1の動き補償
化映像データαのみとの減算で求められる。
As will be described later in detail, the first motion-compensated video data α is generated by motion-compensating the video data Dc1rd in the first delay frame, and the first delay frame. And the data generated by motion compensation of the inter-picture data (ΔDc1r + α) d. However, the first-time encoded video difference ΔDc1 includes only the first-time encoded video data Dc1 and the first motion-compensated video data α of the first delayed inter-frame video data (ΔDc1r + α) d. Calculated by subtraction.

【0022】リフレッシュ制御器1908は、1回目符
号化映像データDc1の処理されるべきピクチャのタイ
プに応じて、リフレッシュスイッチ1909およびリフ
レッシュスイッチ1910のオンおよびオフを制御す
る。すなわち、リフレッシュ制御器1908は、処理さ
れるべきピクチャがIピクチャである場合には、フレー
ム内圧縮をするために、リフレッシュスイッチ1909
および1910をオフにすることによって、減算器19
01による1回目符号化映像差分△Dc1を生成しな
い。なお、リフレッシュ制御器1908の動作について
は、後ほど主に逆DCT器1906、加算器1907、
およびフレームメモリ1911間の動作との関係におい
て詳述する。
The refresh controller 1908 controls on / off of the refresh switch 1909 and the refresh switch 1910 according to the type of picture of the first-coded video data Dc1 to be processed. That is, when the picture to be processed is an I picture, the refresh controller 1908 refreshes the refresh switch 1909 to perform intraframe compression.
And 1910 by turning off subtractor 19
The first encoded video difference ΔDc1 of 01 is not generated. Regarding the operation of the refresh controller 1908, an inverse DCT unit 1906, an adder 1907, an
The relationship between the frame memory 1911 and the operation between the frame memories 1911 will be described in detail.

【0023】上述のように、入力端子1900より入力
された1回目符号化映像データDc1は、減算器190
1による減算処理を受けることなく離散コサイン変換器
1902に出力される場合と、減算器1901で減算処
理を受けて生成される1回目符号化映像差分△Dc1が
出力される場合がある。これら1回目符号化映像データ
Dc1あるいは1回目符号化映像差分△Dc1は、離散
コサイン変換器(DCT)1902によって離散コサイ
ン変換される。離散コサイン変換は2次元で行われる。
縦8ピクセル、横8ピクセルで規定されるブロック(以
降、「8×8」ブロックと略称)毎に離散コサイン変換
を行い、その変換の結果として8×8=64個の係数が
得られる。なお、これら64個の係数を第1の係数K1
と総称する。離散コサイン変換されたデータは、本来は
連続量であるが、デジタル回路を用いて演算しているた
めに、第1の係数K1を構成する64個の各係数は、所
定のビット幅のデジタル値として得られる。
As described above, the first-time encoded video data Dc1 input from the input terminal 1900 is subtracted from the subtracter 190.
It may be output to the discrete cosine converter 1902 without being subjected to the subtraction processing by 1, or the first-time encoded video difference ΔDc1 generated by the subtraction processing by the subtractor 1901 may be output. The first-coded video data Dc1 or the first-coded video difference ΔDc1 is discrete cosine transformed by a discrete cosine transformer (DCT) 1902. The discrete cosine transform is performed in two dimensions.
Discrete cosine transform is performed for each block defined by 8 pixels in the vertical direction and 8 pixels in the horizontal direction (hereinafter, abbreviated as “8 × 8” block), and 8 × 8 = 64 coefficients are obtained as a result of the transform. In addition, these 64 coefficients are converted into the first coefficient K1.
Collectively. The discrete cosine transformed data is originally a continuous quantity, but since it is calculated using a digital circuit, each of the 64 coefficients forming the first coefficient K1 has a digital value of a predetermined bit width. Obtained as.

【0024】このデータ(第1の係数K1)は、量子化
器1903によって、各周波数成分毎に最適に量子化さ
れる。通常、低域成分は、映像を構成する重要であるの
で、量子化ステップを細かくする。そして、高域成分
は、映像を構成するのにさほど重要ではないために、量
子化ステップを粗くする。なお、この時点では、量子化
器の制御は行わず、外部から設定された固定の量子化Q
Sで量子化されて、被量子化第1の係数K1Qが生成さ
れる。一般に、固定量子化QSを使用することで、各フ
レームにおいて、量子化誤差は同程度になるため、各フ
レームは同程度の画質になる。この時の各フレームの発
生符号量(AD1e)の差(△AD1e)が、いわゆる
圧縮の難易度と定義できる。
This data (first coefficient K1) is optimally quantized by the quantizer 1903 for each frequency component. Usually, the low-frequency component is important for forming an image, so the quantization step is made fine. Then, the high-frequency components are not so important in composing the image, so that the quantization step is roughened. At this point, the quantizer is not controlled and a fixed quantization Q set from the outside is set.
Quantization with S produces a quantized first coefficient K1Q. Generally, by using the fixed quantization QS, the quantization error becomes approximately the same in each frame, so that the image quality becomes the same in each frame. The difference (ΔAD1e) in the generated code amount (AD1e) of each frame at this time can be defined as the so-called compression difficulty.

【0025】つまり、固定量子化QSで符号化した際、
発生符号量(AD1e)の大きいフレーム程、圧縮難易
度が高いと言る。可変長符号化器1904は、量子化器
1903から出力される被量子化第1の係数K1Qを可
変長符号化して、第1の符号化映像データDc1eを生
成する。可変長符号化とは、統計的に出現確率がより高
いデータにより短い符号長を割り当てる手法である。こ
の手法により、データの持つ統計的な冗長成分が除去さ
れる。
That is, when encoding with fixed quantization QS,
It is said that the larger the generated code amount (AD1e), the higher the degree of compression difficulty. The variable length encoder 1904 variable length encodes the quantized first coefficient K1Q output from the quantizer 1903 to generate first encoded video data Dc1e. Variable length coding is a method of assigning a shorter code length to data having a statistically higher occurrence probability. By this method, the statistically redundant component of the data is removed.

【0026】量子化器1903から出力される被量子化
第1の係数K1Qは、一方、逆量子化器1905により
量子化が元に戻される。つまり、 逆量子化器1905
は、量子化時とは逆に、各周波数成分の振幅をもとの振
幅に戻すことによって、第1の係数K1を復元する。し
かしながら、量子化器1903による量子化時のノイズ
等の不確定要素のために、逆量子化器1905は第1の
係数K1を完全に復元することはできない。つまり、逆
量子化器1905は、第1の係数K1と概ね同一の第1
の係数K1rを生成(復元)する。なお、この第1の係
数K1rを復元第1の係数K1rと称して、第1の係数
K1と識別する。
On the other hand, the quantized first coefficient K1Q output from the quantizer 1903 is dequantized by the inverse quantizer 1905. That is, the inverse quantizer 1905
In contrast to the quantization, the first coefficient K1 is restored by returning the amplitude of each frequency component to the original amplitude. However, the inverse quantizer 1905 cannot completely restore the first coefficient K1 due to uncertain factors such as noise during quantization by the quantizer 1903. That is, the inverse quantizer 1905 has a first coefficient K1 that is substantially the same as the first coefficient K1.
The coefficient K1r of is generated (restored). The first coefficient K1r is referred to as a restored first coefficient K1r and is discriminated from the first coefficient K1.

【0027】逆DCT器1906は、逆量子化器190
5により出力される復元第1の係数K1rに、さらに逆
離散コサイン変換(IDCT)処理を施して、元の映像
データである1回目符号化映像データDc1あるいは1
回目符号化映像差分△Dc1と概ね同一の1回目符号化
映像データDc1rあるいは1回目符号化映像差分△D
c1rを生成する。これら1回目符号化映像データDc
1rおよび1回目符号化映像差分△Dc1rをそれぞれ
復元1回目符号化映像データDc1rおよび復元1回目
符号化映像差分△Dc1rと称する。
The inverse DCT device 1906 is an inverse quantizer 190.
Inverse discrete cosine transform (IDCT) processing is further applied to the restored first coefficient K1r output by No. 5, and the first encoded video data Dc1 or 1 which is the original video data.
The first-coded video data Dc1r or the first-coded video difference ΔD that is almost the same as the first-coded video difference ΔDc1
Generate c1r. These first encoded video data Dc
The 1r and first encoded video difference ΔDc1r are referred to as the restored first encoded video data Dc1r and the restored first encoded video difference ΔDc1r, respectively.

【0028】逆DCT器1906からの出力が復元1回
目符号化映像データDc1r、つまりフレーム内映像デ
ータである場合は、上述のように、リフレッシュ制御器
1908はリフレッシュスイッチ1910をオフにして
加算器1907による加算処理を実行させない。一方、
逆DCT器1906からの出力が復元1回目符号化映像
差分△Dc1r、つまりフレーム間映像データである場
合は、リフレッシュ制御器1908はリフレッシュスイ
ッチ1910をオンにして、加算器1907による第1
の動き補償化映像データαの加算処理を実行させる。よ
って、加算器1907からは、復元1回目符号化映像デ
ータDc1rあるいは復元1回目符号化映像データDc
1r+第1の動き補償化映像データαの何れか出力され
る。以降、復元1回目符号化映像差分△Dc1r+第1
の動き補償化映像データαを第1のリフレッシュデータ
(△Dc1r+α)と称する。
When the output from the inverse DCT unit 1906 is the restored first encoded video data Dc1r, that is, the intra-frame video data, the refresh controller 1908 turns off the refresh switch 1910 and the adder 1907 as described above. Do not execute the addition process. on the other hand,
When the output from the inverse DCT unit 1906 is the restored first encoded video difference ΔDc1r, that is, the inter-frame video data, the refresh controller 1908 turns on the refresh switch 1910, and the adder 1907 outputs the first
The addition processing of the motion-compensated video data α is executed. Therefore, the adder 1907 outputs the restored first-time encoded video data Dc1r or the restored first-time encoded video data Dc.
Either 1r + first motion-compensated video data α is output. After that, the restored first encoded video difference ΔDc1r + first
The motion-compensated video data α is referred to as first refresh data (ΔDc1r + α).

【0029】その後、フレームメモリ1911は、復元
された映像データ(復元1回目符号化映像データDc1
rあるいは或い第1のリフレッシュデータ(△Dc1r
+α))を所定数(d)のフレーム分だけ遅延されてフ
レーム遅延映像データを生成する。つまり、フレームメ
モリ1911は、復元1回目符号化映像データDc1r
をdフレーム分だけ遅延させて第1の遅延フレーム内映
像データDc1rdを生成すると共に、第1のリフレッ
シュデータ(△Dc1r+α)をdフレーム分だけ遅延
させて第1の遅延フレーム間映像データ(△Dc1r+
α)dを生成する。
After that, the frame memory 1911 stores the restored video data (the restored first-time encoded video data Dc1).
r or some other first refresh data (ΔDc1r
+ Α)) is delayed by a predetermined number (d) of frames to generate frame-delayed video data. That is, the frame memory 1911 stores the restored first encoded video data Dc1r.
Is delayed by d frames to generate the first delayed frame video data Dc1rd, and the first refresh data (ΔDc1r + α) is delayed by d frames to generate the first delayed interframe video data (ΔDc1r +
α) d is generated.

【0030】動き検出器1914は、入力端子1900
から入力される1回目符号化映像データDc1に基づい
て、映像のフレーム間の動きベクトルを求めて動き量A
mを検出する。
The motion detector 1914 has an input terminal 1900.
On the basis of the first-time encoded video data Dc1 input from A
Detect m.

【0031】動き補償器1912は、動き検出器191
4で検出された動き量Amに基づいて、フレームメモリ
1911から出力される第1の遅延フレーム内映像デー
タDc1rdあるいは、第1の遅延フレーム間映像デー
タ(△Dc1r+α)dの表す映像の位置を現時点の1
回目符号化映像データDc1の表す映像の位置と同一に
なるように動き補償した、第1の動き補償化映像データ
αを生成する。
The motion compensator 1912 is a motion detector 191.
Based on the motion amount Am detected in step 4, the position of the image represented by the first delayed frame image data Dc1rd or the first delayed interframe image data (ΔDc1r + α) d output from the frame memory 1911 is currently determined. Of 1
First motion-compensated video data α is generated, which is motion-compensated so as to have the same position as the video represented by the second-time encoded video data Dc1.

【0032】この第1の動き補償化映像データαは、減
算器1901に出力されると、次の映像データ(1回目
符号化映像データDc1)との差分(△Dc1)を計算
するのに使われる。しかしながら、第1の遅延フレーム
内映像データDc1rdを動き補償して生成した第1の
動き補償化映像データαは、実質的に現在の1回目符号
化映像データDc1と同一であるので、減算器1901
で1回目符号化映像差分△Dc1の生成に用いることは
無意味である。
When this first motion-compensated video data α is output to the subtractor 1901, it is used to calculate the difference (ΔDc1) from the next video data (first-time encoded video data Dc1). Be seen. However, since the first motion-compensated video data α generated by motion-compensating the first delayed intra-frame video data Dc1rd is substantially the same as the current first-time encoded video data Dc1, the subtractor 1901 is used.
Therefore, it is meaningless to use it to generate the first encoded video difference ΔDc1.

【0033】つまり、Iピクチャに続く何フレームかの
映像データ(1回目符号化映像データDc1)が、前フ
レームの映像データとの差分(△Dc1)を圧縮するた
めに使用される。そのために、第1の遅延フレーム内映
像データDc1rdを動き補償して生成された動き補償
化映像データが減算器1901による1回目符号化映像
差分△Dc1生成に用いられないようにようにする必要
がある。
That is, the video data of several frames following the I picture (first-time encoded video data Dc1) is used to compress the difference (ΔDc1) from the video data of the previous frame. Therefore, it is necessary to prevent the motion-compensated video data generated by motion-compensating the video data Dc1rd in the first delayed frame from being used for the first-time encoded video difference ΔDc1 generation by the subtractor 1901. is there.

【0034】よって、リフレッシュ制御器1908は、
処理されるべきピクチャがPピクチャまたはBピクチャ
である場合には、リフレッシュスイッチ1909および
1910をオンにして、加算器1907から復元1回目
符号化映像データDc1rではなく、第1のリフレッシ
ュデータ(△Dc1r+α)をフレームメモリ1911
に出力させ、フレームメモリ1911からは第1の遅延
フレーム間映像データ(△Dc1r+α)dを動き補償
器1912に出力させ、動き補償器1912からは第1
の遅延フレーム間映像データ(△Dc1r+α)dの動
き補償した第1の動き補償化映像データαを加算器19
07と減算器1901に出力させることによって、フレ
ーム間圧縮を実行させる。
Therefore, the refresh controller 1908 is
If the picture to be processed is a P picture or a B picture, the refresh switches 1909 and 1910 are turned on to restore the first refresh data (ΔDc1r + α) from the adder 1907, not the first encoded video data Dc1r. ) Is the frame memory 1911
The frame memory 1911 outputs the first delayed interframe video data (ΔDc1r + α) d to the motion compensator 1912, and the motion compensator 1912 outputs the first delayed interframe video data (ΔDc1r + α) d to the motion compensator 1912.
Of the delayed inter-frame video data (ΔDc1r + α) d of the first motion-compensated video data α of the adder 19
07 and the subtractor 1901 to output the inter-frame compression.

【0035】リフレッシュスイッチ1909は、フレー
ム間の差分を計算する時にオンにされて、減算器190
1を動作させるのに使われる。リフレッシュスイッチ1
910は、リフレッシュスイッチ1909と同一の周期
でオンおよびオフを繰り返す。リフレッシュスイッチ1
910がオンの時は、加算器1907が動作して、フレ
ーム間差分データ(復元1回目符号化映像差分△Dc1
r)と前フレームデータ(第1の動き補償化映像データ
α1)を加算して、フレーム(第1のリフレッシュデー
タ(△Dc1r+α))を復元するのに使われる。可変
長符号化器1904は、フレーム間圧縮データ(被量子
化第1の係数K1Q;1回目符号化映像差分△Dc1)
に対しても可変長符号化を行う。
The refresh switch 1909 is turned on when calculating the difference between frames, and the subtractor 190
Used to run 1. Refresh switch 1
The refresh switch 910 repeatedly turns on and off in the same cycle as the refresh switch 1909. Refresh switch 1
When 910 is on, the adder 1907 operates to operate the inter-frame difference data (restoration first-time encoded video difference ΔDc1).
r) and the previous frame data (first motion-compensated video data α1) are added to restore the frame (first refresh data (ΔDc1r + α)). The variable length encoder 1904 uses the inter-frame compressed data (quantized first coefficient K1Q; first-time encoded video difference ΔDc1).
Variable length coding is also performed for.

【0036】ここで、Iピクチャ−から次のIピクチャ
−までを、1GOP(グループオブピクチャ−)と呼
び、通常15フレーム(約0.5秒)前後の映像信号に
より構成される。
Here, from I picture to the next I picture is called 1 GOP (group of pictures), and is usually composed of video signals of about 15 frames (about 0.5 seconds).

【0037】可変長符号化器1904で符号化された第
1の符号化映像データDc1eは、出力端子1913に
より出力される。
The first encoded video data Dc1e encoded by the variable length encoder 1904 is output from the output terminal 1913.

【0038】次に、図19に第2符号化器1808の構
成を示す。第2符号化器1808は、入力端子200
0、減算器2001、離散コサイン変換(DCT)器2
002、量子化器2003、可変長符号化(VLC)器
2004、逆量子化器2005、逆DCT(IDCT)
器2006、加算器2007、リフレッシュ制御器20
08、リフレッシュスイッチ2009、リフレッシュス
イッチ2010、フレームメモリ2011、動き補償器
2012、出力端子2013、動き検出器2014、バ
ッファ2015、および量子化決定器2016を含む。
Next, FIG. 19 shows the configuration of the second encoder 1808. The second encoder 1808 has an input terminal 200.
0, subtractor 2001, discrete cosine transform (DCT) device 2
002, quantizer 2003, variable length coding (VLC) device 2004, inverse quantizer 2005, inverse DCT (IDCT)
Device 2006, adder 2007, refresh controller 20
08, refresh switch 2009, refresh switch 2010, frame memory 2011, motion compensator 2012, output terminal 2013, motion detector 2014, buffer 2015, and quantization determiner 2016.

【0039】なお、入力端子2000、減算器200
1、離散コサイン変換器2002、量子化器2003、
可変長符号化器2004、逆量子化器2005、逆DC
T器2006、加算器2007、リフレッシュ制御器2
008、リフレッシュスイッチ2009、リフレッシュ
スイッチ2010、フレームメモリ2011、動き補償
器2012、出力端子2013、動き検出器2014
は、それぞれ、図18に示した第1符号化器1803に
おける、入力端子1900、減算器1901、離散コサ
イン変換器1902、量子化器1903、可変長符号化
器1904、逆量子化器1905、逆DCT器190
6、加算器1907、リフレッシュ制御器1908、リ
フレッシュスイッチ1909、リフレッシュスイッチ1
910、フレームメモリ1911、動き補償器191
2、出力端子1913、および動き検出器1914と実
質的に同じものである。
Input terminal 2000 and subtractor 200
1, a discrete cosine transformer 2002, a quantizer 2003,
Variable length encoder 2004, inverse quantizer 2005, inverse DC
T unit 2006, adder 2007, refresh controller 2
008, refresh switch 2009, refresh switch 2010, frame memory 2011, motion compensator 2012, output terminal 2013, motion detector 2014
Are input terminal 1900, subtractor 1901, discrete cosine transformer 1902, quantizer 1903, variable length encoder 1904, dequantizer 1905, and inverse quantizer 1905 in the first encoder 1803 shown in FIG. 18, respectively. DCT device 190
6, adder 1907, refresh controller 1908, refresh switch 1909, refresh switch 1
910, frame memory 1911, motion compensator 191
2, the output terminal 1913, and the motion detector 1914.

【0040】第2符号化器1808においては、可変長
符号化器2004と出力端子2013の間にバッファ2
015が新たに設けられると共に、バッファ2015と
量子化器2003との間に量子化決定器2016がさら
に新たに設けられている。つまり、量子化決定器201
6は、バッファ2015の状態を示すバッファ占有量情
報Ibおよび、目標符号量算出器1805から出力され
る目標符号量DTに基づいて、量子化量VQを決定し
て、量子化器2003を制御する。
In the second encoder 1808, the buffer 2 is provided between the variable length encoder 2004 and the output terminal 2013.
015 is newly provided, and a quantization determiner 2016 is further newly provided between the buffer 2015 and the quantizer 2003. That is, the quantization decision unit 201
Reference numeral 6 determines the quantization amount VQ based on the buffer occupation amount information Ib indicating the state of the buffer 2015 and the target code amount DT output from the target code amount calculator 1805, and controls the quantizer 2003. .

【0041】入力端子2000は、セレクタ1802に
接続されて、第1の2回目以降符号化映像データDc2
が入力される。減算器2001は、一方の入力ポートが
入力端子2000に接続され、もう一方の入力ポートは
リフレッシュスイッチ2009、リフレッシュスイッチ
2010、フレームメモリ2011、動き補償器201
2、加算器2007、逆DCT器2006、逆量子化器
2005、量子化器2003、および離散コサイン変換
器2002を経由して、自身の出力ポートに接続され
て、現フレームの第1の2回目以降符号化映像データD
c2(t)と、復元される所定フレーム数(d)前の第
2の動き補償化映像データβとの差を第1の2回目符号
化映像差分△Dc2として求める。
The input terminal 2000 is connected to the selector 1802, and the first and second encoded video data Dc2
Is entered. The subtractor 2001 has one input port connected to the input terminal 2000, and the other input port having a refresh switch 2009, a refresh switch 2010, a frame memory 2011, and a motion compensator 201.
2, the adder 2007, the inverse DCT unit 2006, the inverse quantizer 2005, the quantizer 2003, and the discrete cosine transformer 2002, and is connected to its own output port, and the first second time of the current frame. After that, encoded video data D
The difference between c2 (t) and the second motion-compensated video data β before the restored predetermined number of frames (d) is obtained as the first second-time encoded video difference ΔDc2.

【0042】なお、後ほど詳述するように、第2の動き
補償化映像データβには、第2の遅延フレーム内映像デ
ータDc2rdの動き補償したものと、第2の遅延フレ
ーム間映像データ(△Dc2r+β)の動き補償したも
のとが含まれる。しかしながら、第1の2回目符号化映
像差分△Dc2は、第1の2回目以降符号化映像データ
Dc2と第2の遅延フレーム間映像データ(△Dc2r
+β)dの動き補償された第2の動き補償化映像データ
βのみとの減算で求められる。
As will be described in detail later, the second motion-compensated video data β includes the motion-compensated second delayed intra-frame video data Dc2rd and the second delayed inter-frame video data (Δ). Dc2r + β) motion compensated. However, the first second encoded video difference ΔDc2 is the encoded video data Dc2 and the second delayed inter-frame video data (ΔDc2r) after the first and second encoded video differences.
+ Β) d of the motion-compensated second motion-compensated video data β alone.

【0043】リフレッシュ制御器2008は、第1の2
回目以降符号化映像データDc2の処理されるべきピク
チャのタイプに応じて、リフレッシュスイッチ2009
およびリフレッシュスイッチ2010のオンおよびオフ
を制御する。すなわち、処理されるべきピクチャがIピ
クチャである場合には、フレーム内圧縮するために、リ
フレッシュ制御器2008はリフレッシュスイッチ20
09および2010をオフにすることによって、減算器
2001による第1の2回目符号化映像差分△Dc2を
生成させない。
The refresh controller 2008 has a first
The refresh switch 2009 according to the type of the picture of the encoded video data Dc2 to be processed from the second time onward.
Also, it controls on / off of the refresh switch 2010. That is, if the picture to be processed is an I picture, the refresh controller 2008 may refresh the switch 20 to perform intra-frame compression.
By turning off 09 and 2010, the subtractor 2001 does not generate the first second-coded video difference ΔDc2.

【0044】上述のように、入力端子2000より入力
された第1の2回目以降符号化映像データDc2は、減
算器2001による減算処理を受けることなく離散コサ
イン変換器2002に出力される場合と、減算器200
1で減算処理を受けて生成される第1の2回目符号化映
像差分△Dc2が離散コサイン変換器2002に出力さ
れる場合がある。これら第1の2回目以降符号化映像デ
ータDc2あるいは第1の2回目符号化映像差分△Dc
2は、離散コサイン変換器2002により離散コサイン
変換されて、8×8=64個の係数(第2の係数K2)
が得られる。
As described above, the first and second and subsequent encoded video data Dc2 input from the input terminal 2000 are output to the discrete cosine converter 2002 without being subjected to the subtraction processing by the subtractor 2001. Subtractor 200
The first second-time coded video difference ΔDc2 generated by receiving the subtraction process at 1 may be output to the discrete cosine converter 2002. These first and subsequent encoded video data Dc2 or the first and second encoded video difference ΔDc
2 is subjected to discrete cosine transform by the discrete cosine transformer 2002, and 8 × 8 = 64 coefficients (second coefficient K2)
Is obtained.

【0045】第2の係数K2は、量子化器2003によ
って、各周波数成分毎に最適にビット配分されて、第2
の被量子化係数K2Qが生成される。なお、第2符号化
器1808においては、第1符号化器1803における
場合と異なり、この時点で量子化決定器2016によっ
て量子化器2003による量子化ステップQSの制御が
行われる。つまり、量子化決定器2016が、各フレー
ム毎に与えられる目標符号量DTおよびバッファ201
5の状態に基づいて、各マクロブロックMBの量子化ス
テップQS(量子化量VQ)を算出すると共に、算出さ
れた量子化ステップQS(量子化量VQ)を量子化器2
003に与える
The second coefficient K2 is optimally distributed by the quantizer 2003 to each frequency component,
The quantized coefficient K2Q is generated. In the second encoder 1808, unlike the case of the first encoder 1803, the quantization determiner 2016 controls the quantization step QS by the quantizer 2003 at this point. In other words, the quantizer determiner 2016 uses the target code amount DT and the buffer 201 provided for each frame.
Based on the state of 5, the quantization step QS (quantization amount VQ) of each macroblock MB is calculated, and the calculated quantization step QS (quantization amount VQ) is quantized by the quantizer 2
Give to 003

【0046】バッファ2015の状態に基づく量子化ス
テップQSの制御が行われるのは、基本的にバッファ2
015が破綻する可能性が検出された場合である。通常
の状態では、バッファ2015の状態(バッファ占有量
情報Ib)に基づく量子化ステップQSの制御は行われ
ない。目標符号量DTを算出する際に、バッファ状態を
シミュレートして、バッファが破綻しないように符号量
の割り当てを行うため、この予測精度がある程度保証さ
れていれば、通常バッファ2015が破綻することはな
い。
The control of the quantization step QS based on the state of the buffer 2015 is basically performed by the buffer 2
This is the case where the possibility that 015 will fail is detected. In the normal state, the control of the quantization step QS based on the state of the buffer 2015 (buffer occupancy information Ib) is not performed. When calculating the target code amount DT, the buffer state is simulated and the code amount is assigned so that the buffer does not fail. Therefore, if the prediction accuracy is guaranteed to some extent, the normal buffer 2015 may fail. There is no.

【0047】量子化器2003から出力される第2の被
量子化係数K2Qは、可変長符号化器2004によって
可変長符号化を施されて第2の符号化映像データDc2
eが生成される。一方、第2の被量子化係数KQ2は、
逆量子化器2005によって量子化が元に戻されて復元
第2の係数K2rが生成される。
The second quantized coefficient K2Q output from the quantizer 2003 is variable-length coded by the variable-length coder 2004 and the second coded video data Dc2.
e is generated. On the other hand, the second quantized coefficient KQ2 is
The inverse quantizer 2005 restores the original quantization to generate the restored second coefficient K2r.

【0048】そして、逆量子化により元の振幅に戻され
た復元第2の係数K2rは、逆DCT器2006によっ
て元の映像データである、第2の復元2回目以降符号化
映像データDc2rあるいは第1の復元2回目以降符号
化映像差分△Dc2rに復元される。復元された映像デ
ータがフレーム内映像データ(第2の復元2回目以降符
号化映像データDc2r)の場合には、加算器2007
を動作させない。
The restored second coefficient K2r restored to the original amplitude by the inverse quantization is the original image data by the inverse DCT unit 2006, which is the encoded image data Dc2r or the second encoded image data after the second restoration. Restoration of 1 is restored to the encoded video difference ΔDc2r after the second time. If the restored video data is the intra-frame video data (the second and subsequent encoded video data Dc2r), the adder 2007
Does not work.

【0049】逆DCT器2006からの出力が第2の復
元2回目以降符号化映像データDc2r、つまりフレー
ム内映像データである場合は、上述のように、リフレッ
シュ制御器2008はリフレッシュスイッチ2010を
オフにして加算器2007による加算処理を実行させな
い。一方、逆DCT器2006からの出力が第1の復元
2回目以降符号化映像差分△Dc2r、つまりフレーム
間映像データである場合は、リフレッシュ制御器200
8はリフレッシュスイッチ2010をオンにして、加算
器2007による第2の動き補償化映像データβの加算
処理を実行させる。よって、加算器2007からは、第
1の2回目以降符号化映像データDc2あるいは第1の
復元2回目以降符号化映像差分△Dc2r+第2の動き
補償化映像データβの何れか出力される。なお、第1の
復元2回目以降符号化映像差分△Dc2r+第2の動き
補償化映像データβを第2のリフレッシュデータ(△D
c2r+β)と称する。
When the output from the inverse DCT device 2006 is the second and subsequent encoded video data Dc2r, that is, the intra-frame video data, the refresh controller 2008 turns off the refresh switch 2010 as described above. Therefore, the addition processing by the adder 2007 is not executed. On the other hand, when the output from the inverse DCT unit 2006 is the encoded video difference ΔDc2r, that is, the inter-frame video data for the first and second restoration, the refresh controller 200
8 turns on the refresh switch 2010 to cause the adder 2007 to execute the addition process of the second motion-compensated video data β. Therefore, the adder 2007 outputs one of the first and second encoded video data Dc2 or the first restored second and later encoded video difference ΔDc2r + second motion-compensated video data β. In addition, after the first restoration, the encoded video difference ΔDc2r + the second motion-compensated video data β is changed to the second refresh data (ΔD).
c2r + β).

【0050】その後、フレームメモリ2011は、復元
された映像データ(第2の復元2回目以降符号化映像デ
ータDc2rあるいは第2のリフレッシュデータ(△D
c2r+β)を所定数(d)のフレーム分だけ遅延させ
てフレーム遅延映像データを生成する。つまり、フレー
ムメモリ2011は、第2の復元2回目以降符号化映像
データDc2rをdフレーム分だけ遅延させて第2の遅
延フレーム内映像データDc2rdを生成すると共に、
第2のリフレッシュデータ(△Dc2r+β)をdフレ
ーム分だけ遅延させて第2の遅延フレーム間映像データ
(△Dc2r+β)dを生成する。
After that, the frame memory 2011 stores the restored video data (the second restored second and subsequent encoded video data Dc2r or the second refresh data (ΔD
c2r + β) is delayed by a predetermined number (d) of frames to generate frame-delayed video data. That is, the frame memory 2011 delays the encoded video data Dc2r for the second and subsequent second restorations by d frames to generate the second delayed intra-frame video data Dc2rd, and
The second refresh data (ΔDc2r + β) is delayed by d frames to generate second delayed inter-frame video data (ΔDc2r + β) d.

【0051】動き検出器2014は、入力端子2000
から入力される第1の2回目以降符号化映像データDc
2に基づいて、映像のフレーム間の動きベクトルを求め
て動き量Amを検出する。
The motion detector 2014 has an input terminal 2000.
The second and subsequent encoded video data Dc input from
Based on 2, the motion amount Am is detected by obtaining the motion vector between the frames of the video.

【0052】動き補償器2012は、動き検出器301
4で検出された動き量Amに基づいて、フレームメモリ
2011から出力される第2の遅延フレーム内映像デー
タDc2rdあるいは、第2の遅延フレーム間映像デー
タ(△Dc2r+β)dの表す映像の位置を現時点の第
1の2回目以降符号化映像データDc2の表す映像の位
置と同一になるように動き補償した、第2の動き補償化
映像データβを生成する。
The motion compensator 2012 is a motion detector 301.
Based on the motion amount Am detected in step 4, the position of the image represented by the second delayed intra-frame video data Dc2rd or the second delayed inter-frame video data (ΔDc2r + β) d output from the frame memory 2011 is currently determined. The second motion-compensated video data β that is motion-compensated to be the same as the position of the video represented by the encoded video data Dc2 is generated from the first second time.

【0053】第2の動き補償化映像データβは、減算器
2001に出力されると、次の映像データ(第1の2回
目以降符号化映像データDc2)との差である第1の2
回目符号化映像差分△Dc2を計算するのに使われる。
しかしながら、第2の遅延フレーム内映像データDc2
rdを動き補償して生成した第2の動き補償化映像デー
タβは、実質的に現在の第1の2回目以降符号化映像デ
ータDc2と同一であるので、減算器2001で第1の
2回目符号化映像差分△Dc2の生成に用いることは無
意味である。
When the second motion-compensated video data β is output to the subtractor 2001, the first 2 which is the difference from the next video data (the first and subsequent encoded video data Dc2).
It is used to calculate the time-coded video difference ΔDc2.
However, the second delayed frame video data Dc2
The second motion-compensated video data β generated by motion-compensating rd is substantially the same as the current first and subsequent encoded video data Dc2, so that the subtractor 2001 performs the first second-time video data β. It is meaningless to use to generate the encoded video difference ΔDc2.

【0054】よって、リフレッシュ制御器2008は、
処理されるべきピクチャがPピクチャまたはBピクチャ
である場合には、リフレッシュスイッチ2009および
2010をオンにする。結果、加算器2007から第2
の復元2回目以降符号化映像データDc2rではなく復
元差分△Dc2r+βがフレームメモリ2011に出力
され、フレームメモリ2011からは第2の遅延フレー
ム間映像データ(△Dc2r+β)dが動き補償器20
12に出力され、動き補償器2012からは第2の遅延
フレーム間映像データ(△Dc2r+β)dを動き補償
した第2の動き補償化映像データβを加算器2007と
減算器2001に出力されることによって、フレーム間
圧縮が実行される。
Therefore, the refresh controller 2008 is
If the picture to be processed is a P or B picture, the refresh switches 2009 and 2010 are turned on. As a result, from the adder 2007 to the second
Restoration second time and thereafter, not the encoded video data Dc2r but the restoration difference ΔDc2r + β is output to the frame memory 2011, and the second delayed inter-frame video data (ΔDc2r + β) d is output from the frame memory 2011.
12 is output to the adder 2007 and the subtractor 2001 from the motion compensator 2012, which is the second motion-compensated video data β obtained by motion-compensating the second delayed interframe video data (ΔDc2r + β) d. Performs interframe compression.

【0055】リフレッシュスイッチ2009は、フレー
ム間の差分を計算する時にオンにされて、減算器200
1を動作させるのに使われる。リフレッシュスイッチ2
010は、リフレッシュスイッチ2009と同一の周期
でオンおよびオフを繰り返す。リフレッシュスイッチ2
010がオンの時は、加算器2007を動作させ、フレ
ーム間差分データ(△Dc2)と前フレームデータ(第
1の2回目以降符号化映像データDc2)を加算し、フ
レームを復元するのに使われる。可変長符号化器200
4は、フレーム間圧縮データ(△Dc2)に対しても可
変長符号化を行う。
The refresh switch 2009 is turned on when the difference between frames is calculated, and the subtracter 200 is turned on.
Used to run 1. Refresh switch 2
010 repeatedly turns on and off in the same cycle as the refresh switch 2009. Refresh switch 2
When 010 is on, the adder 2007 is operated to add the inter-frame difference data (ΔDc2) and the previous frame data (encoded video data Dc2 for the first and second times) to restore the frame. Be seen. Variable length encoder 200
4 also performs variable length coding on the inter-frame compressed data (ΔDc2).

【0056】可変長符号化器(VLC)2004で符号
化された第2の符号化映像データDc2eは、出力端子
2013により出力される。
The second coded video data Dc2e coded by the variable length coder (VLC) 2004 is output from the output terminal 2013.

【0057】上述のように、第1符号化器1803によ
る1回目の符号化により検出された区間毎の符号化の難
易度(目標符号量DT)に応じて、第2符号化器180
8は各々のフレームに符号量を割り当てることによっ
て、蓄積メディアにとって好適な圧縮符号化を図ってい
る。
As described above, the second encoder 180 is used in accordance with the degree of difficulty of encoding (target code amount DT) for each section detected by the first encoding by the first encoder 1803.
8 assigns a code amount to each frame to achieve compression coding suitable for a storage medium.

【0058】[0058]

【発明が解決しようとする課題】上述のように、従来の
符号化装置ENcにおいては、1回目の符号化で映像の
特徴を抽出し、その結果を2パス目以降に反映させるこ
とで、可変レート制御を行い光ディスクなどの蓄積メデ
ィアに効率的に映像データを記録できる方式である。し
かしながら、画面におけるそれぞれの領域内の符号化
は、一般的に対象領域のアクティビティに基づき制御さ
れる。これは、アクティビティの高い部分、すなわち高
周波成分を多く含む領域の劣化は、一般的に視覚特性上
分かり難いという性質を利用している。しかしながら、
アクティビティが高くても、エッジ部分に関しては、劣
化が目立ってしまう。よって、本発明は、映像における
エッジ部分およびエッジを含むマクロブロックの色の劣
化を抑えた映像データ符号化装置およびその方法を提供
することを目的とする。
As described above, in the conventional encoding device ENc, the feature of the image is extracted by the first encoding, and the result is reflected in the second and subsequent passes, thereby making it variable. This is a method that allows rate control to efficiently record video data on storage media such as optical disks. However, the coding within each area of the screen is generally controlled based on the activity of the area of interest. This utilizes the property that deterioration of a high activity portion, that is, a region containing a large amount of high frequency components is generally difficult to understand in terms of visual characteristics. However,
Even if the activity is high, the deterioration is remarkable in the edge part. Therefore, it is an object of the present invention to provide a video data coding apparatus and a method thereof in which color deterioration of a macro block including an edge portion and an edge in a video is suppressed.

【0059】[0059]

【課題を解決するための手段および発明の効果】第1の
発明は、入力される映像信号を圧縮符号化する符号化方
法であって、映像信号のフレーム毎に、エッジを検出し
てエッジの強度を表すエッジ情報を生成するエッジ検出
ステップと、エッジ情報に基づいて、マクロブロックの
重要度を示すエッジクラス情報を生成するエッジクラス
情報生成ステップと、エッジクラス情報に基づいて、マ
クロブロック毎に量子化ステップを決定する量子化量決
定ステップとを備え、重要度の高いマクロブロックに対
しては量子化ステップを小さくし、重要度の低いマクロ
ブロックに対しては量子化ステップを大きくすることを
特徴とする。
A first aspect of the present invention is an encoding method for compression-encoding an input video signal, which detects an edge for each frame of the video signal and detects the edge. An edge detection step of generating edge information indicating strength, an edge class information generation step of generating edge class information indicating macroblock importance based on the edge information, and an edge class information for each macroblock based on the edge class information. A quantization amount determination step for determining a quantization step is provided, and it is possible to reduce the quantization step for macroblocks with high importance and increase the quantization step for macroblocks with low importance. Characterize.

【0060】上述のように、第1の発明においては、フ
レームタイプ毎にエッジを有するマクロブロックの量子
化ステップを調整することによって、映像信号の符号化
によるエッジ部の劣化を防止できる。
As described above, according to the first aspect of the present invention, the deterioration of the edge portion due to the coding of the video signal can be prevented by adjusting the quantization step of the macro block having the edge for each frame type.

【0061】第2の発明は、第1の発明において、エッ
ジ検出ステップにおいては、同一強度のエッジに対し
て、映像信号のフレームタイプ毎に、異なる強度が設定
されることを特徴とする。
A second aspect of the present invention is characterized in that, in the first aspect, in the edge detecting step, different intensities are set for edges of the same intensity for each frame type of the video signal.

【0062】第3の発明は、第1の発明において、エッ
ジクラス情報生成ステップにおいては、同一強度のエッ
ジに対して、映像信号のフレームタイプ毎に、異なる重
要度が設定されることを特徴とする。
The third invention is characterized in that, in the first invention, in the edge class information generating step, different importance levels are set for edges of the same intensity for each frame type of the video signal. To do.

【0063】第4の発明は、第3の発明において、エッ
ジクラス情報生成ステップにおいては、重要度はイント
ラ符号化フレーム、前方向予測符号化フレーム、双方向
予測符号化フレームの順に重要度を低く設定されること
を特徴とする。
In a fourth aspect based on the third aspect, in the edge class information generating step, the importance level is lower in the order of intra-coded frame, forward predictive-coded frame and bidirectional predictive-coded frame. It is characterized by being set.

【0064】第5の発明は、第1の発明において、エッ
ジクラス情報生成ステップはイントラ符号化フレームに
対して、マクロブロック単位に輝度レベルのエッジを検
出する輝度レベルエッジ検出ステップと、マクロブロッ
ク単位に色差レベルのエッジを検出する色差レベルエッ
ジ検出ステップと、輝度レベルエッジ情報と色差レベル
エッジ情報を統合して、レベルエッジ情報を生成するレ
ベルエッジ情報生成ステップとを備える。
In a fifth aspect based on the first aspect, the edge class information generating step includes a luminance level edge detecting step of detecting an edge of a luminance level in macroblock units in an intra-coded frame, and a macroblock unit. A color difference level edge detection step of detecting a color difference level edge, and a level edge information generation step of integrating the luminance level edge information and the color difference level edge information to generate level edge information.

【0065】第6の発明は、第5の発明において、レベ
ルエッジ情報生成ステップは、視覚特性情報を生成する
視覚特性情報生成ステップと、視覚特性情報に基づいて
レベルエッジ情報を補正するエッジ情報補正ステップ
と、補正されたレベルエッジ情報をエッジクラス情報に
マッピングするレベルエッジ情報マッピングステップと
を備える。
In a sixth aspect based on the fifth aspect, the level edge information generating step includes a visual characteristic information generating step of generating visual characteristic information, and an edge information correcting step of correcting the level edge information based on the visual characteristic information. And a level edge information mapping step of mapping the corrected level edge information to edge class information.

【0066】第7の発明は、第6の発明において、輝度
レベルエッジ検出ステップは、マクロブロック単位の平
均輝度レベルを算出する平均輝度レベル算出ステップを
備え、色差レベルエッジ検出ステップは、マクロブロッ
ク単位の平均色差レベルを算出する平均色差レベル算出
ステップを備え、視覚特性情報生成ステップにおいて
は、平均輝度レベル情報と平均色差レベル情報に基づい
て、視覚特性情報が生成されることを特徴とする。
In a seventh aspect based on the sixth aspect, the luminance level edge detecting step includes an average luminance level calculating step for calculating an average luminance level in macroblock units, and the color difference level edge detecting step is in macroblock units. It is characterized in that the visual characteristic information is generated based on the average luminance level information and the average color difference level information in the visual characteristic information generation step.

【0067】第8の発明は、第6の発明において、エッ
ジ情報補正ステップは、輝度レベルエッジ重み付け情報
設定ステップと、色差レベルエッジ重み付け情報設定ス
テップとを備え、レベルエッジ情報マッピングステップ
においては、輝度レベルエッジ重み付け情報および色差
レベルエッジ重み付け情報に基づいて、レベルエッジ情
報がマッピングされることを特徴とする。
In an eighth aspect based on the sixth aspect, the edge information correcting step includes a luminance level edge weighting information setting step and a color difference level edge weighting information setting step, and the level edge information mapping step includes luminance The level edge information is mapped based on the level edge weighting information and the color difference level edge weighting information.

【0068】第9の発明は、入力される映像信号を圧縮
符号化する符号化装置であって、映像信号のフレーム毎
に、エッジを検出してエッジの強度を表すエッジ情報を
生成するエッジ検出器と、エッジ情報に基づいて、マク
ロブロックの重要度を示すエッジクラス情報を生成する
エッジクラス情報生成器と、エッジクラス情報に基づい
て、マクロブロック毎に量子化ステップを決定する量子
化量決定器とを備え、重要度の高いマクロブロックに対
しては量子化ステップを小さくし、重要度の低いマクロ
ブロックに対しては量子化ステップを大きくすることを
特徴とする。
A ninth aspect of the present invention is an encoding apparatus for compression-encoding an input video signal, which detects an edge for each frame of the video signal and generates edge information representing the strength of the edge. And an edge class information generator that generates edge class information indicating the importance of a macroblock based on the edge information, and a quantization amount determination that determines a quantization step for each macroblock based on the edge class information And a small quantization step for macroblocks of high importance, and a large quantization step for macroblocks of low importance.

【0069】上述のように、第9の発明においては、フ
レームタイプ毎にエッジを有するマクロブロックの量子
化ステップを調整することによって、映像信号の符号化
によるエッジ部の劣化を防止できる。
As described above, in the ninth aspect of the present invention, by adjusting the quantization step of the macro block having an edge for each frame type, it is possible to prevent the deterioration of the edge portion due to the encoding of the video signal.

【0070】第10の発明は、第9の発明において、エ
ッジ検出器は、同一強度のエッジに対して、映像信号の
フレームタイプ毎に、異なる強度を設定することを特徴
とする。
The tenth invention is characterized in that, in the ninth invention, the edge detector sets different intensities for edges having the same intensity for each frame type of the video signal.

【0071】第11の発明は、第9の発明において、エ
ッジクラス情報生成器は、同一強度のエッジに対して、
映像信号のフレームタイプ毎に、異なる重要度を設定す
ることを特徴とする。
In an eleventh aspect based on the ninth aspect, the edge class information generator has
A feature is that different importance levels are set for each frame type of a video signal.

【0072】第12の発明は、第11の発明において、
エッジクラス情報生成器は、イントラ符号化フレーム、
前方向予測符号化フレーム、双方向予測符号化フレーム
の順に重要度を低く設定することを特徴とする。
The twelfth invention is the eleventh invention, wherein
The edge class information generator is an intra-coded frame,
It is characterized in that the degree of importance is set in the order of the forward predictive coding frame and the bidirectional predictive coding frame.

【0073】第13の発明は、第9の発明において、エ
ッジクラス情報生成器はイントラ符号化フレームに対し
て、マクロブロック単位に輝度レベルのエッジを検出す
る輝度レベルエッジ検出器と、マクロブロック単位に色
差レベルのエッジを検出する色差レベルエッジ検出器
と、輝度レベルエッジ情報と色差レベルエッジ情報を統
合して、レベルエッジ情報を生成するレベルエッジ情報
生成器とを備える。
In a thirteenth aspect based on the ninth aspect, the edge class information generator comprises a luminance level edge detector for detecting an edge of a luminance level in macroblock units in an intra-coded frame, and a macroblock unit. In addition, a color difference level edge detector that detects an edge of a color difference level, and a level edge information generator that generates level edge information by integrating luminance level edge information and color difference level edge information are provided.

【0074】第14の発明は、第13の発明において、
レベルエッジ情報生成器は、視覚特性情報を生成する視
覚特性情報生成器と、視覚特性情報に基づいてレベルエ
ッジ情報を補正するエッジ情報補正器と、補正されたレ
ベルエッジ情報をエッジクラス情報にマッピングするレ
ベルエッジ情報マッピング器とを備える。
A fourteenth invention is the thirteenth invention, wherein
The level edge information generator is a visual characteristic information generator that generates visual characteristic information, an edge information corrector that corrects level edge information based on the visual characteristic information, and the corrected level edge information is mapped to edge class information. And a level edge information mapper.

【0075】第15の発明は、第14の発明において、
輝度レベルエッジ検出器は、マクロブロック単位の平均
輝度レベルを算出する平均輝度レベル算出器を備え、色
差レベルエッジ検出器は、マクロブロック単位の平均色
差レベルを算出する平均色差レベル算出器を備え、視覚
特性情報生成器は、平均輝度レベル情報と平均色差レベ
ル情報に基づいて、視覚特性情報を生成することを特徴
とする。
A fifteenth invention is the fourteenth invention, wherein
The luminance level edge detector includes an average luminance level calculator that calculates an average luminance level in macroblock units, and the color difference level edge detector includes an average color difference level calculator that calculates an average color difference level in macroblock units, The visual characteristic information generator is characterized by generating visual characteristic information based on the average luminance level information and the average color difference level information.

【0076】第16の発明は、第14の発明において、
エッジ情報補正器は、輝度レベルエッジ重み付け情報設
定器と、色差レベルエッジ重み付け情報設定器とを備
え、レベルエッジ情報マッピング器においては、輝度レ
ベルエッジ重み付け情報および色差レベルエッジ重み付
け情報に基づいて、レベルエッジ情報をマッピングする
ことを特徴とする。
A sixteenth invention is the fourteenth invention, wherein
The edge information corrector includes a luminance level edge weighting information setting device and a color difference level edge weighting information setting device.In the level edge information mapping device, the level is calculated based on the luminance level edge weighting information and the color difference level edge weighting information. It is characterized by mapping edge information.

【0077】第17の発明は、第1の発明における符号
化方法および第9の発明における符号化方装置を用いて
生成した符号化データが記録されたことを特徴とする記
録媒体。
A seventeenth invention is a recording medium on which coded data generated by using the coding method of the first invention and the coding apparatus of the ninth invention is recorded.

【0078】[0078]

【発明の実施の形態】先ず本発明の実施の形態に係る映
像信号の符号化の基本的概念について説明する。本発明
においては、従来のように画面におけるそれぞれの領域
内の符号化を、対象領域のアクティビティに単純に基づ
いて制御するのではなく、符号化する映像信号のフレー
ムタイプに対応して、エッジの保護強度を適正に設定す
ることによって、符号化後の映像におけるエッジ部分お
よびエッジを含むマクロブロックの色の劣化を抑えるも
のである。以下に、図1〜図13を参照して、本発明の
実施の形態に係る符号化装置ENについて説明する。そ
の後、図14を参照して、本発明の実施の形態の変形例
について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION First, the basic concept of video signal encoding according to an embodiment of the present invention will be described. According to the present invention, the coding in each area on the screen is not controlled simply based on the activity of the target area as in the related art, but the edge coding is performed according to the frame type of the video signal to be coded. By appropriately setting the protection strength, it is possible to suppress the color deterioration of the edge portion and the macroblock including the edge in the encoded image. An encoding device EN according to an embodiment of the present invention will be described below with reference to FIGS. 1 to 13. After that, a modification of the embodiment of the present invention will be described with reference to FIG.

【0079】先ず、図1を参照して、本発明の第1の実
施の形態に係る符号化装置について説明する。本例にお
ける符号化装置ENは、入力端子1000、リオーダ器
1001、セレクタ1002、第1符号化器1003、
符号発生量記録器1004、目標符号量算出器100
5、エッジ検出器1006、エッジクラス情報生成器1
007、第2符号化器1008、および出力端子100
9を含む。なお、入力端子1000、リオーダ器100
1、符号発生量記録器1004、目標符号量算出器10
05、および出力端子1009は、それぞれ、上述の従
来の符号化装置ENcを構成する入力端子1800、リ
オーダ器1801、符号発生量記録器1804、目標符
号量算出器1805、および出力端子1809と実質的
に同じものである。
First, an encoding device according to the first embodiment of the present invention will be described with reference to FIG. The encoding apparatus EN in this example includes an input terminal 1000, a reorder unit 1001, a selector 1002, a first encoder 1003,
Code generation amount recorder 1004, target code amount calculator 100
5, edge detector 1006, edge class information generator 1
007, second encoder 1008, and output terminal 100
Including 9. The input terminal 1000 and the reorder device 100
1, code generation amount recorder 1004, target code amount calculator 10
05 and the output terminal 1009 substantially correspond to the input terminal 1800, the reorder unit 1801, the code generation amount recording unit 1804, the target code amount calculation unit 1805, and the output terminal 1809 which form the above-described conventional encoding device ENc. Is the same.

【0080】第2符号化器1008は、映像データDv
を符号化して、蓄積器あるいは蓄積媒体に実際に蓄積さ
れる符号化映像データDencを生成するために設けら
れている。一方、第1符号化器1003、符号発生量記
録器1004、および目標符号量算出器1005は、第
2符号化器1008が映像データDvを効率良く符号化
できるように、第2符号化器1008による映像データ
Dvの符号化が実行される前に、映像データDvの目標
符号量を決定するために設けられている。
The second encoder 1008 uses the video data Dv
Is provided to encode encoded video data Denc that is actually stored in the storage device or storage medium. On the other hand, the first encoder 1003, the code generation amount recorder 1004, and the target code amount calculator 1005 include the second encoder 1008 so that the second encoder 1008 can efficiently encode the video data Dv. It is provided to determine the target code amount of the video data Dv before the encoding of the video data Dv is executed.

【0081】第2符号化器1008がエッジを効果的保
護しながら映像データDv(符号化順映像データDc、
第1の2回目以降符号化映像データDc2)を符号化す
るためにエッジ検出器1006およびエッジクラス情報
生成器1007が設けられて設けられている。なお、第
1符号化器1003は、第1符号化器1803と非常に
類似しているが、第1符号化器1803とは異なり、エ
ッジ検出器1006に対して第1の動き補償化映像デー
タαを出力する出力ポートを有している。
The second encoder 1008 effectively protects the edges while the video data Dv (encoding order video data Dc,
An edge detector 1006 and an edge class information generator 1007 are provided to encode the first and second encoded video data Dc2). Note that the first encoder 1003 is very similar to the first encoder 1803, but unlike the first encoder 1803, the first motion-compensated video data for the edge detector 1006. It has an output port for outputting α.

【0082】また、符号化装置ENの全体の動作は、ユ
ーザの符号化指示に基づいて、入力される映像データD
vの種類、符号化対象部分、および符号化方法等の符号
化情報およびスキームを決定する符号化制御器(図示せ
ず)によって、制御される。そして、符号化装置ENの
個々の構成要素は、符号化制御器によって決定され且つ
制御される動作を実行するために、以下に述べる処理を
行う。
The overall operation of the encoding device EN is based on the user's encoding instruction and the input video data D
It is controlled by a coding controller (not shown) that determines coding information and a scheme such as a type of v, a coding target portion, and a coding method. Then, the individual components of the encoding device EN perform the processing described below in order to execute the operation determined and controlled by the encoding controller.

【0083】入力端子1000を経由して、外部に設け
られた映像データ源(図示せず)から表示順映像データ
Dvはリオーダ器1001に入力される。リオーダ器1
001は、図15を参照して説明したように、映像デー
タDvの表示順に入力された映像を符号化順に並び替え
て、符号化順映像データDcを生成する。上述のよう
に、セレクタ1002は、符号化制御器から供給される
パス切り替え信号Swに基づいて、1回目の符号化と第
2回目以降の符号化処理の際に符号化順映像データDc
の出力先を切り替える。
Display order video data Dv is input to the reorder unit 1001 from an external video data source (not shown) via the input terminal 1000. Reorder unit 1
As described with reference to FIG. 15, 001 rearranges the videos input in the display order of the video data Dv in the coding order to generate the coding order video data Dc. As described above, the selector 1002, based on the path switching signal Sw supplied from the coding controller, performs the coding order video data Dc during the first coding and the second and subsequent coding processes.
Switch the output destination of.

【0084】本例においても、1回目の符号化時に第1
符号化器1003およびエッジ検出器1006に出力さ
れる符号化順映像データDcを1回目符号化映像データ
Dc1と称し、2回目以降の符号化時に第2符号化器1
008に出力される符号化順映像データDcを第1の2
回目以降符号化映像データDc2と称して、それぞれを
識別するものとする。1回目の符号化時は第1符号化器
1003以降が動作し、2回目以降の符号化時には第2
符号化器1008以降が動作する。
Also in this example, the first encoding is performed at the first encoding.
The encoding order video data Dc output to the encoder 1003 and the edge detector 1006 is referred to as first-time encoded video data Dc1, and the second encoder 1 is used during the second and subsequent encoding.
The encoded sequence video data Dc output to 008
The second and subsequent times will be referred to as encoded video data Dc2 to identify each. The first encoder 1003 and later operate at the first encoding, and the second encoder 1002 and later at the second encoding.
The encoder 1008 and later operate.

【0085】セレクタ1002は、上述のセレクタ18
02と同様に、第2符号化器1008による第1の2回
目以降符号化映像データDc2の符号化および符号化デ
ータDenc生成に先立って、先ず目標符号量を算出す
るために、リオーダ器1001から入力される符号化順
映像データDcを1回目符号化映像データDc1として
第1符号化器1003とエッジ検出器1006との双方
に出力する。この1回目符号化映像データDc1に基づ
く、第1符号化器1003、符号発生量記録器100
4、および目標符号量算出器1005による処理の結
果、目標符号量DTが決定される。
The selector 1002 is the selector 18 described above.
In the same manner as 02, prior to the encoding of the second and subsequent encoded video data Dc2 and the generation of the encoded data Denc by the second encoder 1008, first, the reorder unit 1001 calculates the target code amount. The input encoded video data Dc is output to both the first encoder 1003 and the edge detector 1006 as the first encoded video data Dc1. A first encoder 1003 and a code generation amount recorder 100 based on the first-time encoded video data Dc1.
4, and as a result of the processing by the target code amount calculator 1005, the target code amount DT is determined.

【0086】エッジ検出器1006は、セレクタ100
2から出力される1回目符号化映像データDc1と、第
1符号化器1003から出力される第1の動き補償化映
像データαに基づいて、マクロブロック単位でのエッジ
を検出してエッジ情報Ieを生成する。エッジクラス情
報生成器1007は、検出されたエッジ情報Ieに基づ
いて、マクロブロックの重要度を表すエッジクラス情報
Iecを生成する。
The edge detector 1006 is the selector 100.
2 based on the first-time encoded video data Dc1 output from the first encoder 1003 and the first motion-compensated video data α output from the first encoder 1003, the edge is detected in macroblock units to obtain edge information Ie. To generate. The edge class information generator 1007 generates edge class information Iec indicating the degree of importance of the macroblock, based on the detected edge information Ie.

【0087】次に、セレクタ1002は第1の2回目以
降符号化映像データDc2を第2符号化器1008に出
力して、第2符号化器1008に目標符号量DTおよび
エッジクラス情報Iecに基づいて第1の2回目以降符
号化映像データDc2を符号化させる。これについて
は、後ほど図3乃至図12を参照して詳しく説明する。
なお、第2符号化器1008による第1の2回目以降符
号化映像データDc2の符号化は、ユーザの指示する符
号化が完了するまで何度でも繰り返し行われる。
Next, the selector 1002 outputs the coded video data Dc2 for the first and subsequent times to the second encoder 1008, and the second encoder 1008 outputs the coded image data Dc2 based on the target code amount DT and the edge class information Iec. Then, the first and subsequent encoded video data Dc2 are encoded. This will be described later in detail with reference to FIGS. 3 to 12.
The encoding of the encoded video data Dc2 by the second encoder 1008 from the first time onward is repeated any number of times until the encoding instructed by the user is completed.

【0088】先ず、1回目の符号化時には、入力映像
(1回目符号化映像データDc1)は第1符号化器10
03で符号化されて、第1の動き補償化映像データαお
よび第1の符号化映像データDc1eが生成される。符
号発生量記録器1004は、第1の符号化映像データD
c1eに基づいて、符号化により発生した発生符号量D
1を検出して、フレーム(F)単位あるいはマクロブロ
ック(MB)単位に記録すると共に、検出した発生符号
量D1を目標符号量算出器1005に通知する。
First, at the time of the first encoding, the input video (first-time encoded video data Dc1) is processed by the first encoder 10
Then, the first motion-compensated video data α and the first coded video data Dc1e are generated. The code generation amount recorder 1004 uses the first encoded video data D.
Generated code amount D generated by encoding based on c1e
1 is detected and recorded in frame (F) units or macroblock (MB) units, and the detected generated code amount D1 is notified to the target code amount calculator 1005.

【0089】目標符号量算出器1005では、発生符号
量D1に基づいて、各フレームの発生符号量D1(F)
およびシーン全体の発生符号量D1(S)より、各フレ
ームの目標符号量DTを算出して、第2符号化器100
8に通知する。目標符号量算出器1005は、上述の式
1に基づいて、目標符号量DT(t)を求める。
In the target code amount calculator 1005, the generated code amount D1 (F) of each frame is calculated based on the generated code amount D1.
The target code amount DT of each frame is calculated from the generated code amount D1 (S) of the entire scene, and the second encoder 100
Notify 8. The target code amount calculator 1005 calculates the target code amount DT (t) based on the above-mentioned formula 1.

【0090】一方、エッジ検出器1006は、1回目符
号化映像データDc1および第1の動き補償化映像デー
タαに基づいて、エッジ情報Ieを生成する。そして、
エッジクラス情報生成器1007は、エッジクラス情報
Iecを生成する。そして、1回目符号化映像データD
c1の符号化が終了する。
On the other hand, the edge detector 1006 generates edge information Ie based on the first-time encoded video data Dc1 and the first motion-compensated video data α. And
The edge class information generator 1007 generates edge class information Iec. Then, the first encoded video data D
The encoding of c1 ends.

【0091】上述のように、1回目符号化映像データD
c1の符号化の結果、目標符号量DTおよびエッジクラ
ス情報Iecが生成された後に、第1の2回目以降符号
化映像データDc2の符号化が開始される。つまり、第
2符号化器1008は、目標符号量算出器1005から
与えられるフレーム毎の目標符号量DT(t)およびエ
ッジクラス情報生成器1007から与えられるエッジク
ラス情報Iecに基づいて、マクロブロックの量子化を
制御しながら、目標符号量DT(t)になるように第1
の2回目以降符号化映像データDc2の符号化を行い符
号化データDencを生成する。なお、生成された符号
化データDencは、出力端子1009を介して、記録
装置に出力されて記録媒体Mに記録される。なお、符号
化データDencの記録に用いられる記録装置および記
録媒体Mは、通常のもので良いので特に図示および説明
を省く。以下、図2および図3において、第1符号化器
1003、第2符号化器1008の動作を説明する。
As described above, the first-time encoded video data D
After the target code amount DT and the edge class information Iec are generated as a result of the encoding of c1, the encoding of the encoded video data Dc2 for the first and subsequent times is started. That is, the second encoder 1008 determines the macroblock based on the target code amount DT (t) for each frame given from the target code amount calculator 1005 and the edge class information Iec given from the edge class information generator 1007. While controlling quantization, the first code amount DT (t) is set to the first value.
After the second time, the encoded video data Dc2 is encoded to generate the encoded data Denc. The generated encoded data Denc is output to the recording device via the output terminal 1009 and recorded on the recording medium M. Since the recording device and the recording medium M used for recording the encoded data Denc may be ordinary ones, their illustration and description will be omitted. The operations of the first encoder 1003 and the second encoder 1008 will be described below with reference to FIGS. 2 and 3.

【0092】図2に示すように、第1符号化器1003
は、入力端子2000、減算器2001、離散コサイン
(DCT)変換器2002、量子化器2003、可変長
符号化(VLC)器2004、逆量子化器2005、逆
DCT(IDCT)器2006、加算器2007、リフ
レッシュ制御器2008、リフレッシュスイッチ200
9、リフレッシュスイッチ2010、フレームメモリ2
011、動き補償器2012、出力端子2013、およ
び動き検出器2014を含む。なお、入力端子200
0、減算器2001、離散コサイン変換器2002、量
子化器2003、可変長符号化器2004、逆量子化器
2005、逆DCT器2006、加算器2007、リフ
レッシュ制御器2008、リフレッシュスイッチ200
9、リフレッシュスイッチ2010、フレームメモリ2
011、動き補償器2012、出力端子2013、およ
び動き検出器2014は、図18に示した第1符号化器
1803を構成する入力端子1900、減算器190
1、離散コサイン変換器1902、量子化器1903、
可変長符号化器1904、逆量子化器1905、逆DC
T器1906、加算器1907、リフレッシュ制御器1
908、リフレッシュスイッチ1909、リフレッシュ
スイッチ1910、フレームメモリ1911、動き補償
器1912、出力端子1913、および動き検出器19
14のそれぞれと実質的に同じものである。
As shown in FIG. 2, the first encoder 1003
Is an input terminal 2000, a subtractor 2001, a discrete cosine (DCT) converter 2002, a quantizer 2003, a variable length coding (VLC) 2004, an inverse quantizer 2005, an inverse DCT (IDCT) 2006, and an adder. 2007, refresh controller 2008, refresh switch 200
9, refresh switch 2010, frame memory 2
011 includes a motion compensator 2012, an output terminal 2013, and a motion detector 2014. The input terminal 200
0, subtractor 2001, discrete cosine transformer 2002, quantizer 2003, variable length encoder 2004, dequantizer 2005, inverse DCT device 2006, adder 2007, refresh controller 2008, refresh switch 200.
9, refresh switch 2010, frame memory 2
011, the motion compensator 2012, the output terminal 2013, and the motion detector 2014 include the input terminal 1900 and the subtractor 190 which configure the first encoder 1803 shown in FIG.
1, a discrete cosine transformer 1902, a quantizer 1903,
Variable length encoder 1904, inverse quantizer 1905, inverse DC
T unit 1906, adder 1907, refresh controller 1
908, refresh switch 1909, refresh switch 1910, frame memory 1911, motion compensator 1912, output terminal 1913, and motion detector 19
Substantially the same as each of the fourteen.

【0093】よって、図15を参照して説明したよう
に、入力端子2000を介して、セレクタ1002から
入力される1回目符号化映像データDc1は、第1符号
化器1003の内部で図18を参照して説明したのと同
様に種々の処理が施される。結果、第1の符号化映像デ
ータDc1eが生成されて、出力端子2013から符号
発生量記録器1004に出力される。但し、動き補償器
2012で生成された第1の動き補償化映像データα
は、エッジ検出器1006にも直接出力される点が、第
1符号化器1803と異なる。
Therefore, as described with reference to FIG. 15, the first-time encoded video data Dc1 input from the selector 1002 via the input terminal 2000 is shown in FIG. 18 inside the first encoder 1003. Various processes are performed in the same manner as described with reference to FIG. As a result, the first encoded video data Dc1e is generated and output from the output terminal 2013 to the code generation amount recorder 1004. However, the first motion-compensated video data α generated by the motion compensator 2012
Is different from the first encoder 1803 in that it is also directly output to the edge detector 1006.

【0094】図3に示すように、第2符号化器1008
は、入力端子3000、減算器3001、離散コサイン
変換(DCT)器3002、量子化器3003、可変長
符号化(VLC)器3004、逆量子化器3005、逆
DCT(IDCT)器3006、加算器3007、リフ
レッシュ制御器3008、リフレッシュスイッチ300
9、リフレッシュスイッチ3010、フレームメモリ3
011、動き補償器3012、出力端子3013、動き
検出器3014、バッファ3015、および量子化決定
器3016を含む。入力端子3000、減算器300
1、離散コサイン変換器3002、量子化器3003、
可変長符号化器3004、逆量子化器3005、逆DC
T器3006、加算器3007、リフレッシュ制御器3
008、リフレッシュスイッチ3009、リフレッシュ
スイッチ3010、フレームメモリ3011、動き補償
器3012、出力端子3013、動き検出器3014、
およびバッファ3015は、図19に示した入力端子2
000、減算器2001、離散コサイン変換器200
2、量子化器2003、可変長符号化器2004、逆量
子化器2005、逆DCT器2006、加算器200
7、リフレッシュ制御器2008、リフレッシュスイッ
チ2009、リフレッシュスイッチ2010、フレーム
メモリ2011、動き補償器2012、出力端子201
3、動き検出器2014、およびバッファ2015のそ
れぞれと実質的に同じものである。
As shown in FIG. 3, the second encoder 1008 is provided.
Is an input terminal 3000, a subtractor 3001, a discrete cosine transform (DCT) device 3002, a quantizer 3003, a variable length coding (VLC) device 3004, an inverse quantizer 3005, an inverse DCT (IDCT) device 3006, an adder 3007, refresh controller 3008, refresh switch 300
9, refresh switch 3010, frame memory 3
011, a motion compensator 3012, an output terminal 3013, a motion detector 3014, a buffer 3015, and a quantization decision unit 3016. Input terminal 3000, subtractor 300
1, a discrete cosine transformer 3002, a quantizer 3003,
Variable length encoder 3004, inverse quantizer 3005, inverse DC
T unit 3006, adder 3007, refresh controller 3
008, refresh switch 3009, refresh switch 3010, frame memory 3011, motion compensator 3012, output terminal 3013, motion detector 3014,
And the buffer 3015 corresponds to the input terminal 2 shown in FIG.
000, subtractor 2001, discrete cosine converter 200
2. Quantizer 2003, variable length encoder 2004, inverse quantizer 2005, inverse DCT device 2006, adder 200
7, refresh controller 2008, refresh switch 2009, refresh switch 2010, frame memory 2011, motion compensator 2012, output terminal 201
3, the motion detector 2014, and the buffer 2015, respectively.

【0095】量子化決定器3016は、目標符号量DT
およびバッファ占有量情報Ibに基づいて、マクロブロ
ックMB毎に量子化量VQを決定して量子化器3003
を制御する部分については、量子化決定器2016と同
様である。しかしながら、量子化決定器3016は、量
子化決定器2016と異なり、量子化決定器3016
は、目標符号量DTおよびバッファ占有量情報Ibに加
えてエッジクラス情報Iec基づいて、量子化量VQc
を決定して、量子化器3003を制御する。言い換えれ
ば、量子化量VQcは、符号化するエッジ部分の重要度
に応じて、量子化量VQを補正したものである。この点
について重点的に、第2符号化器1008の動作を以下
に説明する。
The quantizer determiner 3016 uses the target code amount DT.
Based on the buffer occupancy information Ib, the quantization amount VQ is determined for each macroblock MB, and the quantizer 3003
The part for controlling is the same as that of the quantization decision unit 2016. However, the quantizer determiner 3016 differs from the quantizer decider 2016 in that
Is a quantization amount VQc based on the edge code information Iec in addition to the target code amount DT and the buffer occupation amount information Ib.
Is determined and the quantizer 3003 is controlled. In other words, the quantization amount VQc is the quantization amount VQ corrected according to the importance of the edge portion to be encoded. Focusing on this point, the operation of the second encoder 1008 will be described below.

【0096】入力端子3000は、セレクタ1002に
接続されて、第1の2回目以降符号化映像データDc2
が入力される。減算器3001は、一方の入力ポートが
入力端子3000に接続され、もう一方の入力ポートは
リフレッシュスイッチ3009、リフレッシュスイッチ
3010、動き補償器3012、フレームメモリ301
1、加算器3007、逆DCT器3006、逆量子化器
3005、量子化器3003、および離散コサイン変換
器3002を経由して、自身の出力ポートに接続され
て、現フレームの第1の2回目以降符号化映像データD
c2(t)と、復元される所定フレーム数(d)前の第
3の動き補償化映像データβcとの差である第3の差分
△Dc2cを算出する。
The input terminal 3000 is connected to the selector 1002, and the first and second and subsequent encoded video data Dc2 are connected.
Is entered. The subtractor 3001 has one input port connected to the input terminal 3000, and the other input port having a refresh switch 3009, a refresh switch 3010, a motion compensator 3012, and a frame memory 301.
1, the adder 3007, the inverse DCT unit 3006, the inverse quantizer 3005, the quantizer 3003, and the discrete cosine transformer 3002, and is connected to its own output port, and the first second time of the current frame. After that, encoded video data D
A third difference ΔDc2c, which is the difference between c2 (t) and the third motion-compensated video data βc before the predetermined number of frames (d) to be restored, is calculated.

【0097】なお、量子化決定器2016による量子化
量VQが目標符号量DT、およびバッファ占有量情報I
bのみに基づいて決定されるに対して、量子化決定器3
016による量子化量VQcが目標符号量DT、バッフ
ァ占有量情報Ib、およびエッジクラス情報Iecに基
づいて、変換後のエッジが保護されるように決定される
点において、第3の動き補償化映像データβcは、第2
の動き補償化映像データβと異なる特徴を有する。これ
については、以下に詳しく説明する。
The quantization amount VQ by the quantization determiner 2016 is the target code amount DT and the buffer occupation amount information I.
Quantization decider 3 whereas decision is made based on b only
The third motion-compensated video is that the quantization amount VQc by 016 is determined so that the converted edge is protected based on the target code amount DT, the buffer occupation information Ib, and the edge class information Iec. The data βc is the second
It has a feature different from the motion-compensated video data β of. This will be described in detail below.

【0098】第3の動き補償化映像データβcには、第
3の遅延フレーム内映像データDc2rcdが動き補償
されて生成されたデータと、第3の遅延フレーム間映像
データ(△Dc2rc+βc)が動き補償されて生成さ
れたデータとが含まれる。そして、第3の差分△Dc2
cは、第1の2回目以降符号化映像データDc2と第3
の遅延フレーム間映像データ(△Dc2rc+βc)が
動き補償されて生成された第3の動き補償化映像データ
βcのみとの減算で求められる。
In the third motion-compensated video data βc, data generated by motion-compensating the third delayed intra-frame video data Dc2rcd and the third delayed inter-frame video data (ΔDc2rc + βc) are motion-compensated. And the generated data. Then, the third difference ΔDc2
c is the encoded video data Dc2 and the third encoded video data from the first second time onward.
Of the delayed inter-frame video data (ΔDc2rc + βc) is motion-compensated to generate only the third motion-compensated video data βc.

【0099】リフレッシュ制御器3008は、第1の2
回目以降符号化映像データDc2の処理されるべきピク
チャのタイプに応じて、リフレッシュスイッチ3009
およびリフレッシュスイッチ3010のオンおよびオフ
を制御する。すなわち、リフレッシュ制御器3008
は、処理されるべきピクチャがIピクチャである場合に
は、フレーム内圧縮をするために、リフレッシュスイッ
チ3009および3010をオフにすることによって、
減算器3001による第3の差分△Dc2cを生成させ
ない。
The refresh controller 3008 has a first
The refresh switch 3009 according to the type of picture to be processed in the encoded video data Dc2 from the second time onward.
And controls on / off of the refresh switch 3010. That is, the refresh controller 3008
By turning off refresh switches 3009 and 3010 for intra-frame compression if the picture to be processed is an I-picture,
The subtracter 3001 does not generate the third difference ΔDc2c.

【0100】上述のように、入力端子3000より入力
された第1の2回目以降符号化映像データDc2は、減
算器3001による減算処理を受けることなく離散コサ
イン変換器3002に出力される場合と、減算器300
1で減算処理を受けて生成される第3の差分△Dc2c
が離散コサイン変換器3002に出力される場合があ
る。これら第1の2回目以降符号化映像データDc2あ
るいは第3の差分△Dc2cは、離散コサイン変換器2
002により離散コサイン変換されて、8×8=64個
の係数が得られる。この係数を第3の係数K2cと称す
る。この第3の係数K2cも、第1の2回目符号化映像
差分△Dc2と異なる第3の差分△Dc2cが離散コサ
イン変換されて生成された係数を含む点において、上述
の第2の係数K2と異なる。
As described above, the first and second and subsequent encoded video data Dc2 input from the input terminal 3000 are output to the discrete cosine converter 3002 without being subjected to the subtraction processing by the subtractor 3001. Subtractor 300
Third difference ΔDc2c generated by subtraction processing at 1
May be output to the discrete cosine transformer 3002. The coded video data Dc2 or the third difference ΔDc2c from the first second time onward is calculated by the discrete cosine converter 2
The discrete cosine transform is performed by 002 to obtain 8 × 8 = 64 coefficients. This coefficient is called the third coefficient K2c. This third coefficient K2c also differs from the above-mentioned second coefficient K2 in that it includes a coefficient generated by performing a discrete cosine transform of a third difference ΔDc2c different from the first second-time encoded video difference ΔDc2. different.

【0101】第3の係数K2cは、量子化器3003に
よって、各周波数成分毎に最適にビット配分されて、第
3の被量子化係数K2Qcが生成される。なお、第3の
係数K2cが第2の係数K2と異なるので、当然第3の
被量子化係数K2Qcは、第2の被量子化係数K2Qと
異なる特徴を有する係数である。
The third coefficient K2c is optimally bit-distributed for each frequency component by the quantizer 3003 to generate a third quantized coefficient K2Qc. Since the third coefficient K2c is different from the second coefficient K2, the third quantized coefficient K2Qc is a coefficient having characteristics different from the second quantized coefficient K2Q.

【0102】なお、第2符号化器1008においては、
第1符号化器1003における場合と異なり、この時点
で量子化決定器3016によって量子化器3003によ
る量子化ステップQSの制御が行われる。つまり、量子
化決定器3016が、各フレーム毎に与えられる目標符
号量DT、バッファ占有量情報Ib、およびエッジクラ
ス情報Iecに基づいて、量子化ステップQS(量子化
量VQc)を算出すると共に、算出された量子化ステッ
プQS(量子化量VQc)を量子化器3003に与える
In the second encoder 1008,
Unlike the case in the first encoder 1003, at this point, the quantization determiner 3016 controls the quantization step QS by the quantizer 3003. That is, the quantization determiner 3016 calculates the quantization step QS (quantization amount VQc) based on the target code amount DT, the buffer occupation amount information Ib, and the edge class information Iec given for each frame, and The calculated quantization step QS (quantization amount VQc) is given to the quantizer 3003.

【0103】バッファ3014の状態(バッファ占有量
情報Ib)に基づいて、量子化ステップQSの制御を行
うのは、基本的に、バッファ3014が破綻する可能性
が検出された場合である。通常の状態では、バッファ3
014の状態に基づく量子化ステップQSの制御は行わ
れない。目標符号量を算出する際、バッファ状態をシミ
ュレートして、バッファが破綻しないように符号量の割
り当てを行うため、この予測精度がある程度保証されて
いれば、通常バッファ3014が破綻することはない。
The quantization step QS is controlled on the basis of the state of the buffer 3014 (buffer occupancy information Ib) basically when the possibility that the buffer 3014 will fail is detected. Under normal conditions, buffer 3
The control of the quantization step QS based on the state of 014 is not performed. When calculating the target code amount, the buffer state is simulated and the code amount is assigned so that the buffer does not fail. Therefore, if the prediction accuracy is guaranteed to some extent, the normal buffer 3014 will not fail. .

【0104】量子化器3003から出力される第3の被
量子化係数K2Qcは、可変長符号化器2004によっ
て可変長符号化を施されて第3の符号化映像データDc
2ecが生成される。第3の被量子化係数K2Qcは、
第2の被量子化係数K2Qに比べてエッジが保護されて
いるので、第3の符号化映像データDc2ecも上述の
第2の符号化映像データDc2eに比べて、エッジが保
護されている。一方、第3の被量子化係数K2Qcは、
逆量子化器3005によって量子化が元に戻されて第3
の係数K2rcが生成される。
The third quantized coefficient K2Qc output from the quantizer 3003 is subjected to variable length coding by the variable length coder 2004, and third coded video data Dc is obtained.
2 ec is generated. The third quantized coefficient K2Qc is
Since the edge is protected as compared with the second quantized coefficient K2Q, the edge of the third coded video data Dc2ec is also protected as compared with the second coded video data Dc2e described above. On the other hand, the third quantized coefficient K2Qc is
The inverse quantizer 3005 restores the original quantization, and the third
The coefficient K2rc of is generated.

【0105】そして、逆量子化により元の振幅に戻され
た第3の係数K2rcは、逆DCT器3006により元
の映像データである、第2の復元2回目以降符号化映像
データDc2rcあるいは第2の復元2回目以降符号化
映像差分△Dc2rcに復元される。なお、第2の復元
2回目以降符号化映像データDc2rcあるいは第2の
復元2回目以降符号化映像差分△Dc2rcは共に、量
子化決定器3016によるエッジクラス情報Iecに基
づいて、エッジが保護されて量子化されている点が、そ
れぞれ第2の復元2回目以降符号化映像データDc2r
あるいは第1の復元2回目以降符号化映像差分△Dc2
rと異なる。
The third coefficient K2rc returned to the original amplitude by the inverse quantization is the original image data by the inverse DCT unit 3006, that is, the second and subsequent encoded image data Dc2rc or the second encoded image data Dc2rc. Is restored to the encoded video difference ΔDc2rc. Note that both the second restored second and subsequent encoded video data Dc2rc and the second restored second and subsequent encoded video difference ΔDc2rc are both edges protected based on the edge class information Iec by the quantization determiner 3016. Each of the quantized points is the second restoration second and subsequent encoded video data Dc2r.
Alternatively, the coded video difference ΔDc2 from the second restoration onward
Different from r.

【0106】逆DCT器3006からの出力が第2の復
元2回目以降符号化映像データDc2rc、つまりフレ
ーム内映像データである場合は、上述のように、リフレ
ッシュ制御器3008はリフレッシュスイッチ3010
をオフにして加算器3007による加算処理を実行させ
ない。一方、逆DCT器3006からの出力が第2の復
元2回目以降符号化映像差分△Dc2rc、つまりフレ
ーム間映像データである場合は、リフレッシュ制御器3
008はリフレッシュスイッチ3010をオンにして、
加算器3007による第3の動き補償化映像データβc
の加算処理を実行させる。よって、加算器3007から
は、第2の復元2回目以降符号化映像データDc2rc
あるいは第3のリフレッシュデータ(△Dc2rc+β
c)の何れか出力される。
When the output from the inverse DCT unit 3006 is the encoded image data Dc2rc from the second restoration onward, that is, the in-frame image data, the refresh controller 3008 causes the refresh switch 3010 to operate as described above.
Is turned off, and the addition processing by the adder 3007 is not executed. On the other hand, when the output from the inverse DCT unit 3006 is the encoded image difference ΔDc2rc, that is, the inter-frame image data after the second restoration, the refresh controller 3
008 turns on the refresh switch 3010,
Third motion-compensated video data βc by the adder 3007
Is executed. Therefore, from the adder 3007, the encoded video data Dc2rc after the second restoration
Alternatively, the third refresh data (ΔDc2rc + β
Either c) is output.

【0107】その後、フレームメモリ3011は、復元
された映像データ(第2の復元2回目以降符号化映像デ
ータDc2rc或い第3のリフレッシュデータ(△Dc
2rc+βc))は、フレームメモリ3011により所
定数(d)のフレーム分だけ遅延されてフレーム遅延映
像データを生成する。つまり、フレームメモリ3011
は、第2の復元2回目以降符号化映像データDc2rc
をdフレーム分だけ遅延させて第3の遅延フレーム内映
像データDc2rcdを生成すると共に、第3のリフレ
ッシュデータ(△Dc2rc+βc)をdフレーム分だ
け遅延させて第3の遅延フレーム間映像データ(△Dc
2rc+βc)dを生成する。
After that, the frame memory 3011 stores the restored video data (the coded video data Dc2rc or the second refresh data after the second restoration or the third refresh data (ΔDc).
2rc + βc)) is delayed by a predetermined number (d) of frames by the frame memory 3011 to generate frame-delayed video data. That is, the frame memory 3011
Is the second restored second and subsequent encoded video data Dc2rc
Is delayed by d frames to generate the third delayed frame video data Dc2rcd, and the third refresh data (ΔDc2rc + βc) is delayed by d frames to generate the third delayed interframe video data (ΔDc
2rc + βc) d is generated.

【0108】動き検出器3014は、入力端子3000
から入力される第1の2回目以降符号化映像データDc
2に基づいて、映像のフレーム間の動きベクトルを求め
て動き量Amを検出する。
The motion detector 3014 has an input terminal 3000.
The second and subsequent encoded video data Dc input from
Based on 2, the motion amount Am is detected by obtaining the motion vector between the frames of the video.

【0109】動き補償器3012は、動き検出器301
4で検出された動き量Amに基づいて、フレームメモリ
3011から出力される第3の遅延フレーム内映像デー
タDc2rcdあるいは、第3の遅延フレーム間映像デ
ータ(△Dc2rc+βc)dの表す映像の位置を現時
点の第1の2回目以降符号化映像データDc2の表す映
像の位置と同一になるように動き補償した、第3の動き
補償化映像データβcを生成する。
The motion compensator 3012 is the motion detector 301.
Based on the amount of motion Am detected in step 4, the position of the image represented by the third delayed frame video data Dc2rcd or the third delayed interframe video data (ΔDc2rc + βc) d output from the frame memory 3011 is currently determined. 3rd motion-compensated video data βc that has been motion-compensated to be the same as the position of the video represented by the encoded video data Dc2 from the first second time onward.

【0110】この第3の動き補償化映像データβcは、
減算器3001により次の映像データ(第1の2回目以
降符号化映像データDc2)との差(第3の差分△Dc
2c)を計算するのに使われる。しかしながら、第3の
遅延フレーム内映像データDc2rcdを動き補償して
生成した第3の動き補償化映像データβcは、実質的に
現在の第1の2回目以降符号化映像データDc2と同一
であるので、減算器3001で第3の差分△Dc2cの
生成に用いることは無意味である。
The third motion-compensated video data βc is
The difference (third difference ΔDc) from the next video data (first and subsequent encoded video data Dc2) is calculated by the subtractor 3001.
It is used to calculate 2c). However, the third motion-compensated video data βc generated by motion-compensating the third delayed intra-frame video data Dc2rcd is substantially the same as the current first and subsequent encoded video data Dc2. It is meaningless to use the subtractor 3001 to generate the third difference ΔDc2c.

【0111】よって、リフレッシュ制御器3008は、
処理されるべきピクチャがPピクチャまたはBピクチャ
である場合には、リフレッシュスイッチ3009および
3010をオンにして、加算器3007から第2の復元
2回目以降符号化映像データDc2rcではなく、第3
のリフレッシュデータ(△Dc2rc+βc)をフレー
ムメモリ3011に出力させ、フレームメモリ3011
からは第3の遅延フレーム間映像データ(△Dc2rc
+βc)dを動き補償器3012に出力させ、動き補償
器3012からは第3の遅延フレーム間映像データ(△
Dc2rc+βc)dの動き補償した第3の動き補償化
映像データβcを加算器3007と減算器3001に出
力させることによって、フレーム間圧縮を実行させる。
Therefore, the refresh controller 3008 is
If the picture to be processed is a P-picture or a B-picture, the refresh switches 3009 and 3010 are turned on so that the adder 3007 returns to the third and not the second encoded video data Dc2rc after the second restoration.
Refresh data (ΔDc2rc + βc) of the frame memory 3011 is output to the frame memory 3011.
From the third delayed inter-frame video data (ΔDc2rc
+ Βc) d is output to the motion compensator 3012, and from the motion compensator 3012, the third delayed interframe video data (Δ
The inter-frame compression is performed by outputting the motion-compensated third motion-compensated video data βc of Dc2rc + βc) d to the adder 3007 and the subtractor 3001.

【0112】リフレッシュスイッチ3009は、フレー
ム間の差分を計算する時にオンにされて、減算器300
1を動作させるのに使われる。リフレッシュスイッチ3
010は、リフレッシュスイッチ3009と同一の周期
でオンおよびオフを繰り返す。リフレッシュスイッチ3
010がオンの時は、加算器3007を動作させ、フレ
ーム間差分データ(第2の復元2回目以降符号化映像差
分△Dc2rc)と前フレームデータ(第2の復元2回
目以降符号化映像データDc2rc)を加算し、フレー
ムを復元するのに使われる。可変長符号化器3004
は、フレーム間圧縮データ(第1の2回目符号化映像差
分△Dc2c)に対しても可変長符号化を行う。
The refresh switch 3009 is turned on when calculating the difference between frames, and the subtractor 300
Used to run 1. Refresh switch 3
010 repeatedly turns on and off in the same cycle as the refresh switch 3009. Refresh switch 3
When 010 is on, the adder 3007 is operated, and the inter-frame difference data (second restored second and subsequent encoded video difference ΔDc2rc) and the previous frame data (second restored second and subsequent encoded video data Dc2rc ) Is added and used to restore the frame. Variable length encoder 3004
Performs variable length coding also on the inter-frame compressed data (first second-coded video difference ΔDc2c).

【0113】可変長符号化器3004で符号化された第
3の符号化映像データDc2ecは、出力端子3013
により出力される。
The third encoded video data Dc2ec encoded by the variable length encoder 3004 is output to the output terminal 3013.
Is output by.

【0114】上述のように、第1符号化器1003によ
る1回目の符号化により検出された区間毎の符号化の難
易度を示す目標符号量DTおよびマクロブロック毎のエ
ッジクラス情報Ieに基づいて、第2符号化器1008
はエッジが保護されるようにクロブロックの量子化を制
御して、第1の2回目以降符号化映像データDc2の符
号化を行う。
As described above, based on the target code amount DT and the edge class information Ie for each macroblock, which indicates the degree of difficulty of encoding for each section detected by the first encoding by the first encoder 1003. , The second encoder 1008
Controls the quantization of the black block so as to protect the edges, and encodes the encoded video data Dc2 for the first and subsequent times.

【0115】図4および図6に示すフローチャートを参
照して、本発明の実施の形態に係る映像信号を圧縮符号
化する方法について説明する。上述のように、本発明に
係る映像信号の符号化フローは、第1符号化器100
3、符号発生量記録器1004、目標符号量算出器10
05、エッジ検出器1006、およびエッジクラス情報
生成器1007が1回目符号化映像データDc1に対し
て実行する予備符号化フロー(図4)と、予備符号化フ
ローによって得られたエッジクラス情報Iecおよび目
標符号量DTに基づいて第2符号化器1008第1の2
回目以降符号化映像データDc22に対して実行する実
符号化フロー(図6)の2つに大別される。
A method for compression-encoding a video signal according to the embodiment of the present invention will be described with reference to the flowcharts shown in FIGS. 4 and 6. As described above, the encoding flow of the video signal according to the present invention is performed by the first encoder 100.
3, code generation amount recorder 1004, target code amount calculator 10
05, the edge detector 1006, and the edge class information generator 1007 perform the preliminary encoding flow (FIG. 4) executed on the first-time encoded video data Dc1, and the edge class information Iec obtained by the preliminary encoding flow. The second encoder 1008 first 2 based on the target code amount DT
The actual encoding flow (FIG. 6) executed for the encoded video data Dc22 after the first time is roughly divided into two.

【0116】図4に示すように、予備符号化フローが開
始されると、先ず、ステップS40001において、映
像データ(表示順映像データ)Dvが入力端子1000
を介して、リオーダ器1001にフレーム単位で取り込
まれる。リオーダ器1001は、取り込んだ表示順映像
データDvを表示順から符号化順に並び替えて、符号化
順映像データDcを生成してセレクタ1002に出力す
る。そして、処理は次のステップS40002に進む。
As shown in FIG. 4, when the preliminary encoding flow is started, first, in step S40001, the video data (display order video data) Dv is input terminal 1000.
Via the reorder device 1001 via the frame. The reorder unit 1001 rearranges the fetched display order video data Dv from the display order to the coding order to generate the coding order video data Dc and outputs it to the selector 1002. Then, the process proceeds to the next step S40002.

【0117】ステップS40002において、符号化順
映像データDcのフレーム毎にピクチャタイプがI、つ
まりイントラフレームであるか否かが判断される。No
の場合は、処理はステップS40003に進む。一方、
Yes、つまりイントラフレームであると判断された場
合、処理はステップS40012に進む。
In step S40002, it is determined for each frame of the encoded video data Dc whether the picture type is I, that is, the intra frame. No
In the case of, the process proceeds to step S40003. on the other hand,
If Yes, that is, if it is determined to be an intra frame, the process proceeds to step S40012.

【0118】ステップS40003において、第1符号
化器1003の動き検出器2014によって、1回目符
号化映像データDc1(Dc)の動きが検出されて、動
き量Amが生成される。そして、処理はステップS40
004に進む。
In step S40003, the motion detector 2014 of the first encoder 1003 detects the motion of the first-time encoded video data Dc1 (Dc) and generates the motion amount Am. Then, the process is step S40.
Proceed to 004.

【0119】ステップS40004において、動き補償
器2012はフレームメモリ2011から入力される第
1の遅延フレーム内映像データDc1rdと、動き検出
器2014から入力される動き量Amに基づいて、第1
の動き補償化映像データαを生成する。そして、処理は
ステップS40005に進む。
In step S40004, the motion compensator 2012 makes a first decision based on the first delayed intra-frame video data Dc1rd input from the frame memory 2011 and the motion amount Am input from the motion detector 2014.
Motion-compensated video data α is generated. Then, the process proceeds to step S40005.

【0120】ステップS40005において、エッジ検
出器1006は、動き補償器2012から入力される第
1の動き補償化映像データαにおけるエッジを検出し
て、エッジ情報Ieを生成する。なお、このエッジ情報
Ieを、非イントラエッジ情報Ienと称する。そし
て、処理はステップS40006に進む。
In step S40005, the edge detector 1006 detects an edge in the first motion-compensated video data α input from the motion compensator 2012, and generates edge information Ie. The edge information Ie is referred to as non-intra edge information Ien. Then, the process proceeds to step S40006.

【0121】一方、ステップS40012においては、
エッジ検出器1006はセレクタ1002から入力され
る1回目符号化映像データDc1におけるエッジを検出
して、エッジ情報Ieを生成する。このエッジ情報Ie
を、イントラエッジ情報Ieiと称する。なお、上述の
非イントラエッジ情報Ienおよびイントラエッジ情報
Ieiをエッジ情報Ieと総称する。そして、処理はス
テップS40006に進む。なお、本ステップにおける
エッジ検出およびイントラエッジ情報Ieiの生成に関
しては、後ほど図7、図8、および図9、図10を参照
して詳しく説明する。
On the other hand, in step S40012,
The edge detector 1006 detects an edge in the first-time encoded video data Dc1 input from the selector 1002, and generates edge information Ie. This edge information Ie
Is referred to as intra-edge information Iei. The above-mentioned non-intra edge information Ien and intra edge information Iei are collectively referred to as edge information Ie. Then, the process proceeds to step S40006. It should be noted that the edge detection and the generation of the intra edge information Iei in this step will be described later in detail with reference to FIGS. 7, 8, 9 and 10.

【0122】ステップS40006において、エッジク
ラス情報生成器1007は、非イントラエッジ情報Ie
nおよびイントラエッジ情報Ieiに基づいて、それぞ
れ、マクロブロック重要度情報である非イントラエッジ
クラス情報Iecnおよびイントラエッジクラス情報I
eciを生成する。なお、非イントラエッジクラス情報
Iecnおよびイントラエッジクラス情報Ieciを、
エッジクラス情報Iecと総称する。
In step S40006, the edge class information generator 1007 has the non-intra edge information Ie.
n and the intra-edge information Iei, respectively, based on the non-intra-edge class information Iecn and the intra-edge class information I, which are macroblock importance information.
generate eci. The non-intra edge class information Iecn and the intra edge class information Ieci are
Collectively referred to as edge class information Iec.

【0123】本発明においては、ステップS40012
におけるイントラフレーム用エッジ検出強度を、ステッ
プS4005におけるノンイントラフレーム用エッジ検
出強度よりも大きくする。つまり、イントラエッジ情報
Ieiと非イントラエッジ情報Ienとが同じ強度のエ
ッジを表す場合にも、イントラエッジクラス情報Iec
iの方が非イントラエッジクラス情報Iecnより高い
重要度を示すように設定される。このように、イントラ
フレームのエッジクラスが大きくする(重要度を上げ)
ことによって、エッジを保護する。
In the present invention, step S40012.
The intra-frame edge detection intensity in step S4005 is made higher than the non-intra-frame edge detection intensity in step S4005. That is, even when the intra edge information Iei and the non-intra edge information Ien represent edges of the same strength, the intra edge class information Iec
i is set so as to have a higher degree of importance than the non-intra edge class information Iecn. In this way, increase the edge class of the intra frame (increased importance)
By protecting the edges.

【0124】なお、本実施形態においてはステップS4
0006およびS40012におけるエッジ検出強度が
異なるように設定している。しかしながら、同一のエッ
ジ強度に対して、対象フレームがイントラフレームであ
るか否かに応じて、エッジクラス情報Iecの値を異な
るようにステップS4006を設定しても良いことは言
うまでもない。そして、処理は次のステップS4000
7に進む。
In this embodiment, step S4
The edge detection intensities in 0006 and S40012 are set to be different. However, it goes without saying that step S4006 may be set such that the value of the edge class information Iec is different depending on whether or not the target frame is an intra frame for the same edge strength. Then, the process proceeds to the next step S4000.
Proceed to 7.

【0125】ステップS40007において、量子化器
2003は固定QSを用いて、離散コサイン変換器20
02から入力される第1の係数K1を符号化して、被量
子化第1の係数K1Qを生成する。そして、被量子化第
1の係数K1Qはさらに、可変長符号化器2004で可
変長符号化されて第1の符号化映像データDc1eとし
て、出力端子2013から出力される。そして、処理は
次のステップS40008に進む。
In step S40007, the quantizer 2003 uses the fixed QS to calculate the discrete cosine transformer 20.
The first coefficient K1 input from 02 is encoded to generate a quantized first coefficient K1Q. Then, the quantized first coefficient K1Q is further variable-length coded by the variable-length encoder 2004 and output from the output terminal 2013 as the first encoded video data Dc1e. Then, the process proceeds to the next step S40008.

【0126】ステップS40008おいて、符号発生量
記録器1004は、第1符号化器1003から入力され
る第1の符号化映像データDc1eの各フレームの発生
符号量D1および発生総符号量ΣD1をカウントする。
そして、処理は次のステップS40009に進む。
In step S40008, the code generation amount recorder 1004 counts the generated code amount D1 and the generated total code amount ΣD1 of each frame of the first encoded video data Dc1e input from the first encoder 1003. To do.
Then, the process proceeds to the next step S40009.

【0127】ステップS40009において、1回目符
号化映像データDc1の全ての入力フレームの処理が終
了しているか否かが判断される。全ての入力フレームの
処理が終わっていなければ、Noと判断されて、処理は
ステップS40001に戻る。そして、本ステップにお
いて、Yesと判断されるまで、上述のステップS40
01〜S40009およびS40012の処理を繰り返
す。そして、1回目符号化映像データDc1の全ての入
力フレームの処理が終了した後に、本ステップでYes
と判断されて、処理はステップS40010に進む。
In step S40009, it is determined whether the processing of all input frames of the first-time encoded video data Dc1 has been completed. If all the input frames have not been processed, the determination is No and the process returns to step S40001. Then, in this step, the above-described step S40 is performed until it is determined Yes.
The processing from 01 to S40009 and S40012 is repeated. Then, after the processing of all the input frames of the first-time encoded video data Dc1 is completed, Yes at this step.
Then, the process proceeds to step S40010.

【0128】ステップS40010においては、上述の
処理を経て、入力される1回目符号化映像データDc1
の全フレームのそれぞれについて検出された目標符号量
DTがファイルにセーブされる。なお、アプリケーショ
ンを終了することなく、2回目以降の符号化を行う場合
は、算出された各フレームの目標符号量Dをファイルに
セーブしなくても良い。
In step S40010, the first-time encoded video data Dc1 input through the above-described processing is input.
The target code amount DT detected for each of all the frames is saved in the file. When the second and subsequent encodings are performed without terminating the application, it is not necessary to save the calculated target code amount D of each frame in a file.

【0129】次に、実符号化フローについて図5を用い
て説明する。図5に示すように、実符号化フローが開始
されると、先ず、ステップS50001において、第2
符号化器1808の量子化決定器3016に、フレーム
の目標符号量DTが読み込まれる。そして、処理は次の
ステップS50002に進む。
Next, the actual encoding flow will be described with reference to FIG. As shown in FIG. 5, when the actual encoding flow is started, first, in step S50001, the second
The target code amount DT of the frame is read into the quantization determiner 3016 of the encoder 1808. Then, the process proceeds to the next step S50002.

【0130】ステップS50002において、量子化決
定器3016に、エッジクラス情報生成器1007から
フレーム毎にエッジクラス情報Iecが読み込まれる。
そして、処理は次のステップS50003に進む。
In step S50002, the edge class information Iec is read into the quantization determiner 3016 from the edge class information generator 1007 for each frame.
Then, the process proceeds to the next step S50003.

【0131】ステップS50003において、映像デー
タ(表示順映像データ)Dvが入力端子1000を介し
て、リオーダ器1001にフレーム単位で取り込まれ
る。リオーダ器1001は、取り込んだ表示順映像デー
タDvを表示順から符号化順に並び替えて、符号化順映
像データDcを生成してセレクタ1002に出力する。
そして、処理は次のステップS50004に進む。
In step S50003, video data (display order video data) Dv is fetched into the reorder unit 1001 in frame units via the input terminal 1000. The reorder unit 1001 rearranges the fetched display order video data Dv from the display order to the coding order to generate the coding order video data Dc and outputs it to the selector 1002.
Then, the process proceeds to the next step S50004.

【0132】ステップS50004において、符号化順
映像データDcのフレームのピクチャタイプがI、つま
りイントラフレームであるか否かが判断される。Noの
場合は、処理はステップS50005に進む。
In step S50004, it is determined whether the picture type of the frame of the encoded video data Dc is I, that is, the intra frame. In No, a process progresses to step S50005.

【0133】ステップS50005において、第2符号
化器1008の動き検出器3014によって、第1の2
回目以降符号化映像データDc2(Dc)の動きが検出
されて、動き量Amが生成される。そして、処理はステ
ップS50006に進む。
In step S50005, the motion detector 3014 of the second encoder 1008 causes the first 2
The motion of the encoded video data Dc2 (Dc) is detected after the first time, and the motion amount Am is generated. Then, the process proceeds to step S50006.

【0134】ステップS50006において、動き補償
器3012はフレームメモリ3011から入力される第
2の遅延フレーム内映像データDc2rdと、動き検出
器3014から入力される動き量Amに基づいて、第3
の動き補償化映像データβcを生成する。そして、処理
はステップS50007に進む。
In step S50006, the motion compensator 3012 uses the second delayed intra-frame video data Dc2rd input from the frame memory 3011 and the motion amount Am input from the motion detector 3014 to determine the third value.
Motion-compensated video data βc is generated. Then, the process proceeds to step S50007.

【0135】一方、上述のステップS50004におい
て、Yes、つまり、イントラフレームでないと判断さ
れる場合は、処理は、上述のステップS50005およ
びS50006を飛ばして、ステップS50007に進
む。
On the other hand, in step S50004 described above, if Yes, that is, if it is determined that the frame is not an intra frame, the process skips steps S50005 and S50006 described above, and proceeds to step S50007.

【0136】ステップS50007において、量子化決
定器3016は、上述のステップS50001で読み込
んだ目標符号量DT、ステップS50002で読み込ん
だエッジクラス情報Iecに基づいて、量子化量VQc
を決定する。そして、処理は次のステップS50008
に進む。
In step S50007, the quantization determiner 3016 determines the quantization amount VQc based on the target code amount DT read in step S50001 and the edge class information Iec read in step S50002.
To decide. Then, the process proceeds to the next step S50008.
Proceed to.

【0137】ステップS50008おいて、量子化器3
003は、量子化量VQcに基づいて、離散コサイン変
換器3002から入力される第3の係数K2cを可変長
符号化して第3の被量子化係数K2Qcを生成する。こ
のように、ステップS50002で読み出した目標符号
量DTに従って符号化を行う。なお、上述のステップS
5004でYesと判断されたIピクチャの場合、第3
の係数K2cは第1の2回目以降符号化映像データDc
2が離散コサイン変換されたものである。そして、ステ
ップS5004でNoと判断された非Iピクチャの場
合、第3の係数K2cは第1の2回目以降符号化映像デ
ータDc2と第3の動き補償化映像データβcとの差で
ある第1の2回目符号化映像差分△Dc2cが離散コサ
イン変換されたものである。そして、処理は次のステッ
プS50009に進む。
In step S50008, the quantizer 3
003 variable-length-encodes the third coefficient K2c input from the discrete cosine transformer 3002 based on the quantization amount VQc to generate a third quantized coefficient K2Qc. In this way, encoding is performed according to the target code amount DT read in step S50002. Note that the above step S
In the case of an I picture determined to be Yes in 5004, the third
Coefficient K2c of the first and second encoded video data Dc
2 is the result of discrete cosine transformation. Then, in the case of the non-I picture determined as No in step S5004, the third coefficient K2c is the difference between the first and second encoded video data Dc2 and the third motion-compensated video data βc. The second-time coded video difference ΔDc2c is subjected to discrete cosine transform. Then, the process proceeds to the next step S50009.

【0138】ステップS50009において、第1の2
回目以降符号化映像データDc2の全ての入力フレーム
の処理が終了しているか否かが判断される。全ての入力
フレームの処理が終わっていなければ、Noと判断され
て、処理はステップS50001に戻る。そして、本ス
テップにおいて、Yesと判断されるまで、上述のステ
ップS5001〜S40008の処理を繰り返す。そし
て、第1の2回目以降符号化映像データDc2の全ての
入力フレームの処理が終了した後に、本ステップでYe
sと判断されて、処理は終了される。
In step S50009, the first 2
It is determined whether or not the processing of all input frames of the encoded video data Dc2 has been completed after the first time. If all the input frames have not been processed, the determination is No and the process returns to step S50001. Then, in this step, the above-described steps S5001 to S40008 are repeated until it is determined Yes. Then, after the processing of all the input frames of the encoded video data Dc2 has been completed from the first second time onward, Ye is performed in this step.
It is determined to be s, and the process ends.

【0139】なお、上述の本発明の実施形態に係る符号
化装置ENにおける圧縮符号化は主にソフトウェアで実
現できることは言うまでもない。
It goes without saying that the compression coding in the coding device EN according to the above-described embodiment of the present invention can be realized mainly by software.

【0140】以下に、図6、図7、および図8を参照し
て、上述のステップS40012における、エッジ検出
およびイントラエッジ情報Ieiの生成について詳述す
る。先ず、図6に示すように、ステップS40012
は、大別して、ステップ#40002の「マクロブロッ
ク単位エッジ検出」サブルーチンと、ステップ#400
03の「エッジ情報生成」サブルーチンとで構成され
る。
Hereinafter, the edge detection and the generation of the intra-edge information Iei in step S40012 will be described in detail with reference to FIGS. 6, 7 and 8. First, as shown in FIG. 6, step S40012.
Are roughly classified into a "macroblock unit edge detection" subroutine of step # 40002 and a step # 400.
No. 03 "edge information generation" subroutine.

【0141】ステップ#4002の「マクロブロック単
位エッジ検出」サブルーチンは、さらにステップ#60
001の「輝度エッジ検出」サブルーチンと、ステップ
#60002の「色差エッジ検出」サブルーチンとを含
む。
The "macroblock unit edge detection" subroutine of step # 4002 further includes step # 60.
A "luminance edge detection" subroutine of 001 and a "color difference edge detection" subroutine of step # 60002 are included.

【0142】さらに、図7に示すように、ステップ#6
0001の「輝度エッジ検出」サブルーチンは、ステッ
プS70001の「マクロブロック輝度データ読込」処
理、ステップS70002の「ブロックのアクティビテ
ィ算出」処理、ステップS70003の「マクロブロッ
クの分散算出」処理、およびステップS70004の
「輝度エッジ判定」処理とを含む。
Further, as shown in FIG. 7, step # 6
The “luminance edge detection” subroutine of 0001 is “macroblock luminance data reading” processing of step S70001, “block activity calculation” processing of step S70002, “macroblock variance calculation” processing of step S70003, and “step 700004”. Luminance edge determination ”processing.

【0143】また、図8に示すように、ステップ#60
02の「色差エッジ検出」サブルーチンは、ステップS
80001の「マクロブロック色差データ読込」処理、
ステップS80002の「ブロックのアクティビティ算
出」処理、およびステップS80003の「色差エッジ
判定」処理を含む。
Further, as shown in FIG. 8, step # 60
The "color-difference edge detection" subroutine 02 is performed in step S
80001 "Read macro block color difference data" processing,
This includes the "block activity calculation" process of step S80002 and the "color difference edge determination" process of step S80003.

【0144】以下に、各ステップにおける動作を述べな
がら、ステップS40012の全体の動作について説明
する。図7に示すように、ステップ#40002の「マ
クロブロック単位エッジ検出」サブルーチンの「輝度エ
ッジ検出」サブルーチン#60001において、輝度デ
ータに対するエッジが検出されて、輝度エッジ情報が生
成される。引き続き、「色差エッジ検出」サブルーチン
#60002において、色差データに対すエッジが検出
されて、色差エッジ情報が生成される。
The overall operation of step S40012 will be described below while describing the operation of each step. As shown in FIG. 7, in the "luminance edge detection" subroutine # 60001 of the "macroblock unit edge detection" subroutine of step # 40002, an edge for the luminance data is detected and luminance edge information is generated. Subsequently, in "color difference edge detection" subroutine # 60002, an edge for the color difference data is detected, and color difference edge information is generated.

【0145】図7に示すように、「輝度エッジ検出」サ
ブルーチン#60001のステップS7001におい
て、マクロブロックMB単位に輝度データが読み込まれ
る。マクロブロックMBは、図9および図10に示すよ
うに4つのサブブロックBLK0、BLK1、BLK
2、およびBLK3から構成される。
As shown in FIG. 7, in step S7001 of the "luminance edge detection" subroutine # 60001, the luminance data is read in macroblock MB units. The macro block MB has four sub blocks BLK0, BLK1, and BLK as shown in FIGS.
2 and BLK3.

【0146】ステップS70002において、マクロブ
ロックMB内の4つのサブブロックBLK0〜BLK3
のアクティビティACT(BLK)が算出される。な
お、アクティビティACT(BLK)は、画素レベルX
およびサブブロック内の画素レベルの平均値avgXに
基づいて、例えば次式2に従って算出される。
In step S70002, four sub-blocks BLK0 to BLK3 in the macro block MB.
Activity ACT (BLK) is calculated. The activity ACT (BLK) is the pixel level X.
And based on the average value avgX of the pixel levels in the sub-block, for example, according to the following Expression 2.

【0147】 ACT(BLK)=1/64*Σ( X−avgX)2 ・・・(式2)ACT (BLK) = 1/64 * Σ (X-avgX) 2 (Equation 2)

【0148】ステップS70003おいて、各サブブロ
ックのアクティビティの分散を算出する。なお、サブブ
ロックのアクティビティACT(BLK)の分散値VA
R(MB)は、マクロブロック内のサブブロックのアク
ティビティの平均値avgACT(BLK)に基づい
て、例えば次式3に従って算出される。
In step S70003, the variance of the activity of each sub-block is calculated. The variance value VA of the activity ACT (BLK) of the sub block
R (MB) is calculated based on the average value avgACT (BLK) of the activity of the subblocks in the macroblock, for example, according to the following Expression 3.

【0149】 VAR(MB)=1/4*Σ(ACT(BLK) −avgACT(BLK))2 ・・・(式3)VAR (MB) = 1/4 * Σ (ACT (BLK) −avgACT (BLK)) 2 (Equation 3)

【0150】ステップS70004において、ステップ
S70003で求めた分散値VAR(MB)に基づい
て、エッジ判定が行われる。エッジ判定は、例えば、分
散値VAR(MB)の閾値(TH)判定で行われる。
In step S70004, edge determination is performed based on the variance value VAR (MB) obtained in step S70003. The edge determination is performed by, for example, the threshold value (TH) determination of the variance value VAR (MB).

【0151】図8に示すように、「色差エッジ検出」サ
ブルーチン#60002のステップS80001におい
て、マクロブロック単位に色差(UおよびV)データが
読み込まれる。色差データの場合、マクロブロックは1
つのサブブロックから構成される。
As shown in FIG. 8, in step S80001 of the "color difference edge detection" subroutine # 60002, color difference (U and V) data is read in macroblock units. For color difference data, the macroblock is 1
It consists of two sub-blocks.

【0152】ステップS80002において、マクロブ
ロック内の1つのサブブロックのアクティビティACT
(BLK)を、例えば上式2に従って算出する。
In step S80002, the activity ACT of one subblock in the macroblock
(BLK) is calculated, for example, according to the above equation 2.

【0153】ステップS80003において、アクティ
ビティACT(BLK)に基づいて、色差エッジ判定が
行われる。例えばエッジ判定は、上式2に従って求めた
アクティビティACT(BLK)の閾値(TH)判定で
行われる。
In step S80003, a color difference edge determination is made based on the activity ACT (BLK). For example, the edge determination is performed by the threshold (TH) determination of the activity ACT (BLK) obtained according to the above expression 2.

【0154】図6に示すように、ステップ#60003
において、ステップS40002で算出した各マクロブ
ロックのエッジ情報Ieに対して視覚特性による補正が
行われる。なお、図11に示すように、ステップ#60
003は、さらに、マクロブロック(MB)の平均輝度
レベルが閾値TH以上であるか否かが判断するステップ
S100000と、エッジ情報IeをEdgeをクリア
するステップS100001とを含む。
As shown in FIG. 6, step # 60003.
At, the edge information Ie of each macroblock calculated in step S40002 is corrected by the visual characteristics. Note that, as shown in FIG. 11, step # 60
003 further includes step S100000 for determining whether the average luminance level of the macroblock (MB) is equal to or higher than the threshold value TH, and step S100001 for clearing the edge information Ie from Edge.

【0155】そして、ステップS100000におい
て、マクロブロックの平均輝度レベルが閾値TH以上と
判断されれば、ステップS100001においてエッジ
情報IeのEdgeがクリアされる。これは、一般に輝
度レベルが高い程、視覚感度は鈍くという特性に基づく
ものである。つまり、入力レベルが0から255(8ビ
ット)であれば、閾値THとして200程度を設定する
ことで、視覚上劣化のわかりにくいマクロブロックのエ
ッジ情報Ieを補正することができる。この補正によ
り、視覚特性上より劣化の目立つマクロブロックに符号
量を割り当てることができる。
If it is determined in step S100000 that the average brightness level of the macroblock is equal to or higher than the threshold value TH, the edge of the edge information Ie is cleared in step S100001. This is based on the characteristic that the visual sensitivity is generally lower as the brightness level is higher. That is, when the input level is 0 to 255 (8 bits), the threshold information TH is set to about 200, whereby the edge information Ie of the macroblock whose deterioration is visually difficult to be recognized can be corrected. With this correction, the code amount can be assigned to the macroblock whose deterioration is more noticeable in terms of visual characteristics.

【0156】ステップ#60004において、輝度およ
び色差の重み付け情報に基づいて、ステップ#6000
1で検出した輝度エッジ情報およびステップ#6000
2で検出した色差エッジ情報のそれぞれに重み付けをし
て、エッジ情報Ieを生成する。エッジ情報Ieは、輝
度エッジ情報IeY、色差(U)エッジ情報IeU、色
差(V)エッジ情報IeV、輝度用重み付けWtY、色
差(U)用重み付けWtU(但し、WtY+WtU+WtV
= 1.0)に基づいて、次式4に従って算出できる。
In step # 60004, based on the weighting information of the luminance and the color difference, step # 6000.
Luminance edge information detected in 1 and step # 6000
Each of the color difference edge information detected in 2 is weighted to generate edge information Ie. The edge information Ie is luminance edge information IeY, color difference (U) edge information IeU, color difference (V) edge information IeV, luminance weighting WtY, color difference (U) weighting WtU (however, WtY + WtU + WtV).
= 1.0), it can be calculated according to the following equation 4.

【0157】 Ie=IeY*WtY+IeU*WtU+IeV * WtV・・・(式4)[0157]     Ie = IeY * WtY + IeU * WtU + IeV * WtV (Formula 4)

【0158】ステップ#60005おいて、ステップ#
60004で算出したエッジ情報Ieがエッジクラス情
報Iecにマッピングされる。図12に、エッジ情報I
eとエッジクラス情報Iecを線形にマッピングする例
を示す。図13に、エッジ情報Ieとエッジクラス情報
Iecを非線形にマッピングする例を示す。図12およ
び図13において、横軸はEdgeを示し、縦軸はエッ
ジクラスを示す。
In Step # 60005, Step #
The edge information Ie calculated in 60004 is mapped to the edge class information Iec. In FIG. 12, edge information I
An example of linearly mapping e and edge class information Iec will be shown. FIG. 13 shows an example in which the edge information Ie and the edge class information Iec are non-linearly mapped. 12 and 13, the horizontal axis indicates Edge and the vertical axis indicates edge class.

【0159】図14に示すフローチャートを参照して、
本発明の実施形態に係る符号化装置ENにおける圧縮符
号化方法の変形例について説明する。同図においては、
図4と同様に、第1符号化器1003〜エッジクラス情
報生成器1007が1回目符号化映像データDc1に対
して実行する予備符号化フローが示されている。
Referring to the flow chart shown in FIG. 14,
A modified example of the compression encoding method in the encoding device EN according to the embodiment of the present invention will be described. In the figure,
Similar to FIG. 4, a preliminary encoding flow executed by the first encoder 1003 to the edge class information generator 1007 for the first-time encoded video data Dc1 is shown.

【0160】図14に示すように、予備符号化フローが
開始されると、先ず、ステップS40101において、
映像データ(表示順映像データ)Dvが入力端子100
0を介して、リオーダ器1001にフレーム単位で取り
込まれる。リオーダ器1001は、取り込んだ表示順映
像データDvを表示順から符号化順に並び替えて、符号
化順映像データDcを生成してセレクタ1002に出力
する。そして、処理は次のステップS40102に進
む。
As shown in FIG. 14, when the preliminary coding flow is started, first, in step S40101,
Video data (display order video data) Dv is input terminal 100
It is fetched into the reorder unit 1001 in frame units via 0. The reorder unit 1001 rearranges the fetched display order video data Dv from the display order to the coding order to generate the coding order video data Dc and outputs it to the selector 1002. Then, the process proceeds to the next step S40102.

【0161】ステップS40102において、エッジ検
出器1006は、第1符号化器1003の動き補償器2
012から入力される第1の動き補償化映像データαに
おけるエッジを検出して、エッジ情報Ieを生成する。
そして、処理はステップS40103に進む。
In step S40102, the edge detector 1006 detects the motion compensator 2 of the first encoder 1003.
An edge in the first motion-compensated video data α input from 012 is detected to generate edge information Ie.
Then, the process proceeds to step S40103.

【0162】ステップS40103において、符号化順
映像データDcのピクチャタイプがI、つまりイントラ
フレームであるか否かが判断される。Noの場合、処理
はステップS40104に進む。一方、Yesの場合、
処理はステップS40112に進む。
In step S40103, it is determined whether the picture type of the encoded video data Dc is I, that is, the intra frame. In No, a process progresses to step S40104. On the other hand, if Yes,
The process proceeds to step S40112.

【0163】ステップS40104において、第1符号
化器1003の動き検出器2014によって、1回目符
号化映像データDc1(Dc)の動きが検出されて、動
き量Amが生成される。そして、処理はステップS40
105に進む。
In step S40104, the motion detector 2014 of the first encoder 1003 detects the motion of the first-time encoded video data Dc1 (Dc), and generates the motion amount Am. Then, the process is step S40.
Proceed to 105.

【0164】ステップS40105において、動き補償
器2012はフレームメモリ2011から入力される第
1の遅延フレーム内映像データDc1rdと、動き検出
器2014から入力される動き量Amに基づいて、第1
の動き補償化映像データαを生成する。そして、処理は
ステップS40106に進む。
In step S40105, the motion compensator 2012 makes a first decision based on the first delayed intra-frame video data Dc1rd input from the frame memory 2011 and the motion amount Am input from the motion detector 2014.
Motion-compensated video data α is generated. Then, the process proceeds to step S40106.

【0165】ステップS40106において、上述のス
テップS40102で生成されたエッジ情報Ieに基づ
いて、エッジクラス情報生成器1007は、非イントラ
フレームである(S40103でNo)と判断されてい
る1回目符号化映像データDc1の非イントラエッジク
ラス情報Iecnを生成する。そして、処理はステップ
S40107に進む。
In step S40106, the edge class information generator 1007 determines, based on the edge information Ie generated in step S40102 described above, that the first encoded image is a non-intra frame (No in S40103). The non-intra edge class information Iecn of the data Dc1 is generated. Then, the process proceeds to step S40107.

【0166】ステップS40112においては、上述の
ステップS40102で検出されたエッジ情報Ieに基
づいて、エッジクラス情報生成器1007は、イントラ
フレームである(ステップS40103でYes)と判
断されている1回目符号化映像データDc1のイントラ
エッジ情報Ieiを生成する。そして、処理はステップ
S40107に進む。なお、本発明においては、イント
ラエッジ情報Ieiで割り当てるクラス値を、非イント
ラエッジ情報Ienで割り当てるクラス値より大きくす
る(重要度を上げる)ことで、エッジを保護する。
In step S40112, the edge class information generator 1007, based on the edge information Ie detected in step S40102 described above, performs the first encoding which is determined to be an intra frame (Yes in step S40103). The intra edge information Iei of the video data Dc1 is generated. Then, the process proceeds to step S40107. In the present invention, the edge is protected by making the class value assigned by the intra-edge information Iei larger than the class value assigned by the non-intra-edge information Ien (increasing the importance).

【0167】ステップS40107において、量子化器
2003は固定QSを用いて、離散コサイン変換器20
02から入力される第1の係数K1を符号化して、被量
子化第1の係数K1Qを生成する。そして、被量子化第
1の係数K1Qはさらに、可変長符号化器2004で可
変長符号化されて第1の符号化映像データDc1eとし
て、出力端子2013から出力される。そして、処理は
次のステップS40108に進む。
In step S40107, the quantizer 2003 uses the fixed QS and the discrete cosine transformer 20
The first coefficient K1 input from 02 is encoded to generate a quantized first coefficient K1Q. Then, the quantized first coefficient K1Q is further variable-length coded by the variable-length encoder 2004 and output from the output terminal 2013 as the first encoded video data Dc1e. Then, the process proceeds to the next step S40108.

【0168】ステップS40108おいて、符号発生量
記録器1004は、第1符号化器1003から入力され
る第1の符号化映像データDc1eの各フレームの発生
符号量D1および発生総符号量ΣD1をカウントする。
そして、処理は次のステップS40109に進む。
In step S40108, the code generation amount recorder 1004 counts the generated code amount D1 and the generated total code amount ΣD1 of each frame of the first encoded video data Dc1e input from the first encoder 1003. To do.
Then, the process proceeds to the next step S40109.

【0169】ステップS40109において、1回目符
号化映像データDc1の全ての入力フレームの処理が終
了しているか否かが判断される。全ての入力フレームの
処理が終わっていなければ、Noと判断されて、処理は
ステップS40101に戻る。そして、本ステップにお
いて、Yesと判断されるまで、上述のステップS40
11〜S40109およびS40112の処理を繰り返
す。そして、1回目符号化映像データDc1の全ての入
力フレームの処理が終了した後に、本ステップでYes
と判断されて、処理はステップS40110に進む。
In step S40109, it is determined whether all the input frames of the first-time encoded video data Dc1 have been processed. If all the input frames have not been processed, the determination is No, and the process returns to step S40101. Then, in this step, the above-described step S40 is performed until it is determined Yes.
The processing from 11 to S40109 and S40112 is repeated. Then, after the processing of all the input frames of the first-time encoded video data Dc1 is completed, Yes at this step.
Then, the process proceeds to step S40110.

【0170】ステップS40110においては、上述の
処理を経て、入力される1回目符号化映像データDc1
の全フレームのそれぞれについて検出された目標符号量
DTがファイルにセーブされる。なお、アプリケーショ
ンを終了することなく、2回目以降の符号化ステップS
を行う場合は必、算出された各フレームの目標符号量D
Tを、ファイルにセーブしなくても良い。
In step S40110, the first-time encoded video data Dc1 input through the above-described processing is input.
The target code amount DT detected for each of all the frames is saved in the file. It should be noted that the second and subsequent encoding steps S are performed without terminating the application.
Is required, the calculated target code amount D of each frame is required.
It is not necessary to save T in the file.

【0171】上記のように、本発明おいて、第一の符号
化時に算出した視覚特性を考慮したマクロブロック毎の
エッジクラス情報を用いて符号化を行うことで、視覚上
劣化の目立つエッジのみを保護することができる。
As described above, according to the present invention, the coding is performed by using the edge class information for each macroblock in consideration of the visual characteristic calculated at the time of the first coding, so that only the edges in which visually deteriorated are conspicuous. Can be protected.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態に係る符号化装置の構成を
模式的に示すブロック図である。
FIG. 1 is a block diagram schematically showing a configuration of an encoding device according to an embodiment of the present invention.

【図2】図1に示す符号化装置の第1符号化器の構成を
示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a first encoder of the encoding device shown in FIG.

【図3】図1に示す符号化装置の第2符号化器の構成を
示すブロック図である。
FIG. 3 is a block diagram showing a configuration of a second encoder of the encoding device shown in FIG.

【図4】図1に示す符号化装置の予備符号化処理を表す
フローチャートである。
FIG. 4 is a flowchart showing a preliminary encoding process of the encoding device shown in FIG.

【図5】図1に示す符号化装置の実符号化処理を表すフ
ローチャートである。
5 is a flowchart showing an actual encoding process of the encoding device shown in FIG.

【図6】図4に示すエッジ検出ステップの詳細を示すフ
ローチャートである。
FIG. 6 is a flowchart showing details of the edge detection step shown in FIG.

【図7】図6に示す輝度エッジ検出サブルーチンの詳細
を示すフローチャートである。
FIG. 7 is a flowchart showing details of a luminance edge detection subroutine shown in FIG.

【図8】図6に示す色差エッジ検出サブルーチンの詳細
を示すフローチャートである。
8 is a flowchart showing details of a color difference edge detection subroutine shown in FIG.

【図9】4つのサブブロックで構成されるマクロブロッ
ク上にエッジの一例を示す模式図である。
FIG. 9 is a schematic diagram showing an example of an edge on a macroblock composed of four sub-blocks.

【図10】図9に示した4つのサブブロックで構成され
るマクロブロック上にエッジと異なる例を示す模式図で
ある。
10 is a schematic diagram showing an example different from an edge on a macroblock composed of four sub-blocks shown in FIG.

【図11】図6に示した視覚特性情報による補正サブル
ーチンの詳細を示すフローチャートである。
11 is a flowchart showing details of a correction subroutine based on the visual characteristic information shown in FIG.

【図12】エッジ情報とエッジクラス情報とを線形にマ
ッピングする例を示す模式図である。
FIG. 12 is a schematic diagram showing an example of linearly mapping edge information and edge class information.

【図13】エッジ情報とエッジクラス情報とを非線形に
マッピングする例を示す模式図である。
FIG. 13 is a schematic diagram showing an example of non-linear mapping of edge information and edge class information.

【図14】図4に示した符号化装置の予備符号化処理の
変形例を表すフローチャートである。
14 is a flowchart showing a modified example of preliminary coding processing of the coding apparatus shown in FIG.

【図15】図1に示したリオーダ器による符号化順映像
データの生成の説明図である。
FIG. 15 is an explanatory diagram of generation of encoded sequence video data by the reorder unit shown in FIG. 1.

【図16】図1に示した第1符号化器における発生符号
量およびを目標符号量算出器によって算出される目標符
号量との関係を示す模式図である。
16 is a schematic diagram showing a relationship between a generated code amount in the first encoder shown in FIG. 1 and a target code amount calculated by a target code amount calculator.

【図17】従来の符号化装置の構成を示すブロック図で
ある。
FIG. 17 is a block diagram showing a configuration of a conventional encoding device.

【図18】図17に示した符号化装置の第1符号化器の
構成を示すブロック図である。
18 is a block diagram showing a configuration of a first encoder of the encoding device shown in FIG.

【図19】図19に示した符号化装置の第2符号化器の
構成を示すブロック図である。
19 is a block diagram showing a configuration of a second encoder of the encoding device shown in FIG.

【符号の説明】[Explanation of symbols]

EN、ENc 符号化装置 1000、1800、1900、2000、3000
入力端子 1001、1801 リオーダ器 1002、1802 セレクタ 1003、1803 第1符号化器 1004、1804 符号発生量記録器 1005、1805 目標符号量算出器 1006、1806 エッジ検出器 1007、1807 エッジクラス情報生成器 1008、1808 第2符号化器 1009、1809、1913、2013、3013
出力端子 1901、2001、3001 減算器 1902、2002、3002 離散コサイン変換器 1903、2003、3003 量子化器 1904、2004、3004 可変長符号化器 1905、2005、3005 逆量子化器 1906、2006、3006 逆DCT器 1907、2007、3007 加算器 1908、2008、3008 リフレッシュ制御器 1909、1910、2009、2010、3009、
3010 リフレッシュスイッチ 1911、2011、3011 フレームメモリ 1912、2012、3012 動き補償器 1914、2014、3014 動き検出器 2015、3015 バッファ 2016、3016 量子化決定器 MB マクロブロック BLK1、BLK2、BLK3、BLK4 サブブロッ
EN, ENc Encoding device 1000, 1800, 1900, 2000, 3000
Input terminal 1001, 1801 Reorder unit 1002, 1802 Selector 1003, 1803 First encoder 1004, 1804 Code generation amount recorder 1005, 1805 Target code amount calculator 1006, 1806 Edge detector 1007, 1807 Edge class information generator 1008 , 1808 Second encoder 1009, 1809, 1913, 2013, 3013
Output terminals 1901, 2001, 3001 Subtractors 1902, 2002, 3002 Discrete cosine transformers 1903, 2003, 3003 Quantizers 1904, 2004, 3004 Variable length encoders 1905, 2005, 3005 Dequantizers 1906, 2006, 3006 Inverse DCT units 1907, 2007, 3007 Adders 1908, 2008, 3008 Refresh controllers 1909, 1910, 2009, 2010, 3009,
3010 refresh switch 1911, 2011, 3011 frame memory 1912, 2012, 3012 motion compensator 1914, 2014, 3014 motion detector 2015, 3015 buffer 2016, 3016 quantization determiner MB macroblock BLK1, BLK2, BLK3, BLK4 sub-block

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C053 FA23 GA11 GB23 GB26 GB30 GB33 KA01 5C057 AA09 AA10 EA02 EA07 EC02 EC03 ED07 ED09 ED10 EK04 EM04 EM09 EM13 EM16 FB03 5C059 KK01 KK27 MA05 MA14 MA23 MC11 ME01 PP05 PP06 PP07 PP16 SS20 TA46 TB07 TC10 TC38 TD09 UA02    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5C053 FA23 GA11 GB23 GB26 GB30                       GB33 KA01                 5C057 AA09 AA10 EA02 EA07 EC02                       EC03 ED07 ED09 ED10 EK04                       EM04 EM09 EM13 EM16 FB03                 5C059 KK01 KK27 MA05 MA14 MA23                       MC11 ME01 PP05 PP06 PP07                       PP16 SS20 TA46 TB07 TC10                       TC38 TD09 UA02

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 入力される映像信号を圧縮符号化する符
号化方法であって、 前記映像信号のフレーム毎に、エッジを検出して当該エ
ッジの強度を表すエッジ情報を生成するエッジ検出ステ
ップと、 前記エッジ情報に基づいて、マクロブロックの重要度を
示すエッジクラス情報を生成するエッジクラス情報生成
ステップと、 前記エッジクラス情報に基づいて、マクロブロック毎に
量子化ステップを決定する量子化量決定ステップとを備
え、 重要度の高いマクロブロックに対しては量子化ステップ
を小さくし、重要度の低いマクロブロックに対しては量
子化ステップを大きくすることを特徴とする符号化方
法。
1. An encoding method for compressing and encoding an input video signal, comprising: an edge detection step of detecting an edge for each frame of the video signal and generating edge information representing the intensity of the edge. An edge class information generation step of generating edge class information indicating importance of a macroblock based on the edge information, and a quantization amount determination step of determining a quantization step for each macroblock based on the edge class information. And a step of increasing the quantization step for macroblocks of high importance, and increasing the quantization step for macroblocks of low importance.
【請求項2】 前記エッジ検出ステップにおいては、同
一強度のエッジに対して、前記映像信号のフレームタイ
プ毎に、異なる強度が設定されることを特徴とする請求
項1に記載の符号化方法。
2. The encoding method according to claim 1, wherein in the edge detecting step, different intensities are set for edges of the same intensity for each frame type of the video signal.
【請求項3】 前記エッジクラス情報生成ステップにお
いては、同一強度のエッジに対して、前記映像信号のフ
レームタイプ毎に、異なる重要度が設定されることを特
徴とする請求項1に記載の方法。
3. The method according to claim 1, wherein, in the edge class information generating step, different degrees of importance are set for edges of the same intensity for each frame type of the video signal. .
【請求項4】 前記エッジクラス情報生成ステップにお
いては、前記重要度はイントラ符号化フレーム、前方向
予測符号化フレーム、双方向予測符号化フレームの順に
重要度を低く設定されることを特徴とする請求項3に記
載の符号化方法。
4. In the edge class information generation step, the importance is set to be low in the order of an intra-coded frame, a forward predictive coded frame, and a bidirectional predictive coded frame. The encoding method according to claim 3.
【請求項5】 前記エッジクラス情報生成ステップはイ
ントラ符号化フレームに対して、 マクロブロック単位に輝度レベルのエッジを検出する輝
度レベルエッジ検出ステップと、 マクロブロック単位に色差レベルのエッジを検出する色
差レベルエッジ検出ステップと、 前記輝度レベルエッジ情報と前記色差レベルエッジ情報
を統合して、レベルエッジ情報を生成するレベルエッジ
情報生成ステップとを備える請求項1に記載の符号化方
法。
5. The edge class information generation step includes a luminance level edge detection step of detecting a luminance level edge in macroblock units, and a color difference detection of a color difference level edge in macroblock units in an intra-coded frame. The encoding method according to claim 1, further comprising: a level edge detecting step; and a level edge information generating step of integrating the luminance level edge information and the color difference level edge information to generate level edge information.
【請求項6】 前記レベルエッジ情報生成ステップは、 視覚特性情報を生成する視覚特性情報生成ステップと、 前記視覚特性情報に基づいて前記レベルエッジ情報を補
正するエッジ情報補正ステップと、 前記補正されたレベルエッジ情報を前記エッジクラス情
報にマッピングするレベルエッジ情報マッピングステッ
プとを備える、請求項5に記載の符号化方法。
6. The level edge information generating step, a visual characteristic information generating step of generating visual characteristic information, an edge information correcting step of correcting the level edge information based on the visual characteristic information, and the corrected The level edge information mapping step of mapping level edge information to the edge class information, the encoding method according to claim 5.
【請求項7】 前記輝度レベルエッジ検出ステップは、
マクロブロック単位の平均輝度レベルを算出する平均輝
度レベル算出ステップを備え、 前記色差レベルエッジ検出ステップは、マクロブロック
単位の平均色差レベルを算出する平均色差レベル算出ス
テップを備え、 前記視覚特性情報生成ステップにおいては、前記平均輝
度レベル情報と平均色差レベル情報に基づいて、前記視
覚特性情報が生成されることを特徴とする請求項6に記
載の符号化方法。
7. The brightness level edge detection step comprises:
An average luminance level calculation step for calculating an average luminance level in macroblock units; the color difference level edge detection step includes an average color difference level calculation step for calculating an average color difference level in macroblock units; and the visual characteristic information generating step. The encoding method according to claim 6, wherein the visual characteristic information is generated based on the average luminance level information and the average color difference level information.
【請求項8】 エッジ情報補正ステップは、 輝度レベルエッジ重み付け情報設定ステップと、 色差レベルエッジ重み付け情報設定ステップとを備え、 前記レベルエッジ情報マッピングステップにおいては、
前記輝度レベルエッジ重み付け情報および色差レベルエ
ッジ重み付け情報に基づいて、前記レベルエッジ情報が
マッピングされることを特徴とする請求項6に記載の符
号化方法。
8. The edge information correcting step includes a luminance level edge weighting information setting step and a color difference level edge weighting information setting step, and in the level edge information mapping step,
The encoding method according to claim 6, wherein the level edge information is mapped based on the luminance level edge weighting information and the color difference level edge weighting information.
【請求項9】 入力される映像信号を圧縮符号化する符
号化装置であって、 前記映像信号のフレーム毎に、エッジを検出して当該エ
ッジの強度を表すエッジ情報を生成するエッジ検出手段
と、 前記エッジ情報に基づいて、マクロブロックの重要度を
示すエッジクラス情報を生成するエッジクラス情報生成
手段と、 前記エッジクラス情報に基づいて、マクロブロック毎に
量子化ステップを決定する量子化量決定手段とを備え、 重要度の高いマクロブロックに対しては量子化ステップ
を小さくし、重要度の低いマクロブロックに対しては量
子化ステップを大きくすることを特徴とする符号化装
置。
9. An encoding device for compressing and encoding an input video signal, comprising: edge detection means for detecting an edge for each frame of the video signal and generating edge information representing the intensity of the edge. Edge class information generating means for generating edge class information indicating the importance of the macroblock based on the edge information, and quantization amount determination for determining a quantization step for each macroblock based on the edge class information. And a means for reducing the quantization step for macroblocks having high importance, and increasing the quantization step for macroblocks having low importance.
【請求項10】 前記エッジ検出手段は、同一強度のエ
ッジに対して、前記映像信号のフレームタイプ毎に、異
なる強度を設定することを特徴とする請求項9に記載の
符号化装置。
10. The encoding apparatus according to claim 9, wherein the edge detection unit sets different intensities for edges having the same intensity for each frame type of the video signal.
【請求項11】 前記エッジクラス情報生成手段は、同
一強度のエッジに対して、前記映像信号のフレームタイ
プ毎に、異なる重要度を設定することを特徴とする請求
項9に記載の装置。
11. The apparatus according to claim 9, wherein the edge class information generating means sets different importance levels for edges of the same intensity for each frame type of the video signal.
【請求項12】 前記エッジクラス情報生成手段は、イ
ントラ符号化フレーム、前方向予測符号化フレーム、双
方向予測符号化フレームの順に重要度を低く設定するこ
とを特徴とする請求項11に記載の符号化装置。
12. The edge class information generating means sets the importance to an intra coded frame, a forward predictive coded frame, and a bidirectional predictive coded frame in the order of importance. Encoding device.
【請求項13】 前記エッジクラス情報生成手段はイン
トラ符号化フレームに対して、 マクロブロック単位に輝度レベルのエッジを検出する輝
度レベルエッジ検出手段と、 マクロブロック単位に色差レベルのエッジを検出する色
差レベルエッジ検出手段と、 前記輝度レベルエッジ情報と前記色差レベルエッジ情報
を統合して、レベルエッジ情報を生成するレベルエッジ
情報生成手段とを備える請求項9に記載の符号化装置。
13. The edge class information generating means detects a luminance level edge detecting means for each macroblock in luminance level edge detecting means for an intra-coded frame, and a color difference detecting a color difference level edge for each macroblock. 10. The encoding device according to claim 9, further comprising level edge detection means, and level edge information generation means for generating level edge information by integrating the luminance level edge information and the color difference level edge information.
【請求項14】 前記レベルエッジ情報生成手段は、 視覚特性情報を生成する視覚特性情報生成手段と、 前記視覚特性情報に基づいて前記レベルエッジ情報を補
正するエッジ情報補正手段と、 前記補正されたレベルエッジ情報を前記エッジクラス情
報にマッピングするレベルエッジ情報マッピング手段と
を備える、請求項13に記載の符号化装置。
14. The level edge information generating means, visual characteristic information generating means for generating visual characteristic information, edge information correcting means for correcting the level edge information based on the visual characteristic information, and the corrected The coding device according to claim 13, further comprising level edge information mapping means for mapping level edge information to the edge class information.
【請求項15】 前記輝度レベルエッジ検出手段は、マ
クロブロック単位の平均輝度レベルを算出する平均輝度
レベル算出手段を備え、 前記色差レベルエッジ検出手段は、マクロブロック単位
の平均色差レベルを算出する平均色差レベル算出手段を
備え、 前記視覚特性情報生成手段は、前記平均輝度レベル情報
と平均色差レベル情報に基づいて、前記視覚特性情報を
生成することを特徴とする請求項14に記載の符号化装
置。
15. The brightness level edge detection means comprises an average brightness level calculation means for calculating an average brightness level in macroblock units, and the color difference level edge detection means is an average for calculating an average color difference level in macroblock units. The encoding device according to claim 14, further comprising color difference level calculating means, wherein the visual characteristic information generating means generates the visual characteristic information based on the average luminance level information and the average color difference level information. .
【請求項16】 前記エッジ情報補正手段は、 輝度レベルエッジ重み付け情報設定手段と、 色差レベルエッジ重み付け情報設定手段とを備え、 前記レベルエッジ情報マッピング手段においては、前記
輝度レベルエッジ重み付け情報および色差レベルエッジ
重み付け情報に基づいて、前記レベルエッジ情報をマッ
ピングすることを特徴とする請求項14に記載の符号化
装置。
16. The edge information correction means includes luminance level edge weighting information setting means and color difference level edge weighting information setting means, and in the level edge information mapping means, the luminance level edge weighting information and color difference level. The encoding device according to claim 14, wherein the level edge information is mapped based on edge weighting information.
【請求項17】 請求項1に記載の符号化方法および請
求項9に記載の符号化方装置を用いて生成した符号化デ
ータが記録されたことを特徴とする記録媒体。
17. A recording medium on which encoded data generated by using the encoding method according to claim 1 and the encoding method according to claim 9 is recorded.
JP2002025609A 2002-02-01 2002-02-01 Apparatus and method for coding image signal Pending JP2003230147A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002025609A JP2003230147A (en) 2002-02-01 2002-02-01 Apparatus and method for coding image signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002025609A JP2003230147A (en) 2002-02-01 2002-02-01 Apparatus and method for coding image signal

Publications (1)

Publication Number Publication Date
JP2003230147A true JP2003230147A (en) 2003-08-15

Family

ID=27747715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002025609A Pending JP2003230147A (en) 2002-02-01 2002-02-01 Apparatus and method for coding image signal

Country Status (1)

Country Link
JP (1) JP2003230147A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006197557A (en) * 2004-12-14 2006-07-27 Canon Inc Image encoding apparatus, image encoding method and program thereof
US7873226B2 (en) 2005-09-30 2011-01-18 Fujitsu Limited Image encoding apparatus
WO2013002554A3 (en) * 2011-06-28 2013-04-11 삼성전자 주식회사 Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9049453B2 (en) 2004-12-14 2015-06-02 Canon Kabushiki Kaisha Image encoding apparatus and method based on intensity of edge information
JP2006197557A (en) * 2004-12-14 2006-07-27 Canon Inc Image encoding apparatus, image encoding method and program thereof
US7873226B2 (en) 2005-09-30 2011-01-18 Fujitsu Limited Image encoding apparatus
CN104994393A (en) * 2011-06-28 2015-10-21 三星电子株式会社 Video decoding method using offset adjustment according to pixel classification and apparatus therefor
CN104980758A (en) * 2011-06-28 2015-10-14 三星电子株式会社 Video Encoding Method Using Offset Adjustments According To Pixel Classification And Apparatus Therefor, Video Decoding Method And Apparatus Therefor
CN104980757A (en) * 2011-06-28 2015-10-14 三星电子株式会社 Video decoding method using offset adjustments according to pixel classification and apparatus therefor
WO2013002554A3 (en) * 2011-06-28 2013-04-11 삼성전자 주식회사 Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9426483B2 (en) 2011-06-28 2016-08-23 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9426482B2 (en) 2011-06-28 2016-08-23 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9438921B2 (en) 2011-06-28 2016-09-06 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9438922B2 (en) 2011-06-28 2016-09-06 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US9462288B2 (en) 2011-06-28 2016-10-04 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US10038911B2 (en) 2011-06-28 2018-07-31 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor
US10542273B2 (en) 2011-06-28 2020-01-21 Samsung Electronics Co., Ltd. Video encoding method using offset adjustments according to pixel classification and apparatus therefor, video decoding method and apparatus therefor

Similar Documents

Publication Publication Date Title
US5963673A (en) Method and apparatus for adaptively selecting a coding mode for video encoding
KR100987765B1 (en) Prediction method and apparatus in video encoder
JP3224465B2 (en) Image coding device
US7925108B2 (en) Encoding device and dynamic image recording system having the encoding device
JP4393875B2 (en) System and method for providing a single layer video encoded bitstream suitable for reduced complexity decoding
JP2963416B2 (en) Video encoding method and apparatus for controlling bit generation amount using quantization activity
JP5173409B2 (en) Encoding device and moving image recording system provided with encoding device
JP2000278692A (en) Compressed data processing method, processor and recording and reproducing system
EP1350394A2 (en) Method of performing video encoding rate control using bit budget
EP1077000A1 (en) Conditional masking for video encoder
US20070177808A1 (en) Image processing apparatus
JP3599942B2 (en) Moving picture coding method and moving picture coding apparatus
US7876816B2 (en) Moving picture coding program, program storage medium, and coding apparatus
US7965768B2 (en) Video signal encoding apparatus and computer readable medium with quantization control
JP2001309384A (en) Picture compressor
JP2003230147A (en) Apparatus and method for coding image signal
US8126277B2 (en) Image processing method, image processing apparatus and image pickup apparatus using the same
JPH0888854A (en) Moving picture encoding system
JPH10108197A (en) Image coder, image coding control method, and medium storing image coding control program
KR100613732B1 (en) Image Compression System for Digital Video Surveillance and Method for controlling the Same
JPH0795536A (en) Device and method for reversely reproducing moving image
JP3178233B2 (en) Image encoding method, image encoding device, and optical disk
JP3157144B1 (en) Picture prediction decoding method
JP3922581B2 (en) Variable transfer rate encoding method and apparatus
JPH06217284A (en) Image encoding device