[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004088795A - Image signal preparation device and method, and image signal reproducing device and method - Google Patents

Image signal preparation device and method, and image signal reproducing device and method Download PDF

Info

Publication number
JP2004088795A
JP2004088795A JP2003345279A JP2003345279A JP2004088795A JP 2004088795 A JP2004088795 A JP 2004088795A JP 2003345279 A JP2003345279 A JP 2003345279A JP 2003345279 A JP2003345279 A JP 2003345279A JP 2004088795 A JP2004088795 A JP 2004088795A
Authority
JP
Japan
Prior art keywords
signal
image
encoded
predicted image
color signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003345279A
Other languages
Japanese (ja)
Inventor
Katsumi Tawara
田原 勝己
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003345279A priority Critical patent/JP2004088795A/en
Publication of JP2004088795A publication Critical patent/JP2004088795A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Color Television Systems (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image signal preparation device and a method, and image signal reproducing device and its method suitable for use in the case of recording a motion image signal in a record medium for instance such as a magnet-optical disk or a magnetic tape and the like and reproducing it for presenting on a display and the like, or transmitting the dynamic image signal from a transmitter to a recipient through a transmission path such as a video conference system, a videophone system and a broadcasting instrument and the like and receiving and displaying it in the recipient. <P>SOLUTION: Data Y1 or Y4 of the luminance block of a considered macroblock, a master slice that consists of the data Cb5" and Cr6" of the color difference block of the lowest resolution, a slave slice 1 that consists of the data Cb5', Cr6', Cb7' and Cr8' of the color difference block of the medium resolution of a corresponded macroblock, and a slave slice 2 that consists of the data Cb5, Cr6, Cb7, Cr8, Cb9, Cr10, Cb11 and Cr12 of the color difference block of the highest resolution of the corresponded macro block are serially arranged in the image signal preparation device. <P>COPYRIGHT: (C)2004,JPO

Description

 本発明は、動画像信号を、例えば光磁気ディスクや磁気テープなどの記録媒体に記録し、これを再生してディスプレイなどに表示したり、テレビ会議システム、テレビ電話システム、放送用機器など、動画像信号を伝送路を介して送信側から受信側に伝送し、受信側において、これを受信し、表示する場合などに用いて好適な、画像信号生成装置および方法、並びに、画像信号再生装置および方法に関する。 The present invention records a moving image signal on a recording medium such as a magneto-optical disk or a magnetic tape, and reproduces the moving image signal to display it on a display or the like. The image signal is transmitted from the transmission side to the reception side via the transmission path, and the reception side receives and receives the image signal. About the method.

 例えば、テレビ会議システム、テレビ電話システムなどのように、動画像信号を遠隔地に伝送するシステムにおいては、伝送路を効率良く利用するため、映像信号のライン相関やフレーム間相関を利用して、画像信号を圧縮符号化するようになされている。 For example, in a system for transmitting a moving image signal to a remote place, such as a video conference system and a video telephone system, in order to efficiently use a transmission path, a line correlation or an inter-frame correlation of a video signal is used. The image signal is compressed and encoded.

 ライン相関を利用すると、画像信号を、例えばDCT(離散コサイン変換)処理するなどして圧縮することができる。 If the line correlation is used, the image signal can be compressed by, for example, DCT (discrete cosine transform) processing.

 また、フレーム間相関を利用すると、画像信号をさらに圧縮して符号化することが可能となる。例えば図14に示すように、時刻t1,t2,t3において、フレーム画像PC1,PC2,PC3がそれぞれ発生しているとき、フレーム画像PC1とPC2の画像信号の差を演算して、PC12を生成し、また、フレーム画像PC2とPC3の差を演算して、PC23を生成する。通常、時間的に隣接するフレームの画像は、それ程大きな変化を有していないため、両者の差を演算すると、その差分信号は小さな値のものとなる。そこで、この差分信号を符号化すれば、符号量を圧縮することができる。 In addition, if the inter-frame correlation is used, the image signal can be further compressed and encoded. For example, as shown in FIG. 14, when frame images PC1, PC2, and PC3 are generated at times t1, t2, and t3, respectively, the difference between the image signals of frame images PC1 and PC2 is calculated to generate PC12. Further, a difference between the frame images PC2 and PC3 is calculated to generate a PC23. Normally, the images of temporally adjacent frames do not have such a large change, and when the difference between them is calculated, the difference signal has a small value. Therefore, if the difference signal is encoded, the code amount can be compressed.

 しかしながら、差分信号のみを伝送したのでは、元の画像を復元することができない。そこで、各フレームの画像を、Iピクチャ、PピクチャまたはBピクチャの3種類のピクチャのいずれかのピクチャとし、画像信号を圧縮符号化するようにしている。 However, transmitting only the differential signal cannot restore the original image. Therefore, the image of each frame is one of three types of pictures, i-pictures, P-pictures, and B-pictures, and the image signal is compression-coded.

 即ち、例えば図15に示すように、フレームF1乃至F17までの17フレームの画像信号をグループオブピクチャとし、処理の1単位とする。そして、その先頭のフレームF1の画像信号はIピクチャとして符号化し、第2番目のフレームF2はBピクチャとして、また第3番目のフレームF3はPピクチャとして、それぞれ処理する。以下、第4番目以降のフレームF4乃至F17は、BピクチャまたはPピクチャとして交互に処理する。 That is, as shown in FIG. 15, for example, image signals of 17 frames from frame F1 to frame F17 are set as a group of pictures and are set as one unit of processing. Then, the image signal of the first frame F1 is encoded as an I picture, the second frame F2 is processed as a B picture, and the third frame F3 is processed as a P picture. Hereinafter, the fourth and subsequent frames F4 to F17 are alternately processed as B pictures or P pictures.

 Iピクチャの画像信号としては、その1フレーム分の画像信号をそのまま伝送する。これに対して、Pピクチャの画像信号としては、基本的には、図15(A)に示すように、それより時間的に先行するIピクチャまたはPピクチャの画像信号からの差分を伝送する。さらにBピクチャの画像信号としては、基本的には、図15(B)に示すように、時間的に先行するフレームまたは後行するフレームの両方の平均値からの差分を求め、その差分を符号化する。 As an I-picture image signal, the image signal for one frame is transmitted as it is. On the other hand, as an image signal of a P picture, basically, as shown in FIG. 15A, a difference from an image signal of an I picture or a P picture which precedes it is transmitted. Further, as an image signal of a B picture, basically, as shown in FIG. 15B, a difference from an average value of both temporally preceding and succeeding frames is obtained, and the difference is encoded. Become

 図16は、このようにして、動画像信号を符号化する方法の原理を示している。同図に示すように、最初のフレームF1はIピクチャとして処理されるため、そのまま伝送データF1Xとして伝送路に伝送される(画像内符号化)。これに対して、第2のフレームF2は、Bピクチャとして処理されるため、時間的に先行するフレームF1と、時間的に後行するフレームF3の平均値との差分が演算され、その差分が伝送データF2Xとして伝送される。 FIG. 16 shows the principle of a method for encoding a moving image signal in this manner. As shown in the figure, since the first frame F1 is processed as an I picture, it is directly transmitted as transmission data F1X to the transmission path (intra-picture encoding). On the other hand, since the second frame F2 is processed as a B picture, the difference between the temporally preceding frame F1 and the average value of the temporally succeeding frame F3 is calculated, and the difference is calculated. It is transmitted as transmission data F2X.

 但し、このBピクチャとしての処理は、さらに細かく説明すると、4種類存在する。その第1の処理は、元のフレームF2のデータをそのまま伝送データF2Xとして伝送するものであり(SP1)(イントラ符号化)、Iピクチャにおける場合と同様の処理となる。第2の処理は、時間的に後のフレームF3からの差分を演算し、その差分(SP2)を伝送するものである(後方予測符号化)。第3の処理は、時間的に先行するフレームF1との差分(SP3)を伝送するものである(前方予測符号化)。さらに第4の処理は、時間的に先行するフレームF1と後行するフレームF3の平均値との差分(SP4)を生成し、これを伝送データF2Xとして伝送するものである(両方向予測符号化)。 However, there are four types of processing as a B picture, if described in more detail. The first process is to transmit the data of the original frame F2 as it is as the transmission data F2X (SP1) (intra coding), and is the same process as in the case of the I picture. The second process is to calculate a difference from the temporally later frame F3 and transmit the difference (SP2) (backward prediction coding). The third process is to transmit the difference (SP3) from the temporally preceding frame F1 (forward prediction coding). Further, the fourth processing is to generate a difference (SP4) between the average value of the temporally preceding frame F1 and the average value of the following frame F3, and transmit this as transmission data F2X (bidirectional predictive coding). .

 この4つの方法のうち、伝送データが最も少なくなる方法が採用される。 の う ち Among these four methods, the method that minimizes the transmission data is adopted.

 尚、差分データを伝送するとき、差分を演算する対象となるフレームの画像(予測画像)との間の動きベクトルx1(フレームF1とF2の間の動きベクトル)(前方予測の場合)、もしくはx2(フレームF3とF2の間の動きベクトル)(後方予測の場合)、またはx1とx2の両方(両方向予測の場合)が、差分データとともに伝送される。 When transmitting the difference data, a motion vector x1 (a motion vector between frames F1 and F2) with an image (predicted image) of a frame whose difference is to be calculated (in the case of forward prediction) or x2 (Motion vector between frames F3 and F2) (for backward prediction) or both x1 and x2 (for bidirectional prediction) are transmitted along with the difference data.

 また、PピクチャのフレームF3は、時間的に先行するフレームF1を予測画像として、このフレームとの差分信号(SP3)と、動きベクトルx3が演算され、これが伝送データF3Xとして伝送される(前方予測符号化)。あるいはまた、元のフレームF3のデータがそのまま伝送データF3Xとして伝送される(SP1)(イントラ符号化)。いずれの方法により伝送されるかは、Bピクチャにおける場合と同様に、伝送データがより少なくなる方が選択される。 Further, a frame F3 of a P picture is calculated using a temporally preceding frame F1 as a predicted image, a difference signal (SP3) from the frame, and a motion vector x3, and the resultant is transmitted as transmission data F3X (forward prediction). Coding). Alternatively, the data of the original frame F3 is transmitted as it is as the transmission data F3X (SP1) (intra coding). Which method is used, as in the case of the B picture, is selected so that the transmission data is smaller.

 図17は、上述した原理に基づいて、動画像信号を符号化して伝送し、これを復号化する装置の構成例を示している。符号化装置1は、入力された映像信号を符号化し、伝送路としての記録媒体3に伝送するようになされている。そして、復号化装置2は、記録媒体3に記録された信号を再生し、これを復号して出力するようになされている。 FIG. 17 shows a configuration example of a device that encodes and transmits a moving image signal based on the above-described principle and decodes the encoded signal. The encoding device 1 encodes an input video signal and transmits the encoded video signal to a recording medium 3 as a transmission path. The decoding device 2 reproduces a signal recorded on the recording medium 3, and decodes and outputs the signal.

 符号化装置1においては、入力された映像信号が前処理回路11に入力され、そこで輝度信号と色信号(この例の場合、色差信号)が分離され、それぞれA/D変換器12,13でA/D変換される。A/D変換器12,13によりA/D変換されてデジタル信号となった映像信号は、フレームメモリ14に供給され、記憶される。フレームメモリ14は、輝度信号を輝度信号フレームメモリ15に、また、色差信号を色差信号フレームメモリ16に、それぞれ記憶させる。 In the encoding device 1, an input video signal is input to a preprocessing circuit 11, where a luminance signal and a chrominance signal (a color difference signal in this example) are separated, and are separated by A / D converters 12 and 13, respectively. A / D conversion is performed. The video signal converted into a digital signal by A / D conversion by the A / D converters 12 and 13 is supplied to the frame memory 14 and stored therein. The frame memory 14 stores the luminance signal in the luminance signal frame memory 15 and the chrominance signal in the chrominance signal frame memory 16, respectively.

 フォーマット変換回路17は、フレームメモリ14に記憶されたフレームフォーマットの信号を、ブロックフォーマットの信号に変換する。即ち、図18に示すように、フレームメモリ14に記憶された映像信号は、1ライン当りHドットのラインがVライン集められたフレームフォーマットのデータとされている。フォーマット変換回路17は、この1フレームの信号を、16ラインを単位としてM個のスライスに区分する。そして、各スライスは、M個のマクロブロックに分割される。各マクロブロックは、16×16個の画素(ドット)に対応する輝度信号により構成され、この輝度信号は、さらに8×8ドットを単位とするブロックY[1]乃至Y[4]に区分される。そして、この16×16ドットの輝度信号には、8×8ドットのCb信号と、8×8ドットのCr信号が対応される。 The format conversion circuit 17 converts the frame format signal stored in the frame memory 14 into a block format signal. That is, as shown in FIG. 18, the video signal stored in the frame memory 14 is data of a frame format in which V lines of H dots are collected per line. The format conversion circuit 17 divides the signal of one frame into M slices in units of 16 lines. Then, each slice is divided into M macroblocks. Each macro block is composed of a luminance signal corresponding to 16 × 16 pixels (dots), and this luminance signal is further divided into blocks Y [1] to Y [4] in units of 8 × 8 dots. You. The luminance signal of 16 × 16 dots corresponds to a Cb signal of 8 × 8 dots and a Cr signal of 8 × 8 dots.

 このように、ブロックフォーマットに変換されたデータは、フォーマット変換回路17からエンコーダ18に供給され、ここでエンコード(符号化)が行われる。その詳細については、図19を参照して後述する。 デ ー タ The data thus converted into the block format is supplied from the format conversion circuit 17 to the encoder 18, where the data is encoded. The details will be described later with reference to FIG.

 エンコーダ18によりエンコードされた信号は、ビットストリームとして伝送路に出力され、例えば記録媒体3に記録される。 The signal encoded by the encoder 18 is output to the transmission path as a bit stream, and is recorded on the recording medium 3, for example.

 記録媒体3より再生されたデータは、復号化装置2のデコーダ31に供給され、デコードされる。デコーダ31の詳細については、図22を参照して後述する。 (4) The data reproduced from the recording medium 3 is supplied to the decoder 31 of the decoding device 2 and is decoded. The details of the decoder 31 will be described later with reference to FIG.

 デコーダ31によりデコードされたデータは、フォーマット変換回路32に入力され、ブロックフォーマットからフレームフォーマットに変換される。そして、フレームフォーマットの輝度信号は、フレームメモリ33の輝度信号フレームメモリ34に供給され、記憶され、色差信号は色差信号フレームメモリ35に供給され、記憶される。輝度信号フレームメモリ34と色差信号フレームメモリ35より読み出された輝度信号と色差信号は、D/A変換器36と37によりそれぞれD/A変換され、後処理回路38に供給され、合成される。そして、図示せぬ例えばCRTなどのディスプレイに出力され、表示される。 The data decoded by the decoder 31 is input to the format conversion circuit 32, and is converted from the block format to the frame format. Then, the luminance signal in the frame format is supplied to and stored in the luminance signal frame memory 34 of the frame memory 33, and the color difference signal is supplied to and stored in the color difference signal frame memory 35. The luminance signal and the chrominance signal read from the luminance signal frame memory 34 and the chrominance signal frame memory 35 are D / A converted by D / A converters 36 and 37, respectively, supplied to a post-processing circuit 38, and synthesized. . Then, the data is output and displayed on a display such as a CRT (not shown).

 次に図19を参照して、エンコーダ18の構成例について説明する。 Next, a configuration example of the encoder 18 will be described with reference to FIG.

 符号化されるべき画像データは、マクロブロック単位で動きベクトル検出回路50に入力される。動きベクトル検出回路50は、予め設定されている所定のシーケンスに従って、各フレームの画像データを、Iピクチャ、Pピクチャ、またはBピクチャとして処理する。シーケンシャルに入力される各フレームの画像を、I,P,Bのいずれのピクチャとして処理するかは、予め定められている(例えば、図15に示したように、フレームF1乃至F17により構成されるグループオブピクチャが、I,B,P,B,P,・・・B,Pとして処理される)。 画像 Image data to be encoded is input to the motion vector detection circuit 50 in macroblock units. The motion vector detection circuit 50 processes the image data of each frame as an I picture, a P picture, or a B picture according to a predetermined sequence set in advance. Whether the image of each frame that is sequentially input is processed as one of I, P, and B pictures is determined in advance (for example, as illustrated in FIG. 15, the image is configured by frames F1 to F17). The group of pictures are processed as I, B, P, B, P,... B, P).

 Iピクチャとして処理されるフレーム(例えばフレームF1)の画像データは、動きベクトル検出回路50からフレームメモリ51の前方原画像部51aに転送、記憶され、Bピクチャとして処理されるフレーム(例えばフレームF2)の画像データは、原画像部51bに転送、記憶され、Pピクチャとして処理されるフレーム(例えばフレームF3)の画像データは、後方原画像部51cに転送、記憶される。 Image data of a frame (for example, frame F1) processed as an I picture is transferred from the motion vector detection circuit 50 to the front original image section 51a of the frame memory 51, stored, and processed as a B picture (for example, frame F2). Is transferred and stored in the original image unit 51b, and the image data of a frame (for example, frame F3) processed as a P picture is transferred and stored in the rear original image unit 51c.

 また、次のタイミングにおいて、さらにBピクチャ(フレームF4)またはPピクチャ(フレームF5)として処理すべきフレームの画像が入力されたとき、それまで後方原画像部51cに記憶されていた最初のPピクチャ(フレームF3)の画像データが、前方原画像部51aに転送され、次のBピクチャ(フレームF4)の画像データが、原画像部51bに記憶(上書き)され、次のPピクチャ(フレームF5)の画像データが、後方原画像部51cに記憶(上書き)される。このような動作が順次繰り返される。 Further, at the next timing, when an image of a frame to be further processed as a B picture (frame F4) or a P picture (frame F5) is input, the first P picture stored in the rear original image section 51c until then is input. The image data of (frame F3) is transferred to the front original image section 51a, the image data of the next B picture (frame F4) is stored (overwritten) in the original image section 51b, and the next P picture (frame F5) Is stored (overwritten) in the rear original image section 51c. Such an operation is sequentially repeated.

 フレームメモリ51に記憶された各ピクチャの信号は、そこから読み出され、予測モード切り替え回路52において、フレーム予測モード処理、またはフィールド予測モード処理が行なわれる。さらにまた予測判定回路54の制御の下に、演算部53において、画像内予測、前方予測、後方予測、または両方向予測の演算が行なわれる。これらの処理のうち、いずれの処理を行なうかは、予測誤差信号(処理の対象とされている参照画像と、これに対する予測画像との差分)に対応して決定される。このため、動きベクトル検出回路50は、この判定に用いられる予測誤差信号の絶対値和(2乗和でもよい)を生成する。 The signal of each picture stored in the frame memory 51 is read therefrom, and the prediction mode switching circuit 52 performs frame prediction mode processing or field prediction mode processing. Further, under the control of the prediction determination circuit 54, the calculation unit 53 performs calculation of intra prediction, forward prediction, backward prediction, or bidirectional prediction. Which of these processes is to be performed is determined in accordance with the prediction error signal (the difference between the reference image to be processed and the predicted image corresponding thereto). For this reason, the motion vector detection circuit 50 generates a sum of absolute values (or a sum of squares) of the prediction error signal used for this determination.

 ここで、予測モード切り替え回路52におけるフレーム予測モードとフィールド予測モードについて説明する。 Here, the frame prediction mode and the field prediction mode in the prediction mode switching circuit 52 will be described.

 フレーム予測モードが設定された場合においては、予測モード切り替え回路52は、動きベクトル検出回路50より供給される4個の輝度ブロックY[1]乃至Y[4]を、そのまま後段の演算部53に出力する。即ち、この場合においては、図20(A)に示すように、各輝度ブロックに奇数フィールドのラインのデータと、偶数フィールドのラインのデータとが混在した状態となっている。このフレーム予測モードにおいては、4個の輝度ブロック(マクロブロック)を単位として予測が行われ、4個の輝度ブロックに対して1個の動きベクトルが対応される。 When the frame prediction mode is set, the prediction mode switching circuit 52 sends the four luminance blocks Y [1] to Y [4] supplied from the motion vector detection circuit 50 to the subsequent operation unit 53 as they are. Output. That is, in this case, as shown in FIG. 20A, the data of the line of the odd field and the data of the line of the even field are mixed in each luminance block. In this frame prediction mode, prediction is performed in units of four luminance blocks (macroblocks), and one motion vector corresponds to four luminance blocks.

 これに対して、予測モード切り替え回路52は、フィールド予測モードにおいては、図20(A)に示す構成で動きベクトル検出回路50より入力される信号を、図20(B)に示すように、4個の輝度ブロックのうち、輝度ブロックY[1]とY[2]を、例えば奇数フィールドのラインのドットによりのみ構成させ、他の2個の輝度ブロックY[3]とY[4]を、偶数フィールドのラインのデータにより構成させて、演算部53に出力する。この場合においては、2個の輝度ブロックY[1]とY[2]に対して、1個の動きベクトルが対応され、他の2個の輝度ブロックY[3]とY[4]に対して、他の1個の動きベクトルが対応される。 On the other hand, in the field prediction mode, the prediction mode switching circuit 52 converts the signal input from the motion vector detection circuit 50 with the configuration shown in FIG. Among the luminance blocks, the luminance blocks Y [1] and Y [2] are constituted by, for example, only dots of the odd field lines, and the other two luminance blocks Y [3] and Y [4] The data is constituted by the data of the lines of the even-numbered fields and output to the calculation unit 53. In this case, one motion vector corresponds to two luminance blocks Y [1] and Y [2], and the other two luminance blocks Y [3] and Y [4]. Thus, another one motion vector is corresponded.

 動きベクトル検出回路50は、フレーム予測モードにおける予測誤差の絶対値和と、フィールド予測モードにおける予測誤差の絶対値和を、予測モード切り替え回路52に出力する。予測モード切り替え回路52は、フレーム予測モードとフィールド予測モードにおける予測誤差の絶対値和を比較し、その値が小さい予測モードに対応する処理を施して、データを演算部53に出力する。 The motion vector detection circuit 50 outputs the sum of absolute values of the prediction errors in the frame prediction mode and the sum of the absolute values of the prediction errors in the field prediction mode to the prediction mode switching circuit 52. The prediction mode switching circuit 52 compares the absolute values of the prediction errors in the frame prediction mode and the field prediction mode, performs a process corresponding to the prediction mode having a small value, and outputs the data to the calculation unit 53.

 但し、このような処理は、実際には動きベクトル検出回路50で行われる。即ち、動きベクトル検出回路50は、決定されたモードに対応する構成の信号を予測モード切り替え回路52に出力し、予測モード切り替え回路52は、その信号を、そのまま後段の演算部53に出力する。 However, such a process is actually performed by the motion vector detection circuit 50. That is, the motion vector detection circuit 50 outputs a signal having a configuration corresponding to the determined mode to the prediction mode switching circuit 52, and the prediction mode switching circuit 52 outputs the signal as it is to the subsequent operation unit 53.

 尚、色差信号は、フレーム予測モードの場合、図20(A)に示すように、奇数フィールドのラインのデータと偶数フィールドのラインのデータとが混在する状態で、演算部53に供給される。また、フィールド予測モードの場合、図20(B)に示すように、各色差ブロックCb,Crの上半分(4ライン)が、輝度ブロックY[1],Y[2]に対応する奇数フィールドの色差信号とされ、下半分(4ライン)が、輝度ブロックY[3],Y[4]に対応する偶数フィールドの色差信号とされる。 In the frame prediction mode, the color difference signal is supplied to the arithmetic unit 53 in a state where the data of the lines of the odd fields and the data of the lines of the even fields are mixed as shown in FIG. In the case of the field prediction mode, as shown in FIG. 20B, the upper half (4 lines) of each of the chrominance blocks Cb and Cr corresponds to the odd field corresponding to the luminance block Y [1] and Y [2]. The lower half (4 lines) is a color difference signal of an even field corresponding to the luminance blocks Y [3] and Y [4].

 また、動きベクトル検出回路50は、次のようにして、予測判定回路54において、画像内予測、前方予測、後方予測、または両方向予測のいずれの予測を行なうかを決定するための予測誤差の絶対値和を生成する。 In addition, the motion vector detection circuit 50 determines the absolute value of the prediction error for determining whether to perform intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction in the prediction determination circuit 54 as follows. Generate a sum of values.

 即ち、画像内予測の予測誤差の絶対値和として、参照画像のマクロブロックの信号Aijの和ΣAijの絶対値|ΣAij|と、マクロブロックの信号Aijの絶対値|Aij|の和Σ|Aij|の差を求める。また、前方予測の予測誤差の絶対値和として、参照画像のマクロブロックの信号Aijと、予測画像のマクロブロックの信号Bijの差Aij−Bijの絶対値|Aij−Bij|の和Σ|Aij−Bij|を求める。また、後方予測と両方向予測の予測誤差の絶対値和も、前方予測における場合と同様に(その予測画像を前方予測における場合と異なる予測画像に変更して)求める。 That is, as the sum of the absolute values of the prediction errors of the intra-picture prediction, the sum Σ | Aij | of the sum 信号 Aij | of the sum 信号 Aij of the signal Aij of the macroblock of the reference picture and the sum │Aij│ of the absolute value of the signal Aij of the macroblock Find the difference between The sum of absolute values | Aij−Bij | of the difference Aij−Bij | between the signal Aij of the macroblock of the reference image and the signal Bij of the macroblock of the predicted image is used as the absolute value sum of the prediction error of the forward prediction. Bij |. In addition, the absolute value sum of the prediction error between the backward prediction and the bidirectional prediction is obtained in the same manner as in the forward prediction (by changing the predicted image to a different predicted image from that in the forward prediction).

 これらの絶対値和は、予測判定回路54に供給される。予測判定回路54は、前方予測、後方予測および両方向予測の予測誤差の絶対値和のうち、最も小さいものを、インター予測の予測誤差の絶対値和として選択する。さらに、このインター予測の予測誤差の絶対値和と、画像内予測の予測誤差の絶対値和とを比較し、その小さい方を選択し、この選択した絶対値和に対応するモードを予測モードとして選択する。即ち、画像内予測の予測誤差の絶対値和の方が小さければ、画像内予測モードが設定される。インター予測の予測誤差の絶対値和の方が小さければ、前方予測、後方予測または両方向予測モードのうち、対応する絶対値和が最も小さかったモードが設定される。 和 The sum of these absolute values is supplied to the prediction determination circuit 54. The prediction determination circuit 54 selects the smallest absolute value sum of the prediction errors of the forward prediction, the backward prediction, and the bidirectional prediction as the absolute value sum of the prediction errors of the inter prediction. Furthermore, the absolute value sum of the prediction error of the inter prediction and the absolute value sum of the prediction error of the intra prediction are compared, and the smaller one is selected, and the mode corresponding to the selected absolute value sum is set as the prediction mode. select. That is, if the sum of the absolute values of the prediction errors of the intra prediction is smaller, the intra prediction mode is set. If the sum of the absolute values of the prediction errors in the inter prediction is smaller, the mode having the smallest absolute value sum is set among the forward prediction, backward prediction, and bidirectional prediction modes.

 このように、動きベクトル検出回路50は、参照画像のマクロブロックの信号を、フレームまたはフィールド予測モードのうち、予測モード切り替え回路52により選択されたモードに対応する構成で、予測モード切り替え回路52を介して演算部53に供給するとともに、4つの予測モードのうち、予測判定回路54により選択された予測モードに対応する予測画像と参照画像の間の動きベクトルを検出し、可変長符号化回路58と動き補償回路64に出力する。上述したように、この動きベクトルとしては、対応する予測誤差の絶対値和が最小となるものが選択される。 As described above, the motion vector detecting circuit 50 converts the signal of the macroblock of the reference image into the prediction mode switching circuit 52 in a configuration corresponding to the mode selected by the prediction mode switching circuit 52 among the frame or field prediction modes. And a motion vector between the predicted image and the reference image corresponding to the prediction mode selected by the prediction determination circuit 54 among the four prediction modes, and the variable-length encoding circuit 58 Is output to the motion compensation circuit 64. As described above, as the motion vector, the motion vector having the smallest absolute value sum of the corresponding prediction errors is selected.

 予測判定回路54は、動きベクトル検出回路50が前方原画像部51aよりIピクチャの画像データを読み出しているとき、予測モードとして、フレーム(画像)内予測モード(動き補償を行わないモード)を設定し、演算部53のスイッチ53dを接点a側に切り替える。これにより、Iピクチャの画像データがDCTモード切り替え回路55に入力される。 The prediction determination circuit 54 sets the intra-frame (image) prediction mode (mode in which motion compensation is not performed) as the prediction mode when the motion vector detection circuit 50 is reading the image data of the I picture from the front original image section 51a. Then, the switch 53d of the calculation unit 53 is switched to the contact a side. As a result, the image data of the I picture is input to the DCT mode switching circuit 55.

 このDCTモード切り替え回路55は、図21(A)または(B)に示すように、4個の輝度ブロックのデータを、奇数フィールドのラインと偶数フィールドのラインが混在する状態(フレームDCTモード)、または、分離された状態(フィールドDCTモード)、のいずれかの状態にして、DCT回路56に出力する。 The DCT mode switching circuit 55 converts the data of the four luminance blocks into a state where the lines of the odd field and the lines of the even field are mixed (frame DCT mode), as shown in FIG. Alternatively, the signal is output to the DCT circuit 56 in one of the separated states (field DCT mode).

 即ち、DCTモード切り替え回路55は、奇数フィールドと偶数フィールドのデータを混在してDCT処理した場合における符号化効率と、分離した状態においてDCT処理した場合の符号化効率とを比較し、符号化効率の良好なモードを選択する。 That is, the DCT mode switching circuit 55 compares the coding efficiency in the case where the DCT processing is performed in a mixed state with the data of the odd field and the even field with the coding efficiency in the case where the DCT processing is performed in the separated state. Choose a good mode.

 例えば、入力された信号を、図21(A)に示すように、奇数フィールドと偶数フィールドのラインが混在する構成とし、上下に隣接する奇数フィールドのラインの信号と偶数フィールドのラインの信号の差を演算し、さらにその絶対値の和(または自乗和)を求める。また、入力された信号を、図21(B)に示すように、奇数フィールドと偶数フィールドのラインが分離した構成とし、上下に隣接する奇数フィールドのライン同士の信号の差と、偶数フィールドのライン同士の信号の差を演算し、それぞれの絶対値の和(または自乗和)を求める。さらに、両者(絶対値和)を比較し、小さい値に対応するDCTモードを設定する。即ち、前者の方が小さければ、フレームDCTモードを設定し、後者の方が小さければ、フィールドDCTモードを設定する。 For example, as shown in FIG. 21A, the input signal has a configuration in which the lines of the odd field and the even field are mixed, and the difference between the signal of the line of the odd field and the signal of the line of the even field adjacent vertically. And calculate the sum (or sum of squares) of the absolute values. As shown in FIG. 21B, the input signal has a structure in which the lines of the odd field and the even field are separated from each other, and the signal difference between the lines of the odd field adjacent vertically and the line of the even field. The difference between the signals is calculated, and the sum (or sum of squares) of the respective absolute values is obtained. Further, the DCT mode corresponding to the smaller value is set by comparing the two (the sum of absolute values). That is, if the former is smaller, the frame DCT mode is set, and if the latter is smaller, the field DCT mode is set.

 そして、選択したDCTモードに対応する構成のデータをDCT回路56に出力するとともに、選択したDCTモードを示すDCTフラグを、可変長符号化回路58と動き補償回路64に出力する。 {Circle around (4)} The data having the configuration corresponding to the selected DCT mode is output to the DCT circuit 56, and the DCT flag indicating the selected DCT mode is output to the variable length coding circuit 58 and the motion compensation circuit 64.

 予測モード切り替え回路52における予測モード(図20)と、このDCTモード切り替え回路55におけるDCTモード(図21)を比較して明らかなように、輝度ブロックに関しては、両者の各モードにおけるデータ構造は実質的に同一である。 As is apparent from a comparison between the prediction mode (FIG. 20) in the prediction mode switching circuit 52 and the DCT mode (FIG. 21) in the DCT mode switching circuit 55, the data structure of each mode of the luminance block is substantially the same. Are identical.

 予測モード切り替え回路52において、フレーム予測モード(奇数ラインと偶数ラインが混在するモード)が選択された場合、DCTモード切り替え回路55においても、フレームDCTモード(奇数ラインと偶数ラインが混在するモード)が選択される可能性が高く、また予測モード切り替え回路52において、フィールド予測モード(奇数フィールドと偶数フィールドのデータが分離されたモード)が選択された場合、DCTモード切り替え回路55において、フィールドDCTモード(奇数フィールドと偶数フィールドのデータが分離されたモード)が選択される可能性が高い。 When the prediction mode switching circuit 52 selects the frame prediction mode (mode in which odd lines and even lines are mixed), the DCT mode switching circuit 55 also performs frame DCT mode (mode in which odd lines and even lines are mixed). If the field prediction mode (mode in which the data of the odd field and the data of the even field are separated) is selected in the prediction mode switching circuit 52, the DCT mode switching circuit 55 selects the field DCT mode ( (The mode in which the data of the odd field and the data of the even field are separated) is likely to be selected.

 しかしながら、必ずしも常にそのようになされるわけではなく、予測モード切り替え回路52においては、予測誤差の絶対値和が小さくなるようにモードが決定され、DCTモード切り替え回路55においては、符号化効率が良好となるようにモードが決定される。 However, this is not always the case. In the prediction mode switching circuit 52, the mode is determined so that the sum of absolute values of the prediction errors is small, and in the DCT mode switching circuit 55, the coding efficiency is good. The mode is determined so that

 DCTモード切り替え回路55より出力されたIピクチャの画像データは、DCT回路56に入力され、DCT(離散コサイン変換)処理され、DCT係数に変換される。このDCT係数は、量子化回路57に入力され、送信バッファ59
のデータ蓄積量(バッファ蓄積量)に対応した量子化ステップで量子化された後、可変長符号化回路58に入力される。
The I-picture image data output from the DCT mode switching circuit 55 is input to the DCT circuit 56, where it is subjected to DCT (Discrete Cosine Transform) processing and converted into DCT coefficients. This DCT coefficient is input to the quantization circuit 57 and the transmission buffer 59
After being quantized in a quantization step corresponding to the data accumulation amount (buffer accumulation amount) of the data, the data is input to the variable-length encoding circuit 58.

 可変長符号化回路58は、量子化回路57より供給される量子化ステップ(スケール)に対応して、量子化回路57より供給される画像データ(いまの場合、Iピクチャのデータ)を、例えばハフマン符号などの可変長符号に変換し、送信バッファ59に出力する。 The variable-length encoding circuit 58 converts the image data (in this case, I-picture data) supplied from the quantization circuit 57 in accordance with the quantization step (scale) supplied from the quantization circuit 57, for example. The data is converted into a variable length code such as a Huffman code and output to the transmission buffer 59.

 可変長符号化回路58にはまた、量子化回路57より量子化ステップ(スケール)、予測判定回路54より予測モード(画像内予測、前方予測、後方予測、または両方向予測のいずれが設定されたかを示すモード)、動きベクトル検出回路50より動きベクトル、予測モード切り替え回路52より予測フラグ(フレーム予測モードまたはフィールド予測モードのいずれが設定されたかを示すフラグ)、およびDCTモード切り替え回路55が出力するDCTフラグ(フレームDCTモードまたはフィールドDCTモードのいずれが設定されたかを示すフラグ)が入力されており、これらも可変長符号化される。 The variable length encoding circuit 58 also determines whether a quantization step (scale) by the quantization circuit 57 or a prediction mode (intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction) by the prediction determination circuit 54. Mode), a motion vector from the motion vector detection circuit 50, a prediction flag (a flag indicating whether the frame prediction mode or the field prediction mode is set) from the prediction mode switching circuit 52, and a DCT output from the DCT mode switching circuit 55. A flag (a flag indicating whether the frame DCT mode or the field DCT mode is set) is input, and these are also subjected to variable length coding.

 送信バッファ59は、入力されたデータを一時蓄積し、蓄積量に対応するデータを量子化回路57に出力する。 The transmission buffer 59 temporarily stores the input data, and outputs data corresponding to the storage amount to the quantization circuit 57.

 送信バッファ59は、そのデータ残量が許容上限値まで増量すると、量子化制御信号によって量子化回路57の量子化スケールを大きくすることにより、量子化データのデータ量を低下させる。また、これとは逆に、データ残量が許容下限値まで減少すると、送信バッファ59は、量子化制御信号によって量子化回路57の量子化スケールを小さくすることにより、量子化データのデータ量を増大させる。このようにして、送信バッファ59のオーバフローまたはアンダフローが防止される。 (4) When the remaining data amount increases to the allowable upper limit, the transmission buffer 59 reduces the data amount of the quantized data by increasing the quantization scale of the quantization circuit 57 by the quantization control signal. Conversely, when the remaining data amount decreases to the allowable lower limit, the transmission buffer 59 reduces the data amount of the quantized data by reducing the quantization scale of the quantization circuit 57 by the quantization control signal. Increase. In this way, overflow or underflow of the transmission buffer 59 is prevented.

 そして、送信バッファ59に蓄積されたデータは、所定のタイミングで読み出され、伝送路に出力され、例えば記録媒体3に記録される。 The data stored in the transmission buffer 59 is read out at a predetermined timing, output to a transmission path, and recorded on the recording medium 3, for example.

 一方、量子化回路57より出力されたIピクチャのデータは、逆量子化回路60に入力され、量子化回路57より供給される量子化ステップに対応して逆量子化される。逆量子化回路60の出力は、IDCT(逆DCT)回路61に入力され、逆DCT処理された後、演算器62を介してフレームメモリ63の前方予測画像部63aに供給され、記憶される。 On the other hand, the I-picture data output from the quantization circuit 57 is input to the inverse quantization circuit 60 and is inversely quantized in accordance with the quantization step supplied from the quantization circuit 57. The output of the inverse quantization circuit 60 is input to an IDCT (inverse DCT) circuit 61, subjected to inverse DCT processing, supplied to a forward prediction image section 63a of a frame memory 63 via an arithmetic unit 62, and stored.

 動きベクトル検出回路50は、シーケンシャルに入力される各フレームの画像データを、たとえば、I,B,P,B,P,B・・・のピクチャとしてそれぞれ処理する場合、最初に入力されたフレームの画像データをIピクチャとして処理した後、次に入力されたフレームの画像をBピクチャとして処理する前に、さらにその次に入力されたフレームの画像データをPピクチャとして処理する。Bピクチャは、後方予測を伴うため、後方予測画像としてのPピクチャが先に用意されていないと、復号することができないからである。 When the motion vector detection circuit 50 processes the sequentially input image data of each frame as, for example, pictures of I, B, P, B, P, B,. After processing the image data as an I picture, before processing the image of the next input frame as a B picture, the image data of the next input frame is further processed as a P picture. This is because a B picture involves backward prediction and cannot be decoded unless a P picture as a backward prediction image is prepared first.

 そこで動きベクトル検出回路50は、Iピクチャの処理の次に、後方原画像部51cに記憶されているPピクチャの画像データの処理を開始する。そして、上述した場合と同様に、マクロブロック単位でのフレーム間差分(予測誤差)の絶対値和が、動きベクトル検出回路50から予測モード切り替え回路52と予測判定回路54に供給される。予測モード切り替え回路52と予測判定回路54は、このPピクチャのマクロブロックの予測誤差の絶対値和に対応して、フレーム/フィールド予測モード、または画像内予測、前方予測、後方予測、もしくは両方向予測の予測モードを設定する。 Then, after the processing of the I picture, the motion vector detection circuit 50 starts processing the image data of the P picture stored in the rear original image section 51c. Then, as in the case described above, the absolute value sum of the inter-frame difference (prediction error) in macroblock units is supplied from the motion vector detection circuit 50 to the prediction mode switching circuit 52 and the prediction determination circuit 54. The prediction mode switching circuit 52 and the prediction determination circuit 54 perform frame / field prediction mode, intra-picture prediction, forward prediction, backward prediction, or bidirectional prediction in accordance with the sum of absolute values of prediction errors of macroblocks of the P picture. Set the prediction mode for.

 演算部53はフレーム内予測モードが設定されたとき、スイッチ53dを上述したように接点a側に切り替える。従って、このデータは、Iピクチャのデータと同様に、DCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バッファ59を介して伝送路に伝送される。また、このデータは、逆量子化回路60、IDCT回路61、演算器62を介してフレームメモリ63の後方予測画像部63bに供給され、記憶される。 When the intra-frame prediction mode is set, the calculation unit 53 switches the switch 53d to the contact a as described above. Therefore, this data is transmitted to the transmission path via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59, similarly to the I picture data. The data is supplied to the backward prediction image section 63b of the frame memory 63 via the inverse quantization circuit 60, the IDCT circuit 61, and the calculator 62, and stored therein.

 前方予測モードの時、スイッチ53dが接点bに切り替えられるとともに、フレームメモリ63の前方予測画像部63aに記憶されている画像(いまの場合Iピクチャの画像)データが読み出され、動き補償回路64により、動きベクトル検出回路50が出力する動きベクトルに対応して動き補償される。すなわち、動き補償回路64は、予測判定回路54より前方予測モードの設定が指令されたとき、前方予測画像部63aの読み出しアドレスを、動きベクトル検出回路50がいま出力しているマクロブロックの位置に対応する位置から動きベクトルに対応する分だけずらしてデータを読み出し、予測画像データを生成する。 In the forward prediction mode, the switch 53d is switched to the contact b, and the image data (in this case, the I picture) stored in the forward prediction image section 63a of the frame memory 63 is read out. Thus, motion compensation is performed in accordance with the motion vector output from the motion vector detection circuit 50. That is, when the setting of the forward prediction mode is instructed by the prediction determination circuit 54, the motion compensation circuit 64 sets the read address of the forward prediction image section 63a to the position of the macroblock that the motion vector detection circuit 50 is currently outputting. Data is read out from the corresponding position by a distance corresponding to the motion vector, and predicted image data is generated.

 動き補償回路64より出力された予測画像データは、演算器53aに供給される。演算器53aは、予測モード切り替え回路52より供給された参照画像のマクロブロックのデータから、動き補償回路64より供給された、このマクロブロックに対応する予測画像データを減算し、その差分(予測誤差)を出力する。この差分データは、DCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バッファ59を介して伝送路に伝送される。また、この差分データは、逆量子化回路60、IDCT回路61により局所的に復号され、演算器62に入力される。 The predicted image data output from the motion compensation circuit 64 is supplied to the calculator 53a. The arithmetic unit 53a subtracts the predicted image data corresponding to the macroblock supplied from the motion compensation circuit 64 from the macroblock data of the reference image supplied from the prediction mode switching circuit 52, and calculates the difference (prediction error). ) Is output. This difference data is transmitted to the transmission path via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59. The difference data is locally decoded by the inverse quantization circuit 60 and the IDCT circuit 61, and is input to the arithmetic unit 62.

 この演算器62にはまた、演算器53aに供給されている予測画像データと同一のデータが供給されている。演算器62は、IDCT回路61が出力する差分データに、動き補償回路64が出力する予測画像データを加算する。これにより、元の(復号した)Pピクチャの画像データが得られる。このPピクチャの画像データは、フレームメモリ63の後方予測画像部63bに供給され、記憶される。 演算 The same data as the predicted image data supplied to the calculator 53a is also supplied to the calculator 62a. The calculator 62 adds the prediction image data output from the motion compensation circuit 64 to the difference data output from the IDCT circuit 61. As a result, image data of the original (decoded) P picture is obtained. The P-picture image data is supplied to and stored in the backward prediction image section 63b of the frame memory 63.

 動きベクトル検出回路50は、このように、IピクチャとPピクチャのデータが前方予測画像部63aと後方予測画像部63bにそれぞれ記憶された後、次にBピクチャの処理を実行する。予測モード切り替え回路52と予測判定回路54は、マクロブロック単位でのフレーム間差分の絶対値和の大きさに対応して、フレーム/フィールドモードを設定し、また、予測モードをフレーム内予測モード、前方予測モード、後方予測モード、または両方向予測モードのいずれかに設定する。 After the I-picture and P-picture data are stored in the forward prediction image section 63a and the backward prediction image section 63b, the motion vector detection circuit 50 executes the processing of the B picture. The prediction mode switching circuit 52 and the prediction determination circuit 54 set the frame / field mode according to the magnitude of the sum of the absolute values of the inter-frame differences in macroblock units. Set to one of the forward prediction mode, the backward prediction mode, and the bidirectional prediction mode.

 上述したように、フレーム内予測モードまたは前方予測モードの時、スイッチ53dは接点aまたはbに切り替えられる。このとき、Pピクチャにおける場合と同様の処理が行われ、データが伝送される。 As described above, in the intra-frame prediction mode or the forward prediction mode, the switch 53d is switched to the contact point a or b. At this time, the same processing as in the case of the P picture is performed, and the data is transmitted.

 これに対して、後方予測モードまたは両方向予測モードが設定された時、スイッチ53dは、接点cまたはdにそれぞれ切り替えられる。 On the other hand, when the backward prediction mode or the bidirectional prediction mode is set, the switch 53d is switched to the contact point c or d.

 スイッチ53dが接点cに切り替えられている後方予測モードの時、後方予測画像部63bに記憶されている画像(いまの場合、Pピクチャの画像)データが読み出され、動き補償回路64により、動きベクトル検出回路50が出力する動きベクトルに対応して動き補償される。すなわち、動き補償回路64は、予測判定回路54より後方予測モードの設定が指令されたとき、後方予測画像部63bの読み出しアドレスを、動きベクトル検出回路50がいま出力しているマクロブロックの位置に対応する位置から動きベクトルに対応する分だけずらしてデータを読み出し、予測画像データを生成する。 In the backward prediction mode in which the switch 53d is switched to the contact point c, the image data (in this case, the image of the P picture) stored in the backward prediction image section 63b is read out. Motion compensation is performed corresponding to the motion vector output from the vector detection circuit 50. That is, when the setting of the backward prediction mode is instructed by the prediction determination circuit 54, the motion compensation circuit 64 sets the read address of the backward prediction image unit 63b to the position of the macroblock that the motion vector detection circuit 50 is currently outputting. Data is read out from the corresponding position by a distance corresponding to the motion vector, and predicted image data is generated.

 動き補償回路64より出力された予測画像データは、演算器53bに供給される。演算器53bは、予測モード切り替え回路52より供給された参照画像のマクロブロックのデータから、動き補償回路64より供給された予測画像データを減算し、その差分を出力する。この差分データは、DCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バッファ59を介して伝送路に伝送される。 The predicted image data output from the motion compensation circuit 64 is supplied to the calculator 53b. The arithmetic unit 53b subtracts the predicted image data supplied from the motion compensation circuit 64 from the macroblock data of the reference image supplied from the prediction mode switching circuit 52, and outputs the difference. This difference data is transmitted to the transmission path via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59.

 スイッチ53dが接点dに切り替えられている両方向予測モードの時、前方予測画像部63aに記憶されている画像(いまの場合、Iピクチャの画像)データと、後方予測画像部63bに記憶されている画像(いまの場合、Pピクチャの画像)データが読み出され、動き補償回路64により、動きベクトル検出回路50が出力する動きベクトルに対応して動き補償される。すなわち、動き補償回路64は、予測判定回路54より両方向予測モードの設定が指令されたとき、前方予測画像部63aと後方予測画像部63bの読み出しアドレスを、動きベクトル検出回路50がいま出力しているマクロブロックの位置に対応する位置から動きベクトル(この場合の動きベクトルは、前方予測画像用と後方予測画像用の2つとなる)に対応する分だけずらしてデータを読み出し、予測画像データを生成する。 In the bidirectional prediction mode in which the switch 53d is switched to the contact d, the image data (in this case, the I-picture image) stored in the forward prediction image section 63a and the image data stored in the backward prediction image section 63b. Image data (in this case, an image of a P picture) is read out, and the motion compensation circuit 64 performs motion compensation corresponding to the motion vector output from the motion vector detection circuit 50. That is, when the setting of the bidirectional prediction mode is instructed by the prediction determination circuit 54, the motion vector detection circuit 50 outputs the read addresses of the forward predicted image section 63a and the backward predicted image section 63b. The data is read out from the position corresponding to the position of the macro block in which the data is shifted by an amount corresponding to the motion vector (in this case, two motion vectors for the forward predicted image and the backward predicted image), and predicted image data is generated. I do.

 動き補償回路64より出力された予測画像データは、演算器53cに供給される。演算器53cは、動きベクトル検出回路50より供給された参照画像のマクロブロックのデータから、動き補償回路64より供給された予測画像データの平均値を減算し、その差分を出力する。この差分データは、DCTモード切り替え回路55、DCT回路56、量子化回路57、可変長符号化回路58、送信バッファ59を介して伝送路に伝送される。 The predicted image data output from the motion compensation circuit 64 is supplied to the calculator 53c. The arithmetic unit 53c subtracts the average value of the prediction image data supplied from the motion compensation circuit 64 from the macroblock data of the reference image supplied from the motion vector detection circuit 50, and outputs the difference. This difference data is transmitted to the transmission path via the DCT mode switching circuit 55, the DCT circuit 56, the quantization circuit 57, the variable length coding circuit 58, and the transmission buffer 59.

 Bピクチャの画像は、他の画像の予測画像とされることがないため、フレームメモリ63には記憶されない。 The image of the B picture is not stored in the frame memory 63 because it is not regarded as a predicted image of another image.

 尚、フレームメモリ63において、前方予測画像部63aと後方予測画像部63bは、必要に応じてバンク切り替えが行われ、所定の参照画像に対して、一方または他方に記憶されているものを、前方予測画像あるいは後方予測画像として切り替えて出力することができる。 In the frame memory 63, the forward prediction image section 63a and the backward prediction image section 63b are switched between banks as necessary, and the one stored in one or the other with respect to a predetermined reference image is replaced with the forward prediction image section 63a. It can be switched and output as a predicted image or a backward predicted image.

 以上においては、輝度ブロックを中心として説明をしたが、色差ブロックについても同様に、図20および図21に示すマクロブロックを単位として処理され、伝送される。尚、色差ブロックを処理する場合の動きベクトルは、対応する輝度ブロックの動きベクトルを垂直方向と水平方向に、それぞれ1/2にしたものが用いられる。 In the above description, the description has been made centering on the luminance block. However, the chrominance block is also processed and transmitted in units of macroblocks shown in FIGS. As a motion vector for processing a chrominance block, a motion vector obtained by halving the motion vector of the corresponding luminance block in the vertical and horizontal directions is used.

 次に、図22は、図17のデコーダ31の一例の構成を示すブロック図である。伝送路(記録媒体3)を介して伝送された符号化された画像データは、図示せぬ受信回路で受信されたり、再生装置で再生され、受信バッファ81に一時記憶された後、復号回路90の可変長復号化回路82に供給される。可変長復号化回路82は、受信バッファ81より供給されたデータを可変長復号化し、動きベクトル、予測モード、予測フラグおよびDCTフラグを動き補償回路87に、また、量子化ステップを逆量子化回路83に、それぞれ出力するとともに、復号された画像データを逆量子化回路83に出力する。 << Next, FIG. 22 is a block diagram showing a configuration of an example of the decoder 31 of FIG. The encoded image data transmitted via the transmission path (recording medium 3) is received by a receiving circuit (not shown) or reproduced by a reproducing device, temporarily stored in a receiving buffer 81, and then decoded by a decoding circuit 90. Is supplied to the variable length decoding circuit 82. The variable length decoding circuit 82 performs variable length decoding on the data supplied from the reception buffer 81, and outputs the motion vector, the prediction mode, the prediction flag and the DCT flag to the motion compensation circuit 87, and the quantization step to the inverse quantization circuit. 83, and outputs the decoded image data to the inverse quantization circuit 83.

 逆量子化回路83は、可変長復号化回路82より供給された画像データを、同じく可変長復号化回路82より供給された量子化ステップに従って逆量子化し、IDCT回路84に出力する。逆量子化回路83より出力されたデータ(DCT係数)は、IDCT回路84で、逆DCT処理され、演算器85に供給される。 The inverse quantization circuit 83 inversely quantizes the image data supplied from the variable length decoding circuit 82 in accordance with the quantization step also supplied from the variable length decoding circuit 82, and outputs the result to the IDCT circuit 84. The data (DCT coefficient) output from the inverse quantization circuit 83 is subjected to inverse DCT processing in the IDCT circuit 84 and supplied to the arithmetic unit 85.

 IDCT回路84より供給された画像データが、Iピクチャのデータである場合、そのデータは演算器85より出力され、演算器85に後に入力される画像データ(PまたはBピクチャのデータ)の予測画像データ生成のために、フレームメモリ86の前方予測画像部86aに供給されて記憶される。また、このデータは、フォーマット変換回路32(図17)に出力される。 When the image data supplied from the IDCT circuit 84 is I-picture data, the data is output from the arithmetic unit 85 and a predicted image of image data (P or B-picture data) to be input to the arithmetic unit 85 later. For data generation, the data is supplied to and stored in the forward prediction image section 86a of the frame memory 86. This data is output to the format conversion circuit 32 (FIG. 17).

 IDCT回路84より供給された画像データが、その1フレーム前の画像データを予測画像データとするPピクチャのデータであって、前方予測モードのデータである場合、フレームメモリ86の前方予測画像部86aに記憶されている、1フレーム前の画像データ(Iピクチャのデータ)が読み出され、動き補償回路87で可変長復号化回路82より出力された動きベクトルに対応する動き補償が施される。そして、演算器85において、IDCT回路84より供給された画像データ(差分のデータ)と加算され、出力される。この加算されたデータ、即ち、復号されたPピクチャのデータは、演算器85に後に入力される画像データ(BピクチャまたはPピクチャのデータ)の予測画像データ生成のために、フレームメモリ86の後方予測画像部86bに供給されて記憶される。 When the image data supplied from the IDCT circuit 84 is P-picture data in which image data one frame before the P-picture is used as predicted image data and is data in the forward prediction mode, the forward predicted image portion 86a of the frame memory 86 Is read out, and the motion compensation circuit 87 performs motion compensation corresponding to the motion vector output from the variable length decoding circuit 82. The arithmetic unit 85 adds the image data (difference data) supplied from the IDCT circuit 84 and outputs the result. The added data, that is, the decoded P picture data is transmitted to the rear of the frame memory 86 in order to generate predicted image data of the image data (B picture or P picture data) input later to the arithmetic unit 85. It is supplied to and stored in the prediction image section 86b.

 Pピクチャのデータであっても、画像内予測モードのデータは、Iピクチャのデータと同様に、演算器85で特に処理は行わず、そのまま後方予測画像部86bに記憶される。 Even in the case of P-picture data, the data in the intra-prediction mode is stored in the backward prediction image unit 86b without being processed by the arithmetic unit 85, as in the case of the I-picture data.

 このPピクチャは、次のBピクチャの次に表示されるべき画像であるため、この時点では、まだフォーマット変換回路32へ出力されない(上述したように、Bピクチャの後に入力されたPピクチャが、Bピクチャより先に処理され、伝送されている)。 Since this P picture is an image to be displayed next to the next B picture, it is not yet output to the format conversion circuit 32 at this time (as described above, the P picture input after the B picture is Processed and transmitted before the B picture).

 IDCT回路84より供給された画像データが、Bピクチャのデータである場合、可変長復号化回路82より供給された予測モードに対応して、フレームメモリ86の前方予測画像部86aに記憶されているIピクチャの画像データ(前方予測モードの場合)、後方予測画像部86bに記憶されているPピクチャの画像データ(後方予測モードの場合)、または、その両方の画像データ(両方向予測モードの場合)が読み出され、動き補償回路87において、可変長復号化回路82より出力された動きベクトルに対応する動き補償が施されて、予測画像が生成される。但し、動き補償を必要としない場合(画像内予測モードの場合)、予測画像は生成されない。 When the image data supplied from the IDCT circuit 84 is B picture data, it is stored in the forward prediction image section 86a of the frame memory 86 corresponding to the prediction mode supplied from the variable length decoding circuit 82. I-picture image data (in the case of forward prediction mode), P-picture image data stored in the backward prediction image section 86b (in the case of backward prediction mode), or both image data (in the case of bidirectional prediction mode) Are read out, and the motion compensation circuit 87 performs motion compensation corresponding to the motion vector output from the variable length decoding circuit 82 to generate a predicted image. However, when motion compensation is not required (in the case of the intra-picture prediction mode), a predicted picture is not generated.

 このようにして、動き補償回路87で動き補償が施されたデータは、演算器85において、IDCT回路84の出力と加算される。この加算出力は、フォーマット変換回路32に出力される。 デ ー タ The data subjected to the motion compensation by the motion compensation circuit 87 in this way is added to the output of the IDCT circuit 84 in the arithmetic unit 85. This addition output is output to the format conversion circuit 32.

 但し、この加算出力はBピクチャのデータであり、他の画像の予測画像生成のために利用されることがないため、フレームメモリ86には記憶されない。 However, the added output is B-picture data, and is not stored in the frame memory 86 because it is not used for generating a predicted image of another image.

 Bピクチャの画像が出力された後、後方予測画像部86bに記憶されているPピクチャの画像データが読み出され、動き補償回路87を介して演算器85に供給される。但し、このとき、動き補償は行われない。 After the image of the 画像 B picture is output, the image data of the P picture stored in the backward prediction image section 86b is read and supplied to the arithmetic unit 85 via the motion compensation circuit 87. However, at this time, no motion compensation is performed.

 尚、このデコーダ31には、図19のエンコーダ18における予測モード切り替え回路52とDCTモード切り替え回路55に対応する回路が図示されていないが、これらの回路に対応する処理、即ち、奇数フィールドと偶数フィールドのラインの信号が分離された構成を、元の混在する構成に必要に応じて戻す処理は、動き補償回路87が実行する。 Although the decoder 31 does not show circuits corresponding to the prediction mode switching circuit 52 and the DCT mode switching circuit 55 in the encoder 18 shown in FIG. 19, processing corresponding to these circuits, that is, odd field and even number The motion compensation circuit 87 executes a process of returning the configuration in which the signal of the line of the field is separated to the original mixed configuration as necessary.

 また、以上においては、輝度信号の処理について説明したが、色差信号の処理も同様に行われる。但し、この場合、動きベクトルは、輝度信号用のものを、垂直方向および水平方向に1/2にしたものが用いられる。 In the above, the processing of the luminance signal has been described, but the processing of the chrominance signal is similarly performed. However, in this case, the motion vector used for the luminance signal is halved in the vertical and horizontal directions.

 以上のように、従来の画像信号符号化および復号化方法では、色差信号の解像度は1種類に固定されており、複数種の解像度の色差信号を伝送することはできなかった。 As described above, in the conventional image signal encoding and decoding methods, the resolution of the color difference signal is fixed to one type, and the color difference signals of a plurality of types of resolutions cannot be transmitted.

 本発明はこのような状況に鑑みてなされたものであり、複数種類の解像度の色差信号を効率良く伝送し、複数種類の解像度の色の画像をリアルタイムに容易に得ることができるようにするものである。 The present invention has been made in view of such a situation, and it is an object of the present invention to efficiently transmit color difference signals of a plurality of resolutions and easily obtain images of colors of a plurality of resolutions in real time. It is.

 本発明の画像信号生成装置は、所定のマクロブロック単位で符号化された画像信号を生成する画像信号生成装置であって、マクロブロックの輝度信号成分を符号化して符号化輝度信号を生成するとともに、マクロブロックの色信号成分を第1の解像度で符号化して第1の符号化色信号を生成し、符号化輝度信号と第1の符号化色信号とを含む第1のスライスデータ信号を出力する第1の画像符号化手段と、マクロブロックの第1の解像度とは異なる第2の解像度の色信号成分を、第1の画像符号化手段により符号化された第1の符号化色信号が復号された信号を用いて符号化して第2の符号化色信号を生成し、第2の符号化色信号を含む第2のスライスデータ信号を出力する第2の画像符号化手段と、第1の画像符号化手段から出力された第1のスライスデータ信号と、第2の画像符号化手段から出力された第2のスライスデータ信号とを、復号処理のときに順次読み出されていずれか一方が選択されるように、互いに近接する位置に配置して合成する合成手段とを備えることを特徴とする。 An image signal generation device according to the present invention is an image signal generation device that generates an image signal encoded in units of a predetermined macroblock, and generates an encoded luminance signal by encoding a luminance signal component of a macroblock. Encoding a color signal component of a macroblock at a first resolution to generate a first encoded color signal and outputting a first slice data signal including an encoded luminance signal and a first encoded color signal A first image encoding unit that converts a color signal component having a second resolution different from the first resolution of the macroblock into a first encoded color signal encoded by the first image encoding unit. A second image encoding unit that encodes using the decoded signal to generate a second encoded color signal, and outputs a second slice data signal including the second encoded color signal; Output from the image encoding means One slice data signal and the second slice data signal output from the second image encoding means are adjacent to each other so as to be sequentially read out during decoding processing and one of them is selected. And a combining means for arranging and combining at a position.

 第2の画像符号化手段は、第1の符号化色信号が復号された信号に基づいて、第2の解像度の色信号成分に対する第1の予測画像信号を生成する第1の予測画像生成手段と、符号化済みの画像信号に関する第2の符号化色信号を保存する保存手段と、保存手段に保存済みの第2の符号化色信号が復号された信号に基づいて、第2の解像度の色信号成分に対する第2の予測画像信号を生成する第2の予測画像生成手段と、第1の予測画像生成手段により生成された第1の予測画像信号を用いた場合における予測誤差信号と、第2の予測画像生成手段により生成された第2の予測画像信号を用いた場合における予測誤差信号とを比較し、その比較の結果に基づいて、第1の予測画像信号と第2の予測画像信号のうちのいずれか一方を選択する選択手段と、第2の解像度の色信号成分を、第1の予測画像信号と第2の予測画像信号のうちの選択手段により選択された方を用いて符号化して第2の符号化色信号を生成し、第2の符号化色信号を含む第2のスライスデータ信号を出力する第2の符号化色信号生成手段とを有するようにすることができる。 A second predictive image generating unit configured to generate a first predictive image signal for a color signal component of a second resolution based on a signal obtained by decoding the first coded color signal; Storing means for storing a second coded color signal relating to the coded image signal; and a second resolution of the second resolution based on the decoded signal of the second coded color signal stored in the storing means. A second predicted image generating means for generating a second predicted image signal for the color signal component, a prediction error signal when using the first predicted image signal generated by the first predicted image generating means, The second prediction image signal generated by the second prediction image generation means is compared with a prediction error signal when the second prediction image signal is used, and based on the comparison result, the first prediction image signal and the second prediction image signal are compared. To select one of Means for encoding a color signal component of the second resolution using the one of the first predicted image signal and the second predicted image signal selected by the selecting means, thereby forming a second encoded color signal. And a second coded color signal generating means for generating and outputting a second slice data signal including the second coded color signal.

 合成手段は、第1のスライスデータ信号と第2のスライスデータ信号とともに、選択手段による選択の結果をさらに多重合成するようにすることができる。 The combining means can further multiplex and combine the result of the selection by the selecting means together with the first slice data signal and the second slice data signal.

 第2の画像符号化手段は、符号化済みの画像信号に関する第2の符号化色信号を保存する保存手段と、第1の符号化色信号を復号した信号と、保存手段に保存済みの第2の符号化色信号を復号した信号とに、其々所定の重み付けを行って合成する信号合成手段とを有し、第2の解像度の色信号成分を、信号合成手段により重み付け合成された復号信号に基づいて符号化して第2の符号化色信号を生成し、第2の符号化色信号を含む第2のスライスデータ信号を出力するようにすることができる。 The second image encoding unit includes a storage unit configured to store a second encoded color signal related to the encoded image signal, a signal obtained by decoding the first encoded color signal, and a second unit stored in the storage unit. And a signal synthesizing unit for performing predetermined weighting on the signal obtained by decoding the coded color signal of No. 2 and synthesizing the signal by a predetermined weight. It is possible to generate a second encoded color signal by encoding based on the signal, and to output a second slice data signal including the second encoded color signal.

 第2の画像符号化手段において、信号合成手段は、其々大きさが異なる複数の重み付け係数で第1の符号化色信号を復号した信号と保存手段に保存済みの第2の符号化色信号を復号した信号とを重み付け合成して、複数の復号信号を生成し、複数の重み付け係数のそれぞれについて、復号信号に基づいて第2の符号化色信号を生成した場合における予測誤差信号をそれぞれ算出して比較し、何れの復号信号を第2の符号化色信号の符号化に用いるか選択する選択手段を更に有するようにすることができる。 In the second image encoding means, the signal synthesizing means includes a signal obtained by decoding the first encoded color signal with a plurality of weighting coefficients having different magnitudes, and a second encoded color signal stored in the storage means. A plurality of decoded signals are generated by weighting and synthesizing a signal obtained by decoding the coded color signal, and a prediction error signal is calculated for each of the plurality of weighting coefficients when a second encoded color signal is generated based on the decoded signal. And comparing the decoded signals to select which decoded signal is used for encoding the second encoded color signal.

 合成手段は、第1のスライスデータ信号と第2のスライスデータ信号とともに、重み付け係数をさらに多重合成するようにすることができる。 The combining means can further multiplex and combine the weighting coefficients together with the first slice data signal and the second slice data signal.

 本発明の画像信号生成方法は、所定のマクロブロック単位で符号化された画像信号を生成する画像信号生成方法であって、マクロブロックの輝度信号成分を符号化して符号化輝度信号を生成するとともに、マクロブロックの色信号成分を第1の解像度で符号化して第1の符号化色信号を生成し、符号化輝度信号と第1の符号化色信号とを含む第1のスライスデータ信号を出力する第1の画像符号化ステップと、マクロブロックの第1の解像度とは異なる第2の解像度の色信号成分を、第1の画像符号化ステップの処理により符号化された第1の符号化色信号が復号された信号を用いて符号化して第2の符号化色信号を生成し、第2の符号化色信号を含む第2のスライスデータ信号を出力する第2の画像符号化ステップと、第1の画像符号化ステップの処理により出力された第1のスライスデータ信号と、第2の画像符号化ステップの処理により出力された第2のスライスデータ信号とを、復号処理のときに順次読み出されていずれか一方が選択されるように、互いに近接する位置に配置して合成する合成ステップとを含むことを特徴とする。 An image signal generation method according to the present invention is an image signal generation method for generating an image signal encoded in units of a predetermined macroblock, and generates an encoded luminance signal by encoding a luminance signal component of a macroblock. Encoding a color signal component of a macroblock at a first resolution to generate a first encoded color signal and outputting a first slice data signal including an encoded luminance signal and a first encoded color signal A first image encoding step, and a color signal component having a second resolution different from the first resolution of the macroblock are converted into a first encoded color encoded by the processing of the first image encoding step. A second image encoding step of encoding the decoded signal to generate a second encoded color signal and outputting a second slice data signal including the second encoded color signal; First image coding The first slice data signal output by the processing of the step and the second slice data signal output by the processing of the second image encoding step are sequentially read out at the time of decoding processing, and either one of them is read out. And a combining step of arranging and combining them at positions close to each other so that is selected.

 第2の画像符号化ステップは、第1の符号化色信号が復号された信号に基づいて、第2の解像度の色信号成分に対する第1の予測画像信号を生成する第1の予測画像生成ステップと、符号化済みの画像信号に関する第2の符号化色信号を保存する保存ステップと、保存ステップの処理により保存済みの第2の符号化色信号が復号された信号に基づいて、第2の解像度の色信号成分に対する第2の予測画像信号を生成する第2の予測画像生成ステップと、第1の予測画像生成ステップの処理により生成された第1の予測画像信号を用いた場合における予測誤差信号と、第2の予測画像生成ステップの処理により生成された第2の予測画像信号を用いた場合における予測誤差信号とを比較し、その比較の結果に基づいて、第1の予測画像信号と第2の予測画像信号のうちのいずれか一方を選択する選択ステップと、第2の解像度の色信号成分を、第1の予測画像信号と第2の予測画像信号のうちの選択ステップの処理により選択された方を用いて符号化して第2の符号化色信号を生成し、第2の符号化色信号を含む第2のスライスデータ信号を出力する第2の符号化色信号生成ステップとを含むようにすることができる。 The second image encoding step includes a first predicted image generation step of generating a first predicted image signal for a color signal component of a second resolution based on a signal obtained by decoding the first encoded color signal. And a storage step of storing a second encoded color signal related to the encoded image signal; and a second encoding color signal stored in the storage step, based on the decoded second encoded color signal. A second prediction image generation step of generating a second prediction image signal for the color signal component of the resolution, and a prediction error when using the first prediction image signal generated by the processing of the first prediction image generation step The signal is compared with a prediction error signal in the case of using the second predicted image signal generated by the process of the second predicted image generation step, and based on the comparison result, the first predicted image signal and A selection step of selecting one of the two predicted image signals, and a color signal component of the second resolution is selected by the processing of the selection step of the first predicted image signal and the second predicted image signal Generating a second encoded color signal by performing encoding using the encoded signal, and outputting a second slice data signal including the second encoded color signal. You can do so.

 合成ステップは、第1のスライスデータ信号と第2のスライスデータ信号とともに、選択ステップの選択処理の結果をさらに多重合成するようにすることができる。 In the combining step, the result of the selection processing in the selecting step can be further multiplex-combined together with the first slice data signal and the second slice data signal.

 第2の画像符号化ステップは、符号化済みの画像信号に関する第2の符号化色信号を保存する保存ステップと、第1の符号化色信号を復号した信号と、保存ステップの処理により保存済みの第2の符号化色信号を復号した信号とに、其々所定の重み付けを行って合成する信号合成ステップとを含み、第2の解像度の色信号成分を、信号合成ステップの処理により重み付け合成された復号信号に基づいて符号化して第2の符号化色信号を生成し、第2の符号化色信号を含む第2のスライスデータ信号を出力するようにすることができる。 The second image encoding step includes: a storage step of storing a second encoded color signal relating to the encoded image signal; a signal obtained by decoding the first encoded color signal; And a signal synthesizing step of performing predetermined weighting on a signal obtained by decoding the second encoded color signal and synthesizing the color signal component of the second resolution by the signal synthesizing step. It is possible to generate a second encoded color signal by encoding based on the decoded signal, and output a second slice data signal including the second encoded color signal.

 第2の画像符号化ステップにおいて、信号合成ステップは、其々大きさが異なる複数の重み付け係数で第1の符号化色信号を復号した信号と保存ステップの処理により保存済みの第2の符号化色信号を復号した信号とを重み付け合成して、複数の復号信号を生成し、複数の重み付け係数のそれぞれについて、復号信号に基づいて第2の符号化色信号を生成した場合における予測誤差信号をそれぞれ算出して比較し、何れの復号信号を第2の符号化色信号の符号化に用いるか選択する選択ステップを更に含むようにすることができる。 In the second image encoding step, the signal synthesizing step includes a signal obtained by decoding the first encoded color signal with a plurality of weighting coefficients having different magnitudes, and a second encoding stored by the processing of the storing step. A signal obtained by decoding a color signal is weighted and synthesized to generate a plurality of decoded signals, and for each of a plurality of weighting coefficients, a prediction error signal generated when a second encoded color signal is generated based on the decoded signal. The method may further include a selecting step of calculating and comparing the respective decoded signals to select which decoded signal is used for encoding the second encoded color signal.

 合成ステップは、第1のスライスデータ信号と第2のスライスデータ信号とともに、重み付け係数をさらに多重合成して出力するようにすることができる。 In the combining step, the weighting coefficients can be further multiplexed together with the first slice data signal and the second slice data signal and output.

 本発明の画像信号生成装置および方法においては、画像信号がマクロブロック単位で符号化されて画像信号が生成される。詳細には、マクロブロックの輝度信号成分が符号化されて符号化輝度信号が生成されるとともに、マクロブロックの色信号成分が第1の解像度で符号化されて第1の符号化色信号が生成され、符号化輝度信号と第1の符号化色信号とを含む第1のスライスデータ信号が出力される。また、マクロブロックの第1の解像度より高い第2の解像度の色信号成分が、第1の画像符号化ステップの処理により符号化された第1の符号化色信号が復号された信号を用いて符号化されて第2の符号化色信号が生成され、第2の符号化色信号を含む第2のスライスデータ信号が出力される。そして、出力された第1のスライスデータ信号と、出力された第2のスライスデータ信号とが、復号処理のときに順次読み出されていずれか一方が選択されように、互いに近接する位置に配置されて合成される。 In the image signal generating apparatus and method according to the present invention, the image signal is encoded on a macroblock basis to generate an image signal. More specifically, the luminance signal component of the macroblock is encoded to generate an encoded luminance signal, and the color signal component of the macroblock is encoded at a first resolution to generate a first encoded color signal. Then, a first slice data signal including the encoded luminance signal and the first encoded color signal is output. Further, a color signal component having a second resolution higher than the first resolution of the macroblock is obtained by using a signal obtained by decoding the first encoded color signal encoded by the processing of the first image encoding step. Encoding is performed to generate a second encoded color signal, and a second slice data signal including the second encoded color signal is output. Then, the outputted first slice data signal and the outputted second slice data signal are arranged at positions close to each other such that they are sequentially read out during decoding processing and one of them is selected. And synthesized.

 本発明の画像信号再生装置は、所定のマクロブロック単位で符号化された画像信号であって、符号化された画像信号のうちの所定のマクロブロックの輝度信号成分が符号化された符号化輝度信号、およびマクロブロックの色信号成分が第1の解像度で符号化された第1の符号化色信号を含む第1のスライスデータ信号と、マクロブロックの第1の解像度とは異なる第2の解像度の色信号成分が、第1の符号化色信号が復号された信号を用いて符号化された第2の符号化色信号を含む第2のスライスデータ信号とが、互いに近接する位置に配置されて供給されてきた画像信号を再生する画像信号再生装置であって、マクロブロックに対応する第1のスライスデータ信号と第2のスライスデータ信号とを順次再生し、再生した第1のスライスデータ信号と第2のスライスデータ信号とを分離する分離手段と、第1のスライスデータ信号から、符号化輝度信号を復号して輝度信号成分を再生するとともに、第1の符号化色信号を復号して第1の解像度の第1の色信号成分を再生する第1の画像復号手段と、第1の画像復号手段により復号された第1の色信号成分を用いて、第2のスライスデータ信号から第2の符号化色信号を復号して、第2の解像度の第2の色信号成分を再生する第2の画像復号手段と、第1の画像復号手段により再生された第1の色信号成分と、第2の画像復号手段により再生された第2の色信号成分とのうち、マクロブロックの復号の処理に用いられる色信号成分を選択する選択手段とを備えることを特徴とする。 An image signal reproducing apparatus according to the present invention is an image signal encoded in a predetermined macroblock unit, wherein an encoded luminance in which a luminance signal component of a predetermined macroblock of the encoded image signal is encoded. A first slice data signal including a signal and a first encoded color signal in which a color signal component of a macroblock is encoded at a first resolution; and a second resolution different from the first resolution of the macroblock. And a second slice data signal including a second encoded chrominance signal encoded using a signal obtained by decoding the first encoded chrominance signal are arranged at positions close to each other. An image signal reproducing apparatus for reproducing an image signal supplied thereto, sequentially reproducing a first slice data signal and a second slice data signal corresponding to a macro block, and reproducing the reproduced first slice data signal. Separating means for separating the data signal from the second slice data signal, decoding the encoded luminance signal from the first slice data signal to reproduce the luminance signal component, and decoding the first encoded color signal. A first image decoding unit for reproducing a first color signal component having a first resolution, and a second slice data signal using the first color signal component decoded by the first image decoding unit. A second image decoding means for decoding a second encoded color signal from the second color signal to reproduce a second color signal component of a second resolution, and a first color signal reproduced by the first image decoding means And a selecting unit that selects a color signal component used in a macroblock decoding process from the components and the second color signal component reproduced by the second image decoding unit.

 第2の画像復号化手段は、第1の色信号成分に基づいて、第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成手段と、既に復号された第2の色信号成分を保存する保存手段と、保存手段に保存された第2の色信号成分に基づいて、第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成手段と、第1の予測画像生成手段により生成された第1の予測画像信号と、第2の予測画像生成手段により生成された第2の予測画像信号とのうちのいずれか一方を選択する予測画像選択手段と、第2の符号化色信号を、第1の予測画像信号と第2の予測画像信号のうちの予測画像選択手段により選択された方を用いて復号して第2の色信号成分を再生する第2の色信号再生手段とを有するようにすることができる。 The second image decoding unit includes a first predicted image generation unit configured to generate a first predicted image signal corresponding to the second encoded color signal based on the first color signal component; Storage means for storing the second color signal component, and a second predicted image for generating a second predicted image signal for the second encoded color signal based on the second color signal component stored in the storage means Generating means, selecting one of a first predicted image signal generated by the first predicted image generating means and a second predicted image signal generated by the second predicted image generating means; The predicted image selecting means and the second coded color signal are decoded by using the one of the first predicted image signal and the second predicted image signal selected by the predicted image selecting means to obtain a second color signal. And second color signal reproducing means for reproducing a signal component. Door can be.

 第1のスライスデータ信号と第2のスライスデータ信号とを含む画像信号には、第1の予測画像信号と第2の予測画像信号とのうちの何れを利用するのかを指示する指令がさらに多重合成されており、予測画像選択手段は、その指令に基づいて、第1の予測画像信号と第2の予測画像信号とのうちのいずれか一方を選択するようにすることができる。 The image signal including the first slice data signal and the second slice data signal is further multiplexed with a command instructing which of the first predicted image signal and the second predicted image signal to use. The predicted image selection means is synthesized and can select one of the first predicted image signal and the second predicted image signal based on the instruction.

 第2の画像復号手段は、第1の色信号成分に基づいて、第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成手段と、既に復号された第2の色信号成分を保存する保存手段と、保存手段に保存された第2の色信号成分に基づいて、第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成手段と、第1の予測画像信号と第2の予測画像信号とに、それぞれ所定の重み付けを行って合成した合成信号を出力する予測画像合成手段と、第2の符号化色信号を、合成信号を用いて復号して第2の色信号成分を再生する第2の色信号再生手段とを有するようにすることができる。 The second image decoding unit includes a first predicted image generation unit that generates a first predicted image signal for the second encoded color signal based on the first color signal component, and a second predicted image signal that has already been decoded. Storage means for storing the color signal component of the second color signal component, and second predicted image generation for generating a second predicted image signal for the second encoded color signal based on the second color signal component stored in the storage means Means, a predicted image synthesizing means for outputting a synthesized signal obtained by performing predetermined weighting on the first predicted image signal and the second predicted image signal, and outputting the second encoded color signal to the synthesized signal. And a second color signal reproducing means for reproducing the second color signal component by decoding using the second color signal component.

 第1のスライスデータ信号と第2のスライスデータ信号とを含む画像信号には、予測画像合成手段の予測画像信号の合成処理で用いられる重み付け係数がさらに多重合成されており、予測画像合成手段は、重み付け係数に基づいて第1の予測画像信号と第2の予測画像信号とを重み付け合成して、合成信号を出力するようにすることができる。 The image signal including the first slice data signal and the second slice data signal is further multiplex-synthesized with a weighting coefficient used in the process of synthesizing the predicted image signal by the predicted image synthesizing unit. , The first predicted image signal and the second predicted image signal are weighted and synthesized based on the weighting coefficient, and a synthesized signal can be output.

 本発明の画像信号再生方法は、所定のマクロブロック単位で符号化された画像信号であって、符号化された画像信号のうちの所定のマクロブロックの輝度信号成分が符号化された符号化輝度信号、およびマクロブロックの色信号成分が第1の解像度で符号化された第1の符号化色信号を含む第1のスライスデータ信号と、マクロブロックの第1の解像度とは異なる第2の解像度の色信号成分が、第1の符号化色信号が復号された信号を用いて符号化された第2の符号化色信号を含む第2のスライスデータ信号とが、互いに近接する位置に配置されて供給されてきた画像信号を再生する画像信号再生方法であって、マクロブロックに対応する第1のスライスデータ信号と第2のスライスデータ信号とを順次再生し、再生した第1のスライスデータ信号と第2のスライスデータ信号とを分離する分離ステップと、第1のスライスデータ信号から、符号化輝度信号を復号して輝度信号成分を再生するとともに、第1の符号化色信号を復号して第1の解像度の第1の色信号成分を再生する第1の画像復号ステップと、第1の画像復号ステップの処理により復号された第1の色信号成分を用いて、第2のスライスデータ信号から第2の符号化色信号を復号して、第2の解像度の第2の色信号成分を再生する第2の画像復号ステップと、第1の画像復号ステップの処理により再生された第1の色信号成分と、第2の画像復号ステップの処理により再生された第2の色信号成分とのうち、マクロブロックの復号の処理に用いられる色信号成分を選択する選択ステップとを含むことを特徴とする。 An image signal reproducing method according to the present invention is an image signal coded in a predetermined macroblock unit, wherein a coded luminance in which a luminance signal component of a predetermined macroblock in the coded image signal is coded. A first slice data signal including a signal and a first encoded color signal in which a color signal component of a macroblock is encoded at a first resolution; and a second resolution different from the first resolution of the macroblock. And a second slice data signal including a second encoded chrominance signal encoded using a signal obtained by decoding the first encoded chrominance signal are arranged at positions close to each other. An image signal reproducing method for reproducing the supplied image signal, wherein a first slice data signal and a second slice data signal corresponding to a macro block are sequentially reproduced, and the reproduced first slice data signal is reproduced. Separating an encoded luminance signal from the first slice data signal to reproduce a luminance signal component, and decoding a first encoded color signal from the first slice data signal. A first image decoding step of reproducing a first color signal component having a first resolution, and a second slice using the first color signal component decoded by the processing of the first image decoding step. A second image decoding step of decoding a second encoded color signal from the data signal to reproduce a second color signal component of a second resolution; and a second image decoding step reproduced by the processing of the first image decoding step. A selection step of selecting a color signal component used for macroblock decoding processing from among the first color signal component and the second color signal component reproduced by the processing of the second image decoding step. It is characterized by.

 第2の画像復号化ステップは、第1の色信号成分に基づいて、第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成ステップと、既に復号された第2の色信号成分を保存する保存ステップと、保存ステップの処理により保存された第2の色信号に基づいて、第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成ステップと、第1の予測画像生成ステップの処理により生成された第1の予測画像信号と、第2の予測画像生成ステップの処理により生成された第2の予測画像信号とのうちのいずれか一方を選択する予測画像選択ステップと、第2の符号化色信号を、第1の予測画像信号と第2の予測画像信号のうちの予測画像選択ステップの処理により選択された方を用いて復号して第2の色信号成分を再生する第2の色信号再生ステップとを含むようにすることができる。 The second image decoding step includes a first predicted image generation step of generating a first predicted image signal for the second encoded color signal based on the first color signal component; And a second prediction for generating a second predicted image signal for the second encoded color signal based on the second color signal stored in the storing step of storing the second color signal component. Any of the image generation step, the first predicted image signal generated by the processing of the first predicted image generation step, and the second predicted image signal generated by the processing of the second predicted image generation step A predicted image selecting step of selecting one of the two, and a second coded color signal is determined by using one of the first predicted image signal and the second predicted image signal which is selected by the processing of the predicted image selecting step. Decrypt and second It can be made to contain a second color signal reproducing step of reproducing the signal components.

 第1のスライスデータ信号と第2のスライスデータ信号とを含む画像信号には、第1の予測画像信号と第2の予測画像信号とのうちの何れを利用するのかを指示する指令がさらに多重合成されており、予測画像選択ステップは、その指令に基づいて、第1の予測画像信号と第2の予測画像信号とのうちのいずれか一方を選択するようにすることができる。 The image signal including the first slice data signal and the second slice data signal is further multiplexed with a command instructing which of the first predicted image signal and the second predicted image signal to use. The predicted image selection step is a step of selecting one of the first predicted image signal and the second predicted image signal based on the instruction.

 第2の画像復号ステップは、第1の色信号成分に基づいて、第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成ステップと、既に復号された第2の色信号成分を保存する保存ステップと、保存ステップの処理により保存された第2の色信号成分に基づいて、第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成ステップと、第1の予測画像信号と第2の予測画像信号とに、それぞれ所定の重み付けを行って合成した合成信号を出力する予測画像合成ステップと、第2の符号化色信号を、合成信号を用いて復号して第2の色信号成分を再生する第2の色信号再生ステップとを含むようにすることができる。 The second image decoding step includes a first predicted image generation step of generating a first predicted image signal for the second encoded color signal based on the first color signal component, and a second predicted image signal that has already been decoded. And a second prediction for generating a second predicted image signal for the second encoded color signal based on the second color signal component stored by the processing of the storage step. An image generating step, a predicted image synthesizing step of outputting a synthesized signal obtained by performing predetermined weighting on the first predicted image signal and the second predicted image signal, and outputting the second encoded color signal, And a second color signal reproduction step of reproducing the second color signal component by decoding using the synthesized signal.

 第1のスライスデータ信号と第2のスライスデータ信号とを含む画像信号には、予測画像合成ステップの予測画像信号の合成処理で用いられる重み付け係数がさらに多重合成されており、予測画像合成ステップは、重み付け係数に基づいて第1の予測画像信号と第2の予測画像信号とを重み付け合成して、合成信号を出力するようにすることができる。 The image signal including the first slice data signal and the second slice data signal is further multiplex-synthesized with a weighting coefficient used in the process of synthesizing the predicted image signal in the predicted image synthesizing step. , The first predicted image signal and the second predicted image signal are weighted and synthesized based on the weighting coefficient, and a synthesized signal can be output.

 本発明の画像信号再生装置および方法においては、符号化された画像信号のうちの所定のマクロブロックの輝度信号成分が符号化された符号化輝度信号と、マクロブロックの色信号成分が第1の解像度で符号化された第1の符号化色信号とを含む第1のスライスデータ信号と、第1の符号化色信号が復号された信号を利用して符号化された第2の符号化色信号を含む第2のスライスデータ信号とが、互いに近接する位置に配置されて提供されてきた画像信号が再生される。詳細には、マクロブロックに対応する第1のスライスデータ信号と、第2のスライスデータ信号とが順次再生され、再生された第1のスライスデータ信号と第2のスライスデータ信号とが分離される。第1のスライスデータ信号から、符号化輝度信号が復号されて輝度信号成分が再生されるとともに、第1の符号化色信号が復号されて第1の解像度の第1の色信号成分が再生される。一方、復号された第1の色信号成分が用いられて、第2のスライスデータ信号から第2の符号化色信号が復号されて、第2の解像度の第2の色信号成分が再生される。そして、再生された第1の色信号成分と第2の色信号成分とのうち、マクロブロックの復号の処理に用いられる色信号成分が選択される。 In the image signal reproducing apparatus and method according to the present invention, an encoded luminance signal obtained by encoding a luminance signal component of a predetermined macroblock in an encoded image signal, and a color signal component of the macroblock are set to a first signal. A first slice data signal including a first encoded color signal encoded at a resolution and a second encoded color encoded using a signal obtained by decoding the first encoded color signal The second slice data signal including the signal is arranged at a position close to each other, and the provided image signal is reproduced. More specifically, a first slice data signal and a second slice data signal corresponding to a macroblock are sequentially reproduced, and the reproduced first slice data signal and the reproduced second slice data signal are separated. . From the first slice data signal, an encoded luminance signal is decoded to reproduce a luminance signal component, and a first encoded chrominance signal is decoded to reproduce a first color signal component of a first resolution. You. On the other hand, the second encoded color signal is decoded from the second slice data signal using the decoded first color signal component, and the second color signal component of the second resolution is reproduced. . Then, a color signal component used for macroblock decoding processing is selected from the reproduced first color signal component and second color signal component.

 以上のごとく、本発明によれば、解像度の低い色信号に対応する画像を復号化する装置において、解像度の高い色信号成分を処理する回路を付加するだけで、必要に応じて、解像度の低い色の画像と解像度の高い色の画像をリアルタイムに得ることが容易に可能となる。 As described above, according to the present invention, in an apparatus for decoding an image corresponding to a low-resolution color signal, only a circuit for processing a high-resolution color signal component is added. It is possible to easily obtain a color image and a high-resolution color image in real time.

 以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 (5) Embodiments of the present invention will be described below. The correspondence between constituent elements described in the claims and specific examples in the embodiments of the present invention is as follows. This description is for confirming that a specific example supporting the invention described in the claims is described in the embodiment of the invention. Therefore, even if there is a specific example which is described in the embodiment of the invention but is not described here as corresponding to the configuration requirement, the fact that the specific example is It does not mean that it does not correspond to the requirement. Conversely, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

 さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean that the invention corresponding to the specific examples described in the embodiments of the invention is all described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of the invention not described in the claims of this application, that is, It does not deny the existence of the invention added by the amendment.

 本発明によれば、画像信号生成装置が提供される。この画像信号生成装置(例えば、図10または図12の画像信号生成装置)は、所定のマクロブロック単位で符号化された画像信号を生成する画像信号生成装置であって、マクロブロックの輝度信号成分(例えば、図10または図12のY1乃至Y4)を符号化して符号化輝度信号(例えば、図10または図12の<Y1>,<Y2>,<Y3>,<Y4>)を生成するとともに、前記マクロブロックの色信号成分を第1の解像度で符号化して第1の符号化色信号を生成し(例えば、図10または図12のCb5''とCr6''とを符号化して<cb5''>と<cr6''>を生成し)、前記符号化輝度信号と前記第1の符号化色信号とを含む第1のスライスデータ信号(例えば、図8のマスタスライス)を出力する第1の画像符号化手段(例えば、図10または図12の回路100)と、前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分(例えば、図10または図12のCb5',Cr6',Cb7',Cr8')を、前記第1の画像符号化手段により符号化された前記第1の符号化色信号が復号された信号(例えば、回路100の演算器62からの信号)を用いて符号化して第2の符号化色信号(例えば、図10または図12の<Cb5'>,<Cr6'>,<Cb7'>,<Cr8'>)を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号(例えば、図8のスレーブスライス1)を出力する第2の画像符号化手段(例えば、図10または図12の回路101)と、前記第1の画像符号化手段から出力された前記第1のスライスデータ信号と、前記第2の画像符号化手段から出力された前記第2のスライスデータ信号とを、復号の処理のときに順次読み出されていずれか一方が選択されるように、互いに近接する位置に配置して(例えば、図8に示されるように配置して)合成する合成手段(例えば、図10の合成回路105)とを備えることを特徴とする。 According to the present invention, an image signal generating device is provided. This image signal generation device (for example, the image signal generation device in FIG. 10 or FIG. 12) is an image signal generation device that generates an image signal encoded in a predetermined macroblock unit, and includes a luminance signal component of a macroblock. (Eg, Y1 to Y4 in FIG. 10 or FIG. 12) to generate an encoded luminance signal (eg, <Y1>, <Y2>, <Y3>, <Y4> in FIG. 10 or FIG. 12). Encoding the color signal components of the macroblock at a first resolution to generate a first encoded color signal (for example, encoding Cb5 ″ and Cr6 ″ in FIG. 10 or 12 to <cb5 ''> And <cr6 ″>), and outputs a first slice data signal (for example, a master slice in FIG. 8) including the encoded luminance signal and the first encoded chrominance signal. 1 image encoding means (for example, the circuit 100 of FIG. 10 or FIG. 12) and the macro The color signal components (for example, Cb5 ', Cr6', Cb7 ', Cr8' in FIG. 10 or FIG. 12) of the block having a second resolution different from the first resolution are converted by the first image encoding means. The encoded first chrominance signal is encoded using a decoded signal (for example, a signal from the arithmetic unit 62 of the circuit 100) to form a second encoded chrominance signal (for example, FIG. 10 or FIG. 10). 12 <Cb5 ′>, <Cr6 ′>, <Cb7 ′>, <Cr8 ′>), and generates a second slice data signal (for example, the slave slice of FIG. 8) including the second encoded color signal. (1) a second image encoding means (for example, the circuit 101 in FIG. 10 or FIG. 12), the first image encoding means, the first slice data signal output from the first image encoding means, And the second slice data signal output from the image encoding means of (1) is sequentially read at the time of decoding processing. A synthesizing unit (for example, the synthesizing circuit 105 in FIG. 10) that arranges them at positions close to each other so as to select one of them (for example, as shown in FIG. 8) so that one of them is selected. And characterized in that:

 この画像信号生成装置の第2の画像符号化手段(例えば、図10の回路101)は、前記第1の符号化色信号が復号された前記信号に基づいて、前記第2の解像度の前記色信号成分に対する第1の予測画像信号を生成する第1の予測画像生成手段(例えば、図10のアップサンプリング回路111)と、符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存手段(例えば、図10のクロマフレームメモリ174)と、前記保存手段に保存済みの前記第2の符号化色信号が復号された信号に基づいて、前記第2の解像度の前記色信号成分に対する第2の予測画像信号を生成する第2の予測画像生成手段(例えば、図10の動き補償回路175)と、前記第1の予測画像生成手段により生成された前記第1の予測画像信号を用いた場合における予測誤差信号と、前記第2の予測画像生成手段により生成された前記第2の予測画像信号を用いた場合における予測誤差信号とを比較し、その比較の結果に基づいて、前記第1の予測画像信号と前記第2の予測画像信号のうちのいずれか一方を選択する選択手段(例えば、図10の選択回路176)と、前記第2の解像度の前記色信号成分を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記選択手段により選択された方を用いて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む前記第2のスライスデータ信号を出力する第2の符号化色信号生成手段(例えば、図10の演算器112乃至可変長符号化回路115)とを有することができる。 The second image encoding means (for example, the circuit 101 in FIG. 10) of the image signal generating apparatus, based on the signal obtained by decoding the first encoded color signal, outputs the color of the second resolution. First predicted image generation means (for example, the upsampling circuit 111 in FIG. 10) for generating a first predicted image signal for a signal component, and the second encoded color signal for an encoded image signal is stored. Based on a signal obtained by decoding the second encoded color signal stored in the storage unit (for example, the chroma frame memory 174 of FIG. 10) and the second encoded color signal stored in the storage unit, the color signal component of the second resolution is obtained. A second predicted image generating means (for example, the motion compensation circuit 175 in FIG. 10) for generating a second predicted image signal and the first predicted image signal generated by the first predicted image generating means are used. Is compared with the prediction error signal when the second predicted image signal generated by the second predicted image generation means is used, and based on the result of the comparison, A selection unit (for example, a selection circuit 176 in FIG. 10) for selecting one of the first predicted image signal and the second predicted image signal, and the color signal component of the second resolution The second coded color signal is generated by encoding using one of the first predicted image signal and the second predicted image signal, which is selected by the selection unit, to generate the second coded color signal. And a second coded color signal generating means (for example, the arithmetic unit 112 to the variable length coding circuit 115 in FIG. 10) for outputting the second slice data signal.

 この画像信号生成装置の前記合成手段(例えば、図10の回路105)は、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記選択手段による選択の結果(例えば、図10のSpace/Time flag)をさらに多重合成することができる。 The synthesizing means (for example, the circuit 105 in FIG. 10) of the image signal generating apparatus outputs the result of the selection by the selecting means (for example, FIG. 10) together with the first slice data signal and the second slice data signal. Space / Time flag) can be further multiplex-combined.

 この画像信号生成装置の前記第2の画像符号化手段(例えば、図12の回路101)は、符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存手段(例えば、図12のクロマフレームメモリ174)と、前記第1の符号化色信号を復号した信号と、前記保存手段に保存済みの前記第2の符号化色信号を復号した信号とに、其々所定の重み付けを行って合成する信号合成手段と(例えば、図12のアップサンプリング回路111、動き補償回路175、重み付け回路191、重み付け回路192、および、演算器193)とを有し、前記第2の解像度の色信号成分を、前記信号合成手段により重み付け合成された復号信号に基づいて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号を出力することができる。 The second image encoding means (for example, the circuit 101 in FIG. 12) of the image signal generating device stores the second encoded color signal related to the encoded image signal (for example, FIG. 12). Chroma frame memory 174), a signal obtained by decoding the first coded color signal, and a signal obtained by decoding the second coded color signal stored in the storage means, respectively, are given predetermined weights. And a signal synthesizing unit for performing and synthesizing (for example, the up-sampling circuit 111, the motion compensation circuit 175, the weighting circuit 191, the weighting circuit 192, and the arithmetic unit 193 in FIG. 12), and the second resolution color The signal component is encoded based on the decoded signal weighted and synthesized by the signal synthesis unit to generate the second encoded color signal, and a second slice including the second encoded color signal is generated. Can output data signal.

 この画像信号生成装置の前記第2の画像符号化手段において、前記信号合成手段は、其々大きさが異なる複数の重み付け係数(例えば、図12の係数(1−W)であって、具体的には、1,3/4,2/4,1/4,0と、図12の係数Wであって、0,1/4,2/4,3/4,1)で前記第1の符号化色信号を復号した信号と前記保存手段に保存済みの前記第2の符号化色信号を復号した信号とを重み付け合成して、複数の復号信号を生成し、複数の前記重み付け係数のそれぞれについて、前記復号信号に基づいて前記第2の符号化色信号を生成した場合における予測誤差信号をそれぞれ算出して比較し、何れの復号信号を前記第2の符号化色信号の符号化に用いるか選択する選択手段(例えば、図12の演算器193)を更に有することができる。 In the second image encoding unit of the image signal generation device, the signal synthesizing unit includes a plurality of weighting coefficients (for example, coefficients (1-W) in FIG. In FIG. 12, the coefficient W in FIG. 12 is 1, 3/4, 2/4, 1/4, 0, and 0, 1/4, 2/4, 3/4, 1). A signal obtained by decoding an encoded color signal and a signal obtained by decoding the second encoded color signal stored in the storage unit are weighted and combined to generate a plurality of decoded signals, and a plurality of weighted coefficients are respectively generated. , A prediction error signal when the second coded color signal is generated based on the decoded signal is calculated and compared, and any decoded signal is used for coding the second coded color signal. Further, there is further provided a selecting means (for example, a computing unit 193 in FIG. 12) for selecting whether the user Door can be.

 この画像信号生成装置の前記合成手段(例えば、図12の回路105)は、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記重み付け係数(例えば、図10のWeighting Factor:W)をさらに多重合成して出力することができる。 The synthesizing means (for example, the circuit 105 in FIG. 12) of the image signal generating apparatus includes the first slice data signal and the second slice data signal together with the weighting factor (for example, Weighting Factor: W in FIG. 10). ) Can be further multiplexed and output.

 本発明によれば、画像信号生成方法が提供される。この画像信号生成方法(例えば、図10または図12の画像信号生成装置の画像信号生成方法)は、所定のマクロブロック単位で符号化された画像信号を生成する画像信号生成方法であって、マクロブロックの輝度信号成分(例えば、図10または図12のY1乃至Y4)を符号化して符号化輝度信号(例えば、図10または図12の<Y1>,<Y2>,<Y3>,<Y4>)を生成するとともに、前記マクロブロックの色信号成分を第1の解像度で符号化して第1の符号化色信号を生成し(例えば、図10または図12のCb5''とCr6''とを符号化して<cb5''>と<cr6''>を生成し)、前記符号化輝度信号と前記第1の符号化色信号とを含む第1のスライスデータ信号(例えば、図8のマスタスライス)を出力する第1の画像符号化ステップ(例えば、図10または図12の回路100の処理に対応するステップ)と、前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分(例えば、図10または図12のCb5',Cr6',Cb7',Cr8')を、前記第1の画像符号化ステップの処理により符号化された前記第1の符号化色信号が復号された信号(例えば、回路100の演算器62からの信号)を用いて符号化して第2の符号化色信号(例えば、図10または図12の<Cb5'>,<Cr6'>,<Cb7'>,<Cr8'>)を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号(例えば、図8のスレーブスライス1)を出力する第2の画像符号化ステップ(例えば、図10または図12の回路101に対応するステップ)と、前記第1の画像符号化ステップの処理により出力された前記第1のスライスデータ信号と、前記第2の画像符号化ステップの処理により出力された前記第2のスライスデータ信号とを、復号処理のときに順次読み出されていずれか一方が選択されるように、互いに近接する位置に配置して(例えば、図8に示されるように配置して)合成する合成ステップ(例えば、図10の合成回路105の処理に対応するステップ)とを含むことを特徴とする。 According to the present invention, an image signal generating method is provided. This image signal generation method (for example, the image signal generation method of the image signal generation device of FIG. 10 or FIG. 12) is an image signal generation method of generating an image signal encoded in units of a predetermined macroblock, The luminance signal components of the block (for example, Y1 to Y4 in FIG. 10 or FIG. 12) are encoded, and the encoded luminance signals (for example, <Y1>, <Y2>, <Y3>, <Y4> in FIG. 10 or FIG. 12). ), And encodes the color signal component of the macroblock at a first resolution to generate a first encoded color signal (for example, Cb5 ″ and Cr6 ″ in FIG. 10 or FIG. 12). Encoding to generate <cb5 ″> and <cr6 ″>), and a first slice data signal (for example, the master slice of FIG. 8) including the encoded luminance signal and the first encoded chrominance signal. 1) (for example, the circuit of FIG. 10 or FIG. 12) 100) and a color signal component of a second resolution different from the first resolution of the macroblock (for example, Cb5 ', Cr6', Cb7 ', Cr8' in FIG. 10 or FIG. 12). ) Is encoded by using a signal (for example, a signal from the arithmetic unit 62 of the circuit 100) obtained by decoding the first encoded color signal encoded by the processing of the first image encoding step. Generate a second coded color signal (for example, <Cb5 ′>, <Cr6 ′>, <Cb7 ′>, <Cr8 ′> in FIG. 10 or FIG. 12) and include the second coded color signal. A second image encoding step (for example, a step corresponding to the circuit 101 in FIG. 10 or 12) for outputting a second slice data signal (for example, slave slice 1 in FIG. 8), and the first image code The first slice data signal output by the processing of the And the second slice data signal output by the processing of the second image encoding step is arranged in a position close to each other so as to be sequentially read out during the decoding processing and one of them is selected. (For example, a step corresponding to the processing of the combining circuit 105 in FIG. 10) for combining (for example, arranged as shown in FIG. 8).

 この画像信号生成方法の前記第2の画像符号化ステップ(例えば、図10の回路101の処理に対応するステップ)は、前記第1の符号化色信号が復号された前記信号に基づいて、前記第2の解像度の前記色信号成分に対する第1の予測画像信号を生成する第1の予測画像生成ステップ(例えば、図10のアップサンプリング回路111の処理に対応するステップ)と、符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存ステップ(例えば、図10のクロマフレームメモリ174の処理に対応するステップ)と、前記保存手段に保存済みの前記第2の符号化色信号が復号された信号に基づいて、前記第2の解像度の前記色信号成分に対する第2の予測画像信号を生成する第2の予測画像生成ステップ(例えば、図10の動き補償回路175の処理に対応するステップ)と、前記第1の予測画像生成ステップの処理により生成された前記第1の予測画像信号を用いた場合における予測誤差信号と、前記第2の予測画像生成ステップの処理により生成された前記第2の予測画像信号を用いた場合における予測誤差信号とを比較し、その比較の結果に基づいて、前記第1の予測画像信号と前記第2の予測画像信号のうちのいずれか一方を選択する選択ステップ(例えば、図10の選択回路176の処理に対応するステップ)と、前記第2の解像度の前記色信号成分を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記選択ステップの処理により選択された方を用いて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む前記第2のスライスデータ信号を出力する第2の符号化色信号生成ステップ(例えば、図10の演算器112乃至可変長符号化回路115の処理に対応するステップ)とを含むことができる。 The second image encoding step (for example, a step corresponding to the processing of the circuit 101 in FIG. 10) of the image signal generation method includes the step of: A first predicted image generation step of generating a first predicted image signal for the color signal component of the second resolution (for example, a step corresponding to the processing of the upsampling circuit 111 in FIG. 10), and an encoded image A storing step (for example, a step corresponding to the processing of the chroma frame memory 174 in FIG. 10) of storing the second encoded color signal relating to the signal, and a step of storing the second encoded color signal stored in the storage unit. A second predicted image generating step of generating a second predicted image signal for the color signal component of the second resolution based on the decoded signal (for example, FIG. Corresponding to the processing of the compensation circuit 175), a prediction error signal when the first predicted image signal generated by the processing of the first predicted image generation step is used, and the second predicted image Comparing a second prediction image signal generated by the processing in the generation step with a prediction error signal when the second prediction image signal is used, and comparing the first prediction image signal and the second prediction image based on a result of the comparison; A selection step of selecting one of the signals (for example, a step corresponding to the processing of the selection circuit 176 in FIG. 10), and the color signal component of the second resolution is combined with the first predicted image signal. The second coded color signal is generated by encoding using the one of the second predicted image signals selected by the process of the selecting step, and the second coded color signal including the second coded color signal is generated. Second encoded color signal generating step of outputting the slice data signal (e.g., steps corresponding to the processing of the arithmetic unit 112 to variable-length coding circuit 115 in FIG. 10) may include a.

 この画像信号生成方法の前記合成ステップ(例えば、図10の回路105に対応する処理)は、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記選択ステップの選択処理の結果(例えば、図10のSpace/Time flag)をさらに多重合成することができる。 The synthesizing step (for example, the processing corresponding to the circuit 105 in FIG. 10) of the image signal generating method includes the first slice data signal and the second slice data signal together with the result of the selection processing in the selecting step ( For example, the Space / Time flag in FIG. 10 can be further multiplex-combined.

 この画像信号生成方法の前記第2の画像符号化ステップ(例えば、図12の回路101の処理に対応するステップ)は、符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存ステップ(例えば、図12のクロマフレームメモリ174の処理に対応するステップ)と、前記第1の符号化色信号を復号した信号と、前記保存ステップの処理により保存済みの前記第2の符号化色信号を復号した信号とに、其々所定の重み付けを行って合成する信号合成ステップ(例えば、図12のアップサンプリング回路111、動き補償回路175、重み付け回路191、重み付け回路192、および、演算器193のそれぞれの処理に対応するステップ)とを有し、前記第2の解像度の色信号成分を、前記信号合成ステップの処理により重み付け合成された復号信号に基づいて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号を出力することができる。 The second image encoding step (e.g., a step corresponding to the processing of the circuit 101 in FIG. 12) of the image signal generation method includes storing the second encoded color signal related to an encoded image signal. A step (for example, a step corresponding to the processing of the chroma frame memory 174 in FIG. 12), a signal obtained by decoding the first coded color signal, and the second coded color stored by the processing of the storing step. A signal synthesizing step (eg, the up-sampling circuit 111, the motion compensation circuit 175, the weighting circuit 191, the weighting circuit 192, and the arithmetic unit 193 in FIG. Corresponding to the respective processes of the above), and the color signal component of the second resolution is superimposed by the process of the signal synthesizing step. Assigned by encoding based on the combined decoded signal to generate the second encoded color signals, can output the second slice data signal including the second encoded color signals.

 この画像信号生成装置の前記第2の画像符号化ステップにおいて、前記信号合成ステップは、其々大きさが異なる複数の重み付け係数(例えば、図12の係数(1−W)であって、具体的には、1,3/4,2/4,1/4,0と、図12の係数Wであって、0,1/4,2/4,3/4,1)で前記第1の符号化色信号を復号した信号と前記保存手段に保存済みの前記第2の符号化色信号を復号した信号とを重み付け合成して、複数の復号信号を生成し、複数の前記重み付け係数のそれぞれについて、前記復号信号に基づいて前記第2の符号化色信号を生成した場合における予測誤差信号をそれぞれ算出して比較し、何れの復号信号を前記第2の符号化色信号の符号化に用いるか選択する選択ステップ(例えば、図12の演算器193の処理に対応するステップ)を更に含むことができる。 In the second image encoding step of the image signal generating apparatus, the signal synthesizing step includes a plurality of weighting coefficients (for example, coefficients (1-W) in FIG. In FIG. 12, the coefficient W in FIG. 12 is 1, 3/4, 2/4, 1/4, 0, and 0, 1/4, 2/4, 3/4, 1). A signal obtained by decoding an encoded color signal and a signal obtained by decoding the second encoded color signal stored in the storage unit are weighted and combined to generate a plurality of decoded signals, and a plurality of weighted coefficients are respectively generated. , A prediction error signal when the second coded color signal is generated based on the decoded signal is calculated and compared, and any decoded signal is used for coding the second coded color signal. A selection step (for example, of the arithmetic unit 193 in FIG. 12) It may further comprise the step) corresponding sense.

 この画像信号生成方法の前記合成ステップ(例えば、図12の回路105に対応する処理)は、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記重み付け係数(例えば、図10のWeighting Factor:W)をさらに多重合成して出力することができる。 In the image signal generating method, the synthesizing step (for example, processing corresponding to the circuit 105 in FIG. 12) includes the weighting coefficient (for example, in FIG. 10) together with the first slice data signal and the second slice data signal. Weighting Factor (W) can be further multiplexed and output.

 本発明によれば、画像信号再生装置が提供される。この画像信号再生装置(例えば、図11または図13の画像信号再生装置)は、所定のマクロブロック単位で符号化された画像信号であって、符号化された前記画像信号のうちの所定のマクロブロックの輝度信号成分(例えば、図10または図12のY1乃至Y4)が符号化された符号化輝度信号(例えば、図10または図12の<Y1>,<Y2>,<Y3>,<Y4>)、および前記マクロブロックの色信号成分が第1の解像度で符号化された第1の符号化色信号(例えば、図10または図12のCb5''とCr6''とが符号化された<cb5''>と<cr6''>)を含む第1のスライスデータ信号(例えば、図8のマスタスライス)と、前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分(例えば、図10または図12のCb5',Cr6',Cb7',Cr8')が、前記第1の符号化色信号が復号された信号(例えば、回路100の演算器62からの信号)を用いて符号化された第2の符号化色信号(例えば、図10または図12の<Cb5'>,<Cr6'>,<Cb7'>,<Cr8'>)を含む第2のスライスデータ信号(例えば、図8のスレーブスライス1)とが、互いに近接する位置に配置されて(例えば、図8に示されるように配置された)供給されてきた前記画像信号を再生する画像信号再生装置である。 According to the present invention, an image signal reproducing device is provided. This image signal reproducing apparatus (for example, the image signal reproducing apparatus shown in FIG. 11 or FIG. 13) is an image signal encoded in a predetermined macro block unit, and a predetermined macro of the encoded image signal. An encoded luminance signal (for example, <Y1>, <Y2>, <Y3>, <Y4 in FIG. 10 or FIG. 12) in which the luminance signal components of the block (for example, Y1 to Y4 in FIG. 10 or 12) are encoded. >), And a first encoded color signal (for example, Cb5 ″ and Cr6 ″ in FIG. 10 or FIG. 12) in which the color signal components of the macroblock are encoded at a first resolution. <cb5 ″> and <cr6 ″>), and a color signal having a second resolution different from the first resolution of the macroblock (for example, the master slice in FIG. 8). The components (for example, Cb5 ', Cr6', Cb7 ', Cr8' in FIG. 10 or FIG. 12) are the first codes A second encoded color signal (for example, <Cb5 ′>, <Cr6 in FIG. 10 or FIG. 12) encoded using a signal obtained by decoding a color signal (for example, a signal from the arithmetic unit 62 of the circuit 100). '>, <Cb7'>, <Cr8 '>) and a second slice data signal (for example, slave slice 1 in FIG. 8) are arranged at positions close to each other (for example, shown in FIG. 8). And an image signal reproducing apparatus for reproducing the supplied image signal.

 詳細には、この画像信号再生装置は、前記マクロブロックに対応する前記第1のスライスデータ信号と前記第2のスライスデータ信号とを順次再生し、再生した前記第1のスライスデータ信号と前記第2のスライスデータ信号とを分離する分離手段(例えば、図11または図13の分離回路150)と、前記第1のスライスデータ信号から、前記符号化輝度信号を復号して前記輝度信号成分を再生するとともに、前記第1の符号化色信号を復号して前記第1の解像度の第1の色信号成分を再生する第1の画像復号手段(例えば、図11または図13の回路161)と、前記第1の画像復号手段により復号された前記第1の色信号成分を用いて、前記第2のスライスデータ信号から前記第2の符号化色信号を復号して、前記第2の解像度の第2の色信号成分を再生する第2の画像復号手段(例えば、図11または図13の回路162)と、前記第1の画像復号手段により再生された前記第1の色信号成分と、前記第2の画像復号手段により再生された前記第2の色信号成分とのうち、前記マクロブロックの復号の処理に用いられる色信号成分を選択する選択手段(例えば、図11または図13の選択回路164)とを備えることを特徴とする。 Specifically, the image signal reproducing apparatus sequentially reproduces the first slice data signal and the second slice data signal corresponding to the macroblock, and reproduces the reproduced first slice data signal and the second slice data signal. Separating means (for example, the separating circuit 150 of FIG. 11 or 13) for separating the two slice data signals, and decoding the encoded luminance signal from the first slice data signal to reproduce the luminance signal component A first image decoding unit (for example, the circuit 161 of FIG. 11 or 13) that decodes the first encoded color signal and reproduces a first color signal component of the first resolution; The second coded color signal is decoded from the second slice data signal using the first color signal component decoded by the first image decoding means, and the second encoded color signal is decoded at the second resolution. A second image decoding means (for example, the circuit 162 in FIG. 11 or FIG. 13) for reproducing the color signal component of the first color signal component, the first color signal component reproduced by the first image decoding means, Selecting means (for example, the selecting circuit 164 in FIG. 11 or FIG. 13) for selecting, from the second color signal components reproduced by the image decoding means, a color signal component used for decoding the macroblock. And characterized in that:

 この画像信号再生装置の前記第2の画像復号化手段(例えば、図11の回路162)は、前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成手段(例えば、図11のアップサンプリング回路151)と、既に復号された前記第2の色信号成分を保存する保存手段(例えば、図11のクロマフレームメモリ181)と、前記保存手段に保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成手段(例えば、図11の動き補償回路182)と、前記第1の予測画像生成手段により生成された前記第1の予測画像信号と、前記第2の予測画像生成手段により生成された前記第2の予測画像信号とのうちのいずれか一方を選択する予測画像選択手段(例えば、図11の選択回路183)と、前記第2の符号化色信号を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記予測画像選択手段により選択された方を用いて復号して前記第2の色信号成分を再生する第2の色信号再生手段(例えば、図11の可変長復号化回路152乃至演算器155)とを有することができる。 The second image decoding means (for example, the circuit 162 in FIG. 11) of the image signal reproducing apparatus, based on the first color signal component, generates a first predicted image for the second encoded color signal. First predictive image generating means for generating a signal (for example, the upsampling circuit 151 in FIG. 11) and storing means for storing the already decoded second color signal component (for example, the chroma frame memory 181 in FIG. 11) ) And a second predicted image generating means (for example, FIG. 3) for generating a second predicted image signal for the second encoded color signal based on the second color signal component stored in the storing means. 11 motion compensation circuits 182), the first predicted image signal generated by the first predicted image generating means, and the second predicted image signal generated by the second predicted image generating means. Out of A predictive image selecting means (for example, a selection circuit 183 in FIG. 11) for selecting one of the first and second predictive image signals; Second color signal reproducing means (for example, the variable length decoding circuit 152 to the arithmetic unit 155 in FIG. 11) for decoding using the one selected by the predicted image selecting means and reproducing the second color signal component. And can have.

 この画像信号再生装置においては、前記第1のスライスデータ信号と前記第2のスライスデータ信号とを含む前記画像信号には、前記第1の予測画像信号と前記第2の予測画像信号とのうちの何れを利用するのかを指示する指令(例えば、図11のSpace/Time flag)がさらに多重合成されており、前記予測画像選択手段は、前記指令に基づいて、記第1の予測画像信号と前記第2の予測画像信号とのうちのいずれか一方を選択することができる。 In this image signal reproducing device, the image signal including the first slice data signal and the second slice data signal includes the first predicted image signal and the second predicted image signal. (For example, Space / Time flag in FIG. 11) is further multiplex-synthesized, and the predicted image selecting means outputs the first predicted image signal and the first predicted image signal based on the instruction. One of the second predicted image signal and the second predicted image signal can be selected.

 この画像信号再生装置の前記第2の画像復号手段(例えば、図13の回路162)は、前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成手段(例えば、図13のアップサンプリング回路151)と、既に復号された前記第2の色信号成分を保存する保存手段(例えば、図13のクロマフレームメモリ181)と、前記保存手段に保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成手段(例えば、図13の動き補償回路182)と、前記第1の予測画像信号と前記第2の予測画像信号とに、それぞれ所定の重み付けを行って合成した合成信号を出力する予測画像合成手段(例えば、図13の重み付け回路201、重み付け回路202、および、演算器203)と、前記第2の符号化色信号を、前記合成信号を用いて復号して前記第2の色信号成分を再生する第2の色信号再生手段(例えば、図13の可変長復号化回路152乃至演算器155)とを有することができる。 The second image decoding means (for example, the circuit 162 in FIG. 13) of the image signal reproducing apparatus, based on the first color signal component, generates a first predicted image signal for the second encoded color signal. (For example, the up-sampling circuit 151 in FIG. 13) and storage means for storing the already decoded second color signal component (for example, the chroma frame memory 181 in FIG. 13). And a second predicted image generating means for generating a second predicted image signal for the second encoded color signal based on the second color signal component stored in the storing means (for example, FIG. Motion compensation circuit 182), and a predicted image synthesizing unit (for example, FIG. 13) that outputs a synthesized signal obtained by performing weighting on the first predicted image signal and the second predicted image signal, respectively, and synthesizing them. And a second color for reproducing the second color signal component by decoding the second encoded color signal using the composite signal. Signal reproducing means (for example, the variable length decoding circuit 152 to the arithmetic unit 155 in FIG. 13) can be provided.

 この画像信号再生装置においては、前記第1のスライスデータ信号と前記第2のスライスデータ信号とを含む前記画像信号には、前記予測画像合成手段の予測画像信号の合成処理で用いられる重み付け係数(例えば、図13のWeighting Factor:W)がさらに多重合成されており、前記予測画像合成手段は、前記重み付け係数に基づいて前記第1の予測画像信号と前記第2の予測画像信号とを重み付け合成して、前記合成信号を出力することができる。 In this image signal reproducing apparatus, the image signal including the first slice data signal and the second slice data signal is provided with a weighting coefficient ( For example, the weighting factor (W) of FIG. 13 is further multiplex-combined, and the predicted image combining unit weights and combines the first predicted image signal and the second predicted image signal based on the weighting coefficient. Thus, the composite signal can be output.

 本発明によれば、画像信号再生方法が提供される。この画像信号再生方法(例えば、図11または図13の画像信号再生装置の画像信号再生方法)は、所定のマクロブロック単位で符号化された画像信号であって、符号化された前記画像信号のうちの所定のマクロブロックの輝度信号成分(例えば、図10または図12のY1乃至Y4)が符号化された符号化輝度信号(例えば、図10または図12の<Y1>,<Y2>,<Y3>,<Y4>)、および前記マクロブロックの色信号成分が第1の解像度で符号化された第1の符号化色信号(例えば、図10または図12のCb5''とCr6''とが符号化された<cb5''>と<cr6''>)を含む第1のスライスデータ信号(例えば、図8のマスタスライス)と、前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分(例えば、図10または図12のCb5',Cr6',Cb7',Cr8')が、前記第1の符号化色信号が復号された信号(例えば、回路100の演算器62からの信号)を用いて符号化された第2の符号化色信号(例えば、図10または図12の<Cb5'>,<Cr6'>,<Cb7'>,<Cr8'>)を含む第2のスライスデータ信号(例えば、図8のスレーブスライス1)とが、互いに近接する位置に配置されて(例えば、図8に示されるように配置された)供給されてきた前記画像信号を再生する画像信号再生方法である。 According to the present invention, an image signal reproducing method is provided. This image signal reproducing method (for example, the image signal reproducing method of the image signal reproducing apparatus of FIG. 11 or FIG. 13) is an image signal encoded in a predetermined macroblock unit, and The luminance signal components (for example, Y1 to Y4 in FIG. 10 or FIG. 12) of the predetermined macroblock are encoded luminance signals (for example, <Y1>, <Y2>, <Y2 in FIG. 10 or FIG. 12). Y3>, <Y4>) and a first encoded color signal (for example, Cb5 ″ and Cr6 ″ in FIG. 10 or FIG. 12) in which the color signal components of the macroblock are encoded at a first resolution. A first slice data signal (for example, a master slice in FIG. 8) including <cb5 ″> and <cr6 ″>) encoded with a second resolution different from the first resolution of the macroblock. (For example, Cb5 ', Cr6', Cb7 ', Cr8' in FIG. 10 or FIG. 12) , A second encoded color signal (for example, as shown in FIG. 10 or FIG. 12) encoded using a signal obtained by decoding the first encoded color signal (for example, a signal from the arithmetic unit 62 of the circuit 100). A second slice data signal (for example, slave slice 1 in FIG. 8) including <Cb5 ′>, <Cr6 ′>, <Cb7 ′>, <Cr8 ′>) is arranged at a position close to each other ( For example, there is an image signal reproducing method for reproducing the supplied image signal (disposed as shown in FIG. 8).

 詳細には、この画像信号再生方法は、前記マクロブロックに対応する前記第1のスライスデータ信号と前記第2のスライスデータ信号とを順次再生し、再生した前記第1のスライスデータ信号と前記第2のスライスデータ信号とを分離する分離ステップ(例えば、図11または図13の分離回路150の処理に対応するステップ)と、前記第1のスライスデータ信号から、前記符号化輝度信号を復号して前記輝度信号成分を再生するとともに、前記第1の符号化色信号を復号して前記第1の解像度の第1の色信号成分を再生する第1の画像復号ステップ(例えば、図11または図13の回路161の処理に対応するステップ)と、前記第1の画像復号ステップの処理により復号された前記第1の色信号成分を用いて、前記第2のスライスデータ信号から前記第2の符号化色信号を復号して、前記第2の解像度の第2の色信号成分を再生する第2の画像復号ステップ(例えば、図11または図13の回路162の処理に対応するステップ)と、前記第1の画像復号ステップの処理により再生された前記第1の色信号成分と、前記第2の画像復号ステップの処理により再生された前記第2の色信号成分とのうち、前記マクロブロックの復号の処理に用いられる色信号成分を選択する選択ステップ(例えば、図11または図13の選択回路164に対応するステップ)とを含むことを特徴とする。 Specifically, the image signal reproducing method sequentially reproduces the first slice data signal and the second slice data signal corresponding to the macroblock, and reproduces the reproduced first slice data signal and the second slice data signal. A separating step (for example, a step corresponding to the processing of the separating circuit 150 in FIG. 11 or FIG. 13) for separating the two slice data signals, and decoding the encoded luminance signal from the first slice data signal. A first image decoding step of reproducing the luminance signal component and decoding the first encoded color signal to reproduce a first color signal component of the first resolution (for example, FIG. 11 or FIG. 13); Using the first color signal component decoded by the processing of the first image decoding step), and performing the second slice decoding using the first color signal component decoded by the processing of the first image decoding step. A second image decoding step of decoding the second coded color signal from the data signal and reproducing a second color signal component of the second resolution (for example, the processing of the circuit 162 in FIG. 11 or FIG. 13). ), The first color signal component reproduced by the processing of the first image decoding step, and the second color signal component reproduced by the processing of the second image decoding step. And a selecting step (for example, a step corresponding to the selecting circuit 164 in FIG. 11 or FIG. 13) of selecting a color signal component used in the decoding processing of the macro block.

 この画像信号再生方法の前記第2の画像復号化ステップ(例えば、図11の回路162の処理に対応するステップ)は、前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成ステップ(例えば、図11のアップサンプリング回路151の処理に対応するステップ)と、既に復号された前記第2の色信号成分を保存する保存ステップ(例えば、図11のクロマフレームメモリ181の処理に対応するステップ)と、前記保存ステップの処理により保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成ステップ(例えば、図11の動き補償回路182に対応するステップ)と、前記第1の予測画像生成ステップの処理により生成された前記第1の予測画像信号と、前記第2の予測画像生成ステップの処理により生成された前記第2の予測画像信号とのうちのいずれか一方を選択する予測画像選択ステップ(例えば、図11の選択回路183の処理に対応するステップ)と、前記第2の符号化色信号を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記予測画像選択ステップの処理により選択された方を用いて復号して前記第2の色信号成分を再生する第2の色信号再生ステップ(例えば、図11の可変長復号化回路152乃至演算器155の処理に対応するステップ)とを含むことができる。 The second image decoding step (e.g., a step corresponding to the processing of the circuit 162 in FIG. 11) of the image signal reproducing method includes the step of performing the second encoded color signal based on the first color signal component. A first predicted image signal generating step (eg, a step corresponding to the processing of the up-sampling circuit 151 in FIG. 11) for generating a first predicted image signal for the second color signal component and the second color signal component already decoded A storing step (for example, a step corresponding to the processing of the chroma frame memory 181 in FIG. 11) and the second encoded color signal based on the second color signal component stored by the processing of the storing step A second predicted image generating step of generating a second predicted image signal (for example, a step corresponding to the motion compensation circuit 182 in FIG. 11); Prediction image selection for selecting one of the first predicted image signal generated by the processing of the step and the second predicted image signal generated by the processing of the second predicted image generation step A step (for example, a step corresponding to the processing of the selection circuit 183 in FIG. 11), and converting the second encoded color signal into the predicted image of the first predicted image signal and the second predicted image signal A second color signal reproducing step of decoding using the one selected by the processing of the selecting step to reproduce the second color signal component (for example, the processing of the variable length decoding circuit 152 to the arithmetic unit 155 in FIG. 11) Corresponding to the above).

 この画像信号再生方法においては、前記第1のスライスデータ信号と前記第2のスライスデータ信号とを含む前記画像信号には、前記第1の予測画像信号と前記第2の予測画像信号とのうちの何れを利用するのかを指示する指令(例えば、図11のSpace/Time flag)がさらに多重合成されており、前記予測画像選択ステップは、前記指令に基づいて、記第1の予測画像信号と前記第2の予測画像信号とのうちのいずれか一方を選択することができる。 In this image signal reproducing method, the image signal including the first slice data signal and the second slice data signal includes the first predicted image signal and the second predicted image signal. (For example, Space / Time flag in FIG. 11) is further multiplex-combined, and the predicted image selecting step includes the first predicted image signal and the first predicted image signal based on the instruction. One of the second predicted image signal and the second predicted image signal can be selected.

 この画像信号再生方法の前記第2の画像復号ステップ(例えば、図13の回路162の処理に対応するステップ)は、前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成ステップ(例えば、図13のアップサンプリング回路151の処理に対応するステップ)と、既に復号された前記第2の色信号成分を保存する保存ステップ(例えば、図13のクロマフレームメモリ181)と、前記保存手ステップの処理により保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成ステップ(例えば、図13の動き補償回路182の処理に対応するステップ)と、前記第1の予測画像信号と前記第2の予測画像信号とに、それぞれ所定の重み付けを行って合成した合成信号を出力する予測画像合成ステップ(例えば、図13の重み付け回路201、重み付け回路202、および、演算器203の処理に対応するステップ)と、前記第2の符号化色信号を、前記合成信号を用いて復号して前記第2の色信号成分を再生する第2の色信号再生ステップ(例えば、図13の可変長復号化回路152乃至演算器155の処理に対応するステップ)とを有することができる。 In the image signal reproducing method, the second image decoding step (for example, a step corresponding to the processing of the circuit 162 in FIG. 13) is performed on the second encoded color signal based on the first color signal component. A first predicted image generation step for generating a first predicted image signal (for example, a step corresponding to the processing of the upsampling circuit 151 in FIG. 13), and storage for storing the already decoded second color signal component A second predicted image signal for the second encoded color signal based on a step (for example, the chroma frame memory 181 in FIG. 13) and the second color signal component stored by the processing of the storing step. A second predicted image generating step (for example, a step corresponding to the processing of the motion compensation circuit 182 in FIG. 13), and the first predicted image signal and the second predicted image A predicted image synthesizing step (for example, a step corresponding to the processing of the weighting circuit 201, the weighting circuit 202, and the arithmetic unit 203 in FIG. 13) for outputting a synthesized signal synthesized by performing predetermined weighting on the image signal and A second chrominance signal reproducing step of decoding the second coded chrominance signal using the synthesized signal to reproduce the second chrominance signal component (for example, the variable length decoding circuits 152 to 152 in FIG. 13). Step corresponding to the processing of the arithmetic unit 155).

 この画像信号再生方法においては、前記第1のスライスデータ信号と前記第2のスライスデータ信号を含む前記画像信号には、前記予測画像合成ステップの予測画像信号の合成処理で用いられる重み付け係数(例えば、図13のWeighting Factor:W)がさらに多重合成されており、前記予測画像合成ステップは、前記重み付け係数に基づいて前記第1の予測画像信号と前記第2の予測画像信号とを重み付け合成して、前記合成信号を出力することができる。 In this image signal reproducing method, the image signal including the first slice data signal and the second slice data signal is provided with a weighting coefficient (for example, , And Weighting Factor (W) in FIG. 13 are further multiplex-combined, and in the predicted image combining step, the first predicted image signal and the second predicted image signal are weighted and combined based on the weighting coefficients. Thus, the composite signal can be output.

 以下、図面を参照して、本発明について説明する。 Hereinafter, the present invention will be described with reference to the drawings.

 図1は、本発明の画像信号符号化装置と復号化装置の全体の構成を示すブロック図であり、図17に示した従来の場合と対応する部分には同一の符号を付してある。本実施例においては、A/D変換器300における前処理回路11が出力する色差信号のA/D変換のタイミング(サンプリングのタイミング)が、図17におけるA/D変換器13における場合と異なっている。その結果、A/D変換器300が出力する色差信号をその後段で処理する、色差信号フレームメモリ301、フォーマット変換回路302、エンコーダ(画像信号生成装置)303が従来の場合と異なる構成とされている。 FIG. 1 is a block diagram showing the overall configuration of an image signal encoding device and a decoding device according to the present invention, and portions corresponding to those in the conventional case shown in FIG. 17 are denoted by the same reference numerals. In the present embodiment, the A / D conversion timing (sampling timing) of the color difference signal output by the pre-processing circuit 11 in the A / D converter 300 is different from that in the A / D converter 13 in FIG. I have. As a result, the chrominance signal frame memory 301, the format conversion circuit 302, and the encoder (image signal generation device) 303, which process the chrominance signal output from the A / D converter 300 at the subsequent stage, are configured differently from the conventional case. I have.

 さらにまた、復号化装置2においては、デコーダ(画像信号再生装置)401、フォーマット変換回路402、色差信号フレームメモリ403、およびD/A変換器404が、図17に示したデコーダ31、フォーマット変換回路32、色差信号フレームメモリ35、およびD/A変換器37と異なる構成とされている。 Furthermore, in the decoding device 2, the decoder (image signal reproducing device) 401, the format conversion circuit 402, the color difference signal frame memory 403, and the D / A converter 404 are the decoder 31, the format conversion circuit shown in FIG. 32, a color difference signal frame memory 35, and a D / A converter 37.

 その他の構成は、図17における場合と同様である。 Other configurations are the same as those in FIG.

 本発明のA/D変換器300においては、図2(A)に示すように、サンプリングが行われる。即ち、A/D変換器12における輝度信号のサンプリング点が、図中、丸印で示されるものとすると、A/D変換器300で行われる色差信号のサンプリング点は、図中、×印で示すように、輝度信号のサンプル点と1:1に対応するものとされる(4:4:4サンプリングとされる)。 (2) In the A / D converter 300 of the present invention, sampling is performed as shown in FIG. That is, assuming that the sampling points of the luminance signal in the A / D converter 12 are indicated by circles in the figure, the sampling points of the color difference signals performed by the A / D converter 300 are indicated by crosses in the figure. As shown in the figure, the sampling point of the luminance signal corresponds to 1: 1 (4: 4: 4 sampling).

 このA/D変換器300によりサンプリングされた色差信号は、色差信号フレームメモリ301に供給され、記憶される。色差信号フレームメモリ301より読み出された色差信号は、フォーマット変換回路302に入力され、ダウンサンプリングされる。 The color difference signal sampled by the A / D converter 300 is supplied to the color difference signal frame memory 301 and stored. The color difference signal read from the color difference signal frame memory 301 is input to the format conversion circuit 302 and down-sampled.

 即ち、フォーマット変換回路302は、例えば図3に示すようなダウンサンプリング回路を内蔵しており、A/D変換器300により、4:4:4の比でサンプリングされた色差信号を、ローパスフィルタ131で1/2の周波数帯域に帯域制限した後、間引き回路132で、各ラインのデータを1つおきに間引く。これにより、図2(B)に示すように、4:2:2のサンプリングとされる。即ち、この場合においては、各ラインにおいて、2つの輝度信号に対して1つの色差信号が対応することになる。 That is, the format conversion circuit 302 incorporates, for example, a down-sampling circuit as shown in FIG. 3, and converts the color difference signal sampled by the A / D converter 300 at a ratio of 4: 4: 4 into a low-pass filter 131. Then, the data of each line is thinned every other line by the thinning circuit 132. As a result, 4: 2: 2 sampling is performed as shown in FIG. That is, in this case, in each line, one color difference signal corresponds to two luminance signals.

 フォーマット変換回路302は、このようにして、4:2:2の比でサンプリングされた色差信号を、さらに同様にして、内蔵するダウンサンプリング回路によりダウンサンプルして、図2(C)に示すような4:2:0の比のサンプリングの色差信号を生成する。この場合は、4:2:2サンプリングの色差信号を1ラインおきにすべて間引くようにしているため、4つの輝度信号に対して、1つの色差信号が対応することになる。 The format conversion circuit 302 down-samples the color difference signal sampled at the ratio of 4: 2: 2 in this manner by the built-in down-sampling circuit in the same manner as shown in FIG. 2C. A color difference signal of a sampling ratio of 4: 2: 0 is generated. In this case, since all the color difference signals of 4: 2: 2 sampling are thinned out every other line, one color difference signal corresponds to four luminance signals.

 尚、以上においては、データを単に間引くことにより、サンプリングの比を変更するようにしたが、例えば複数の所定の位置の色差信号を平均するなどして、サブサンプリングすることも可能である。例えば、図2(A)に示す4つの色差信号を平均することにより、図2(C)において、()を付して×印で示す色差信号を得ることができる。 In the above description, the sampling ratio is changed by simply thinning out the data. However, it is also possible to perform sub-sampling by, for example, averaging the color difference signals at a plurality of predetermined positions. For example, by averaging the four color difference signals shown in FIG. 2A, it is possible to obtain the color difference signals indicated by crosses in parentheses in FIG. 2C.

 フォーマット変換回路302は、このようにして生成した異なる分解能の階層の信号になされた色差信号を、対応する輝度信号のデータとともにブロック化を行う。これにより、図4に示すように、4:4:4、4:2:2、または4:2:0の3種類のマクロブロックの構成が可能となる。 The format conversion circuit 302 blocks the color difference signals generated in this manner into the signals of different resolution levels together with the corresponding luminance signal data. As a result, as shown in FIG. 4, a configuration of three types of macroblocks of 4: 4: 4, 4: 2: 2, or 4: 2: 0 becomes possible.

 図4(A)に示すように、4:4:4のマクロブロックは、4個の輝度ブロックY1乃至Y4と、それに対応するCbの色差ブロックCb5,Cb7,Cb9,Cb11と、Crの色差ブロックCr6,Cr8,Cr10,Cr12より構成される。これに対して、図4(B)に示すように、4:2:2のマクロブロックにおいては、輝度ブロックは、図4(A)に示す4:4:4のマクロブロックにおける場合と同一であるが、色差ブロックCbが、Cb5'とCb7'により構成される。また、色差ブロックCrは、Cr6'とCr8'により構成される。さらに、図4(C)に示すように、4:2:0のマクロブロックにおいては、輝度ブロックは、4:4:4のマクロブロックにおける場合と同一であるが、色差ブロックCbは、Cb5”により構成され、色差ブロックCrは、Cr6”により構成される。 As shown in FIG. 4A, the 4: 4: 4 macro block includes four luminance blocks Y1 to Y4, corresponding Cb color difference blocks Cb5, Cb7, Cb9, Cb11, and a Cr color difference block. It is composed of Cr6, Cr8, Cr10 and Cr12. On the other hand, as shown in FIG. 4B, in the 4: 2: 2 macro block, the luminance block is the same as that in the 4: 4: 4 macro block shown in FIG. 4A. However, the color difference block Cb is composed of Cb5 'and Cb7'. The color difference block Cr is composed of Cr6 ′ and Cr8 ′. Further, as shown in FIG. 4C, in the 4: 2: 0 macroblock, the luminance block is the same as in the 4: 4: 4 macroblock, but the color difference block Cb is Cb5 ″. , And the color difference block Cr is composed of Cr6 ″.

 尚、各ブロックの符号に付されている数字は、各マクロブロック内において、そのデータを伝送する場合における伝送の順番を示している。また、'は、それがダウンサンプリングされたデータであることを示し、”は、ダウンサンプリングが2回行われたものであることを示している。従って、例えばCb5'は、Cb5を直接ダウンサンプリングして生成したものではない(これは、上述したように、Cb5とCb9をダウンサンプリングして生成したものである)。 Note that the number attached to the code of each block indicates the order of transmission in the case of transmitting that data within each macroblock. Also, 'indicates that it is down-sampled data, and' indicates that down-sampling has been performed twice. Therefore, for example, Cb5 'directly down-samples Cb5. (This is generated by down-sampling Cb5 and Cb9 as described above).

 図4(B)における4:2:2のマクロブロックの色差データの伝送の順序が、Cb5'の次にCb7'を伝送するようになされていないのは、図4(C)に示す4:2:0のマクロブロックにおける伝送順序と対応させるためである。即ち、図4(C)に示すマクロブロックにおいては、Cb5”の次にCr6”が伝送される。このため、図4(B)に示す4:2:2のマクロブロックにおいても、Cb5'の次にCr6'を伝送するようにしているのである。 The reason why the transmission order of the chrominance data of the 4: 2: 2 macroblock in FIG. 4B is not such that Cb5 ′ is transmitted after Cb5 ′, as shown in FIG. This is to make it correspond to the transmission order in the 2: 0 macro block. That is, in the macroblock shown in FIG. 4C, Cr6 "is transmitted after Cb5". Therefore, even in the 4: 2: 2 macroblock shown in FIG. 4B, Cr6 'is transmitted next to Cb5'.

 同様に、図4(A)に示す4:4:4のマクロブロックにおける伝送順序も、図4(B)に示す4:2:2のマクロブロックの伝送順序に対応するように定められている。このようにすることにより、いずれの比のマクロブロックが伝送されてきた場合においても、エンコーダにおいて共通の回路による処理が可能となる。 Similarly, the transmission order in the 4: 4: 4 macroblock shown in FIG. 4A is determined so as to correspond to the transmission order of the 4: 2: 2 macroblock shown in FIG. 4B. . By doing so, it is possible to perform processing by a common circuit in the encoder, regardless of which ratio of macroblocks has been transmitted.

 但し、本実施例においては、この3種類のマクロブロックがエンコーダ303へ伝送されるのではなく、図4(C)に示す4個の輝度ブロックY1乃至Y4と、2個の色差ブロックCb5”,Cr6”により構成される4:2:0のマクロブロックと、図4(B)に示す4:2:2のマクロブロックを構成するブロックのうち、輝度ブロックを除く色差ブロックCb5',Cb7'、および色差ブロックCr6',Cr8'と、図4(A)に示す4:4:4のマクロブロックのうち、輝度ブロックを除く色差ブロックCb5,Cb7,Cb9,Cb11、および色差ブロックCr6,Cr8,Cr10,Cr12の3種類のデータが、エンコーダ303に伝送される。 However, in the present embodiment, these three types of macroblocks are not transmitted to the encoder 303, but four luminance blocks Y1 to Y4 and two chrominance blocks Cb5 ″, shown in FIG. Among the blocks forming the 4: 2: 0 macroblock composed of Cr6 ″ and the 4: 2: 2 macroblock shown in FIG. 4B, the chrominance blocks Cb5 ′, Cb7 ′, And the chrominance blocks Cr6 'and Cr8' and the chrominance blocks Cb5, Cb7, Cb9 and Cb11 excluding the luminance block, and the chrominance blocks Cr6, Cr8 and Cr10 of the 4: 4: 4 macroblock shown in FIG. 4A. , Cr12 are transmitted to the encoder 303.

 エンコーダ303は、例えば図5に示すように構成される。但し、図19における動きベクトル検出回路50、フレームメモリ51、予測モード切り替え回路52、予測判定回路54、DCTモード切り替え回路55、送信バッファ59などは、その図示が省略されているが、図5の実施例においても同様に接続されているものである。 The encoder 303 is configured, for example, as shown in FIG. Note that the motion vector detection circuit 50, the frame memory 51, the prediction mode switching circuit 52, the prediction determination circuit 54, the DCT mode switching circuit 55, the transmission buffer 59, and the like in FIG. 19 are omitted from FIG. The connection is similarly made in the embodiment.

 また、図5の実施例においては、フレームメモリ63が、ルマ(輝度信号)フレームメモリ63Lとクロマ(色差信号)フレームメモリ63Cに、また、動き補償回路64が、動き補償回路64Lと動き補償回路64Cに分割して表示されているが、図19の例においては、これを一体的に図示したものであって、図19の装置においても、フレームメモリ63と動き補償回路64は、ルマ(輝度信号)用とクロマ(色差信号)用のものが2つ用意されている。 In the embodiment of FIG. 5, the frame memory 63 is a luma (luminance signal) frame memory 63L and a chroma (color difference signal) frame memory 63C, and the motion compensation circuit 64 is a motion compensation circuit 64L and a motion compensation circuit. Although the image data is divided into 64C and is displayed in the example of FIG. 19, this is integrally shown in the example of FIG. 19, and also in the apparatus of FIG. 2) are prepared for the signal (signal) and for the chroma (color difference signal).

 さらに、図5の実施例においては、ルマフレームメモリ63Lとクロマフレームメモリ63Cは、図19に示した場合と同様に、内部に前方予測画像部と後方予測画像部をそれぞれ有しているものである。 Further, in the embodiment of FIG. 5, the luma frame memory 63L and the chroma frame memory 63C each have a forward prediction image portion and a backward prediction image portion inside similarly to the case shown in FIG. is there.

 即ち、図5の実施例のうち、動きベクトル検出回路50乃至動き補償回路64により構成されている回路100は、図19における場合と基本的に同様の構成となされている。 That is, in the embodiment of FIG. 5, the circuit 100 composed of the motion vector detection circuit 50 to the motion compensation circuit 64 has basically the same configuration as the case of FIG.

 この回路100は、色差信号に関して着目すると、最も解像度の低い色差信号を処理するものである。本実施例においては、この回路100における色差信号に較べて、より解像度の高い色差信号を処理するための回路として、アップサンプリング回路111、演算器112、DCT回路113、量子化回路114、可変長符号化回路115よりなる回路101が設けられている。また、回路101における色差信号よりさらに高い解像度の色差信号を処理する回路102として、逆量子化回路121、IDCT回路122、演算器123、アップサンプリング回路124、演算器125、DCT回路126、量子化回路127、可変長符号化回路128が設けられている。 This circuit 100 processes a color difference signal having the lowest resolution when focusing on the color difference signal. In this embodiment, as a circuit for processing a color difference signal having a higher resolution than the color difference signal in the circuit 100, an up-sampling circuit 111, a computing unit 112, a DCT circuit 113, a quantization circuit 114, a variable length A circuit 101 including an encoding circuit 115 is provided. The circuit 102 for processing a color difference signal having a higher resolution than the color difference signal in the circuit 101 includes an inverse quantization circuit 121, an IDCT circuit 122, an arithmetic unit 123, an upsampling circuit 124, an arithmetic unit 125, a DCT circuit 126, A circuit 127 and a variable length encoding circuit 128 are provided.

 回路102には、最も解像度の高い色差信号が入力されており、回路101には、回路102に入力される色差信号をダウンサンプリング回路103でダウンサンプリングした、解像度の低い色差信号が入力されており、回路100には、回路101に入力される色差信号をさらにダウンサンプリング回路104でダウンサンプリングした、最も低い解像度の色差信号が入力されるようになされている。 The circuit 102 receives a color difference signal having the highest resolution, and the circuit 101 receives a color difference signal having a low resolution, which is obtained by down-sampling the color difference signal input to the circuit 102 by the down sampling circuit 103. The circuit 100 is configured to receive a color difference signal having the lowest resolution obtained by further down-sampling the color difference signal input to the circuit 101 by the down sampling circuit 104.

 図5に示すダウンサンプリング回路103と104は、図1におけるフォーマット変換回路302に内蔵されているものである。そして、4:4:4のマクロブロックを構成するように生成された、最も高い分解能を有する色差ブロックが回路102に入力され、このマクロブロックをダウンサンプリング回路103によりダウンサンプリングした4:2:2のマクロブロックを構成する色差ブロックが、回路101に入力されている。そして、この4:2:2のマクロブロックを構成する色差ブロックを、さらにダウンサンプリング回路104によりダウンサンプリングした、4:2:0のマクロブロックを構成する色差ブロックが、輝度ブロックとともに4:2:0のマクロブロックを単位として、回路100に入力されている。 5 The downsampling circuits 103 and 104 shown in FIG. 5 are built in the format conversion circuit 302 in FIG. Then, a chrominance block having the highest resolution, which is generated so as to form a 4: 4: 4 macroblock, is input to the circuit 102, and the macroblock is downsampled by the downsampling circuit 103 to 4: 2: 2. Are input to the circuit 101. The chrominance blocks forming the 4: 2: 2 macroblock are further down-sampled by the downsampling circuit 104, and the chrominance blocks forming the 4: 2: 0 macroblock are combined with the luminance blocks into 4: 2: The macroblock of 0 is input to the circuit 100 in units.

 回路100における処理は、図19を参照して説明した場合と同様であるから、その説明は省略する。ただ、輝度ブロックと色差ブロックの処理の順番について説明を付加しておくと、最初に輝度ブロックY1乃至Y4が順次入力されるので、これらのデータが、動きベクトル検出回路50を介してフレームメモリ51の輝度ブロック用のフレームメモリに書き込まれる。同様にして、色差ブロックのデータは、動きベクトル検出回路50を介してフレームメモリ51の色差ブロック用のフレームメモリに書き込まれる(図19)。 Since the processing in the circuit 100 is the same as that described with reference to FIG. 19, the description thereof is omitted. However, if the description of the processing order of the luminance block and the chrominance block is added, the luminance blocks Y1 to Y4 are sequentially input first, so that these data are transferred to the frame memory 51 via the motion vector detection circuit 50. Is written to the frame memory for the luminance block. Similarly, the chrominance block data is written to the chrominance block frame memory of the frame memory 51 via the motion vector detection circuit 50 (FIG. 19).

 そして、輝度ブロックY1乃至Y4のデータは、フレームメモリ51から読み出され、予測モード切り替え回路52、演算器53、DCT回路56、量子化回路57、逆量子化回路60、IDCT回路61、演算器62、ルマフレームメモリ63L、動き補償回路64Lにより処理された後、可変長符号化回路58、送信バッファ59を介して出力される。 Then, the data of the luminance blocks Y1 to Y4 are read from the frame memory 51, and the prediction mode switching circuit 52, the arithmetic unit 53, the DCT circuit 56, the quantization circuit 57, the inverse quantization circuit 60, the IDCT circuit 61, and the arithmetic unit After being processed by the Luma frame memory 63L and the motion compensation circuit 64L, they are output via the variable length coding circuit 58 and the transmission buffer 59.

 また、色差ブロックのデータは、基本的には輝度ブロックのデータと同様に処理されるのであるが、演算器62より出力された色差ブロックのデータは、クロマフレームメモリ63Cに供給され、記憶される。そして動き補償回路64Cにおいては、輝度ブロックY1乃至Y4における動きベクトルを、水平方向および垂直方向にそれぞれ1/2に短かくした動きベクトルを用いて動き補償が行われる。 The data of the chrominance block is basically processed in the same manner as the data of the luminance block, but the data of the chrominance block output from the calculator 62 is supplied to the chroma frame memory 63C and stored therein. . Then, in the motion compensation circuit 64C, motion compensation is performed using the motion vectors obtained by shortening the motion vectors in the luminance blocks Y1 to Y4 by に in the horizontal direction and the vertical direction, respectively.

 これにより、回路100から輝度ブロックY1,Y2,Y3,Y4と、色差ブロックCb5”,Cr6”よりなるグループの信号が合成回路105に供給される。 {Circle around (1)}, the circuit 100 supplies a signal of a group including the luminance blocks Y1, Y2, Y3, and Y4 and the color difference blocks Cb5 ″ and Cr6 ″ to the synthesis circuit 105.

 一方、ダウンサンプリング回路103により4:2:2のマクロブロックのフォーマットに変換された色差ブロックのデータは、回路101の演算器112に供給される。この演算器112にはまた、アップサンプリング回路111により、回路100の演算器62が出力した、より低い分解能の色差ブロックのデータを垂直方向に(空間的に)2倍にアップサンプルしたデータが、予測誤差信号として供給されている。 On the other hand, the data of the chrominance block converted into the 4: 2: 2 macroblock format by the downsampling circuit 103 is supplied to the arithmetic unit 112 of the circuit 101. The arithmetic unit 112 also includes data obtained by upsampling the data of the lower-resolution chrominance block, which is output from the arithmetic unit 62 of the circuit 100, by the upsampling circuit 111 twice (spatially) in the vertical direction. It is supplied as a prediction error signal.

 このアップサンプリング回路111は、例えば図6に示すように、補間回路141により構成することができる。この補間回路141は、例えば図7に示すように、色差データの存在しないラインの色差データを、その上下のラインに位置する色差データの値をそれぞれ1/2した後、加算する(平均する)ことにより生成することができる。ダウンサンプリング回路104によりダウンサンプリングされたときに帯域制限が行われているため、このアップサンプリングにより空間周波数が広がるわけではないが、解像度は2倍にすることができる。 This up-sampling circuit 111 can be constituted by an interpolation circuit 141, for example, as shown in FIG. For example, as shown in FIG. 7, the interpolation circuit 141 adds (averages) the chrominance data of the line having no chrominance data after halving the values of the chrominance data located above and below the line, respectively. Can be generated. Since the band is limited when down-sampling is performed by the down-sampling circuit 104, the spatial frequency is not expanded by the up-sampling, but the resolution can be doubled.

 このようにして、アップサンプリング回路111により生成された色差ブロックのデータを、予測画像信号としてダウンサンプリング回路103が出力する色差データから減算し、その差分を生成する。この差分は、アップサンプリング回路111により垂直方向に2倍のアップサンプリングが行われているため、垂直方向の高周波成分を含むことになる。演算器112のこの出力は、DCT回路113によりDCT処理された後、量子化回路114により量子化され、可変長符号化回路115により可変長符号化される。そして、図示はしていないが、送信バッファを介して合成回路105に供給される。これにより、回路100より出力される色差ブロックCb5”,Cr6”より高い解像度を有する色差ブロックCb5',Cr6',Cb7',Cr8'のグループの信号が生成される。 デ ー タ Thus, the data of the chrominance block generated by the upsampling circuit 111 is subtracted from the chrominance data output from the downsampling circuit 103 as a predicted image signal, and the difference is generated. This difference includes a vertical high-frequency component because the up-sampling circuit 111 performs up-sampling by two times in the vertical direction. This output of the arithmetic unit 112 is subjected to DCT processing by the DCT circuit 113, then quantized by the quantization circuit 114, and is subjected to variable-length encoding by the variable-length encoding circuit 115. Then, although not shown, it is supplied to the synthesizing circuit 105 via a transmission buffer. Thereby, a signal of a group of color difference blocks Cb5 ', Cr6', Cb7 ', Cr8' having a higher resolution than the color difference blocks Cb5 ", Cr6" output from the circuit 100 is generated.

 一方、回路102においては、回路101の量子化回路114が出力したデータを逆量子化回路121により逆量子化し、これをさらにIDCT回路122によりIDCT処理して、演算器123に出力している。演算器123には、アップサンプリング回路111より出力された回路101において用いた予測誤差信号が供給されている。演算器123は、このアップサンプリング回路111が出力する予測誤差信号と、IDCT回路122が出力する信号とを加算することにより、回路101における色差信号を局所的に復号する。 On the other hand, in the circuit 102, the data output from the quantization circuit 114 of the circuit 101 is inversely quantized by the inverse quantization circuit 121, which is further subjected to IDCT processing by the IDCT circuit 122 and output to the arithmetic unit 123. The prediction error signal output from the upsampling circuit 111 and used in the circuit 101 is supplied to the arithmetic unit 123. The arithmetic unit 123 locally decodes the color difference signal in the circuit 101 by adding the prediction error signal output from the upsampling circuit 111 and the signal output from the IDCT circuit 122.

 そして、演算器123より出力された信号を、アップサンプリング回路124において水平方向に2倍にアップサンプリングして、演算器125に出力する。演算器125は、アップサンプリング回路124の出力する信号を予測誤差信号として、フォーマット変換回路302より供給される4:4:4のマクロブロックフォーマットの色差ブロックのデータから減算する。これにより、その差分データは、水平方向の高周波成分を含むことになる。 {Circle around (2)} The signal output from the arithmetic unit 123 is upsampled twice in the horizontal direction by the upsampling circuit 124 and output to the arithmetic unit 125. The arithmetic unit 125 subtracts the signal output from the up-sampling circuit 124 as a prediction error signal from the data of the chrominance block in the 4: 4: 4 macroblock format supplied from the format conversion circuit 302. Thus, the difference data includes a high frequency component in the horizontal direction.

 この演算器125の出力は、DCT回路126によりDCT処理され、量子化回路127により量子化処理された後、可変長符号化回路128において可変長符号化される。そして、図示せぬ送信バッファを介して合成回路105に出力される。これにより、最も高い解像度を有する色差ブロックCb5,Cr6,Cb7,Cr8,Cb9,Cr10,Cb11,Cr12のグループのデータが得られる。 出力 The output of the arithmetic unit 125 is subjected to DCT processing by the DCT circuit 126, quantized by the quantization circuit 127, and then subjected to variable length coding in the variable length coding circuit 128. Then, the signal is output to the synthesis circuit 105 via a transmission buffer (not shown). Thereby, data of the group of the color difference blocks Cb5, Cr6, Cb7, Cr8, Cb9, Cr10, Cb11, and Cr12 having the highest resolution is obtained.

 合成回路105は、このようにして、回路100が出力する輝度ブロックY1乃至Y4と、最も低い解像度の色差ブロックのデータCb5”,Cr6”により構成されるグループのデータと、回路101が出力する中間の解像度の色差ブロックのデータCb5',Cr6',Cb7',Cr8'により構成されるグループのデータ、さらに最も高い解像度の色差ブロックのデータCb5,Cr6,Cb7,Cr8,Cb9,Cr10,Cb11,Cr12により構成されるグループのデータを合成する。 In this way, the synthesizing circuit 105 outputs the data of the group constituted by the luminance blocks Y1 to Y4 output from the circuit 100, the data Cb5 ″ and Cr6 ″ of the chrominance blocks having the lowest resolution, and the intermediate data output from the circuit 101. Group of data consisting of color difference block data Cb5 ', Cr6', Cb7 ', Cr8' of the same resolution, and the color difference block data Cb5, Cr6, Cb7, Cr8, Cb9, Cr10, Cb11, Cr12 of the highest resolution. The data of the group constituted by is synthesized.

 この合成に際して、合成回路105は、図8に示すように、3つのグループのデータの先頭に、それぞれヘッダH1乃至ヘッダH3を配置する。これにより、ヘッダH1とY1,Y2,Y3,Y4,Cb5”,Cr6”により構成されるマスタスライスと、ヘッダH2、Cb5',Cr6'Cb7',Cr8'により構成されるスレーブスライス1と、ヘッダH3、Cb5,Cr6,Cb7,Cr8,Cb9,Cr10,Cb11,Cr12により構成されるスレーブスライス2を単位とするビットストリームが構成され、これが伝送路に供給され、記録媒体3に記録される。 At the time of this synthesis, the synthesis circuit 105 arranges headers H1 to H3 at the head of the data of the three groups, respectively, as shown in FIG. As a result, a master slice composed of the header H1 and Y1, Y2, Y3, Y4, Cb5 ″, Cr6 ″, a slave slice 1 composed of the headers H2, Cb5 ′, Cr6 ′, Cb7 ′, Cr8 ′, and a header A bit stream composed of slave slices 2 composed of H3, Cb5, Cr6, Cb7, Cr8, Cb9, Cr10, Cb11, and Cr12 is supplied to the transmission path and recorded on the recording medium 3.

 1フレーム分のデータのマスタスライスのデータが伝送された後、次に1フレーム分のスレーブスライス1のデータを伝送し、その次に1フレーム分のスレーブスライス2のデータを伝送するようにすることも理論的には可能である。しかしながら、そのようにすると、リアルタイムで高解像度の色の画像を得ることが困難になるため、図8に示したように、マスタスライス、スレーブスライス1およびスレーブスライスを順次伝送するようにするのが好ましい。 After the data of the master slice of one frame of data is transmitted, the data of the slave slice 1 for one frame is transmitted next, and then the data of the slave slice 2 for one frame is transmitted. Is also theoretically possible. However, this makes it difficult to obtain a high-resolution color image in real time. Therefore, as shown in FIG. 8, the master slice, the slave slice 1, and the slave slice are sequentially transmitted. preferable.

 図8に示すフォーマットに従って、記録媒体3に記録されたデータは、記録媒体3から再生され、図1の復号化装置2のデコーダ401に入力される。 デ ー タ The data recorded on the recording medium 3 is reproduced from the recording medium 3 according to the format shown in FIG. 8 and is input to the decoder 401 of the decoding device 2 in FIG.

 このデコーダ401は、例えば図9に示すように構成される。この図9において、図22に示した場合と対応する部分には同一の符号を付してある。この実施例においては、記録媒体3(伝送路)より供給されたデータが受信バッファ81に供給され、一旦記憶された後、分離回路150に供給され、輝度ブロックと最も低い解像度の色差ブロックをグループとするデータと、中間の解像度の色差ブロックのグループのデータと、最も高い解像度の色差ブロックのグループのデータとに分離され、それぞれ回路161,162または163に供給される。 This decoder 401 is configured, for example, as shown in FIG. In FIG. 9, the portions corresponding to the case shown in FIG. 22 are denoted by the same reference numerals. In this embodiment, the data supplied from the recording medium 3 (transmission path) is supplied to the reception buffer 81, and once stored, supplied to the separation circuit 150, where the luminance block and the chrominance block having the lowest resolution are grouped. , The data of the group of the color difference blocks of the intermediate resolution, and the data of the group of the color difference blocks of the highest resolution are supplied to the circuits 161, 162 or 163, respectively.

 回路161は、図22に示した復号回路90と実質的に同一の構成とされている。回路161においては、フレームメモリ86として、ルマフレームメモリ86Lとクロマフレームメモリ86Cを、また、動き補償回路87として、動き補償回路87Lと動き補償回路87Cを図示しているが、図22の復号回路90においても、図示は省略されているが、これらの回路が内蔵されている。また、図9のルマフレームメモリ86Lとクロマフレームメモリ86Cには、図22に示した前方予測画像部と後方予測画像部の図示が省略されているが、いずれもこれらを内蔵しているものである。 Circuit 161 has substantially the same configuration as decoding circuit 90 shown in FIG. In the circuit 161, a luma frame memory 86L and a chroma frame memory 86C are shown as the frame memory 86, and a motion compensation circuit 87L and a motion compensation circuit 87C are shown as the motion compensation circuit 87. Although not shown in FIG. 90, these circuits are built in. Further, the luma frame memory 86L and the chroma frame memory 86C of FIG. 9 do not show the forward prediction image section and the backward prediction image section shown in FIG. 22, but both have these built-in. is there.

 従って、回路161においては、図22において説明した場合と同様に処理が行われる。ルマフレームメモリ86Lとクロマフレームメモリ86Cの関係についてだけ説明しておくと、ルマフレームメモリ86Lには演算器85が出力した輝度ブロックのデータが記憶される。そして、この輝度信号に関する動き補償が動き補償回路87Lにより行われ、演算器85に出力される。これに対して、クロマフレームメモリ86Cには色差ブロックに関するデータが記憶される。そして動き補償回路87Cは、動き補償回路87Lにおいて用いる動きベクトルを水平方向と垂直方向にそれぞれ1/2した動きベクトルを用いて、クロマフレームメモリ86Cより読み出したデータを動き補償して、演算器85に出力する。 Therefore, the circuit 161 performs the same processing as the case described with reference to FIG. Only the relationship between the luma frame memory 86L and the chroma frame memory 86C will be described. The luma frame memory 86L stores the luminance block data output from the arithmetic unit 85. Then, the motion compensation for the luminance signal is performed by the motion compensation circuit 87L, and is output to the calculator 85. On the other hand, the chroma frame memory 86C stores data relating to the color difference blocks. Then, the motion compensation circuit 87C performs motion compensation on the data read from the chroma frame memory 86C using the motion vector obtained by halving the motion vector used in the motion compensation circuit 87L in the horizontal direction and the vertical direction, respectively. Output to

 このようにして、回路161から4つの輝度ブロックY1乃至Y4と、最も低い解像度の色差信号のブロックCb5”,Cr6”により構成される4:2:0のマクロブロックのデータが、選択回路164に出力される。 In this way, the data of the 4: 2: 0 macroblock composed of the four luminance blocks Y1 to Y4 and the blocks Cb5 ″ and Cr6 ″ of the lowest resolution color difference signal from the circuit 161 is sent to the selection circuit 164. Is output.

 一方、分離回路150により分離された中間の解像度を有する色差ブロックのデータは、可変長復号化回路152において可変長復号化され、逆量子化回路153において逆量子化される。そして、さらにIDCT回路154においてIDCT処理された後、演算器155に入力される。 On the other hand, the data of the chrominance block having the intermediate resolution separated by the separation circuit 150 is subjected to variable-length decoding in the variable-length decoding circuit 152 and inversely quantized in the inverse quantization circuit 153. Then, after being subjected to IDCT processing in the IDCT circuit 154, it is input to the arithmetic unit 155.

 この演算器155には、回路161の演算器85が出力する、より低い解像度の色差ブロックのデータがアップサンプリング回路151により垂直方向にアップサンプリングされて供給されている。即ち、この信号は、図5の回路101のアップサンプリング回路111により生成した予測画像信号に対応する。そこで、IDCT回路154が出力するデータと、アップサンプリング回路151が出力する予測誤差信号とを演算器155で加算することにより、中間の解像度を有する色差信号のブロックCb5',Cr6',Cb7',Cr8'が得られる。この色差信号は、選択回路164に供給される。 (5) The lower-resolution color difference block data output from the calculator 85 of the circuit 161 is vertically up-sampled by the up-sampling circuit 151 and supplied to the calculator 155. That is, this signal corresponds to the predicted image signal generated by the upsampling circuit 111 of the circuit 101 in FIG. Therefore, the data output from the IDCT circuit 154 and the prediction error signal output from the up-sampling circuit 151 are added by the arithmetic unit 155, so that the blocks Cb5 ', Cr6', Cb7 ', Cr8 'is obtained. This color difference signal is supplied to the selection circuit 164.

 さらに、分離回路150により分離された、最も高い解像度を有する色差ブロックCb5,Cr6,Cb7,Cr8,Cb9,Cr10,Cb11,Cr12のデータは、回路163の可変長復号化回路157に供給され、可変長復号化される。可変長復号化回路157より出力された信号は、逆量子化回路158により逆量子化され、IDCT回路159によりIDCT処理された後、演算器160に入力される。 Further, the data of the chrominance blocks Cb5, Cr6, Cb7, Cr8, Cb9, Cr10, Cb11, and Cr12 having the highest resolution and separated by the separation circuit 150 are supplied to the variable length decoding circuit 157 of the circuit 163, where the data is variable. It is long decoded. The signal output from the variable length decoding circuit 157 is inversely quantized by the inverse quantization circuit 158, subjected to IDCT processing by the IDCT circuit 159, and then input to the arithmetic unit 160.

 また、この演算器160には、回路162の演算器155が出力する中間の解像度の色差信号がアップサンプリング回路156により水平方向にアップサンプリングされて、予測誤差信号として供給されている。演算器160は、この予測誤差信号をIDCT回路159の出力と加算し、最も高い解像度の色差信号Cb5,Cr6,Cb7,Cr8,Cb9,Cr10,Cb11,Cr12を復号して、選択回路164に出力する。 {Circle around (1)} The color difference signal of the intermediate resolution output from the calculator 155 of the circuit 162 is horizontally up-sampled by the up-sampling circuit 156 and supplied to the calculator 160 as a prediction error signal. The arithmetic unit 160 adds the prediction error signal to the output of the IDCT circuit 159, decodes the highest-resolution color difference signals Cb5, Cr6, Cb7, Cr8, Cb9, Cr10, Cb11, and Cr12, and outputs the decoded signals to the selection circuit 164. I do.

 選択回路164は、図1のフォーマット変換回路402に含まれている。この選択回路164は、輝度信号を選択するとともに、3つの解像度の異なる色差信号のうち、使用者からの指令に対応して、いずれか1つを選択する。輝度信号は輝度信号フレームメモリ34に供給され、色差信号は色差信号フレームメモリ403に供給される。輝度信号フレームメモリ34より読み出された輝度信号は、D/A変換器36によりD/A変換された後、後処理回路38に供給される。また、色差信号フレームメモリ403より読み出された色差信号は、D/A変換器404によりD/A変換された後、後処理回路38に供給される。D/A変換器404のクロックは、選択した色差信号に対応して変更される。 The selection circuit 164 is included in the format conversion circuit 402 in FIG. The selection circuit 164 selects a luminance signal and selects one of three color difference signals having different resolutions in response to a command from a user. The luminance signal is supplied to the luminance signal frame memory 34, and the chrominance signal is supplied to the chrominance signal frame memory 403. The luminance signal read from the luminance signal frame memory 34 is D / A-converted by the D / A converter 36 and then supplied to the post-processing circuit 38. The color difference signal read from the color difference signal frame memory 403 is D / A converted by a D / A converter 404 and then supplied to the post-processing circuit 38. The clock of the D / A converter 404 is changed according to the selected color difference signal.

 従って、使用者は、必要に応じて3つの階層の解像度のいずれかを任意に選択して、ディスプレイなどに表示させることができる。 Therefore, the user can arbitrarily select one of the three hierarchical resolutions and display it on a display or the like as necessary.

 図10は、エンコーダ303の第2の実施例を表している。この実施例においては、第1の実施例(図5)における最も高い解像度の色差信号を処理する回路102が省略され、中間の解像度の色差信号を処理する回路101と、最も低い解像度の色差信号と輝度信号とを処理する回路100により構成されている。このうち、回路100は、図5における場合と同様の構成とされている。 FIG. 10 shows a second embodiment of the encoder 303. In this embodiment, the circuit 102 for processing a color difference signal of the highest resolution in the first embodiment (FIG. 5) is omitted, a circuit 101 for processing a color difference signal of an intermediate resolution, and a color difference signal of the lowest resolution. And a circuit 100 for processing the luminance signal. Among them, the circuit 100 has the same configuration as that in FIG.

 一方、回路101は、演算器112、DCT回路113、量子化回路114、可変長符号化回路115に加えて、逆量子化回路171、IDCT回路172、演算器173、クロマフレームメモリ174、動き補償回路175、選択回路176を有している。 On the other hand, the circuit 101 includes, in addition to an arithmetic unit 112, a DCT circuit 113, a quantization circuit 114, and a variable length encoding circuit 115, an inverse quantization circuit 171, an IDCT circuit 172, an arithmetic unit 173, a chroma frame memory 174, a motion compensation A circuit 175 and a selection circuit 176 are provided.

 即ち、この実施例においては、回路100における動作は図5における場合と同様であり、その説明は省略する。 That is, in this embodiment, the operation of the circuit 100 is the same as that in FIG.

 回路101においては、予測画像信号の生成の方法が図5における場合と異なっている。即ち、この実施例においては、図5の実施例における場合と同様に、回路100の演算器62が出力する、局部的に復号された色差信号を、アップサンプリング回路111により垂直方向にアップサンプリングすることにより、第1の予測画像信号が生成される。 In the circuit 101, the method of generating the predicted image signal is different from that in FIG. That is, in this embodiment, similarly to the case of the embodiment of FIG. 5, the locally decoded chrominance signal output from the arithmetic unit 62 of the circuit 100 is up-sampled by the up-sampling circuit 111 in the vertical direction. As a result, a first predicted image signal is generated.

 また、量子化回路114が出力する信号を逆量子化回路171により逆量子化し、IDCT回路172によりIDCT処理した後、演算器173に入力している。演算器173には、選択回路176により選択された予測画像信号が入力されている。 {Circle around (4)} The signal output from the quantization circuit 114 is inversely quantized by the inverse quantization circuit 171, subjected to IDCT processing by the IDCT circuit 172, and then input to the arithmetic unit 173. The prediction image signal selected by the selection circuit 176 is input to the arithmetic unit 173.

 演算器173は、この予測画像信号と、IDCT回路172が出力する信号とを加算し、局部的な復号を行う。復号された色差信号は、クロマフレームメモリ174に供給され、記憶される。このクロマフレームメモリ174に記憶された色差信号は、動き補償回路175において、動き補償回路64Lにおける場合の動きベクトルを垂直方向に1/2した動きベクトルを用いて動き補償が行われ、選択回路176に第2の予測画像信号として供給される。 The arithmetic unit 173 adds the predicted image signal and the signal output from the IDCT circuit 172, and performs local decoding. The decoded chrominance signal is supplied to the chroma frame memory 174 and stored. The color difference signal stored in the chroma frame memory 174 is subjected to motion compensation in the motion compensation circuit 175 using a motion vector obtained by halving the motion vector in the motion compensation circuit 64L in the vertical direction. Is supplied as a second predicted image signal.

 選択回路176は、アップサンプリング回路111が出力する第1の予測画像信号を用いた場合における予測誤差信号と、動き補償回路175が出力する第2の予測画像信号を用いた場合における予測誤差信号とを比較し、小さい予測誤差信号に対応する予測画像信号を選択する。そして、選択した予測画像信号は、上述したようにして、演算器173に供給されて局部的な復号に用いられるとともに、演算器112に供給されて、フォーマット変換回路302から供給される、中間の解像度の色差信号を符号化するための予測画像信号として用いられる。 The selection circuit 176 includes a prediction error signal when using the first predicted image signal output from the upsampling circuit 111 and a prediction error signal when using the second predicted image signal output from the motion compensation circuit 175. And selects a predicted image signal corresponding to a small prediction error signal. Then, the selected predicted image signal is supplied to the arithmetic unit 173 to be used for local decoding as described above, and is also supplied to the arithmetic unit 112 to be supplied to the intermediate unit from the format conversion circuit 302. It is used as a prediction image signal for encoding a color difference signal of resolution.

 このように、この実施例においては、回路101において、解像度の低い色差信号の復号画像に対して、補間回路141(図6)などにより構成されるアップサンプリング回路111(空間フィルタ)を適用して、解像度の高い(中間の解像度の)色差信号と同じ解像度の予測画像を生成するとともに、解像度の高い(中間の解像度の)色差信号を局所的に復号して予測画像を生成する。そして、2つの予測画像のうち、予測効率の良好な方を適用的に選択するようにしている。これにより、より効率的にデータを圧縮することが可能となる。 As described above, in this embodiment, the circuit 101 applies the up-sampling circuit 111 (spatial filter) including the interpolation circuit 141 (FIG. 6) to a decoded image of a color difference signal having a low resolution. , A predicted image having the same resolution as the high-resolution (intermediate resolution) color difference signal is generated, and the high-resolution (intermediate resolution) color difference signal is locally decoded to generate a predicted image. Then, of the two predicted images, the one with better prediction efficiency is adaptively selected. This makes it possible to compress data more efficiently.

 この実施例においてはまた、選択回路176から、アップサンプリング回路111が出力する第1の予測画像信号と、動き補償回路175が出力する第2の予測画像信号のうち、いずれを選択したかを示すスペース(前者を選択した場合)/タイム(後者を選択した場合)フラグが出力され、これが回路100と回路101が出力するデータとともに合成回路105において多重合成され、伝送される。 In this embodiment, the selection circuit 176 indicates which one of the first prediction image signal output by the upsampling circuit 111 and the second prediction image signal output by the motion compensation circuit 175 has been selected. A space (when the former is selected) / time (when the latter is selected) flag is output, and this is multiplexed and synthesized in the synthesizing circuit 105 together with the data output by the circuits 100 and 101 and transmitted.

 図11は、図10に示すエンコーダ303によりエンコードされたデータと復号するデコーダ401の実施例を示している。この図11の実施例において、図9に示す実施例と対応する部分には同一の符号を付してある。この実施例においては、図9における最も高い解像度の色差信号を処理する回路163が省略され、中間の解像度の色差信号を処理する回路162、および低い解像度の色差信号と輝度信号を処理する回路161とにより構成されている。回路161の構成は、図9における場合と同様である。 FIG. 11 shows an embodiment of a decoder 401 for decoding data encoded by the encoder 303 shown in FIG. 10 and decoding. In the embodiment of FIG. 11, parts corresponding to those of the embodiment shown in FIG. 9 are denoted by the same reference numerals. In this embodiment, the circuit 163 for processing the color difference signal of the highest resolution in FIG. 9 is omitted, the circuit 162 for processing the color difference signal of the intermediate resolution, and the circuit 161 for processing the color difference signal and the luminance signal of the low resolution. It consists of: The configuration of the circuit 161 is similar to that in FIG.

 回路162においては、アップサンプリング回路151、可変長復号化回路152、逆量子化回路153、IDCT回路154、演算器155の他に、クロマフレームメモリ181、動き補償回路182、および選択回路183が付加されている。 The circuit 162 includes a chroma frame memory 181, a motion compensation circuit 182, and a selection circuit 183 in addition to the upsampling circuit 151, the variable length decoding circuit 152, the inverse quantization circuit 153, the IDCT circuit 154, and the arithmetic unit 155. Have been.

 演算器155より出力された、復号された中間の解像度の色差信号は、クロマフレームメモリ181に供給され、記憶される。そして、動き補償回路182により動き補償回路87Cにおける動きベクトルを垂直方向に1/2にした動きベクトルを用いて動き補償され、時間軸方向の第2の予測画像信号として選択回路183に供給される。 The decoded intermediate-resolution color difference signal output from the arithmetic unit 155 is supplied to the chroma frame memory 181 and stored therein. Then, motion compensation is performed by the motion compensation circuit 182 using the motion vector obtained by halving the motion vector in the motion compensation circuit 87C in the vertical direction, and is supplied to the selection circuit 183 as a second predicted image signal in the time axis direction. .

 また、この選択回路183には、回路161の演算器85が出力する、より低い解像度の色差信号をアップサンプリング回路151により垂直方向にアップサンプリングし、中間の解像度の色差信号の解像度に伸長した第1の予測画像信号が供給されている。 The selection circuit 183 also vertically upsamples the lower resolution color difference signal output from the arithmetic unit 85 of the circuit 161 by the upsampling circuit 151 and expands the color difference signal to the resolution of the intermediate resolution color difference signal. One predicted image signal is supplied.

 分離回路150は、受信バッファ81より供給された信号から、スペース/タイムフラグを検出し、これを選択回路183に出力する。選択回路183は、スペースフラグが検出されたとき、アップサンプリング回路151が出力する第1の予測画像信号を選択し、タイムフラグが検出されたとき、動き補償回路182が出力する第2の予測画像信号を選択して、選択した予測画像信号を演算器155に出力する。これにより、中間の解像度の色差信号が適応的に復号される。 The separation circuit 150 detects the space / time flag from the signal supplied from the reception buffer 81, and outputs this to the selection circuit 183. The selection circuit 183 selects the first predicted image signal output by the upsampling circuit 151 when the space flag is detected, and the second predicted image signal output by the motion compensation circuit 182 when the time flag is detected. A signal is selected, and the selected predicted image signal is output to the arithmetic unit 155. As a result, the color difference signal of the intermediate resolution is adaptively decoded.

 図12は、エンコーダ303の第3の実施例を示している。この実施例においては、回路101の構成が、図10に示した第2の実施例の回路101を若干改良した構成とされている。この回路101においては、動き補償回路175が出力した第2の予測画像信号が、重み付け回路191により重み付け係数Wが乗算された後、演算器193に供給される。また、アップサンプリング回路111が出力した第1の予測画像信号が、重み付け回路192により重み付け係数(1−W)が乗算された後、演算器193に供給されている。演算器193は、重み付け回路191と192より供給された、重み付けされた予測画像信号を加算する。 FIG. 12 shows a third embodiment of the encoder 303. In this embodiment, the configuration of the circuit 101 is a slightly improved configuration of the circuit 101 of the second embodiment shown in FIG. In this circuit 101, the second predicted image signal output from the motion compensation circuit 175 is supplied to a calculator 193 after being multiplied by a weighting coefficient W by a weighting circuit 191. The first predicted image signal output from the up-sampling circuit 111 is multiplied by a weighting coefficient (1-W) by a weighting circuit 192, and is then supplied to a computing unit 193. The calculator 193 adds the weighted predicted image signals supplied from the weighting circuits 191 and 192.

 例えば重み付け係数Wとして、0,1/4,2/4,3/4,1が重み付け回路191により設定されるとき、重み付け回路192においては、重み付け係数(1−W)として、1,3/4,2/4,1/4,0が設定される。重み付け回路191と192は、入力された予測画像信号にそれぞれ5種類の係数を乗算して、5種類の予測画像信号を演算器193に出力する。演算器193は、5種類の重み付けされた予測画像信号を、それぞれ対応するものどうしを加算して、5種類の予測画像信号を生成する。そして、5種類のそれぞれを採用した場合における予測誤差信号を生成し、この予測誤差信号が最も小さいものを最終的な予測誤差信号として選択し、選択した予測誤差信号に対応する予測画像信号を演算器112と173に出力する。 For example, when 0, 1/4, 2/4, 3/4, and 1 are set by the weighting circuit 191 as the weighting coefficient W, the weighting circuit 192 determines that the weighting coefficient (1-W) is 1, 3 / 4, 2/4, 1/4, 0 are set. The weighting circuits 191 and 192 multiply the input predicted image signals by five types of coefficients, respectively, and output five types of predicted image signals to the calculator 193. The computing unit 193 generates five types of predicted image signals by adding the corresponding ones of the five types of weighted predicted image signals. Then, a prediction error signal in the case of adopting each of the five types is generated, a signal having the smallest prediction error signal is selected as a final prediction error signal, and a prediction image signal corresponding to the selected prediction error signal is calculated. To the devices 112 and 173.

 これにより、より効率的な圧縮が可能となる。 This allows more efficient compression.

 尚、この実施例においては、演算器193が最終的に選択した重み付け係数Wを合成回路105に出力する。合成回路105は、この重み付け係数Wを他の色差信号と多重合成して出力する。 In this embodiment, the arithmetic unit 193 outputs the finally selected weighting coefficient W to the synthesis circuit 105. The combining circuit 105 multiplexes the weighting coefficient W with other color difference signals and outputs the result.

 図13は、図12に示したエンコーダ303によりエンコードした信号をデコードする場合のデコーダ401の構成例を示している。この図13の実施例は、図11に示した実施例と基本的に同様の構成とされている。但し、回路162の構成が、図11における場合を若干改良したものとなっている。 FIG. 13 shows a configuration example of the decoder 401 when decoding a signal encoded by the encoder 303 shown in FIG. The embodiment shown in FIG. 13 has basically the same configuration as the embodiment shown in FIG. However, the configuration of the circuit 162 is slightly improved from the case of FIG.

 図13の実施例においては、動き補償回路182が出力する予測画像信号が重み付け回路201において係数Wで重み付けされた後、演算器203に供給される。また、アップサンプリング回路151が出力する予測画像信号が、重み付け回路202により係数(1−W)だけ重み付けされた後、演算器203に供給されている。この重み付け回路201と202における重み付け係数Wは、図12における重み付け回路191と192の重み付け係数に対応されている。 In the embodiment of FIG. 13, the predicted image signal output from the motion compensation circuit 182 is weighted by the coefficient W in the weighting circuit 201 and then supplied to the arithmetic unit 203. The prediction image signal output from the upsampling circuit 151 is weighted by the coefficient (1−W) by the weighting circuit 202 and then supplied to the arithmetic unit 203. The weighting coefficients W in the weighting circuits 201 and 202 correspond to the weighting coefficients of the weighting circuits 191 and 192 in FIG.

 従って、演算器203は、重み付け回路201が出力する、5種類の重み付けがなされた第2の予測画像信号と、重み付け回路202が出力する、5種類の重み付けがなされた第1の予測画像信号との対応するものどうしを加算する。そして、分離回路150が受信バッファ81より供給される信号から分離した重み付け係数Wに対応するものを、加算した予測画像信号の中から選択する。そして、この選択された予測画像信号が演算器155に入力され、中間の解像度を有する色差信号の予測画像信号として用いられる。 Therefore, the arithmetic unit 203 outputs the five types of weighted second predicted image signals output from the weighting circuit 201 and the five types of weighted first predicted image signals output from the weighting circuit 202. Are added together. Then, the separation circuit 150 selects a signal corresponding to the weighting coefficient W separated from the signal supplied from the reception buffer 81 from the added predicted image signals. Then, the selected predicted image signal is input to the arithmetic unit 155, and is used as a predicted image signal of a color difference signal having an intermediate resolution.

 尚、以上の実施例においては、n×n(上記実施例はn=8)画素のブロックのデータを直交変換するのに、DCTによりバンド分割を行うようにしたが、例えばQMFなどを用いてサブバンド分割を行うこともできる。また、ウェーブレッド変換によりオクターブ分割を行うようにしたり、入力した2次元画像データについて、所定の変換や分割を行って符号化を行う場合に適用することが可能である。 In the above-described embodiment, band division is performed by DCT to orthogonally transform data of a block of n × n (n = 8 in the above embodiment). However, for example, QMF is used. Subband division can also be performed. Further, the present invention can be applied to a case where octave division is performed by wave red transform, or a case where encoding is performed by performing predetermined conversion or division on input two-dimensional image data.

 さらにまた、符号化されたビデオ信号のビットストリームに対して、符号化されたオーディオ信号、同期信号を多重化し、さらにエラー訂正用のコードを付加し、所定の変調を加えて、この変調信号によりレーザ光を変調し、ディスク上にピット、またはマークとして記録するようにすることができる。また、このディスクをマスタディスクとしてスタンパを形成し、このスタンパより大量の複製ディスク(例えば光ディスク)を成形することができる。この場合、デコーダは、この複製ディスクからデータを再生することになる。 Furthermore, the coded audio signal and the synchronization signal are multiplexed with the coded video signal bit stream, a code for error correction is added, and a predetermined modulation is applied. The laser light can be modulated and recorded as pits or marks on the disk. Further, a stamper is formed using this disk as a master disk, and a large number of duplicate disks (for example, optical disks) can be formed from the stamper. In this case, the decoder will reproduce data from this duplicate disc.

本発明の画像信号符号化装置および復号化装置の一実施例の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an embodiment of an image signal encoding device and a decoding device according to the present invention. 図1のフォーマット変換回路302における色差信号のサンプリングフォーマットを説明する図である。FIG. 2 is a diagram illustrating a sampling format of a color difference signal in a format conversion circuit 302 in FIG. 1. 図5のダウンサンプリング回路103,104の構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of downsampling circuits 103 and 104 in FIG. 5. マクロブロックの構成を示す図である。FIG. 3 is a diagram illustrating a configuration of a macro block. 図1におけるエンコーダ303の第1の実施例の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a first example of an encoder 303 in FIG. 1. 図5のアップサンプリング回路111,124の構成例を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration example of upsampling circuits 111 and 124 in FIG. 5. 図6の補間回路141の補間動作を説明する図である。FIG. 7 is a diagram illustrating an interpolation operation of the interpolation circuit 141 in FIG. 6. 図1の記録媒体3の記録フォーマットを説明する図である。FIG. 2 is a diagram illustrating a recording format of a recording medium 3 in FIG. 1. 図1のデコーダ401の第1の実施例の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a first example of the decoder 401 in FIG. 1. 図1のエンコーダ303の第2の実施例の構成を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration of a second embodiment of the encoder 303 in FIG. 1. 図1のデコーダ401の第2の実施例の構成を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration of a second embodiment of the decoder 401 in FIG. 1. 図1のエンコーダ303の第3の実施例の構成を示すブロック図である。FIG. 11 is a block diagram illustrating a configuration of a third embodiment of the encoder 303 in FIG. 1. 図1のデコーダ401の第3の実施例の構成を示すブロック図である。FIG. 11 is a block diagram illustrating a configuration of a third embodiment of the decoder 401 in FIG. 1. 高能率符号化の原理を説明する図である。FIG. 3 is a diagram illustrating the principle of high-efficiency coding. 画像データを圧縮する場合におけるピクチャのタイプを説明する図である。FIG. 4 is a diagram for explaining types of pictures when compressing image data. 動画像信号を符号化する原理を説明する図である。FIG. 3 is a diagram illustrating a principle of encoding a moving image signal. 従来の画像信号符号化装置と復号化装置の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a conventional image signal encoding device and a conventional decoding device. 図17におけるフォーマット変換回路17のフォーマット変換の動作を説明する図である。FIG. 18 is a diagram illustrating an operation of format conversion of a format conversion circuit 17 in FIG. 17. 図17におけるエンコーダ18の構成例を示すブロック図である。18 is a block diagram illustrating a configuration example of an encoder 18 in FIG. 図19の予測モード切り替え回路52の動作を説明する図である。FIG. 20 is a diagram for explaining the operation of the prediction mode switching circuit 52 of FIG. 図19のDCTモード切り替え回路55の動作を説明する図である。FIG. 20 is a diagram illustrating the operation of the DCT mode switching circuit 55 of FIG. 図17のデコーダ31の構成例を示すブロック図である。FIG. 18 is a block diagram illustrating a configuration example of a decoder 31 in FIG. 17.

符号の説明Explanation of reference numerals

 1 符号化装置, 2 復号化装置, 3 記録媒体, 12,13 A/D変換器, 14 フレームメモリ, 15 輝度信号フレームメモリ, 16 色差信号フレームメモリ, 17 フォーマット変換回路, 18 エンコーダ, 31 デコーダ, 32 フォーマット変換回路, 33 フレームメモリ, 34 輝度信号フレームメモリ, 35 色差信号フレームメモリ, 36,37 D/A変換器, 50 動きベクトル検出回路, 51 フレームメモリ, 52 予測モード切り替え回路, 53 演算部, 54 予測判定回路, 55 DCTモード切り替え回路, 56 DCT回路, 57 量子化回路, 58 可変長符号化回路, 59 送信バッファ, 60 逆量子化回路, 61 IDCT回路, 62 演算器, 63 フレームメモリ, 64 動き補償回路, 81 受信バッファ, 82 可変長復号化回路, 83 逆量子化回路, 84 IDCT回路, 85 演算器, 86 フレームメモリ, 87 動き補償回路, 100,101,102 回路, 103,104 ダウンサンプリング回路, 111,124 アップサンプリング回路, 131 ローパスフィルタ, 132 間引き回路, 141 補間回路 1 encoding device, {2} decoding device, {3} recording medium, {12, 13} A / D converter, {14} frame memory, {15} luminance signal frame memory, {16} color difference signal frame memory, {17} format conversion circuit, {18} encoder, {31} decoder, 32 format conversion circuit, {33} frame memory, {34} luminance signal frame memory, {35} chrominance signal frame memory, {36, 37} D / A converter, {50} motion vector detection circuit, {51} frame memory, {52} prediction mode switching circuit, {53} arithmetic unit, 54 prediction decision circuit, 55 DCT mode switching circuit, 56 DCT circuit, 57 quantization circuit, 58 variable length coding circuit, 59 transmission buffer, 60 inverse quantization circuit, 61 IDCT Path, {62} arithmetic unit, {63} frame memory, {64} motion compensation circuit, {81} reception buffer, {82} variable length decoding circuit, {83} inverse quantization circuit, {84} IDCT circuit, {85} computing unit, {86} frame memory, {87} motion compensation circuit, {100} , 101, 102 circuits, {103, 104} downsampling circuits, {111, 124} upsampling circuits, {131} low-pass filters, {132} thinning circuits, {141} interpolating circuits

Claims (22)

 所定のマクロブロック単位で符号化された画像信号を生成する画像信号生成装置において、
 マクロブロックの輝度信号成分を符号化して符号化輝度信号を生成するとともに、前記マクロブロックの色信号成分を第1の解像度で符号化して第1の符号化色信号を生成し、前記符号化輝度信号と前記第1の符号化色信号とを含む第1のスライスデータ信号を出力する第1の画像符号化手段と、
 前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分を、前記第1の画像符号化手段により符号化された前記第1の符号化色信号が復号された信号を用いて符号化して第2の符号化色信号を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号を出力する第2の画像符号化手段と、
 前記第1の画像符号化手段から出力された前記第1のスライスデータ信号と、前記第2の画像符号化手段から出力された前記第2のスライスデータ信号とを、復号処理のときに順次読み出されていずれか一方が選択されるように、互いに近接する位置に配置して合成する合成手段と
 を備えることを特徴とする画像信号生成装置。
In an image signal generation device that generates an image signal encoded in units of a predetermined macro block,
Encoding a luminance signal component of the macroblock to generate an encoded luminance signal; encoding the color signal component of the macroblock at a first resolution to generate a first encoded color signal; First image encoding means for outputting a first slice data signal including a signal and the first encoded color signal;
A color signal component having a second resolution different from the first resolution of the macroblock is used as a signal obtained by decoding the first encoded color signal encoded by the first image encoding unit. A second image encoding unit that generates a second encoded color signal by performing encoding and outputs a second slice data signal including the second encoded color signal;
The first slice data signal output from the first image encoding unit and the second slice data signal output from the second image encoding unit are sequentially read during decoding processing. And a synthesizing means for synthesizing and arranging them at positions close to each other so that one of them is output and one of them is selected.
 前記第2の画像符号化手段は、
  前記第1の符号化色信号が復号された前記信号に基づいて、前記第2の解像度の前記色信号成分に対する第1の予測画像信号を生成する第1の予測画像生成手段と、
  符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存手段と、
  前記保存手段に保存済みの前記第2の符号化色信号が復号された信号に基づいて、前記第2の解像度の前記色信号成分に対する第2の予測画像信号を生成する第2の予測画像生成手段と、
  前記第1の予測画像生成手段により生成された前記第1の予測画像信号を用いた場合における予測誤差信号と、前記第2の予測画像生成手段により生成された前記第2の予測画像信号を用いた場合における予測誤差信号とを比較し、その比較の結果に基づいて、前記第1の予測画像信号と前記第2の予測画像信号のうちのいずれか一方を選択する選択手段と、
  前記第2の解像度の前記色信号成分を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記選択手段により選択された方を用いて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む前記第2のスライスデータ信号を出力する第2の符号化色信号生成手段と
 を有することを特徴とする請求項1に記載の画像信号生成装置。
The second image encoding means includes:
First predicted image generation means for generating a first predicted image signal for the color signal component of the second resolution based on the signal obtained by decoding the first encoded color signal;
Storage means for storing the second encoded color signal relating to an encoded image signal;
A second predicted image generation for generating a second predicted image signal for the color signal component of the second resolution based on a signal obtained by decoding the second encoded color signal stored in the storage unit; Means,
A prediction error signal when the first predicted image signal generated by the first predicted image generating means is used and a second predicted image signal generated by the second predicted image generating means are used. Selecting means for comparing one of the first predicted image signal and the second predicted image signal based on a result of the comparison,
Encoding the color signal component of the second resolution using the one of the first predicted image signal and the second predicted image signal selected by the selecting unit, and performing the second encoding 2. The image according to claim 1, further comprising: a second encoded color signal generating unit that generates a color signal and outputs the second slice data signal including the second encoded color signal. 3. Signal generator.
 前記合成手段は、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記選択手段による選択の結果をさらに多重合成する
 ことを特徴とする請求項2に記載の画像信号生成装置。
The image signal generating apparatus according to claim 2, wherein the synthesizing unit further multiplexes and synthesizes a result of the selection by the selecting unit together with the first slice data signal and the second slice data signal.
  前記第2の画像符号化手段は、
 符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存手段と、
 前記第1の符号化色信号を復号した信号と、前記保存手段に保存済みの前記第2の符号化色信号を復号した信号とに、其々所定の重み付けを行って合成する信号合成手段と
 を有し、
 前記第2の解像度の色信号成分を、前記信号合成手段により重み付け合成された復号信号に基づいて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号を出力する
 ことを特徴とする請求項1に記載の画像信号生成装置。
The second image encoding means includes:
Storage means for storing the second encoded color signal relating to an encoded image signal;
A signal synthesizing unit that performs a predetermined weighting on the signal obtained by decoding the first encoded color signal and the signal obtained by decoding the second encoded color signal stored in the storage unit, and synthesizes the signals. Has,
The color signal component of the second resolution is encoded based on the decoded signal weighted and synthesized by the signal synthesizing means to generate the second encoded color signal, and includes the second encoded color signal. The image signal generation device according to claim 1, wherein the image signal generation device outputs a second slice data signal.
 前記第2の画像符号化手段において、
  前記信号合成手段は、其々大きさが異なる複数の重み付け係数で前記第1の符号化色信号を復号した信号と前記保存手段に保存済みの前記第2の符号化色信号を復号した信号とを重み付け合成して、複数の復号信号を生成し、
  複数の前記重み付け係数のそれぞれについて、前記復号信号に基づいて前記第2の符号化色信号を生成した場合における予測誤差信号をそれぞれ算出して比較し、何れの復号信号を前記第2の符号化色信号の符号化に用いるか選択する選択手段を更に有する
 ことを特徴とする請求項4に記載の画像信号生成装置。
In the second image encoding means,
The signal synthesizing unit includes a signal obtained by decoding the first encoded color signal with a plurality of weighting coefficients having different sizes, and a signal obtained by decoding the second encoded color signal stored in the storage unit. Are weighted and synthesized to generate a plurality of decoded signals,
For each of the plurality of weighting coefficients, a prediction error signal in the case where the second encoded color signal is generated based on the decoded signal is calculated and compared, and any decoded signal is subjected to the second encoding. The image signal generation device according to claim 4, further comprising a selection unit that selects whether to use the color signal encoding.
 前記合成手段は、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記重み付け係数をさらに多重合成する
 ことを特徴とする請求項4に記載の画像信号生成装置。
The image signal generating apparatus according to claim 4, wherein the combining unit further multiplexes the weighting coefficient together with the first slice data signal and the second slice data signal.
 所定のマクロブロック単位で符号化された画像信号を生成する画像信号生成方法において、
 マクロブロックの輝度信号成分を符号化して符号化輝度信号を生成するとともに、前記マクロブロックの色信号成分を第1の解像度で符号化して第1の符号化色信号を生成し、前記符号化輝度信号と前記第1の符号化色信号とを含む第1のスライスデータ信号を出力する第1の画像符号化ステップと、
 前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分を、前記第1の画像符号化ステップの処理により符号化された前記第1の符号化色信号が復号された信号を用いて符号化して第2の符号化色信号を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号を出力する第2の画像符号化ステップと、
 前記第1の画像符号化ステップの処理により出力された前記第1のスライスデータ信号と、前記第2の画像符号化ステップの処理により出力された前記第2のスライスデータ信号とを、復号処理のときに順次読み出されていずれか一方が選択されるように、互いに近接する位置に配置して合成する合成ステップと
 を含むことを特徴とする画像信号生成方法。
In an image signal generating method for generating an image signal encoded in a predetermined macroblock unit,
Encoding a luminance signal component of the macroblock to generate an encoded luminance signal; encoding the color signal component of the macroblock at a first resolution to generate a first encoded color signal; A first image encoding step of outputting a first slice data signal including a signal and the first encoded color signal;
A signal obtained by decoding the first encoded color signal obtained by encoding a color signal component of the macroblock having a second resolution different from the first resolution by the processing of the first image encoding step A second image encoding step of generating a second encoded chrominance signal by using the second coded color signal, and outputting a second slice data signal including the second coded chrominance signal;
The first slice data signal output by the processing of the first image encoding step and the second slice data signal output by the processing of the second image encoding step are decoded. A synthesizing step of arranging the images at positions close to each other so that they are sequentially read out and one of them is selected.
 前記第2の画像符号化ステップは、
  前記第1の符号化色信号が復号された前記信号に基づいて、前記第2の解像度の前記色信号成分に対する第1の予測画像信号を生成する第1の予測画像生成ステップと、
  符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存ステップと、
  前記保存ステップの処理により保存済みの前記第2の符号化色信号が復号された信号に基づいて、前記第2の解像度の前記色信号成分に対する第2の予測画像信号を生成する第2の予測画像生成ステップと、
  前記第1の予測画像生成ステップの処理により生成された前記第1の予測画像信号を用いた場合における予測誤差信号と、前記第2の予測画像生成ステップの処理により生成された前記第2の予測画像信号を用いた場合における予測誤差信号とを比較し、その比較の結果に基づいて、前記第1の予測画像信号と前記第2の予測画像信号のうちのいずれか一方を選択する選択ステップと、
  前記第2の解像度の前記色信号成分を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記選択ステップの処理により選択された方を用いて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む前記第2のスライスデータ信号を出力する第2の符号化色信号生成ステップと
 を含むことを特徴とする請求項7に記載の画像信号生成方法。
The second image encoding step includes:
A first predicted image generation step of generating a first predicted image signal for the color signal component of the second resolution based on the signal obtained by decoding the first encoded color signal;
A storage step of storing the second encoded chrominance signal for an encoded image signal;
A second prediction that generates a second predicted image signal for the color signal component of the second resolution based on a signal obtained by decoding the second encoded color signal stored by the processing of the storage step; An image generation step;
A prediction error signal when using the first predicted image signal generated by the processing of the first predicted image generation step, and the second prediction generated by the processing of the second predicted image generation step A selection step of comparing a prediction error signal in a case where an image signal is used, and selecting one of the first prediction image signal and the second prediction image signal based on a result of the comparison; ,
The color signal component of the second resolution is encoded using the one of the first predicted image signal and the second predicted image signal selected by the processing of the selection step, and the second predicted image signal and the second predicted image signal are encoded. Generating an encoded color signal, and outputting the second slice data signal including the second encoded color signal, a second encoded color signal generating step. Image signal generation method.
 前記合成ステップは、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記選択ステップの選択処理の結果をさらに多重合成する
 ことを特徴とする請求項8に記載の画像信号生成方法。
The image signal generating method according to claim 8, wherein the synthesizing step further multiplexes and synthesizes a result of the selection processing in the selecting step together with the first slice data signal and the second slice data signal. .
  前記第2の画像符号化ステップは、
  符号化済みの画像信号に関する前記第2の符号化色信号を保存する保存ステップと、
  前記第1の符号化色信号を復号した信号と、前記保存ステップの処理により保存済みの前記第2の符号化色信号を復号した信号とに、其々所定の重み付けを行って合成する信号合成ステップと
 を含み、
 前記第2の解像度の色信号成分を、前記信号合成ステップの処理により重み付け合成された復号信号に基づいて符号化して前記第2の符号化色信号を生成し、前記第2の符号化色信号を含む第2のスライスデータ信号を出力する
 ことを特徴とする請求項7に記載の画像信号生成方法。
The second image encoding step includes:
A storage step of storing the second encoded chrominance signal for an encoded image signal;
A signal combining unit that performs a predetermined weighting on a signal obtained by decoding the first encoded color signal and a signal obtained by decoding the second encoded color signal stored by the processing of the storing step, and synthesizes the signals. Steps and
Encoding the color signal component of the second resolution based on the decoded signal weighted and synthesized by the processing of the signal synthesizing step to generate a second encoded color signal; The method according to claim 7, further comprising: outputting a second slice data signal including the following.
 前記第2の画像符号化ステップにおいて、
  前記信号合成ステップは、其々大きさが異なる複数の重み付け係数で前記第1の符号化色信号を復号した信号と前記保存ステップの処理により保存済みの前記第2の符号化色信号を復号した信号とを重み付け合成して、複数の復号信号を生成し、
  複数の前記重み付け係数のそれぞれについて、前記復号信号に基づいて前記第2の符号化色信号を生成した場合における予測誤差信号をそれぞれ算出して比較し、何れの復号信号を前記第2の符号化色信号の符号化に用いるか選択する選択ステップを更に含む
 ことを特徴とする請求項10に記載の画像信号生成方法。
In the second image encoding step,
The signal synthesizing step decodes the signal obtained by decoding the first encoded color signal with a plurality of weighting coefficients having different magnitudes and the second encoded color signal stored by the processing of the storing step. Generates a plurality of decoded signals by weighting and combining the signal and
For each of the plurality of weighting coefficients, a prediction error signal in the case where the second encoded color signal is generated based on the decoded signal is calculated and compared, and any decoded signal is subjected to the second encoding. The image signal generating method according to claim 10, further comprising a selecting step of selecting whether to use for encoding of the color signal.
 前記合成ステップは、前記第1のスライスデータ信号と前記第2のスライスデータ信号とともに、前記重み付け係数をさらに多重合成する
 ことを特徴とする請求項10に記載の画像信号生成方法。
The image signal generation method according to claim 10, wherein, in the combining step, the weighting coefficients are further multiplex-synthesized together with the first slice data signal and the second slice data signal.
 所定のマクロブロック単位で符号化された画像信号であって、
  符号化された前記画像信号のうちの所定のマクロブロックの輝度信号成分が符号化された符号化輝度信号、および前記マクロブロックの色信号成分が第1の解像度で符号化された第1の符号化色信号を含む第1のスライスデータ信号と、
  前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分が、前記第1の符号化色信号が復号された信号を用いて符号化された第2の符号化色信号を含む第2のスライスデータ信号とが、
 互いに近接する位置に配置されて供給されてきた前記画像信号を再生する画像信号再生装置において、
 前記マクロブロックに対応する前記第1のスライスデータ信号と前記第2のスライスデータ信号とを順次再生し、再生した前記第1のスライスデータ信号と前記第2のスライスデータ信号とを分離する分離手段と、
 前記第1のスライスデータ信号から、前記符号化輝度信号を復号して前記輝度信号成分を再生するとともに、前記第1の符号化色信号を復号して前記第1の解像度の第1の色信号成分を再生する第1の画像復号手段と、
 前記第1の画像復号手段により復号された前記第1の色信号成分を用いて、前記第2のスライスデータ信号から前記第2の符号化色信号を復号して、前記第2の解像度の第2の色信号成分を再生する第2の画像復号手段と、
 前記第1の画像復号手段により再生された前記第1の色信号成分と、前記第2の画像復号手段により再生された前記第2の色信号成分とのうち、前記マクロブロックの復号の処理に用いられる色信号成分を選択する選択手段と
 を備えることを特徴とする画像信号再生装置。
An image signal encoded in a predetermined macroblock unit,
An encoded luminance signal in which a luminance signal component of a predetermined macroblock is encoded in the encoded image signal, and a first code in which a color signal component of the macroblock is encoded at a first resolution A first slice data signal including a simulated color signal;
A color signal component having a second resolution different from the first resolution of the macroblock is converted into a second encoded color signal encoded using a signal obtained by decoding the first encoded color signal. And the second slice data signal includes
In an image signal reproducing device that reproduces the image signal that has been supplied and arranged at a position close to each other,
Separation means for sequentially reproducing the first slice data signal and the second slice data signal corresponding to the macroblock, and separating the reproduced first slice data signal and the reproduced second slice data signal When,
Decoding the encoded luminance signal from the first slice data signal to reproduce the luminance signal component, and decoding the first encoded color signal to decode the first color signal of the first resolution; First image decoding means for reproducing the component;
The second coded color signal is decoded from the second slice data signal using the first color signal component decoded by the first image decoding means, and the second encoded color signal is decoded at the second resolution. Second image decoding means for reproducing two color signal components;
Of the first color signal component reproduced by the first image decoding means and the second color signal component reproduced by the second image decoding means, the macroblock decoding processing is performed. And a selecting means for selecting a color signal component to be used.
 前記第2の画像復号化手段は、
  前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成手段と、
  既に復号された前記第2の色信号成分を保存する保存手段と、
  前記保存手段に保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成手段と、
  前記第1の予測画像生成手段により生成された前記第1の予測画像信号と、前記第2の予測画像生成手段により生成された前記第2の予測画像信号とのうちのいずれか一方を選択する予測画像選択手段と、
  前記第2の符号化色信号を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記予測画像選択手段により選択された方を用いて復号して前記第2の色信号成分を再生する第2の色信号再生手段と
 を有することを特徴とする請求項13に記載の画像信号再生装置。
The second image decoding means includes:
First predicted image generation means for generating a first predicted image signal for the second encoded color signal based on the first color signal component;
Storage means for storing the already decoded second color signal component;
A second predicted image generation unit that generates a second predicted image signal for the second encoded color signal based on the second color signal component stored in the storage unit;
One of the first predicted image signal generated by the first predicted image generation unit and the second predicted image signal generated by the second predicted image generation unit is selected. Predictive image selecting means;
The second coded color signal is decoded using the one of the first predicted image signal and the second predicted image signal selected by the predicted image selecting means, and the second color signal is decoded. 14. The image signal reproducing apparatus according to claim 13, further comprising: second color signal reproducing means for reproducing a component.
 前記第1のスライスデータ信号と前記第2のスライスデータ信号とを含む前記画像信号には、前記第1の予測画像信号と前記第2の予測画像信号とのうちの何れを利用するのかを指示する指令がさらに多重合成されており、
 前記予測画像選択手段は、前記指令に基づいて、前記第1の予測画像信号と前記第2の予測画像信号とのうちのいずれか一方を選択する
 ことを特徴とする請求項14に記載の画像信号再生装置。
The image signal including the first slice data signal and the second slice data signal indicates which of the first predicted image signal and the second predicted image signal to use. Instructions are further multiply synthesized,
The image according to claim 14, wherein the predicted image selecting unit selects one of the first predicted image signal and the second predicted image signal based on the command. Signal reproduction device.
 前記第2の画像復号手段は、
  前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成手段と、
  既に復号された前記第2の色信号成分を保存する保存手段と、
  前記保存手段に保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成手段と、
  前記第1の予測画像信号と前記第2の予測画像信号とに、それぞれ所定の重み付けを行って合成した合成信号を出力する予測画像合成手段と、
  前記第2の符号化色信号を、前記合成信号を用いて復号して前記第2の色信号成分を再生する第2の色信号再生手段と
 を有することを特徴とする請求項13に記載の画像信号再生装置。
The second image decoding means includes:
First predicted image generation means for generating a first predicted image signal for the second encoded color signal based on the first color signal component;
Storage means for storing the already decoded second color signal component;
A second predicted image generation unit that generates a second predicted image signal for the second encoded color signal based on the second color signal component stored in the storage unit;
Predictive image combining means for outputting a combined signal obtained by combining the first predicted image signal and the second predicted image signal by performing predetermined weighting, and
14. A second chrominance signal reproducing means for decoding the second coded chrominance signal by using the composite signal to reproduce the second chrominance signal component. Image signal reproducing device.
 前記第1のスライスデータ信号と前記第2のスライスデータ信号とを含む前記画像信号には、前記予測画像合成手段の予測画像信号の合成処理で用いられる重み付け係数がさらに多重合成されており、
 前記予測画像合成手段は、前記重み付け係数に基づいて前記第1の予測画像信号と前記第2の予測画像信号とを重み付け合成して、前記合成信号を出力する
 ことを特徴とする請求項16に記載の画像信号再生装置。
The image signal including the first slice data signal and the second slice data signal is further multiplex-synthesized with a weighting coefficient used in a synthesis process of a predicted image signal by the predicted image synthesis unit,
The predictive image synthesizing unit weights and synthesizes the first predictive image signal and the second predictive image signal based on the weighting coefficient, and outputs the synthetic signal. An image signal reproducing apparatus according to claim 1.
 所定のマクロブロック単位で符号化された画像信号であって、
  符号化された前記画像信号のうちの所定のマクロブロックの輝度信号成分が符号化された符号化輝度信号、および前記マクロブロックの色信号成分が第1の解像度で符号化された第1の符号化色信号を含む第1のスライスデータ信号と、
  前記マクロブロックの前記第1の解像度とは異なる第2の解像度の色信号成分が、前記第1の符号化色信号が復号された信号を用いて符号化された第2の符号化色信号を含む第2のスライスデータ信号とが、
 互いに近接する位置に配置されて供給されてきた前記画像信号を再生する画像信号再生方法において、
 前記マクロブロックに対応する前記第1のスライスデータ信号と前記第2のスライスデータ信号とを順次再生し、再生した前記第1のスライスデータ信号と前記第2のスライスデータ信号とを分離する分離ステップと、
 前記第1のスライスデータ信号から、前記符号化輝度信号を復号して前記輝度信号成分を再生するとともに、前記第1の符号化色信号を復号して前記第1の解像度の第1の色信号成分を再生する第1の画像復号ステップと、
 前記第1の画像復号ステップの処理により復号された前記第1の色信号成分を用いて、前記第2のスライスデータ信号から前記第2の符号化色信号を復号して、前記第2の解像度の第2の色信号成分を再生する第2の画像復号ステップと、
 前記第1の画像復号ステップの処理により再生された前記第1の色信号成分と、前記第2の画像復号ステップの処理により再生された前記第2の色信号成分とのうち、前記マクロブロックの復号の処理に用いられる色信号成分を選択する選択ステップと
 を含むことを特徴とする画像信号再生方法。
An image signal encoded in a predetermined macroblock unit,
An encoded luminance signal obtained by encoding a luminance signal component of a predetermined macroblock in the encoded image signal, and a first code obtained by encoding a color signal component of the macroblock at a first resolution A first slice data signal including a simulated color signal;
A color signal component having a second resolution different from the first resolution of the macroblock is converted into a second encoded color signal encoded using a signal obtained by decoding the first encoded color signal. And the second slice data signal includes
An image signal reproducing method for reproducing the image signal that has been supplied and arranged at a position close to each other,
A separating step of sequentially reproducing the first slice data signal and the second slice data signal corresponding to the macroblock and separating the reproduced first slice data signal and the reproduced second slice data signal When,
Decoding the encoded luminance signal from the first slice data signal to reproduce the luminance signal component, and decoding the first encoded color signal to decode the first color signal of the first resolution; A first image decoding step for reconstructing the components;
Decoding the second coded color signal from the second slice data signal using the first color signal component decoded by the processing of the first image decoding step; A second image decoding step of reproducing a second color signal component of
Of the first color signal component reproduced by the processing of the first image decoding step and the second color signal component reproduced by the processing of the second image decoding step, A selecting step of selecting a color signal component used in the decoding process.
 前記第2の画像復号化ステップは、
  前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成ステップと、
  既に復号された前記第2の色信号成分を保存する保存ステップと、
  前記保存ステップの処理により保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成ステップと、
  前記第1の予測画像生成ステップの処理により生成された前記第1の予測画像信号と、前記第2の予測画像生成ステップの処理により生成された前記第2の予測画像信号とのうちのいずれか一方を選択する予測画像選択ステップと、
  前記第2の符号化色信号を、前記第1の予測画像信号と前記第2の予測画像信号のうちの前記予測画像選択ステップの処理により選択された方を用いて復号して前記第2の色信号成分を再生する第2の色信号再生ステップと
 を含むことを特徴とする請求項18に記載の画像信号再生方法。
The second image decoding step includes:
A first predicted image generation step of generating a first predicted image signal for the second encoded color signal based on the first color signal component;
A storing step of storing the already decoded second color signal component;
A second predicted image generating step of generating a second predicted image signal for the second encoded color signal based on the second color signal component stored by the processing of the storing step;
Any of the first predicted image signal generated by the processing of the first predicted image generation step and the second predicted image signal generated by the processing of the second predicted image generation step A predicted image selecting step of selecting one,
The second encoded color signal is decoded using the one of the first predicted image signal and the second predicted image signal selected by the processing of the predicted image selection step, and the second encoded color signal is decoded by the second predicted color signal. 20. The image signal reproducing method according to claim 18, further comprising: a second color signal reproducing step of reproducing a color signal component.
 前記第1のスライスデータ信号と前記第2のスライスデータ信号とを含む前記画像信号には、前記第1の予測画像信号と前記第2の予測画像信号とのうちの何れを利用するのかを指示する指令がさらに多重合成されており、
 前記予測画像選択ステップは、前記指令に基づいて、前記第1の予測画像信号と前記第2の予測画像信号とのうちのいずれか一方を選択する
 ことを特徴とする請求項19に記載の画像信号再生方法。
The image signal including the first slice data signal and the second slice data signal indicates which of the first predicted image signal and the second predicted image signal to use. Instructions are further multiply synthesized,
20. The image according to claim 19, wherein the predicted image selecting step selects one of the first predicted image signal and the second predicted image signal based on the command. Signal playback method.
 前記第2の画像復号ステップは、
  前記第1の色信号成分に基づいて、前記第2の符号化色信号に対する第1の予測画像信号を生成する第1の予測画像生成ステップと、
  既に復号された前記第2の色信号成分を保存する保存ステップと、
  前記保存ステップの処理により保存された前記第2の色信号成分に基づいて、前記第2の符号化色信号に対する第2の予測画像信号を生成する第2の予測画像生成ステップと、
  前記第1の予測画像信号と前記第2の予測画像信号とに、それぞれ所定の重み付けを行って合成した合成信号を出力する予測画像合成ステップと、
  前記第2の符号化色信号を、前記合成信号を用いて復号して前記第2の色信号成分を再生する第2の色信号再生ステップと
 を有することを特徴とする請求項18に記載の画像信号再生方法。
The second image decoding step includes:
A first predicted image generation step of generating a first predicted image signal for the second encoded color signal based on the first color signal component;
A storing step of storing the already decoded second color signal component;
A second predicted image generating step of generating a second predicted image signal for the second encoded color signal based on the second color signal component stored by the processing of the storing step;
A predicted image synthesizing step of outputting a synthesized signal obtained by performing predetermined weighting on the first predicted image signal and the second predicted image signal, respectively,
19. A second color signal reproducing step of decoding the second encoded color signal using the composite signal to reproduce the second color signal component. Image signal reproduction method.
 前記第1のスライスデータ信号と前記第2のスライスデータ信号とを含む前記画像信号には、前記予測画像合成ステップの予測画像信号の合成処理で用いられる重み付け係数がさらに多重合成されており、
 前記予測画像合成ステップは、前記重み付け係数に基づいて前記第1の予測画像信号と前記第2の予測画像信号とを重み付け合成して、前記合成信号を出力する
 ことを特徴とする請求項21に記載の画像信号再生方法。
The image signal including the first slice data signal and the second slice data signal is further multiplex-synthesized with a weighting coefficient used in a synthesis process of a predicted image signal in the predicted image synthesis step,
22. The prediction image synthesizing step, wherein the first prediction image signal and the second prediction image signal are weighted and synthesized based on the weighting coefficient, and the synthesized signal is output. The image signal reproducing method described in the above.
JP2003345279A 2003-10-03 2003-10-03 Image signal preparation device and method, and image signal reproducing device and method Withdrawn JP2004088795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003345279A JP2004088795A (en) 2003-10-03 2003-10-03 Image signal preparation device and method, and image signal reproducing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003345279A JP2004088795A (en) 2003-10-03 2003-10-03 Image signal preparation device and method, and image signal reproducing device and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001252202A Division JP3552045B2 (en) 2001-08-23 2001-08-23 Recording method of image signal recording medium, image signal recording device, and image signal reproducing device

Publications (1)

Publication Number Publication Date
JP2004088795A true JP2004088795A (en) 2004-03-18

Family

ID=32064587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003345279A Withdrawn JP2004088795A (en) 2003-10-03 2003-10-03 Image signal preparation device and method, and image signal reproducing device and method

Country Status (1)

Country Link
JP (1) JP2004088795A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078924A (en) * 2012-09-21 2014-05-01 Toshiba Corp Decoder and encoder
JP2020145765A (en) * 2012-09-21 2020-09-10 株式会社東芝 Decoding device, encoding device, decoding method, and encoding method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014078924A (en) * 2012-09-21 2014-05-01 Toshiba Corp Decoder and encoder
US9781440B2 (en) 2012-09-21 2017-10-03 Kabushiki Kaisha Toshiba Decoding device and encoding device
US9998747B2 (en) 2012-09-21 2018-06-12 Kabushiki Kaisha Toshiba Decoding device
US10250898B2 (en) 2012-09-21 2019-04-02 Kabushiki Kaisha Toshiba Decoding device and encoding device
US10728566B2 (en) 2012-09-21 2020-07-28 Kabushiki Kaisha Toshiba Decoding device and encoding device
JP2020145765A (en) * 2012-09-21 2020-09-10 株式会社東芝 Decoding device, encoding device, decoding method, and encoding method
US10972745B2 (en) 2012-09-21 2021-04-06 Kabushiki Kaisha Toshiba Decoding device and encoding device
JP2022036956A (en) * 2012-09-21 2022-03-08 株式会社東芝 Decoding device, encoding device, decoding method, and encoding method
US11381831B2 (en) 2012-09-21 2022-07-05 Kabushiki Kaisha Toshiba Decoding device and encoding device
JP7214818B2 (en) 2012-09-21 2023-01-30 株式会社東芝 Decoding device, encoding device, decoding method, and encoding method
JP2023029538A (en) * 2012-09-21 2023-03-03 株式会社東芝 Decoding device, encoding device, decoding method, and encoding method
JP7387924B2 (en) 2012-09-21 2023-11-28 株式会社東芝 Decoding device, encoding device, decoding method, and encoding method
US12022099B2 (en) 2012-09-21 2024-06-25 Kabushiki Kaisha Toshiba Decoding device and encoding device

Similar Documents

Publication Publication Date Title
JP3381855B2 (en) Image signal encoding method and image signal encoding device, image signal decoding method and image signal decoding device
US6188725B1 (en) Interlaced video signal encoding and decoding method, by conversion of selected fields to progressive scan frames which function as reference frames for predictive encoding
EP0596423B1 (en) Layer encoding/decoding apparatus for input non-interlace video signal
JP3144806B2 (en) Digital image decoding device
JP3189258B2 (en) Image signal encoding method and image signal encoding device, image signal decoding method and image signal decoding device
KR100326641B1 (en) Methods of transmitting, encoding and decoding video signals, and recording and playback of devices and optical discs
JPH06284413A (en) Picture signal coding method and picture signal coder, picture signal decoding method and picture signal decoder
JPH10304401A (en) Video signal converter, video signal conversion method and video service system
JP3403168B2 (en) Image processing method, image processing apparatus capable of using the method, and television receiver
JP3540447B2 (en) Video encoding apparatus and decoding apparatus
JP3168922B2 (en) Digital image information recording and playback device
JPH10136381A (en) Moving image encoding/decoding device and method therefor
JP4210925B2 (en) Image signal generating apparatus and method, and image signal reproducing apparatus and method
JP3552045B2 (en) Recording method of image signal recording medium, image signal recording device, and image signal reproducing device
JP2004088795A (en) Image signal preparation device and method, and image signal reproducing device and method
US6490321B1 (en) Apparatus and method of encoding/decoding moving picture using second encoder/decoder to transform predictive error signal for each field
JP3403169B2 (en) Image reproducing method, image reproducing apparatus and television receiver that can use this method
JP3946177B2 (en) Video encoding apparatus and decoding apparatus
JP4526529B2 (en) Video signal converter using hierarchical images
JPH08307814A (en) Image signal recording method and its device, image signal reproducing method and its device and image signal recording medium
JP3186406B2 (en) Image synthesis coding method and image synthesis apparatus
JP3403166B2 (en) Image reproducing method, image reproducing apparatus and television receiver that can use this method
JPH06311498A (en) Encoding/decoding device for picture signal
JPH07336681A (en) Picture converting device
JP3433179B2 (en) Image processing method, image processing apparatus capable of using the method, and television receiver

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20041207