[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6224930B2 - Image decoding apparatus, image decoding method and image encoding apparatus - Google Patents

Image decoding apparatus, image decoding method and image encoding apparatus Download PDF

Info

Publication number
JP6224930B2
JP6224930B2 JP2013145778A JP2013145778A JP6224930B2 JP 6224930 B2 JP6224930 B2 JP 6224930B2 JP 2013145778 A JP2013145778 A JP 2013145778A JP 2013145778 A JP2013145778 A JP 2013145778A JP 6224930 B2 JP6224930 B2 JP 6224930B2
Authority
JP
Japan
Prior art keywords
layer
prediction
image
reference layer
inter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013145778A
Other languages
Japanese (ja)
Other versions
JP2015035641A (en
JP2015035641A5 (en
Inventor
健史 筑波
健史 筑波
山本 智幸
智幸 山本
知宏 猪飼
知宏 猪飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013145778A priority Critical patent/JP6224930B2/en
Publication of JP2015035641A publication Critical patent/JP2015035641A/en
Publication of JP2015035641A5 publication Critical patent/JP2015035641A5/en
Application granted granted Critical
Publication of JP6224930B2 publication Critical patent/JP6224930B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像が階層的に符号化された階層符号化データを復号する画像復号装置、および画像を階層的に符号化することによって階層符号化データを生成する画像符号化装置に関する。   The present invention relates to an image decoding apparatus that decodes hierarchically encoded data in which an image is hierarchically encoded, and an image encoding apparatus that generates hierarchically encoded data by hierarchically encoding an image.

通信システムで伝送される情報、あるいは蓄積装置に記録される情報の1つに画像あるいは動画像がある。従来、これらの画像(以降、動画像を含む)の伝送・蓄積のため、画像を符号化する技術が知られている。   One of the information transmitted by the communication system or the information recorded in the storage device is an image or a moving image. Conventionally, techniques for encoding an image for transmission and storage of these images (hereinafter, including moving images) are known.

動画像符号化方式としては、AVC(H.264/MPEG-4 Advanced Video Coding)や、その後継コーデックであるHEVC(High-Efficiency Video Coding)が知られている(非特許文献1)。   As a moving picture coding method, AVC (H.264 / MPEG-4 Advanced Video Coding) and its successor codec High-Efficiency Video Coding (HEVC) are known (Non-Patent Document 1).

これらの動画像符号化方式では、通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像を入力画像(原画像)から減算して得られる予測残差(「差分画像」または「残差画像」と呼ぶこともある)が符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)が挙げられる。   In these moving picture coding methods, a predicted picture is usually generated based on a local decoded picture obtained by coding / decoding an input picture, and the predicted picture is obtained by subtracting it from the input picture (original picture). Prediction residuals (sometimes referred to as "difference images" or "residual images") are encoded. Further, as a method of generating a prediction image, inter-screen prediction (inter prediction) and intra-frame prediction (intra prediction) can be mentioned.

イントラ予測では、同一ピクチャ内の局所復号画像に基づいて、当該ピクチャにおける予測画像が順次生成される。   In intra prediction, predicted images in the picture are sequentially generated based on locally decoded images in the same picture.

インター予測では、ピクチャ間の動き補償により予測画像が生成される。インター予測で予測画像生成に用いられる復号済のピクチャは参照ピクチャと呼ばれる。   In inter prediction, inter-picture motion compensation generates a predicted image. The decoded picture used for prediction image generation in inter prediction is called a reference picture.

また、近年、必要なデータレートに従って、画像を階層的に符号化する階層符号化技術が提案されている。代表的な階層符号化方式の一つとしてSHVC(Scalable HEVC)が知られている(非特許文献2)。   Also, in recent years, hierarchical coding techniques have been proposed for hierarchically coding images according to the required data rate. SHVC (Scalable HEVC) is known as one of the representative hierarchical coding methods (Non-Patent Document 2).

SHVCでは、空間スケーラビリティ、時間スケーラビリティ、SNRスケーラビリティをサポートする。例えば空間スケーラビリティの場合、原画像から所望の解像度にダウンサンプリングした画像を下位レイヤとして符号化する。次に上位レイヤではレイヤ間の冗長性を除去するためにレイヤ間予測を行う。   SHVC supports spatial scalability, temporal scalability, and SNR scalability. For example, in the case of spatial scalability, an image downsampled from an original image to a desired resolution is encoded as a lower layer. Next, in the upper layer, inter-layer prediction is performed to remove redundancy between layers.

レイヤ間予測には、レイヤ間画像予測とレイヤ間動き予測がある。レイヤ間画像予測では、下位レイヤの復号画像を利用して、予測画像を生成する。レイヤ間動き予測では、下位レイヤの動き情報を利用して、動き情報の予測値を導出する。   Inter-layer prediction includes inter-layer image prediction and inter-layer motion prediction. In inter-layer image prediction, a predicted image is generated using the decoded image of the lower layer. In inter-layer motion prediction, motion information prediction values are derived using motion information of lower layers.

SHVCでは、予測画像の生成に、インター予測、イントラ予測、レイヤ間画像予測のいずれかを利用できる。   In SHVC, any of inter prediction, intra prediction, and inter-layer image prediction can be used to generate a prediction image.

SHVCのレイヤ間画像予測で使用される下位レイヤのピクチャ(参照レイヤピクチャrlPic)の復号画像rlPicSampleは、上位レイヤ(対象レイヤ)のピクチャのサイズへリサンプル処理(スケーリング処理とも呼ぶ)を適用した後に、リサンプル参照レイヤピクチャrsPic(レイヤ間参照ピクチャ)の画像rsPicSampleとして復号ピクチャバッファに記録される。SHVCでは、復号された対象レイヤのピクチャについては、HEVC同様に復号済のピクチャをDPBに記録して管理する仕組みが適用される。   The decoded image rlPicSample of the picture of the lower layer (reference layer picture rlPic) used in the inter-layer image prediction of SHVC applies resampling processing (also called scaling processing) to the size of the picture of the upper layer (target layer) The resample reference layer picture rsPic (inter-layer reference picture) is recorded in the decoded picture buffer as an image rsPicSample. In SHVC, as in HEVC, a scheme of recording and managing a decoded picture in the DPB is applied to the decoded picture of the target layer.

また、SHVCのレイヤ間動き予測で使用される参照レイヤピクチャrlPicの動き情報rlPicMotionは、対象レイヤのピクチャのサイズへリサンプル処理を適用した後に、リサンプル参照レイヤピクチャrsPic(レイヤ間参照ピクチャ)の動き情報rsPicMotionとして参照ピクチャメモリに記録される。なお、動き情報のリサンプル処理は、レイヤ間動きマッピング(MFM:Motion Field Mapping)とも呼ばれ、画像のリサンプル処理は、レイヤ間画像マッピングとも呼ぶ。   In addition, motion information rlPicMotion of the reference layer picture rlPic used in inter-layer motion prediction of SHVC is a resampled reference layer picture rsPic (interlayer reference picture) after resampling processing is applied to the size of the picture of the target layer. It is recorded in the reference picture memory as motion information rsPicMotion. Note that resampling processing of motion information is also called inter-layer motion mapping (MFM: Motion Field Mapping), and resampling processing of an image is also called inter-layer image mapping.

また、SHVCでは、参照レイヤピクチャrlPicから、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSample、及びリサンプル動き情報rsPicMotionを生成するために、リサンプル参照レイヤピクチャrsPic(あるいは、対象ピクチャcurPic)上のどの領域が参照レイヤピクチャrlPicと対応するかを示す参照レイヤ対応領域情報が利用される。例えば、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleを生成する際に、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外の画素は、最近接する、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域境界上の画素でパディングされて生成される。あるいは、参照レイヤ対応領域外にある画素の座標(xP, yP)を、最近接する参照レイヤ対応領域の境界画素の座標(xP’,yP’)へ置換し、境界画素の座標(xP’, yP’)に対応する参照レイヤピクチャrlPicの参照画素の位置(xRL, yRL)を導出し、その参照画素の位置を中心にリサンプルフィルタを適用することで生成される。   Also, in SHVC, in order to generate a resample image rsPicSample of resample reference layer picture rsPic and resample motion information rsPicMotion from a reference layer picture rlPic, the resample reference layer picture rsPic (or the target picture curPic) Reference layer corresponding area information indicating which area corresponds to the reference layer picture rlPic is used. For example, when generating the resampled image rsPic of the resampled reference layer picture rsPic, the pixels outside the reference layer corresponding area on the resampled reference layer picture rsPic are the closest to the reference layer corresponding on the resampled reference layer picture rsPic It is generated by padding with pixels on the area boundary. Alternatively, the coordinates (xP, yP) of the pixels outside the reference layer corresponding area are replaced with the coordinates (xP ', yP') of the border pixels of the nearest reference layer corresponding area, and the coordinates (xP ', yP) of the border pixels The position (xRL, yRL) of the reference pixel of the reference layer picture rlPic corresponding to ') is derived, and generated by applying the resampling filter centering on the position of the reference pixel.

「Recommendation H.265 (04/13)」, ITU-T (2013年6月7日公開)"Recommendation H.265 (04/13)", ITU-T (released on June 7, 2013) JCTVC-M1008_v3 「SHVC Working Draft 2」, Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 13th Meeting: Incheon, KR, 18-26 Apr. 2013 (2013年6月14日公開)JCTVC-M1008_v3 "SHVC Working Draft 2", Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO / IEC JTC 1 / SC 29 / WG 11 13th Meeting: Inchon, KR, 18- 26 Apr. 2013 (released on June 14, 2013)

従来技術として挙げたSHVCでは、対象ピクチャcurPic上のある予測単位PUの予測画像をレイヤ間画像予測により生成する場合、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外にある画像を参照することができる。すなわち、レイヤ間画像予測の予測画像に、リサンプル参照レイヤピクチャrsPic上において、パディングによって生成された画素を含むことができる。しかしながら、レイヤ間画像予測において、パディングによって生成された画素を含む予測画像は予測精度が低いため、符号化効率の低下、および画質低下を招くという課題があった。また、従来技術において、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外にある座標のリサンプル画素を生成する場合、その座標を、最近接する参照レイヤ対応領域の境界画素へ置換するため、リサンプル画素を生成する処理が複雑であるという課題があった。   In SHVC mentioned as the prior art, when generating a predicted image of a prediction unit PU on the target picture curPic by inter-layer image prediction, refer to an image outside the reference layer corresponding region on the resample reference layer picture rsPic. Can. That is, the predicted image of inter-layer image prediction can include pixels generated by padding on the resample reference layer picture rsPic. However, in inter-layer image prediction, there is a problem that the prediction image including pixels generated by padding has low prediction accuracy, which results in a decrease in coding efficiency and a decrease in image quality. Also, in the prior art, when generating a resample pixel at coordinates outside the reference layer corresponding area on the resample reference layer picture rsPic, the coordinate is replaced with the border pixel of the closest reference layer corresponding area. There is a problem that the process of generating sample pixels is complicated.

本発明は、上記問題に鑑みてされたものであり、その目的は、階層符号化方式において、参照レイヤ対応領域外にある画素を参照するレイヤ間画像予測の適用可非を制御する仕組みを提供することにある。また、それにより、より少ない符号量、処理量、およびメモリ量で符号化データを符号化/復号する画像符号化装置および画像復号装置を実現することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide a mechanism for controlling the applicability of inter-layer image prediction with reference to pixels outside the reference layer corresponding region in the hierarchical coding method. It is to do. Another object of the present invention is to realize an image coding apparatus and an image decoding apparatus for coding / decoding coded data with less code amount, processing amount and memory amount.

上記課題を解決するために、本発明に係る画像復号装置は、レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを復号して、復号の対象となる対象レイヤにおける画像を復元する画像復号装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を復号する参照レイヤ対応領域情報復号手段と、
復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段とを備え、
上記リサンプリング手段は、さらに、リサンプル参照レイヤピクチャの各画素に対応する参照レイヤピクチャの参照画素位置を導出する参照画素位置導出手段と、
上記導出された参照画素位置を含むフィルタ領域上の画素へ所定のリサンプルフィルタを用いて、上記リサンプル参照レイヤピクチャの各画素を生成するリサンプリング画像生成手段を備え、
前記リサンプリング画像生成手段は、上記フィルタ領域において、参照レイヤピクチャの画面外の座標を含む場合、参照レイヤピクチャの最近接する画面端の座標へ置換することを特徴とする。
In order to solve the above problems, an image decoding apparatus according to the present invention decodes hierarchically encoded data in which image information relating to an image of different quality for each layer is hierarchically encoded, and is an object to be decoded. An image decoding apparatus that restores an image in a layer,
Reference layer corresponding area information decoding means for decoding reference layer corresponding area information indicating the corresponding area of the target layer and the reference layer;
Resampling means for correlating the image and motion information of the reference layer picture with the picture of the target layer based on the decoded reference layer picture and the reference layer corresponding area information, and generating a resampled reference layer picture;
A prediction image generation unit configured to generate a prediction image of each prediction unit constituting the picture of the target layer;
The resampling means further includes reference pixel position deriving means for deriving a reference pixel position of a reference layer picture corresponding to each pixel of the resample reference layer picture;
A resampling image generation unit configured to generate each pixel of the resampled reference layer picture by using a predetermined resampling filter for pixels on a filter area including the derived reference pixel position;
The resampling image generation means is characterized in that, when the off-screen coordinates of the reference layer picture are included in the filter region, the re-sampling image generation means replaces the coordinates of the closest screen edge of the reference layer picture.

以上、上記構成によれば、リサンプル参照レイヤピクチャ上の座標(xP, yP)が参照レイヤ対応領域より外側にある場合、直接、参照レイヤピクチャ上の参照画素位置(xRef, yRef)を導出する。従って、従来技術と比較して、参照画素位置の導出に係る導出処理を簡略化することができる。また、上記構成によれば、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域外の各座標のリサンプル画素を生成する際に、リサンプルフィルタの適用する参照レイヤピクチャ上のフィルタ領域において、画面外の座標の画素がある場合、その画素と相関の高い(空間的距離が近い)画素を利用して、リサンプル画像を生成する。その結果、従来技術に比べて、参照レイヤ対応領域外のリサンプル画像の精度を向上させることができる。また、参照レイヤ対応領域外の画素を参照するレイヤ間画像予測に関して、従来技術よりも予測精度を向上させることができる。従って、符号化効率を向上にもつながる。特に、本発明では、参照レイヤ対応領域の境界より外側に、水平方向に幅ΔFX、高さΔFYの領域において、リサンプル画像の画素値が滑らかに変化する領域を生成することができる。そのため、レイヤ間画像予測において、参照レイヤ対応領域外のうち、上記参照レイヤ対応領域の境界より外側に、水平方向に幅ΔFX、高さΔFYの領域を参照するレイヤ間画像予測の予測精度を向上させることができる。   As described above, according to the above configuration, when the coordinates (xP, yP) on the resample reference layer picture are outside the reference layer corresponding area, the reference pixel position (xRef, yRef) on the reference layer picture is directly derived. . Therefore, the derivation process relating to the derivation of the reference pixel position can be simplified as compared to the prior art. Further, according to the above configuration, when generating a resample pixel of each coordinate outside the reference layer corresponding area on the resample reference layer picture, the screen outside the screen is displayed in the filter area on the reference layer picture to which the resample filter is applied. If there is a pixel at a coordinate of {circumflex over (x)}, a resampled image is generated using a pixel having a high correlation (close in spatial distance) with the pixel. As a result, it is possible to improve the accuracy of the resampled image outside the reference layer corresponding area as compared with the prior art. In addition, with regard to inter-layer image prediction that refers to pixels outside the reference layer corresponding region, prediction accuracy can be improved more than in the related art. Therefore, it leads to the improvement of coding efficiency. In particular, according to the present invention, it is possible to generate a region where the pixel values of the resample image change smoothly in the region of width ΔFX and height ΔFY in the horizontal direction outside the boundary of the reference layer corresponding region. Therefore, in the inter-layer image prediction, the prediction accuracy of the inter-layer image prediction that refers to the region of width ΔFX and height ΔFY in the horizontal direction outside the reference layer corresponding region outside the boundary of the reference layer corresponding region is improved. It can be done.

上記課題を解決するために、本発明に係る画像復号装置は、レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを復号して、復号の対象となる対象レイヤにおける画像を復元する画像復号装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を復号する参照レイヤ対応領域情報復号手段と、
復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段を備え、
上記予測画像生成手段は、上記予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする。
In order to solve the above problems, an image decoding apparatus according to the present invention decodes hierarchically encoded data in which image information relating to an image of different quality for each layer is hierarchically encoded, and is an object to be decoded. An image decoding apparatus that restores an image in a layer,
Reference layer corresponding area information decoding means for decoding reference layer corresponding area information indicating the corresponding area of the target layer and the reference layer;
Resampling means for correlating the image and motion information of the reference layer picture with the picture of the target layer based on the decoded reference layer picture and the reference layer corresponding area information, and generating a resampled reference layer picture;
A prediction image generation unit configured to generate a prediction image of each prediction unit constituting the picture of the target layer;
The prediction image generation means is characterized in that, when the prediction method of the prediction unit is inter-layer image prediction, the prediction image of the prediction unit is generated by inter-layer image prediction not satisfying a predetermined condition.

以上、上記構成によれば、復号済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応付けてリサンプル参照レイヤピクチャの画像及び、動き情報を生成するため、レイヤ間画像予測、及びレイヤ間動き予測の精度を向上させることができる。その結果、さらに、符号効率を向上させることができる。また、上記構成によれば、予測精度の低い所定条件を満たすレイヤ間画像予測の使用を禁止するため、符号化効率を向上させることができる。   As described above, according to the above configuration, based on the decoded reference layer picture and the reference layer corresponding area information, the image and motion information of the reference layer picture are associated with the picture of the target layer, and Since the image and motion information are generated, the accuracy of inter-layer image prediction and inter-layer motion prediction can be improved. As a result, code efficiency can be further improved. Further, according to the above configuration, since the use of the inter-layer image prediction that satisfies the predetermined condition with low prediction accuracy is prohibited, the coding efficiency can be improved.

さらに、本発明に係る画像復号装置において、
所定条件を満たすレイヤ間画像予測を禁止するレイヤ間画像予測制約フラグを復号するレイヤ間画像予測制約フラグ復号手段を備え、
上記予測画像生成手段は、上記レイヤ間画像予測制約フラグが真であって、上記予測単位の予測方式がレイヤ間画像予測である場合、上記所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする。
Furthermore, in the image decoding apparatus according to the present invention,
An inter-layer image prediction constraint flag decoding unit that decodes an inter-layer image prediction constraint flag that inhibits an inter-layer image prediction that satisfies a predetermined condition;
When the inter-layer image prediction restriction flag is true and the prediction method of the prediction unit is inter-layer image prediction, the predicted image generation means generates the inter-layer image prediction not satisfying the predetermined condition. Generating a predicted image.

上記構成によれば、所定条件を満たすレイヤ間画像予測を禁止するか否かを制御することができる。特に、レイヤ間画像予測制約フラグが真である場合、予測精度の低い所定条件を満たすレイヤ間画像予測の使用を禁止するため、符号化効率を向上させることができる。   According to the above configuration, it is possible to control whether to inhibit inter-layer image prediction that satisfies the predetermined condition. In particular, when the inter-layer image prediction restriction flag is true, the use of the inter-layer image prediction which satisfies a predetermined condition with low prediction accuracy is prohibited, so that the coding efficiency can be improved.

さらに、本発明に係る画像復号装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の左端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の右端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の上端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の下端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image decoding device according to the present invention, the inter-layer image prediction satisfying the predetermined condition corresponds to a corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer in inter-layer image prediction. Regarding the area, (1) the left end coordinate of the corresponding area is smaller than the left end coordinate of the reference layer corresponding area, (2) the right end coordinate of the corresponding area is larger than the right end coordinate of the reference layer corresponding area, (3) the correspondence The upper end coordinate of the area is smaller than the upper end coordinate of the reference layer corresponding area, and (4) the lower end coordinate of the corresponding area satisfies at least one of the lower end coordinates of the reference layer corresponding area. It features.

以上、上記構成によれば、参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像復号装置を実現することができる。さらに、上記構成によれば、レイヤ間画像予測制約フラグを復号した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域より外側の画像(参照レイヤ対応領域外)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャのリサンプル画像を生成するときに、参照レイヤ対応領域外の画像の生成を省略することが可能となる。   As described above, according to the above configuration, it is possible to prohibit the use of inter-layer image prediction that refers to an image outside the reference layer corresponding region. Therefore, since the inter-layer image prediction which refers to the pixel outside the reference layer corresponding area with low prediction accuracy is not used, it is possible to realize an image decoding apparatus with higher coding efficiency. Furthermore, according to the above configuration, when the inter-layer image prediction restriction flag is decoded, if the flag is true, an image outside the reference layer corresponding region on the resample reference layer picture in the target sequence (reference layer Since it is known that “outside the corresponding region” is not referred to at the time of inter-layer image prediction, generation of an image outside the reference layer corresponding region can be omitted when generating a resampled image of the resample reference layer picture.

さらに、本発明に係る画像復号装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の右端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の左端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の下端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の上端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image decoding device according to the present invention, the inter-layer image prediction satisfying the predetermined condition corresponds to a corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer in inter-layer image prediction. Regarding the area, (1) the right end coordinate of the corresponding area is smaller than the left end coordinate of the reference layer corresponding area, (2) the left end coordinate of the corresponding area is larger than the right end coordinate of the reference layer corresponding area, (3) the correspondence The lower end coordinates of the area are smaller than the upper end coordinates of the reference layer corresponding area, and (4) the upper end coordinates of the corresponding area satisfy at least one of the lower end coordinates of the reference layer corresponding area. It features.

以上、上記構成によれば、参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素のみを参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像復号装置を実現することができる。   As described above, according to the above configuration, it is possible to prohibit use of inter-layer image prediction that refers to only an image outside the reference layer corresponding region. Therefore, since the inter-layer image prediction that refers only to the pixels outside the reference layer corresponding area with low prediction accuracy is not used, it is possible to realize an image decoding apparatus with higher coding efficiency.

さらに、本発明に係る画像復号装置において、上記リサンプリング手段は、上記レイヤ間画像予測制約フラグが真である場合、上記リサンプル参照レイヤピクチャの画像のうち、上記参照レイヤ対応領域内の画像のみを生成することを特徴とする。   Furthermore, in the image decoding device according to the present invention, when the inter-layer image prediction restriction flag is true, the resampling means only the image within the reference layer corresponding region among the images of the resample reference layer picture. To generate.

以上、上記構成によれば、レイヤ間画像予測制約フラグを復号した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域より外側の画像(参照レイヤ対応領域外)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャのリサンプル画像を生成するときに、参照レイヤ対応領域外の画像の生成を省略することができる。従って、リサンプリング処理の簡略化、及び参照レイヤ対応領域外の画像を保持するために必要なメモリを削減することができる。   As described above, according to the above configuration, when the inter-layer image prediction restriction flag is decoded, if the flag is true, an image outside the reference layer corresponding area on the resample reference layer picture in the target sequence (reference layer Since it is known that “outside the corresponding region” is not referred to at the time of inter-layer image prediction, generation of an image outside the reference layer corresponding region can be omitted when generating a resampled image of the resample reference layer picture. Therefore, it is possible to simplify the resampling process and to reduce the memory required to hold the image outside the reference layer corresponding area.

さらに、本発明に係る画像復号装置において、上記レイヤ間画像予測制約フラグ復号手段は、参照レイヤ対応領域情報の有無に基づいて、上記レイヤ間画像予測制約フラグを復号することを特徴とする。   Further, in the image decoding apparatus according to the present invention, the inter-layer image prediction restriction flag decoding unit is characterized in that the inter-layer image prediction restriction flag is decoded based on the presence or absence of reference layer corresponding area information.

以上、上記構成によれば、参照レイヤ対応情報がある場合のみ、上記レイヤ間画像予測制約フラグを明示的に復号する。すなわち、参照レイヤ対応領域情報が無い場合は、上記レイヤ間画像予測制約フラグの復号を省略する。従って、レイヤ間画像予測制約フラグの復号に関する処理を低減し、さらに、符号量を削減することができる。   As described above, according to the above configuration, the inter-layer image prediction restriction flag is explicitly decoded only when there is reference layer correspondence information. That is, when there is no reference layer corresponding area information, decoding of the inter-layer image prediction restriction flag is omitted. Therefore, the processing relating to the decoding of the inter-layer image prediction restriction flag can be reduced, and furthermore, the code amount can be reduced.

さらに、本発明に係る画像復号装置において、上記参照レイヤ対応領域情報復号手段は、対象シーケンス全体で共通となる参照レイヤ対応領域情報をシーケンス単位で復号し、各ピクチャに対応する参照レイヤ対応領域情報を、ピクチャ単位で復号することを特徴とする。   Furthermore, in the image decoding apparatus according to the present invention, the reference layer corresponding area information decoding unit decodes, in sequence units, reference layer corresponding area information common to the entire target sequence, and reference layer corresponding area information corresponding to each picture. Are decoded in units of pictures.

以上、上記構成によれば、参照レイヤ対応領域に基づいて導出される、対象レイヤ(例えば、拡張レイヤ)と参照レイヤ(例えば、ベースレイヤ)との間のレイヤ間対応関係パラメータに基づいて、リサンプル参照レイヤピクチャ上の各画素に対応する参照レイヤピクチャ上の参照画素の位置を決定し、その参照画素と周辺画素に所定のリサンプルフィルタを適用することで、対象画素を生成することができる。これにより、レイヤ間画像予測で使用されるリサンプル画像の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行う場合に比べて、ピクチャ単位の参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行うことにより、よりレイヤ間画像予測で使用されるリサンプル画像の精度をより向上させる効果を奏する。それに伴いレイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, according to the above-described configuration, it is possible to use the inter-layer correspondence relationship parameter between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer) derived based on the reference layer correspondence area. The target pixel can be generated by determining the position of the reference pixel on the reference layer picture corresponding to each pixel on the sample reference layer picture, and applying a predetermined resampling filter to the reference pixel and the peripheral pixels. . Thereby, the effect of improving the accuracy of the resampled image used in the inter-layer image prediction can be obtained. In particular, for a sequence in which the correspondence area between the target layer and the reference layer changes in units of pictures, inter-layer image mapping is performed based on the inter-layer correspondence relationship parameter derived by the reference layer correspondence area information. By performing the inter-layer image mapping based on the inter-layer correspondence parameter derived by the reference layer corresponding area information in units of pictures, the effect of further improving the accuracy of the resampled image used in the inter-layer image prediction can be achieved. . Along with this, the prediction accuracy of the inter-layer image prediction is also improved, so that the coding efficiency can be improved.

また、上記構成によれば、参照レイヤ対応情報に基づいて導出される、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャ上の対象ブロックに対応する参照レイヤピクチャ上の参照画像ブロックを決定し、参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成することができる。これにより、レイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域情報)により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行うことにより、よりレイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度をより向上させる効果を奏する。それに伴いレイヤ間動き予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   Further, according to the above configuration, the inter-layer correspondence relationship parameter (Offset L, Offset T, Offset R, etc.) between the target layer (for example, the enhancement layer) and the reference layer (for example, the base layer) is derived based on the reference layer correspondence information. The reference image block on the reference layer picture corresponding to the target block on the resample reference layer picture is determined based on the OffsetB, SRLPW, SRLPH, ScaleFactor X, ScaleFactor Y, etc.), and the target block is determined based on the motion information of the reference image block. Motion information can be generated. As a result, it is possible to obtain an effect of improving the accuracy of motion information (temporal motion information) used in inter-layer motion prediction. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, motion mapping between layers is performed based on the inter-layer correspondence relationship parameter derived by the reference layer corresponding region information. By performing inter-layer motion mapping based on inter-layer correspondence relationship parameters derived from active reference layer corresponding region information (reference layer corresponding region information in units of pictures), motion information (temporal used more in inter-layer motion prediction) The effect of improving the accuracy of motion information) is achieved. Along with this, the prediction accuracy of the inter-layer motion prediction is also improved, so that the coding efficiency can be improved.

さらに、本発明に係る画像復号装置において、上記各ピクチャに対応する参照レイヤ対応領域情報は、上記対象シーケンス全体で共通となる参照レイヤ対応領域情報からの差分情報であることを特徴とする。   Further, in the image decoding apparatus according to the present invention, the reference layer corresponding area information corresponding to each picture is difference information from reference layer corresponding area information common to the entire target sequence.

以上、上記構成によれば、ピクチャ単位で参照レイヤ対応領域の情報を明示的に通知する場合に比べて、ピクチャ単位の参照レイヤ対応領域情報を、シーケンス全体で共通となる参照レイヤ対応領域に対するピクチャ単位の参照レイヤ対応領域のサイズの差分情報として通知することで、ピクチャ単位の参照レイヤ対応領域情報の復号に必要な符号量を削減することができる。   As described above, according to the above configuration, compared to the case of explicitly notifying the information of the reference layer corresponding area in the picture unit, the picture for the reference layer corresponding area common to the whole sequence in the reference layer corresponding area information in the picture unit. By notifying the difference information of the size of the reference layer corresponding area of the unit, it is possible to reduce the code amount necessary for decoding the reference layer corresponding area information of the picture unit.

さらに、本発明に係る画像復号装置は、上記予測単位の予測方式がレイヤ間画像予測であるかを示すレイヤ間画像予測フラグを復号するレイヤ間画像予測復号手段を備え、
上記レイヤ間画像予測復号手段は、上記所定条件を満たすレイヤ間画像予測に関するレイヤ間画像予測フラグの復号を省略することを特徴とする。
Furthermore, the image decoding apparatus according to the present invention includes an inter-layer image prediction decoding unit that decodes an inter-layer image prediction flag indicating whether the prediction scheme of the prediction unit is inter-layer image prediction.
The inter-layer image prediction decoding means is characterized in that the decoding of the inter-layer image prediction flag related to the inter-layer image prediction satisfying the predetermined condition is omitted.

以上、上記構成によれば、対象予測単位に対応するレイヤ間画像予測フラグを明示的に復号する否かを制御することができる。すなわち、対象予測単位において、上記所定条件を満たすレイヤ間画像予測の場合、レイヤ間画像予測フラグの復号を省略する(すなわち、レイヤ間画像予測フラグが0であると推定)ことにより、レイヤ間画像予測フラグの復号に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。   As described above, according to the above configuration, it is possible to control whether or not the inter-layer image prediction flag corresponding to the target prediction unit is explicitly decoded. That is, in the case of inter-layer image prediction satisfying the above predetermined conditions in the target prediction unit, the inter-layer image prediction flag is omitted (that is, the inter-layer image prediction flag is estimated to be 0). The amount of processing involved in the decoding of the prediction flag can be reduced. In addition, since the code amount related to the inter-layer image prediction flag can be reduced, the code efficiency can be improved.

上記課題を解決するために、本発明に係る画像符号化装置は、レイヤごとに異なる品質の画像に関する画像情報が階層的に符号化された階層符号化データを符号化して、符号化の対象となる対象レイヤにおける画像を符号化する画像符号化装置であって、
対象レイヤと参照レイヤの対応領域を示す参照レイヤ対応領域情報を符号化する参照レイヤ対応領域情報符号化手段と、
所定条件を満たすレイヤ間画像予測を禁止するレイヤ間画像予測制約フラグを符号化するレイヤ間画像予測制約フラグ符号化手段と、
符号化済の参照レイヤピクチャと参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応づけてリサンプル参照レイヤピクチャを生成するリサンプリング手段と、
上記対象レイヤのピクチャを構成する各予測単位の予測画像を生成する予測画像生成手段を備え、
上記予測画像生成手段は、上記レイヤ間画像予測制約フラグが真であって、上記予測単位の予測方式がレイヤ間画像予測である場合、上記所定条件を満たさないレイヤ間画像予測により上記予測単位の予測画像を生成することを特徴とする動画像符号化装置。
In order to solve the above problems, an image coding apparatus according to the present invention codes hierarchically encoded data in which image information relating to an image of a quality different for each layer is hierarchically encoded, to be encoded. An image coding apparatus for coding an image in a target layer
Reference layer corresponding area information encoding means for encoding reference layer corresponding area information indicating the corresponding area of the target layer and the reference layer;
An inter-layer image prediction constraint flag encoding unit that encodes an inter-layer image prediction constraint flag that prohibits an inter-layer image prediction that satisfies a predetermined condition;
Resampling means for correlating the image and motion information of the reference layer picture with the picture of the target layer based on the encoded reference layer picture and reference layer corresponding area information, and generating a resampled reference layer picture;
A prediction image generation unit configured to generate a prediction image of each prediction unit constituting the picture of the target layer;
When the inter-layer image prediction restriction flag is true and the prediction method of the prediction unit is inter-layer image prediction, the predicted image generation means generates the inter-layer image prediction not satisfying the predetermined condition. A moving image coding apparatus characterized by generating a predicted image.

以上、上記構成によれば、符号化済の参照レイヤピクチャと上記参照レイヤ対応領域情報とに基づいて、上記参照レイヤピクチャの画像及び動き情報を対象レイヤのピクチャへ対応付けてリサンプル参照レイヤピクチャの画像及び、動き情報を生成するため、レイヤ間画像予測、及びレイヤ間動き予測の精度を向上させることができる。その結果、さらに、符号効率を向上させることができる。また、上記構成によれば、予測精度の低い所定条件を満たすレイヤ間画像予測の使用を禁止するため、符号化効率を向上させることができる。   According to the above configuration, based on the encoded reference layer picture and the reference layer corresponding area information, the image and motion information of the reference layer picture are associated with the picture of the target layer to resample the reference layer picture The inter-layer image prediction and the inter-layer motion prediction accuracy can be improved by generating the image and the motion information. As a result, code efficiency can be further improved. Further, according to the above configuration, since the use of the inter-layer image prediction that satisfies the predetermined condition with low prediction accuracy is prohibited, the coding efficiency can be improved.

さらに、本発明に係る画像符号化装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の左端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の右端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の上端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の下端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image coding apparatus according to the present invention, the inter-layer image prediction satisfying the predetermined condition is the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer in the inter-layer image prediction. Regarding the corresponding area, (1) the left end coordinate of the corresponding area is smaller than the left end coordinate of the reference layer corresponding area, (2) the right end coordinate of the corresponding area is larger than the right end coordinate of the reference layer corresponding area, The upper end coordinate of the corresponding area is smaller than the upper end coordinate of the reference layer corresponding area, and (4) the lower end coordinate of the corresponding area is larger than the lower end coordinate of the reference layer corresponding area. It is characterized by

以上、上記構成によれば、参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像符号化装置を実現することができる。さらに、上記構成によれば、レイヤ間画像予測制約フラグを決定した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャ上の参照レイヤ対応領域より外側の画像(参照レイヤ対応領域外)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャのリサンプル画像を生成するときに、参照レイヤ対応領域外の画像の生成を省略することが可能となる。   As described above, according to the above configuration, it is possible to prohibit the use of inter-layer image prediction that refers to an image outside the reference layer corresponding region. Therefore, since the inter-layer image prediction which refers to the pixel outside the reference layer corresponding area with low prediction accuracy is not used, it is possible to realize an image coding apparatus with higher coding efficiency. Furthermore, according to the above configuration, when the inter-layer image prediction restriction flag is determined, if the flag is true, an image outside the reference layer corresponding region on the resample reference layer picture in the target sequence (reference layer Since it is known that “outside the corresponding region” is not referred to at the time of inter-layer image prediction, generation of an image outside the reference layer corresponding region can be omitted when generating a resampled image of the resample reference layer picture.

さらに、本発明に係る画像符号化装置において、上記所定条件を満たすレイヤ間画像予測とは、レイヤ間画像予測において、上記予測単位と対応する上記リサンプル参照レイヤピクチャ上の対応領域と上記参照レイヤ対応領域に関して、(1)上記対応領域の右端座標が上記参照レイヤ対応領域の左端座標より小さい、(2)上記対応領域の左端座標が上記参照レイヤ対応領域の右端座標より大きい、(3)上記対応領域の下端座標が上記参照レイヤ対応領域の上端座標より小さい、(4)上記対応領域の上端座標が参照レイヤ対応領域の下端座標より大きい、のうち少なくともいずれか一つを満たす場合であることを特徴とする。   Furthermore, in the image coding apparatus according to the present invention, the inter-layer image prediction satisfying the predetermined condition is the corresponding region on the resample reference layer picture corresponding to the prediction unit and the reference layer in the inter-layer image prediction. Regarding the corresponding area, (1) the right end coordinate of the corresponding area is smaller than the left end coordinate of the reference layer corresponding area, (2) the left end coordinate of the corresponding area is larger than the right end coordinate of the reference layer corresponding area, (3) above The lower end coordinates of the corresponding area are smaller than the upper end coordinates of the reference layer corresponding area, and (4) the upper end coordinates of the corresponding area satisfy at least one of the lower end coordinates of the reference layer corresponding area. It is characterized by

以上、上記構成によれば、参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測の使用を禁止することができる。従って、予測精度の低い参照レイヤ対応領域外の画素のみを参照するレイヤ間画像予測を使用しないため、より符号化効率の高い画像符号化装置を実現することができる。   As described above, according to the above configuration, it is possible to prohibit use of inter-layer image prediction that refers to only an image outside the reference layer corresponding region. Therefore, since the inter-layer image prediction that refers only to the pixels outside the reference layer corresponding area with low prediction accuracy is not used, it is possible to realize an image coding apparatus with higher coding efficiency.

以上のように、本発明に係る画像復号装置は、レイヤ間画像予測制約フラグが参照レイヤ対応領域外の画素を参照するレイヤ間画像予測の適用不可を示す場合、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、符号効率を向上させる効果を奏する。また、リサンプル参照ピクチャrsPicの画像rsPicSampleを生成する際に、参照レイヤ対応領域外の画素を生成する処理(パディング処理)を省略することができるため、リサンプル処理に係る処理量を低減させる効果を奏する。   As described above, in the image decoding device according to the present invention, when the inter-layer image prediction restriction flag indicates that the inter-layer image prediction referencing the pixels outside the reference layer corresponding region is not applicable, the reference layer correspondence region having low prediction accuracy Since the inter-layer image prediction that refers to the outer pixels is not used, an effect of improving the code efficiency is obtained. In addition, when generating the image rsPicSample of the resample reference picture rsPic, the processing (padding processing) for generating the pixels outside the reference layer corresponding area can be omitted, so that the processing amount related to the resampling processing can be reduced. Play.

以上のように、本発明に係る画像符号化装置は、レイヤ間画像予測制約フラグが参照レイヤ対応領域外の画素を参照するレイヤ間画像予測の適用不可を示す場合、予測精度の低い参照レイヤ対応領域外の画素を参照するレイヤ間画像予測を使用しないため、符号効率を向上させる効果を奏する。また、リサンプル参照ピクチャrsPicの画像rsPicSampleを生成する際に、参照レイヤ対応領域外の画素を生成する処理(パディング処理)を省略することができるため、リサンプル処理に係る処理量を低減させる効果を奏する。   As described above, in the image coding apparatus according to the present invention, when the inter-layer image prediction restriction flag indicates that the inter-layer image prediction referencing the pixels outside the reference layer corresponding region is not applicable, the reference layer Since inter-layer image prediction that refers to pixels outside the region is not used, an effect of improving code efficiency is obtained. In addition, when generating the image rsPicSample of the resample reference picture rsPic, the processing (padding processing) for generating the pixels outside the reference layer corresponding area can be omitted, so that the processing amount related to the resampling processing can be reduced. Play.

本発明の実施形態に係る階層符号化データのレイヤ構造を説明するための図であって、(a)は、階層動画像符号化装置側について示しており、(b)は、階層動画像復号装置側について示している。It is a figure for demonstrating the layer structure of hierarchy coding data which concerns on embodiment of this invention, Comprising: (a) is shown about the hierarchy moving image encoding device side, (b) is hierarchy moving image decoding. It shows about the apparatus side. 本発明の実施形態に係る階層符号化データの構成を説明するための図であって、(a)は、シーケンスSEQを既定するシーケンスレイヤ、(b)は、ピクチャPICTを規定するピクチャレイヤ、(c)は、スライスSを規定するスライスレイヤ、(d)は、スライスデータを規定するスライスデータレイヤ、(e)は、スライスデータに含まれる符号化ツリーユニットを規定する符号化ツリーレイヤ、(f)は、符号化ツリーに含まれる符号化単位(Coding Unit; CU)を規定する符号化ユニットレイヤを示す図である。It is a figure for demonstrating the structure of the hierarchy coding data which concerns on embodiment of this invention, Comprising: (a) is a sequence layer which defines sequence SEQ, (b) is a picture layer which prescribes picture PICT, c) slice layer defining slice S, (d) slice data layer defining slice data, (e) coding tree layer defining coding tree unit included in slice data (f Is a diagram illustrating a coding unit layer that defines coding units (CUs) included in a coding tree. 本実施形態に係るビデオパラメータセットVPSに含まれるシンタックスの一例である。It is an example of the syntax contained in the video parameter set VPS which concerns on this embodiment. 対象レイヤの画像と参照レイヤの画像との対応領域(参照レイヤ対応領域)を説明するための図である。It is a figure for demonstrating the corresponding | compatible area | region (reference layer corresponding | compatible area | region) of the image of an object layer, and the image of a reference layer. 本実施形態に係る参照レイヤ対応領域情報、およびレイヤ間画像予測制約フラグの一例である。It is an example of reference layer corresponding area information and an inter-layer image prediction restriction flag according to the present embodiment. 参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の一例である。(a)は、レイヤ間画像予測時に、参照レイヤ対応領域SRLAと、参照レイヤ対応領域外NSRLAの両方の画像を参照する場合を示し、(b)は、レイヤ間画像予測時に、参照レイヤ対応領域外NSRLAの画像のみを参照する場合を示す。15 is an example of inter-layer image prediction that refers to an image outside the reference layer corresponding area SRLA. (A) shows the case where both the reference layer corresponding area SRLA and the reference layer corresponding area NSRLA are referred to at the time of inter-layer image prediction, and (b) shows the reference layer corresponding area at the time of inter-layer image prediction The case where only the image of the external NSRLA is referred to is shown. 本実施形態に係るアクティブ参照レイヤ指定情報、アクティブ参照レイヤ対応領域情報の一例である。It is an example of active reference layer designation information and active reference layer corresponding area information according to the present embodiment. 本実施形態に係るアクティブ参照レイヤ対応領域情報の別の一例である。It is another example of the active reference layer corresponding | compatible area | region information which concerns on this embodiment. 本実施形態に係るアクティブ参照レイヤ対応領域を説明するための図である。It is a figure for demonstrating the active reference layer corresponding | compatible area | region which concerns on this embodiment. 参照ピクチャリストの一例を示す概念図である。It is a conceptual diagram which shows an example of a reference picture list. 参照ピクチャの例を示す概念図である。It is a conceptual diagram which shows the example of a reference picture. 上記階層動画像復号装置の概略的構成を示す機能ブロック図である。It is a functional block diagram which shows the schematic structure of the said hierarchy moving image decoding apparatus. 本実施形態に係る画像復号装置の構成を示す概略図である。It is the schematic which shows the structure of the image decoding apparatus which concerns on this embodiment. 本実施形態に係るインター予測パラメータ復号部の構成を示す概略図である。It is the schematic which shows the structure of the inter prediction parameter decoding part which concerns on this embodiment. 本実施形態に係るマージ予測パラメータ導出部の構成を示す概略図である。It is the schematic which shows the structure of the merge prediction parameter derivation | leading-out part which concerns on this embodiment. 対象ブロックと空間動きベクトルの対象ブロックおよび時間動きベクトルの対象ブロックの位置関係を示す概念図である。It is a conceptual diagram which shows the positional relationship of an object block of an object block, a space motion vector, and an object block of temporal motion vector. 本実施形態に係るAMVP予測パラメータ導出部の構成を示す概略図である。It is the schematic which shows the structure of the AMVP prediction parameter derivation | leading-out part which concerns on this embodiment. 本実施形態に係るリサンプリング部の構成を示す概略図である。It is the schematic which shows the structure of the resampling part which concerns on this embodiment. 輝度に関するリサンプルフィルタの一例である。It is an example of the resampling filter regarding a brightness | luminance. 色差に関するリサンプルフィルタの一例である。It is an example of the resample filter regarding a color difference. レイヤ間画像予測フラグを含むCUのシンタックスの一例を示す図である。It is a figure which shows an example of the syntax of CU containing the image prediction flag between layers. 本実施形態に係る予測パラメータ復号部の変形例に係る動作を示すフロー図である。It is a flowchart which shows the operation | movement which concerns on the modification of the prediction parameter decoding part which concerns on this embodiment. 本発明の一実施形態に係る階層動画像符号化装置の概略的構成を示す機能ブロック図である。It is a functional block diagram showing a schematic structure of a hierarchy video coding device concerning one embodiment of the present invention. 本実施形態に係る画像符号化装置の概略的構成を示す機能ブロック図である。It is a functional block diagram showing a schematic structure of an image coding device concerning this embodiment. 本実施形態に係るインター予測パラメータ符号化部の概略的構成を示す機能ブロック図である。It is a functional block diagram showing a schematic structure of an inter prediction parameter coding part concerning this embodiment. 本実施形態に係る予測パラメータ符号化部の変形例に係る動作を示すフロー図である。It is a flowchart which shows the operation | movement which concerns on the modification of the prediction parameter encoding part which concerns on this embodiment. 上記階層動画像符号化装置を搭載した送信装置、および、上記階層動画像復号装置を搭載した受信装置の構成を示した図である。(a)は、階層動画像符号化装置を搭載した送信装置を示しており、(b)は、階層動画像復号装置を搭載した受信装置を示している。It is the figure which showed the structure of the transmission apparatus carrying the said hierarchy moving image encoding apparatus, and the receiving apparatus carrying the said hierarchy moving image decoding apparatus. (A) shows a transmitter equipped with a hierarchical video coding device, and (b) shows a receiver equipped with a hierarchical video decoding device. 上記階層動画像符号化装置を搭載した記録装置、および、上記階層動画像復号装置を搭載した再生装置の構成を示した図である。(a)は、階層動画像符号化装置を搭載した記録装置を示しており、(b)は、階層動画像復号装置を搭載した再生装置を示している。It is a figure showing composition of a recording device carrying the above-mentioned hierarchy video coding device, and a reproduction device carrying the above-mentioned hierarchy video decoding device. (A) shows a recording apparatus equipped with a hierarchical moving picture coding apparatus, and (b) shows a reproduction apparatus equipped with a hierarchical moving picture decoding apparatus. 本実施形態に係るレイヤ画像マッピング部の動作を示すフロー図である。It is a flowchart which shows operation | movement of the layer image mapping part which concerns on this embodiment. 従来技術に係るレイヤ画像マッピング部の動作を示すフロー図である。It is a flowchart which shows operation | movement of the layer image mapping part which concerns on a prior art. リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLA上の画素に対応する参照画素位置の導出を示す模式図であり,(a)は従来技術に係る参照画素位置の導出例であり、(b)は本発明に係る参照画素位置の導出例である。It is a schematic diagram which shows derivation | leading-out of the reference pixel position corresponding to the pixel on the non-reference layer corresponding area | region on the resample reference layer picture rsPic, and (a) is an example of derivation of the reference pixel position based on prior art. b) is an example of derivation of the reference pixel position according to the present invention. リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAのリサンプル画素を説明するための図であり、(a)は従来技術における例を示し、(b)は本発明における例である。It is a figure for demonstrating the resample pixel of NSRLA out of the reference layer corresponding area on resample reference layer picture rsPic, (a) shows the example in a prior art, (b) is an example in this invention. 本実施形態に係る参照レイヤ対応領域情報の別の一例である。It is another example of the reference layer corresponding | compatible area | region information which concerns on this embodiment. 本実施形態に係るアクティブ参照レイヤ対応領域情報の別の一例である。It is another example of the active reference layer corresponding | compatible area | region information which concerns on this embodiment. 本実施形態に係るアクティブ参照レイヤ対応領域情報の別の一例である。It is another example of the active reference layer corresponding | compatible area | region information which concerns on this embodiment.

図1〜図28に基づいて、本発明の一実施形態に係る階層動画像復号装置1および階層動画像符号化装置2を説明すれば以下のとおりである。 The hierarchical video decoding device 1 and the hierarchical video encoding device 2 according to an embodiment of the present invention will be described below based on FIGS. 1 to 28.

〔概要〕
本実施の形態に係る階層動画像復号装置(画像復号装置)1は、階層動画像符号化装置(画像符号化装置)2によって階層符号化された符号化データを復号する。階層符号化とは、動画像を低品質のものから高品質のものにかけて階層的に符号化する符号化方式のことである。階層符号化は、例えば、SVCやSHVCにおいて標準化されている。なお、ここでいう動画像の品質とは、主観的および客観的な動画像の見栄えに影響する要素のことを広く意味する。動画像の品質には、例えば、“解像度”、“フレームレート”、“画質”、および、“画素の表現精度”が含まれる。よって、以下、動画像の品質が異なるといえば、例示的には、“解像度”等が異なることを指すが、これに限られない。例えば、異なる量子化ステップで量子化された動画像の場合(すなわち、異なる符号化雑音により符号化された動画像の場合)も互いに動画像の品質が異なるといえる。
〔Overview〕
The hierarchical moving image decoding apparatus (image decoding apparatus) 1 according to the present embodiment decodes encoded data hierarchically encoded by the hierarchical moving image encoding apparatus (image encoding apparatus) 2. Hierarchical coding is a coding scheme that hierarchically encodes moving images from low to high quality. Hierarchical coding is standardized, for example, in SVC and SHVC. In addition, the quality of a moving image here means the element which influences the appearance of a subjective and objective moving image widely. The quality of a moving image includes, for example, “resolution”, “frame rate”, “image quality”, and “pixel representation accuracy”. Therefore, hereinafter, when the quality of the moving image is different, it means that the “resolution” and the like are different as an example, but it is not limited thereto. For example, in the case of a moving picture quantized by different quantization steps (that is, in the case of a moving picture encoded by different coding noise), it can be said that the quality of the moving picture differs from each other.

また、階層符号化技術は、階層化される情報の種類の観点から、(1)空間スケーラビリティ、(2)時間スケーラビリティ、(3)SNR(Signal to Noise Ratio)スケーラビリティ、および(4)ビュースケーラビリティに分類されることもある。空間スケーラビリティとは、解像度や画像のサイズにおいて階層化する技術である。時間スケーラビリティとは、フレームレート(単位時間のフレーム数)において階層化する技術である。SNRスケーラビリティは、符号化雑音において階層化する技術である。また、ビュースケーラビリティは、各画像に対応付けられた視点位置において階層化する技術である。   In addition, hierarchical coding technology is used for (1) spatial scalability, (2) temporal scalability, (3) signal to noise ratio (SNR) scalability, and (4) view scalability in terms of types of information to be hierarchically arranged. It may be classified. Spatial scalability is a technology for layering in resolution and image size. Temporal scalability is a technique for layering at a frame rate (the number of frames per unit time). SNR scalability is a technique for layering in coding noise. In addition, view scalability is a technology for hierarchizing at a viewpoint position associated with each image.

本実施形態に係る階層動画像符号化装置2及び階層動画像復号装置1の詳細な説明に先立って、まず(1)階層動画像符号化装置2によって生成され、階層動画像復号装置1によって復号される階層符号化データのレイヤ構造を説明し、次いで(2)各レイヤで採用できるデータ構造の具体例について説明を行う。   Prior to detailed description of the hierarchical moving image encoding device 2 and the hierarchical moving image decoding device 1 according to the present embodiment, first (1) generated by the hierarchical moving image encoding device 2 and decoded by the hierarchical moving image decoding device 1 The layer structure of the encoded layer data will be described, and then (2) a specific example of the data structure that can be adopted in each layer will be described.

〔階層符号化データのレイヤ構造〕
ここで、図1を用いて、階層符号化データの符号化および復号について説明すると次のとおりである。図1は、動画像を、下位階層L3、中位階層L2、および上位階層L1の3階層により階層的に符号化/復号する場合について模式的に表す図である。つまり、図1(a)および(b)に示す例では、3階層のうち、上位階層L1が最上位層となり、下位階層L3が最下位層となる。
[Layer structure of hierarchically encoded data]
Here, encoding and decoding of hierarchically encoded data will be described using FIG. 1 as follows. FIG. 1 is a view schematically showing a case where a moving image is hierarchically encoded / decoded in three layers, that is, a lower layer L3, a middle layer L2, and an upper layer L1. That is, in the example shown in FIGS. 1A and 1B, among the three layers, the upper layer L1 is the highest layer, and the lower layer L3 is the lowest layer.

以下において、階層符号化データから復号され得る特定の品質に対応する復号画像は、特定の階層の復号画像(または、特定の階層に対応する復号画像)と称される(例えば、上位階層L1の復号画像POUT#A)。   In the following, a decoded image corresponding to a specific quality that can be decoded from hierarchically encoded data is referred to as a decoded image of a specific layer (or a decoded image corresponding to a specific layer) (e.g. Decoded image POUT # A).

図1(a)は、入力画像PIN#A〜PIN#Cをそれぞれ階層的に符号化して符号化データDATA#A〜DATA#Cを生成する階層動画像符号化装置2#A〜2#Cを示している。図1(b)は、階層的に符号化された符号化データDATA#A〜DATA#Cをそれぞれ復号して復号画像POUT#A〜POUT#Cを生成する階層動画像復号装置1#A〜1#Cを示している。   FIG. 1A shows hierarchical moving picture coding devices 2 # A to 2 # C that hierarchically encode input images PIN # A to PIN # C and generate encoded data DATA # A to DATA # C, respectively. Is shown. FIG. 1 (b) is a hierarchical moving image decoding device 1 # A ̃ that decodes encoded data DATA # A ̃DATA # C hierarchically encoded to generate decoded images POUT # A ̃POUT # C, respectively. 1 # C is shown.

まず、図1(a)を用いて、符号化装置側について説明する。符号化装置側の入力となる入力画像PIN#A、PIN#B、およびPIN#Cは、原画は同じだが、画像の品質(解像度、フレームレート、および画質等)が異なる。画像の品質は、入力画像PIN#A、PIN#B、およびPIN#Cの順に低くなる。   First, the encoding device side will be described using FIG. 1 (a). The input images PIN # A, PIN # B, and PIN # C, which are inputs on the encoding device side, are the same as the original images but have different image quality (resolution, frame rate, image quality, etc.). The quality of the image decreases in the order of the input image PIN # A, PIN # B, and PIN # C.

下位階層L3の階層動画像符号化装置2#Cは、下位階層L3の入力画像PIN#Cを符号化して下位階層L3の符号化データDATA#Cを生成する。下位階層L3の復号画像POUT#Cを復号するのに必要な基本情報が含まれる(図1において“C”にて示している)。下位階層L3は、最下層の階層であるため、下位階層L3の符号化データDATA#Cは、基本符号化データとも称される。   The hierarchical moving image coding device 2 # C of the lower layer L3 encodes the input image PIN # C of the lower layer L3 to generate encoded data DATA # C of the lower layer L3. Basic information necessary to decode the decoded image POUT # C of the lower layer L3 is included (indicated by "C" in FIG. 1). Since the lower layer L3 is the lowermost layer, the encoded data DATA # C of the lower layer L3 is also referred to as basic encoded data.

また、中位階層L2の階層動画像符号化装置2#Bは、中位階層L2の入力画像PIN#Bを、下位階層の符号化データDATA#Cを参照しながら符号化して中位階層L2の符号化データDATA#Bを生成する。中位階層L2の符号化データDATA#Bには、符号化データDATA#Cに含まれる基本情報“C”に加えて、中位階層の復号画像POUT#Bを復号するのに必要な付加的情報(図1において“B”にて示している)が含まれる。   Also, the hierarchy video coding device 2 # B of the middle hierarchy L2 encodes the input image PIN # B of the middle hierarchy L2 with reference to the encoded data DATA # C of the lower hierarchy, and the middle hierarchy L2 is generated. To generate encoded data DATA # B of In addition to the basic information “C” included in the encoded data DATA # C, the encoded data DATA # B of the intermediate layer L2 additionally includes the additional information necessary to decode the decoded image POUT # B of the intermediate layer. Information (indicated by "B" in FIG. 1) is included.

また、上位階層L1の階層動画像符号化装置2#Aは、上位階層L1の入力画像PIN#Aを、中位階層L2の符号化データDATA#Bを参照しながら符号化して上位階層L1の符号化データDATA#Aを生成する。上位階層L1の符号化データDATA#Aには、下位階層L3の復号画像POUT#Cを復号するのに必要な基本情報“C”および中位階層L2の復号画像POUT#Bを復号するのに必要な付加的情報“B”に加えて、上位階層の復号画像POUT#Aを復号するのに必要な付加的情報(図1において“A”にて示している)が含まれる。   Also, the layer moving picture coding device 2 # A of the upper layer L1 encodes the input image PIN # A of the upper layer L1 with reference to the encoded data DATA # B of the middle layer L2, and The encoded data DATA # A is generated. In the encoded data DATA # A of the upper layer L1, basic information "C" necessary for decoding the decoded image POUT # C of the lower layer L3 and the decoded image POUT # B of the middle layer L2 are to be decoded. In addition to the necessary additional information "B", the additional information (indicated by "A" in FIG. 1) necessary to decode the upper layer decoded image POUT # A is included.

このように上位階層L1の符号化データDATA#Aは、異なる複数の品質の復号画像に関する情報を含む。   Thus, the encoded data DATA # A of the upper layer L1 includes information on decoded images of a plurality of different qualities.

次に、図1(b)を参照しながら復号装置側について説明する。復号装置側では、上位階層L1、中位階層L2、および下位階層L3それぞれの階層に応じた復号装置1#A、1#B、および1#Cが、符号化データDATA#A、DATA#B、およびDATA#Cを復号して復号画像POUT#A、POUT#B、およびPOUT#Cを出力する。   Next, the decoding device side will be described with reference to FIG. 1 (b). On the decoding device side, decoding devices 1 # A, 1 # B, and 1 # C corresponding to the respective layers of upper layer L1, middle layer L2, and lower layer L3 are encoded data DATA # A, DATA # B. , And DATA # C to output decoded images POUT # A, POUT # B, and POUT # C.

なお、上位の階層符号化データの一部の情報を抽出して、より下位の特定の復号装置において、当該抽出した情報を復号することで特定の品質の動画像を再生することもできる。   It is also possible to extract a part of information of upper layer encoded data and reproduce a moving picture of a specific quality by decoding the extracted information in a lower specific decoding device.

例えば、中位階層L2の階層復号装置1#Bは、上位階層L1の階層符号化データDATA#Aから、復号画像POUT#Bを復号するのに必要な情報(すなわち、階層符号化データDATA#Aに含まれる“B”および“C”)を抽出して、復号画像POUT#Bを復号してもよい。言い換えれば、復号装置側では、上位階層L1の階層符号化データDATA#Aに含まれる情報に基づいて、復号画像POUT#A、POUT#B、およびPOUT#Cを復号できる。   For example, the hierarchy decoding device 1 # B of the middle hierarchy L2 is information required to decode the decoded image POUT # B from the hierarchy coding data DATA # A of the upper hierarchy L1 (that is, hierarchy coding data DATA # "B" and "C" included in A may be extracted to decode the decoded image POUT # B. In other words, on the decoding device side, the decoded images POUT # A, POUT # B, and POUT # C can be decoded based on the information included in the layer encoded data DATA # A of the upper layer L1.

なお、以上の3階層の階層符号化データに限られず、階層符号化データは、2階層で階層符号化されていてもよいし、3階層よりも多い階層数にて階層符号化されていてもよい。   The above is not limited to the above-described three-layer hierarchical encoding data, and the hierarchical encoding data may be hierarchically encoded in two hierarchical layers, or may be hierarchically encoded in more layers than three hierarchical layers. Good.

また、特定の階層の復号画像に関する符号化データの一部または全部を他の階層とは独立して符号化し、特定の階層の復号の際に、他の階層の情報を参照しなくても済むように階層符号化データを構成してもよい。例えば、図1(a)および(b)を用いて上述した例では、復号画像POUT#Bの復号に“C”および“B”を参照すると説明したが、これに限られない。復号画像POUT#Bが“B”だけを用いて復号できるように階層符号化データを構成することも可能である。例えば、復号画像POUT#Bの復号に、“B”だけから構成される階層符号化データと、復号画像POUT#Cを入力とする階層動画像復号装置も構成できる。   Also, part or all of the encoded data relating to the decoded image of a specific layer may be encoded independently of the other layers, and there is no need to refer to information of other layers when decoding the specific layer. Layer encoded data may be configured as follows. For example, in the example described above with reference to FIGS. 1A and 1B, the decoding of the decoded image POUT # B is described with reference to “C” and “B”, but is not limited thereto. It is also possible to construct hierarchically encoded data so that the decoded image POUT # B can be decoded using only "B". For example, it is also possible to configure a hierarchical moving image decoding apparatus in which hierarchically encoded data consisting of only “B” and decoded image POUT # C are input for decoding of the decoded image POUT # B.

なお、SNRスケーラビリティを実現する場合、入力画像PIN#A、PIN#B、およびPIN#Cとして同一の原画を用いた上で、復号画像POUT#A、POUT#B、およびPOUT#Cが異なる画質となるよう階層符号化データを生成することもできる。その場合、下位階層の階層動画像符号化装置が、上位階層の階層動画像符号化装置に較べて、より大きい量子化幅を用いて予測残差を量子化することで階層符号化データを生成する。   When SNR scalability is realized, the same original image is used as the input images PIN # A, PIN # B, and PIN # C, and then the image quality of the decoded images POUT # A, POUT # B, and POUT # C is different. It is also possible to generate hierarchically encoded data such that In that case, the hierarchical moving image coding apparatus of the lower layer generates hierarchically coded data by quantizing the prediction residual using a larger quantization width compared to the hierarchical moving image coding apparatus of the upper layer. Do.

本書では、説明の便宜上、次のとおり用語を定義する。以下の用語は、特に断りがなければ、下記の技術的事項のことを表わすのに用いる。   In this document, the following terms are defined for convenience of explanation. The following terms are used to indicate the following technical matters unless otherwise noted.

上位レイヤ : ある階層よりも上位に位置する階層のことを、上位レイヤと称する。例えば、図1において、下位階層L3の上位レイヤは、中位階層L2および上位階層L1である。また、上位レイヤの復号画像とは、より品質の高い(例えば、解像度が高い、フレームレートが高い、画質が高い等)復号画像のことをいう。   Upper layer: A layer located above a certain layer is called an upper layer. For example, in FIG. 1, the upper layer of the lower layer L3 is the middle layer L2 and the upper layer L1. Further, the decoded image of the upper layer refers to a decoded image of higher quality (eg, high resolution, high frame rate, high image quality, etc.).

下位レイヤ : ある階層よりも下位に位置する階層のことを、下位レイヤと称する。例えば、図1において、上位階層L1の下位レイヤは、中位階層L2および下位階層L3である。また、下位レイヤの復号画像とは、より品質の低い復号画像のことをいう。   Lower layer: A layer located lower than a certain layer is called a lower layer. For example, in FIG. 1, the lower layers of the upper layer L1 are the middle layer L2 and the lower layer L3. Also, the lower layer decoded image refers to a lower quality decoded image.

対象レイヤ : 復号または符号化の対象となっている階層のことをいう。   Target layer: A layer that is subject to decoding or encoding.

参照レイヤ : 対象レイヤに対応する復号画像を復号するのに参照される特定の下位レイヤのことを参照レイヤと称する。   Reference layer: A specific lower layer referred to for decoding a decoded image corresponding to a target layer is referred to as a reference layer.

図1(a)および(b)に示した例では、上位階層L1の参照レイヤは、中位階層L2および下位階層L3である。しかしながら、これに限られず、特定の上記レイヤの復号において、下位レイヤのすべてを参照しなくてもよいように階層符号化データを構成することもできる。例えば、上位階層L1の参照レイヤが、中位階層L2および下位階層L3のいずれか一方となるように階層符号化データを構成することも可能である。   In the example shown in FIGS. 1A and 1B, the reference layer of the upper layer L1 is the middle layer L2 and the lower layer L3. However, the present invention is not limited to this, and it is also possible to configure hierarchically-coded data so that it is not necessary to refer to all the lower layers in decoding of a specific above-mentioned layer. For example, the layer encoded data may be configured such that the reference layer of the upper layer L1 is either the middle layer L2 or the lower layer L3.

基本レイヤ : 最下層に位置する階層のことを基本レイヤと称する。基本レイヤの復号画像は、符号化データから復号され得るもっとも低い品質の復号画像であり、基本復号画像と呼称される。別の言い方をすれば、基本復号画像は、最下層の階層に対応する復号画像のことである。基本復号画像の復号に必要な階層符号化データの部分符号化データは基本符号化データと呼称される。例えば、上位階層L1の階層符号化データDATA#Aに含まれる基本情報“C”が基本符号化データである。   Base layer: The layer located at the lowest layer is called a base layer. The decoded image of the base layer is the lowest quality decoded image that can be decoded from the coded data, and is called a basic decoded image. In other words, the basic decoded image is a decoded image corresponding to the lowest layer. Partially encoded data of hierarchically encoded data necessary for decoding a basic decoded image is referred to as basic coded data. For example, the basic information “C” included in the layer encoded data DATA # A of the upper layer L1 is the basic encoded data.

拡張レイヤ : 基本レイヤの上位レイヤは、拡張レイヤと称される。   Enhancement layer: The layer above the base layer is called the enhancement layer.

レイヤ識別子 : レイヤ識別子は、階層を識別するためのものであり、階層と1対1に対応する。階層符号化データには特定の階層の復号画像の復号に必要な部分符号化データを選択するために用いられる階層識別子が含まれる。特定のレイヤに対応するレイヤ識別子に関連付けられた階層符号化データの部分集合は、レイヤ表現とも呼称される。   Layer identifier: The layer identifier is for identifying a hierarchy, and corresponds to the hierarchy one to one. The layer encoded data includes a layer identifier used to select partially encoded data necessary for decoding a decoded image of a specific layer. A subset of hierarchical coding data associated with a layer identifier corresponding to a specific layer is also referred to as a layer representation.

一般に、特定の階層の復号画像の復号には、当該階層のレイヤ表現、および/または、当該階層の下位レイヤに対応するレイヤ表現が用いられる。すなわち、対象レイヤの復号画像の復号においては、対象レイヤのレイヤ表現、および/または、対象レイヤの下位レイヤに含まれる1つ以上階層のレイヤ表現が用いられる。   In general, for decoding of a decoded image of a particular layer, a layer representation of the layer and / or a layer representation corresponding to a lower layer of the layer is used. That is, in the decoding of the decoded image of the target layer, the layer representation of the target layer and / or the layer representation of one or more layers included in the lower layer of the target layer are used.

レイヤ間予測 : レイヤ間予測とは、対象レイヤのレイヤ表現と異なる階層(参照レイヤ)のレイヤ表現に含まれるシンタックス要素値、シンタックス要素値より導出される値、および復号画像に基づいて、対象レイヤのシンタックス要素値や対象レイヤの復号に用いられる符号化パラメータ等を予測することである。動き予測に関する情報を参照レイヤの情報から予測するレイヤ間予測のことをレイヤ間動き情報予測と称することもある。また、下位レイヤの復号画像から予測するレイヤ間予測のことをレイヤ間画像予測(あるいはレイヤ間テクスチャ予測)と称することもある。なお、レイヤ間予測に用いられる階層は、例示的には、対象レイヤの下位レイヤである。また、参照レイヤを用いず対象レイヤ内で予測を行うことをレイヤ内予測と称することもある。   Inter-layer prediction: Inter-layer prediction is based on syntax element values included in layer representations of layers (reference layers) different from the layer representation of the target layer, values derived from syntax element values, and decoded images. It is to predict syntax element values of the target layer, coding parameters used for decoding the target layer, and the like. Inter-layer prediction in which information on motion prediction is predicted from information on a reference layer may be referred to as inter-layer motion information prediction. In addition, inter-layer prediction to be predicted from the decoded image of the lower layer may be referred to as inter-layer image prediction (or inter-layer texture prediction). The layer used for inter-layer prediction is, for example, a lower layer of the target layer. Also, performing prediction in a target layer without using a reference layer may be referred to as intra-layer prediction.

なお、以上の用語は、飽くまで説明の便宜上のものであり、上記の技術的事項を別の用語にて表現してもかまわない。   The above terms are for convenience of explanation until they get bored, and the above technical matters may be expressed in other terms.

〔階層符号化データのデータ構造について〕
以下、各階層の符号化データを生成する符号化方式として、HEVCおよびその拡張方式を用いる場合について例示する。しかしながら、これに限られず、各階層の符号化データを、MPEG-2や、H.264/AVCなどの符号化方式により生成してもよい。
[About the data structure of hierarchical coding data]
Hereinafter, the case of using HEVC and its extended method will be exemplified as a coding method for generating coded data of each layer. However, the present invention is not limited to this, and encoded data of each layer may be generated by an encoding method such as MPEG-2 or H.264 / AVC.

また、下位レイヤと上位レイヤとが異なる符号化方式によって符号化されていてもよい。また、各階層の符号化データは、互いに異なる伝送路を介して階層動画像復号装置1に供給されてもよいし、同一の伝送路を介して階層動画像復号装置1に供給されてもよい。   Also, the lower layer and the upper layer may be encoded by different encoding schemes. Also, the encoded data of each layer may be supplied to the layer moving picture decoding device 1 through different transmission paths, or may be supplied to the layer moving picture decoding device 1 through the same transmission path. .

例えば、超高精細映像(動画像、4K映像データ)を基本レイヤおよび1つの拡張レイヤによりスケーラブル符号化して伝送する場合、基本レイヤは、4K映像データをダウンスケーリングし、インタレース化した映像データをMPEG-2またはH.264/AVCにより符号化してテレビ放送網で伝送し、拡張レイヤは、4K映像(プログレッシブ)をHEVCにより符号化して、インターネットで伝送してもよい。   For example, when super-high definition video (moving image, 4K video data) is scalable encoded and transmitted by the base layer and one enhancement layer, the base layer downscales 4K video data and interlaced video data The MPEG-2 or H.264 / AVC may be encoded and transmitted over a television broadcast network, and the enhancement layer may encode 4K video (progressive) according to HEVC, and may be transmitted over the Internet.

図2は、階層符号化データDATA(図1では、例えば、階層符号化データDATA#B)のデータ構造の例示を示す図である。   FIG. 2 is a diagram showing an example of the data structure of hierarchically encoded data DATA (in FIG. 1, for example, hierarchically encoded data DATA # B).

階層符号化データDATAにおけるデータの階層構造を図2に示す。階層符号化データDATAは、例示的に、シーケンス、およびシーケンスを構成する複数のピクチャを含む。
図2の(a)〜(f)は、それぞれ、シーケンスSEQを規定するシーケンスレイヤ、ピクチャPICTを規定するピクチャレイヤ、スライスSを規定するスライスレイヤ、スライスデータを規定するスライスデータレイヤ、スライスデータに含まれる符号化ツリーユニット(Coding Tree Unit;CTU)を規定する符号化ツリーレイヤ、符号化ツリーユニットCTUに含まれる符号化単位(Coding Unit;CU)を規定する符号化ユニットレイヤを示す図である。
The hierarchical structure of data in the hierarchical encoding data DATA is shown in FIG. Hierarchical encoded data DATA illustratively includes a sequence and a plurality of pictures forming the sequence.
(A) to (f) of FIG. 2 are respectively a sequence layer defining the sequence SEQ, a picture layer defining the picture PICT, a slice layer defining the slice S, a slice data layer defining slice data, and slice data. FIG. 10 is a diagram illustrating a coding tree layer that defines a coding tree unit (CTU) to be included, and a coding unit layer that defines a coding unit (coding unit (CU)) that is included in a coding tree unit CTU. .

(シーケンスレイヤ)
シーケンスレイヤでは、処理対象のシーケンスSEQ(以下、対象シーケンスとも称する)を復号するために階層動画像復号装置1が参照するデータの集合が規定されている。シーケンスSEQは、図2の(a)に示すように、ビデオパラメータセットVPS(Video Parameter Set)、シーケンスパラメータセットSPS(Sequence Parameter Set)、ピクチャパラメータセットPPS(Picture Parameter Set)、ピクチャPICT、及び、付加拡張情報SEI(Supplemental Enhancement Information)を含んでいる。ここで#の後に示される値はレイヤIDを示す。図2では、#0と#1すなわちレイヤ0とレイヤ1の符号化データが存在する例を示すが、レイヤの種類およびレイヤの数はこれに限らない。
(Sequence layer)
In the sequence layer, a set of data to which the hierarchical moving image decoding device 1 refers in order to decode a sequence SEQ to be processed (hereinafter also referred to as a target sequence) is defined. As shown in FIG. 2A, the sequence SEQ includes a video parameter set VPS (Video Parameter Set), a sequence parameter set SPS (Sequence Parameter Set), a picture parameter set PPS (Picture Parameter Set), a picture PICT, and Supplemental enhancement information SEI (Supplemental Enhancement Information) is included. Here, the value shown after # indicates a layer ID. Although FIG. 2 shows an example in which coded data of # 0 and # 1, that is, layer 0 and layer 1 exist, the type of layer and the number of layers are not limited thereto.

ビデオパラメータセットVPSは、複数のレイヤから構成されている動画像において、複数の動画像に共通する符号化パラメータの集合および動画像に含まれる複数のレイヤおよび個々のレイヤに関連する符号化パラメータの集合が規定されている。図3を用いて、VPSに含まれるシンタックスの一例を説明する。例えば、VPSは、図3(a)上のSYNVPS01に示すレイヤ数を規定するvps_max_layers_minus1を含む。また、VPS拡張データ(図3(a)上のSYNVPS02)では、NALユニットヘッダ上に規定されるレイヤ識別子layer_idとレイヤiを対応付けるレイヤ識別子指定情報layer_id_nuh[i](図SYNS_VPS(b)上のSYNVPS03)を含む。以降、説明を簡単化のため、特に断りが無ければ、レイヤiは、レイヤ識別子layer_id=iを有するレイヤを表わすものとする。また、VPS拡張データ(図3(a)上のSYNVPS02)では、対象レイヤで参照する対象レイヤ以外のレイヤである参照レイヤを規定する参照レイヤ指定情報(図3(b)上のSYNVPS04)が含まれる。具体的には、参照レイヤ指定情報には、レイヤ従属フラグdirect_dependency_flag[i][j]が含まれる。レイヤ従属フラグdirect_dependency_flag[i][j]は値が1である場合に、対象レイヤiは参照レイヤjを参照し、レイヤ従属フラグが0であれば、対象レイヤiは参照レイヤjを参照しないことを表す。また、対象レイヤiに対応する0でないレイヤ従属フラグdirect_dependency_flag[i][j]の数から、対象レイヤiが参照する参照レイヤの数(レイヤ間予測参照レイヤ数ともいう)NumDirectRefLayers[i]が定まる。また、対象レイヤiが参照するレイヤである参照レイヤRefLayerId[i][]が導出される。RefLayerId[i][]は、対象レイヤiが参照する参照レイヤのレイヤIDを格納したリストでありNumDirectRefLayers[i]個の要素を持つ。また、レイヤ従属フラグdirect_dependency_flag[i][j]が1の場合に、レイヤ従属タイプdirect_dependency_type[i][j](図3(b)上のSYNVPS05)がさらにVPSに含まれる。レイヤ従属タイプdirect_dependency_type[i][j]は、(1)対象レイヤiが参照レイヤjを参照するレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]、(2)対象レイヤiが参照レイヤjを参照するレイヤ間動き予測の有無を示すレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]、(3)対象レイヤiがレイヤ間画像予測のために参照する参照レイヤの数(レイヤ間画像予測参照レイヤ数ともいう)NumSamplePredRefLayers[i]、および(4)対象レイヤiがレイヤ間動き予測のために参照する参照レイヤの数(レイヤ間動き予測参照レイヤ数ともいう)NumMotionPredRefLayers[i]等のパラメータを導出するために利用されるシンタックスである。ここで、対象レイヤiが参照レイヤjを参照するレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]は、例えば、次式(F-1)により導出され、値が真の場合、対象レイヤiが参照レイヤjを参照するレイヤ間画像予測があることを示し、値が偽の場合は、レイヤ間画像予測が無いことを示す。   A video parameter set VPS is a set of coding parameters common to a plurality of moving pictures and a set of coding parameters related to the plurality of layers included in the moving picture and each layer in a moving picture composed of a plurality of layers. A set is defined. An example of the syntax included in the VPS will be described with reference to FIG. For example, the VPS includes vps_max_layers_minus1 that defines the number of layers shown in SYNVPS01 in FIG. 3 (a). Further, in the VPS extended data (SYN VPS 02 in FIG. 3A), layer identifier specification information layer_id_nuh [i] (SYN VPS 03 in FIG. SYNS_VPS (b) that associates the layer identifier layer_id defined on the NAL unit header with the layer i. )including. Hereinafter, in order to simplify the description, it is assumed that the layer i represents a layer having a layer identifier layer_id = i unless otherwise noted. Further, in the VPS extended data (SYNVPS 02 in FIG. 3A), reference layer designation information (SYNVPS 04 in FIG. 3B) defining a reference layer which is a layer other than the target layer referred to in the target layer is included. Be Specifically, the layer dependency flag direct_dependency_flag [i] [j] is included in the reference layer specification information. If the layer dependency flag direct_dependency_flag [i] [j] has a value of 1, the target layer i refers to the reference layer j, and if the layer dependency flag is 0, the target layer i does not refer to the reference layer j. Represents In addition, the number of reference layers (also referred to as inter-layer prediction reference layer number) NumDirectRefLayers [i] is determined from the number of non-zero layer dependency flags direct_dependency_flag [i] [j] corresponding to the target layer i. . Also, a reference layer RefLayerId [i] [], which is a layer to which the target layer i refers, is derived. RefLayerId [i] [] is a list storing layer IDs of reference layers to which the target layer i refers, and has NumDirectRefLayers [i] elements. Further, when the layer dependency flag direct_dependency_flag [i] [j] is 1, the layer dependency type direct_dependency_type [i] [j] (SYNVPS 05 in FIG. 3B) is further included in the VPS. The layer dependency type direct_dependency_type [i] [j] has (1) an inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j], (2) indicating whether or not the target layer i refers to the reference layer j. Inter-layer motion prediction presence / absence flag MotionPredEnableFlag [i] [j] indicating presence / absence of inter-layer motion prediction in which target layer i refers to reference layer j, (3) Reference layer referenced by target layer i for inter-layer image prediction (Also referred to as inter-layer image prediction reference layer number) NumSamplePredRefLayers [i], and (4) number of reference layers that the target layer i refers to for inter-layer motion prediction (also referred to as inter-layer motion prediction reference layer number) It is a syntax used to derive parameters such as NumMotionPredRefLayers [i]. Here, the inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j] indicating the presence or absence of inter-layer image prediction in which the target layer i refers to the reference layer j is derived by, for example, the following equation (F-1) If is true, it indicates that there is inter-layer image prediction in which the target layer i refers to the reference layer j, and if the value is false, it indicates that there is no inter-layer image prediction.

SamplePredEnableFlag[i][j] = ((direct_dependency_type[i][j] + 1) & 1); (F-1)
また、対象レイヤiが参照レイヤjを参照するレイヤ間動き予測の有無を示すレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]は、例えば、下記式(F-2)により導出され、値が真の場合、対象レイヤiが参照レイヤjを参照するレイヤ間動き予測があることを示し、値が偽の場合は、レイヤ間動き予測が無いことを示す。
SamplePredEnableFlag [i] [j] = ((direct_dependency_type [i] [j] + 1) &1); (F-1)
Further, the inter-layer motion prediction presence flag MotionPredEnableFlag [i] [j] indicating the presence or absence of inter-layer motion prediction in which the target layer i refers to the reference layer j is derived, for example, by the following formula (F-2), and the value is If true, it indicates that there is inter-layer motion prediction in which the target layer i refers to the reference layer j, and if the value is false, it indicates that there is no inter-layer motion prediction.

MotionPredEnableFlag[i][j] =
(((direct_dependency_type[i][j] + 1) & 2)>>1); (F-2)
また、レイヤ間画像予測参照レイヤ数NumSamplePredRefLayers[i]は、対象レイヤiに対応する0でないレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]の数から定まる。同様に、レイヤ間動き予測参照レイヤ数NumMotionPredRefLayers[i]は、対象レイヤiに対応する0でないレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]の数から定まる。
MotionPredEnableFlag [i] [j] =
(((direct_dependency_type [i] [j] + 1) & 2) >>1); (F-2)
Also, the inter-layer image prediction reference layer number NumSamplePredRefLayers [i] is determined from the number of non-zero inter-layer image prediction presence / absence flags SamplePredEnableFlag [i] [j] corresponding to the target layer i. Similarly, the inter-layer motion prediction reference layer number NumMotionPredRefLayers [i] is determined from the number of non-zero inter-layer motion prediction presence / absence flags MotionPredEnableFlag [i] [j] corresponding to the target layer i.

また、レイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]に基づいて、各レイヤにおいてレイヤ間画像予測で利用される参照レイヤのレイヤ識別子を特定するためのレイヤ間画像予測参照レイヤインデクスSamplePredRefLayerId[i][sIdx]、及びレイヤ間動き予測有無フラグMotionPredEnableFlag[i][j]に基づいて、各レイヤにおいてレイヤ間動き予測で利用される参照レイヤのレイヤ識別子を特定ためのレイヤ間動き予測参照レイヤインデクスMotionPredRefLayerId[i][mIdx]が以下の式(F-3)により導出される。   In addition, the inter-layer image prediction reference layer index SamplePredRefLayerId [i] for specifying the layer identifier of the reference layer used in the inter-layer image prediction in each layer based on the inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j]. Inter-layer motion prediction reference layer index for specifying a layer identifier of a reference layer used in inter-layer motion prediction in each layer based on [sIdx] and inter-layer motion prediction presence / absence flag MotionPredEnableFlag [i] [j] MotionPredRefLayerId [i] [mIdx] is derived by the following equation (F-3).

for( i=1; mIdx=0, sIdx = 0; i<=vps_max_layers_minus1; i++){
iNuhLid = layer_id_in_nuh[ i ];
for( j=0; j<i; j++){
if ( MotionPredEnableFlag[iNuhId][ j ] )
MotionPredRefLayerId[ iNuhId ][mIdx ++ ] = layer_id_in_nuh[ j ];
if ( SamplePredEnableFlag[iNuhId][ j] )
SamplePredRefLayerId[ iNuhId ][sIdx ++ ] = layer_id_in_nuh[ j ];
}
} (F-3)
シーケンスパラメータセットSPSでは、対象シーケンスを復号するために階層動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、対象シーケンス内のピクチャの横幅PWや縦幅PHが規定される。また、SPSは、対象レイヤの対象ピクチャcurPic(あるいは、リサンプル参照レイヤピクチャrsPic)上のどの領域が参照レイヤピクチャrlPicと対応するかを示す参照レイヤ対応領域情報を規定する。また、SPSは符号化データ内に複数存在してもよい。その場合、対象シーケンス毎に復号に用いられるSPSが複数の候補から選択される。特定シーケンスの復号に使用されるSPSは、アクティブSPSとも呼ばれる。以下では、特に断りがなければ、対象シーケンスに対するアクティブSPSを意味する。
for (i = 1; mIdx = 0, sIdx = 0; i <= vps_max_layers_minus1; i ++) {
iNuhLid = layer_id_in_nuh [i];
for (j = 0; j <i; j ++) {
if (MotionPredEnableFlag [iNuhId] [j])
MotionPredRefLayerId [iNuhId] [mIdx ++] = layer_id_in_nuh [j];
if (SamplePredEnableFlag [iNuhId] [j])
SamplePredRefLayerId [iNuhId] [sIdx ++] = layer_id_in_nuh [j];
}
} (F-3)
In the sequence parameter set SPS, a set of coding parameters to be referred to by the hierarchical moving image decoding device 1 for decoding the target sequence is defined. For example, the horizontal width PW and the vertical width PH of the pictures in the target sequence are defined. Further, the SPS defines reference layer corresponding area information indicating which area on the target picture curPic (or resample reference layer picture rsPic) of the target layer corresponds to the reference layer picture rlPic. Also, a plurality of SPSs may exist in the encoded data. In that case, an SPS to be used for decoding is selected from a plurality of candidates for each target sequence. The SPS used to decode a particular sequence is also referred to as the active SPS. In the following, unless otherwise noted, it means active SPS for the target sequence.

ここで、参照レイヤ対応領域情報の説明に先だって、図4を用いて、対象レイヤのピクチャと参照レイヤのピクチャとの対応領域(参照レイヤ対応領域)を説明する。同図上のrlPicは、縦幅RLPH、横幅RLPWの画像サイズを有する参照レイヤのピクチャ(参照レイヤピクチャ)である。同図上のrsPicは、参照レイヤピクチャrlPicを、縦幅PH、横幅PWの画像サイズを有する対象レイヤのピクチャへマッピングしたピクチャ(リサンプル参照レイヤピクチャ)rsPicである。同図上のSRLA (灰色部分)は、対象レイヤのピクチャ上で、参照レイヤピクチャrlPicと対応する領域(参照レイヤ対応領域)であり、縦幅SRLPH、横幅SRLPWのサイズを有する。同図上のNSRLAは、参照レイヤ対応領域SRLAの外側の領域(参照レイヤ対応領域外と呼ぶ)である。同図上のOffsetLは、参照レイヤ対応領域SRLAの最左上画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最左上画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetTは、参照レイヤ対応領域SRLAの最左上画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最左上画素間の垂直方向(y方向)のオフセットを表わす。同図上のOffsetRは、参照レイヤ対応領域SRLAの最右下画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最右下画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetBは、参照レイヤ対応領域SRLAの最右下画素と対象レイヤのピクチャ(あるいは、リサンプル参照ピクチャrsPic)の最右下画素間の垂直方向(y方向)のオフセットを表わす。   Here, prior to the description of the reference layer corresponding area information, the corresponding area (reference layer corresponding area) of the picture of the target layer and the picture of the reference layer will be described with reference to FIG. RlPic in the figure is a picture (reference layer picture) of a reference layer having an image size of vertical width RLPH and horizontal width RLPW. In the drawing, rsPic is a picture (resample reference layer picture) rsPic in which the reference layer picture rlPic is mapped to the picture of the target layer having the image size of the vertical width PH and the horizontal width PW. SRLA (gray part) in the figure is an area (reference layer corresponding area) corresponding to the reference layer picture rlPic on the picture of the target layer, and has the size of the vertical width SRLPH and the horizontal width SRLPW. NSRLA on the same figure is an area outside the reference layer corresponding area SRLA (referred to as “outside of reference layer corresponding area”). Offset L on the same figure represents the offset in the horizontal direction (x direction) between the top left pixel of the reference layer corresponding area SRLA and the top left pixel of the picture of the target layer (or resample reference picture rsPic). OffsetT in the same figure represents the offset in the vertical direction (y direction) between the top left pixel of the reference layer corresponding area SRLA and the top left pixel of the picture of the target layer (or resample reference picture rsPic). OffsetR in the figure represents the offset in the horizontal direction (x direction) between the lower rightmost pixel of the reference layer corresponding area SRLA and the lowermost right pixel of the picture of the target layer (or resample reference picture rsPic). OffsetB in the figure indicates an offset in the vertical direction (y direction) between the lower rightmost pixel of the reference layer corresponding area SRLA and the lowermost right pixel of the picture of the target layer (or resample reference picture rsPic).

SPSは、図5(a)上のSYNSPS01に示すSPS拡張データsps_extension()を含む。さらに、SPS拡張データsps_extension()は、参照レイヤ対応領域情報として、図5(b)上のSYNSPS02に示すシンタックス群を含む。なお、SPSに含まれる参照レイヤ対応領域情報は、シーケンス全体で共通(基準)となる参照レイヤ対応領域である。各ピクチャ毎に参照レイヤ対応領域が変化する場合は、ピクチャ単位で対応する参照レイヤ対応領域情報(後述のアクティブ参照レイヤ対応領域情報)を通知する。   The SPS includes SPS extension data sps_extension () shown in SYNSPS01 in FIG. 5 (a). Furthermore, the SPS extension data sps_extension () includes syntax groups indicated as SYNSPS02 in FIG. 5B as reference layer corresponding area information. The reference layer corresponding area information included in the SPS is a reference layer corresponding area which is common (reference) to the entire sequence. When the reference layer corresponding area changes for each picture, the reference layer corresponding area information (active reference layer corresponding area information described later) corresponding to each picture is notified.

scaled_ref_layer_offsets_param_present_flagは、対象レイヤcurLayerIdの対象ピクチャcurPicと参照レイヤ数NumDirectRefLayers[curLayerId]個の参照レイヤ対応領域情報の有無を示すフラグ(参照レイヤ対応領域情報群有無フラグ)であり、値が真の場合、参照レイヤ数個の参照レイヤ対応領域情報があることを示し、値が偽の場合、参照レイヤ対応領域情報はないことを示す。図5(b)上のSYNSPS02の例では、NumDirectRefLayers[curLyaerId]が0より大きい場合、明示的に参照レイヤ対応領域情報群有無フラグが通知され、NumDirectRefLayers[curLyaerId]が0の場合、参照レイヤ対応領域情報群有無フラグは0であると推定される。なお、従来技術では、対象レイヤの参照レイヤ数NumDirectRefLayers[curLayer]が分かっているのにも関わらず、明示的に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsが含まれていた。一方、本発明では、参照レイヤ対応領域情報群有無フラグが真の場合、明示的に各参照レイヤの参照レイヤ対応領域情報(NumDirectRefLayers[curLyaerId]個の参照レイヤ対応領域情報)を通知する構成である。これによって、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、参照レイヤ対応領域情報に係る符号量を削減することが可能である。   scaled_ref_layer_offsets_param_present_flag is a flag (reference layer corresponding area information group presence / absence flag) indicating presence / absence of reference picture corresponding area information of the target picture curPic of the target layer curLayerId and the number of reference layers NumDirectRefLayers [curLayerId], and when the value is true, reference It indicates that there are several layers of reference layer corresponding area information, and if the value is false, it indicates that there is no reference layer corresponding area information. In the example of SYNSPS02 in FIG. 5B, when NumDirectRefLayers [curLyaerId] is larger than 0, the reference layer corresponding area information group presence / absence flag is explicitly notified, and when NumDirectRefLayers [curLyaerId] is 0, the reference layer corresponding area The information group presence / absence flag is estimated to be zero. In the prior art, although the reference layer number NumDirectRefLayers [curLayer] of the target layer is known, the syntax num_scaled_ref_layer_offsets explicitly indicating how many reference layer corresponding area information exists is included. The On the other hand, in the present invention, when the reference layer corresponding area information group presence / absence flag is true, the reference layer corresponding area information (NumDirectRefLayers [curLyaerId] pieces of reference layer corresponding area information) of each reference layer is explicitly notified. . By this, it is possible to reduce the code amount related to the reference layer corresponding area information as compared with the prior art in which the syntax num_scaled_ref_layer_offsets indicating the number of reference layer corresponding area information is notified.

なお、図5(b)上のSYNSPS02の代わりに、図33(a)に示すSYNSPS02Aの構成としてもよい。すなわち、NumDirectRefLayers[curLyaerId]が1より大きい場合、明示的に参照レイヤ対応領域情報群有無フラグが通知され、NumDirectRefLayers[curLyaerId]が0の場合、参照レイヤ対応領域情報群有無フラグは0であると推定し、NumDirectRefLayers[curLyaerId]が1の場合(NumDirectRefLayrs[curlayerId]が2未満の場合)、参照レイヤ対応領域情報有無フラグは1であると推定する。これによって、図5(b)上のSYNSPS02の例に比べて、参照レイヤ数が1個の場合、参照レイヤ対応領域情報群有無フラグを明示的に通知する必要がなくなり、参照レイヤ対応領域情報群有無フラグに係る符号量を削減することが可能である。また、NumDirectRefLayers[curLyaerId]が0の場合、NumDirectRefLayers[curLyaerId]によるループ部のフラグは符号化されない。しかし、これらのフラグを符号化しないことをより明確に示すために、参照レイヤ対応領域情報群有無フラグは0であると推定しても良い。   The configuration of SYNSPS 02A shown in FIG. 33 (a) may be used instead of SYNSPS02 in FIG. 5 (b). That is, when NumDirectRefLayers [curLyaerId] is larger than 1, the reference layer corresponding area information group presence / absence flag is explicitly notified, and when NumDirectRefLayers [curLyaerId] is 0, the reference layer corresponding area information group presence / absence flag is estimated to be 0 If NumDirectRefLayers [curLyaerId] is 1 (if NumDirectRefLayrs [curlayerId] is less than 2), the reference layer corresponding area information presence / absence flag is estimated to be 1. By this, compared with the example of SYNSPS02 in FIG. 5B, when the number of reference layers is one, it is not necessary to explicitly notify the reference layer corresponding area information group presence / absence flag, and reference layer corresponding area information group It is possible to reduce the amount of code related to the presence / absence flag. Also, when NumDirectRefLayers [curLyaerId] is 0, the flag of the loop part by NumDirectRefLayers [curLyaerId] is not encoded. However, in order to more clearly indicate that these flags are not encoded, the reference layer corresponding area information group presence / absence flag may be estimated to be zero.

上記、図33(a)の構成では、NumDirectRefLayers[curLyaerId]が1より大きい場合に、参照レイヤ対応領域情報群有無フラグを通知することにより、参照レイヤ対応領域情報を符号化する必要のない場合の、符号量を削減することができる。また、後述するように、各参照レイヤに対して、参照レイヤ対応領域情報有無フラグを符号化しないことにより、各シンタックス(scaled_ref_layer_left_offset[i]、scaled_ref_layer_top_offset[i]、scaled_ref_layer_right_offset[i]、scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。また、図33(b)に示すSYNSPS02Bの構成としてもよい。この場合、参照レイヤ対応領域情報群有無フラグは含まれず、明示的に、NumDirectRefLayers[curLayer]個の参照レイヤ対応領域情報を通知する構成である。同様に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、参照レイヤ対応領域情報に係る符号量を削減することが可能である。   In the configuration of FIG. 33A described above, when NumDirectRefLayers [curLyaerId] is larger than 1, it is not necessary to encode reference layer correspondence area information by notifying the reference layer correspondence area information group presence / absence flag. And the amount of code can be reduced. Also, as described later, by not encoding the reference layer corresponding area information presence flag for each reference layer, each syntax (scaled_ref_layer_left_offset [i], scaled_ref_layer_top_offset [i], scaled_ref_layer_right_offset [i], scaled_ref_layer_bottom_offset [i] is used. ] Can be reduced. Also, the configuration of SYNSPS 02B shown in FIG. 33 (b) may be used. In this case, the reference layer corresponding area information group presence / absence flag is not included, and the NumDirectRefLayers [curLayer] pieces of reference layer corresponding area information are explicitly notified. Similarly, it is possible to reduce the code amount related to the reference layer corresponding area information as compared with the prior art in which the syntax num_scaled_ref_layer_offsets indicating the number of reference layer corresponding area information is notified.

scaled_ref_layer_offset_present_flag[i]は、対象レイヤcurLayerIdと参照レイヤRefLayerId[curLayerId][i]間の参照レイヤ対応領域情報の有無を示すフラグ(参照レイヤ対応領域情報有無フラグと呼ぶ)であり、値が真の場合、参照レイヤ対応領域情報として、さらに、以下の4つのシンタックスscaled_ref_layer_left_offset[i]、scaled_ref_layer_top_offset[i]、scaled_ref_layer_right_offset[i]、scaled_ref_layer_bottom_offset[i]が明示的に含まれ、偽の場合は、上記4つのシンタックスの値は、それぞれゼロであると推定される。各シンタックスの定義は、次の通りである。なお、上記参照レイヤ対応領域情報群有無フラグの値が偽の場合は、参照レイヤ対応領域情報有無フラグの値はゼロと推定される。   scaled_ref_layer_offset_present_flag [i] is a flag indicating the presence / absence of reference layer corresponding area information between the target layer curLayerId and the reference layer RefLayerId [curLayerId] [i] (referred to as reference layer corresponding area information presence / absence flag), and the value is true The following four syntaxes scaled_ref_layer_left_offset [i], scaled_ref_layer_top_offset [i], scaled_ref_layer_right_offset [i], and scaled_ref_layer_bottom_offset [i] are explicitly included as reference layer corresponding area information, and the above four cases are false. Each syntax value is estimated to be zero. The definition of each syntax is as follows. When the value of the reference layer corresponding area information group presence / absence flag is false, the value of the reference layer corresponding area information presence / absence flag is estimated to be zero.

scaled_ref_layer_left_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の水平方向(x方向)のオフセットである。   scaled_ref_layer_left_offset [i] is a predetermined value between the top left pixel of the reference layer corresponding area SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the top left pixel of the target picture curPic, which is used for inter-layer prediction It is an offset in the horizontal direction (x direction) in pixel units.

scaled_ref_layer_top_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の垂直方向(y方向)のオフセットである。   scaled_ref_layer_top_offset [i] is a predetermined value between the top left pixel of the reference layer corresponding area SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the top left pixel of the target picture curPic, which is used for inter-layer prediction It is an offset in the vertical direction (y direction) in pixel units.

scaled_ref_layer_right_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最右下画素と対象ピクチャcurPicの最右下輝度画素間の所定画素単位の水平方向(x方向)のオフセットである。   scaled_ref_layer_right_offset [i] is the lower rightmost pixel of the reference layer corresponding area SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the lower rightmost luminance pixel of the target picture curPic used for inter-layer prediction Offset in the horizontal direction (x direction) between predetermined pixel units.

scaled_ref_layer_bottom_offset[i]は、レイヤ間予測に使われる、リサンプルしたi番目の参照レイヤRefLayerId[curLayerId][i]上の参照レイヤ対応領域SRLAの最右下画素と対象ピクチャcurPicの最右下画素間の所定画素単位の垂直方向(y方向)のオフセットである。   scaled_ref_layer_bottom_offset [i] is between the lower rightmost pixel of the reference layer corresponding area SRLA on the resampled i-th reference layer RefLayerId [curLayerId] [i] and the lower rightmost pixel of the target picture curPic, which is used for inter-layer prediction The offset in the vertical direction (y direction) of the predetermined pixel unit.

従って、参照レイヤ対応領域情報有無フラグが0の場合、各シンタックス(scaled_ref_layer_left_offset[i]、scaled_ref_layer_top_offset[i]、scaled_ref_layer_right_offset[i]、scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。   Therefore, when the reference layer corresponding area information presence / absence flag is 0, it is possible to reduce the code amount related to each syntax (scaled_ref_layer_left_offset [i], scaled_ref_layer_top_offset [i], scaled_ref_layer_right_offset [i], scaled_ref_layer_bottom_offset [i]). .

図4上の各オフセットOffsetL、OffsetT、OffsetR、及びOffsetBは、対象レイヤcurLayerIdと参照レイヤRefLayerId[curLayerId][dRlIdx]間の参照レイヤ対応領域情報に含まれるシンタックスscaled_ref_layer_left_offset[dRlIdx]、scaled_ref_layer_top_offset[dRlIdx]、scaled_ref_layer_right_offset[dRlIdx]、scaled_ref_layer_bottom_offset[dRlIdx]を用いて、以下の式(G-1)〜(G-4)により導出される。   The offsets OffsetL, OffsetT, OffsetR, and OffsetB in FIG. 4 are the syntax scaled_ref_layer_left_offset [dRlIdx], scaled_ref_layer_top_offset [dRlIdx] included in the reference layer corresponding area information between the target layer curLayerId and the reference layer RefLayerId [curLayerId] [dRlIdx]. The following equations (G-1) to (G-4) are derived using scaled_ref_layer_right_offset [dRlIdx] and scaled_ref_layer_bottom_offset [dRlIdx].

OffsetL = scaled_ref_layer_left_offset[dRlIdx] << sample_unit_bit; (G-1)
OffsetT = scaled_ref_layer_top_offset[dRlIdx] << sample_unit_bit; (G-2)
OffsetR = scaled_ref_layer_right_offset[dRlIdx] << sample_unit_bit; (G-3)
OffsetB = scaled_ref_layer_bottom_offset[dRlIdx] << sample_unit_bit; (G-4)
ここで、sample_unit_bitは、2のべき乗で表わされる所定画素単位を、2を底とする対数値で表わした値である。例えば、2画素を単位とする場合は、sample_unit_bit = 1となる。また、2^N画素(Nの値は0以上)を単位とする場合は、sample_unit_bit = Nとなる。なお、sample_unit_bitは、画像復号装置と画像符号化装置間において予め定めておいてもよいし、SPS等のパラメータセットにおいて通知されてもよい。なお、OffsetLはScaledRefLayerLeftOffset、OffsetTはScaledRefLayerTopOffset、OffsetRはScaledRefLayerRightOffset、OffsetBはScaledRefLayerBottomOffsetとも呼ばれる。
OffsetL = scaled_ref_layer_left_offset [dRlIdx] <<sample_unit_bit; (G-1)
OffsetT = scaled_ref_layer_top_offset [dRlIdx] <<sample_unit_bit; (G-2)
OffsetR = scaled_ref_layer_right_offset [dRlIdx] <<sample_unit_bit; (G-3)
OffsetB = scaled_ref_layer_bottom_offset [dRlIdx] <<sample_unit_bit; (G-4)
Here, sample_unit_bit is a value representing a predetermined pixel unit represented by a power of 2 by a logarithmic value with 2 as a base. For example, in the case of using 2 pixels as a unit, sample_unit_bit = 1. When 2 ^ N pixels (where the value of N is 0 or more) are taken as a unit, sample_unit_bit = N. Sample_unit_bit may be determined in advance between the image decoding apparatus and the image encoding apparatus, or may be notified in a parameter set such as SPS. Note that OffsetL is also referred to as ScaledRefLayerLeftOffset, OffsetT as ScaledRefLayerTopOffset, OffsetR as ScaledRefLayerRightOffset, and OffsetB as ScaledRefLayerBottomOffset.

逆に、各シンタックスscaled_ref_layer_left_offset[dRlIdx], scaled_ref_layer_top_offset[dRlIdx], scaled_ref_layer_right_offset[dRlIdx], scaled_ref_layer_bottom_offset[dRlIdx]の値は、(G-1)〜(G-4)の逆処理に相当する(I-1)〜(I-4)によって導出される。   Conversely, the value of each syntax scaled_ref_layer_left_offset [dRlIdx], scaled_ref_layer_top_offset [dRlIdx], scaled_ref_layer_right_offset [dRlIdx], scaled_ref_layer_bottom_offset [dRlIdx] corresponds to the reverse process of (G-1) to (G-4) ) To (I-4).

scaled_ref_layer_left_offset[dRlIdx] = OffsetL >> sample_unit_bit; (I-1)
scaled_ref_layer_top_offset[dRlIdx] = OffsetT >> sample_unit_bit; (I-2)
scaled_ref_layer_right_offset[dRlIdx] = OffsetR >> sample_unit_bit; (I-3)
scaled_ref_layer_bottom_offset[dRlIdx] = OffsetB>> sample_unit_bit; (I-4)
また、scaled_ref_layer_offset_present_flag[dRlIdx]の値は、式(I-1)〜(I-4)で定まる各シンタックスの値が全て0の場合、0へ設定され、それ以外の場合は1へ設定される。
scaled_ref_layer_left_offset [dRlIdx] = OffsetL >>sample_unit_bit; (I-1)
scaled_ref_layer_top_offset [dRlIdx] = OffsetT >>sample_unit_bit; (I-2)
scaled_ref_layer_right_offset [dRlIdx] = OffsetR >>sample_unit_bit; (I-3)
scaled_ref_layer_bottom_offset [dRlIdx] = OffsetB >>sample_unit_bit; (I-4)
In addition, the value of scaled_ref_layer_offset_present_flag [dRlIdx] is set to 0 when all the syntax values determined by Equations (I-1) to (I-4) are 0, and is set to 1 otherwise. .

また、図4上の参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPHは、例えば、以下の式(G-5)〜(G-6)により導出される。   Further, the horizontal width SRLPW and the vertical width SRLPH of the reference layer corresponding area SRLA in FIG. 4 are derived, for example, by the following formulas (G-5) to (G-6).

SRLPW = PW - OffsetL - OffsetR; (G-5)
SRLPH = PH - OffsetT - OffsetB; (G-6)
なお、PWはPicWidthInSamplesL、PHはPicHeightInSamplesL、SRLPWはScaledRefLayerPicWidthInSamplesL、SRLPHはScaledRefLayerPicHeightInSamplesLとも呼ばれる。
SRLPW = PW-OffsetL-OffsetR; (G-5)
SRLPH = PH-OffsetT-OffsetB; (G-6)
PW is also referred to as PicWidthInSamplesL, PH as PicHeightInSamplesL, SRLPW as ScaledRefLayerPicWidthInSamplesL, and SRLPH as ScaledRefLayerPicHeightInSamplesL.

また、図4上の参照レイヤ対応領域SRLAの横幅に対する参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorX、及び参照レイヤ対応領域SRLAの縦幅に対する参照レイヤピクチャrlPicの縦幅のサイズ比ScaleFactorYは、以下の式(G-7)〜(G-8)により導出される。   Also, the size ratio ScaleFactor X of the width of the reference layer picture rlPic to the width of the reference layer corresponding area SRLA in FIG. 4 and the size ratio ScaleFactorY of the width of the reference layer picture rlPic to the height of the reference layer corresponding area SRLA are as follows: It derives from the formulas (G-7) to (G-8).

ScaleFactorX = ( ( RLPW << nosf_bit ) + (SRLPW >> 1) )/ SRLPW; (G-7)
ScaleFactorY = ( ( RLPH << nosf_bit ) + (SRLPH >> 1) )/ SRLPH; (G-8)
ここで、nosf_bitは、図4上の参照レイヤ対応領域SRLAと参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorX、および縦幅のサイズ比ScaleFactorYのビット精度を表わし、例えば、nosf_bit = 16と設定される。また、参照レイヤピクチャrlPicの横幅RLPWはRefLayerPicWidthInSamplesL、参照レイヤピクチャrlPicの縦幅RLPHはRefLayerPicHeightInSamplesLとも呼ばれる。
ScaleFactorX = ((RLPW << nosf_bit) + (SRLPW >> 1)) / SRLPW; (G-7)
ScaleFactor Y = ((RLPH << nosf_bit) + (SRLPH >> 1)) / SRLPH; (G-8)
Here, nosf_bit represents the bit accuracy of the size ratio ScaleFactorX of the horizontal width of the reference layer corresponding area SRLA and the reference layer picture rlPic in FIG. 4 and the size ratio ScaleFactorY of the vertical width, and is set, for example, as nosf_bit = 16. The horizontal width RLPW of the reference layer picture rlPic is also referred to as RefLayerPicWidthInSamplesL, and the vertical width RLPH of the reference layer picture rlPic is also referred to as RefLayerPicHeightInSamplesL.

(レイヤ間画像予測制約フラグについて)
さらに、SPS拡張データsps_extension()には、図5上のSYNSPS03に示すレイヤ間画像予測制約フラグinter_layer_sample_pred_constraint_flagが含まれる。レイヤ間画像予測制約フラグinter_layer_sample_pred_constraint_flagは、値が真の場合、対象ピクチャcurPic上の全ての予測単位PBXにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することを示し、値が偽の場合は、対象ピクチャcurPic上の全ての予測ブロックPBXにおいてリサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を許可することを示す。
(About the inter-layer image prediction restriction flag)
Furthermore, the SPS extension data sps_extension () includes an inter-layer image prediction constraint flag inter_layer_sample_pred_constraint_flag shown in SYNSPS03 in FIG. The inter-layer image prediction constraint flag inter_layer_sample_pred_constraint_flag is an inter-layer image that refers to an image outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic in all prediction units PBX on the target picture curPic when the value is true. Indicates that the use of prediction is prohibited, and if the value is false, an inter-layer that refers to an image outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic in all prediction blocks PBX on the target picture curPic Indicates that the use of image prediction is permitted.

また、レイヤ間画像予測制約フラグを明示的にSPS拡張データへ含むかどうかは、図5上のSYNSPS02に示す参照レイヤ対応領域情報が一つでも含まれることを示すフラグScaledRefLayerOffsetsPresentFlagに基づいて判定する。ScaledRefLayerOffsetsPresentFlagは、各レイヤの参照レイヤ対応領域有無フラグの値との論理和によって導出される。   Further, whether or not the inter-layer image prediction restriction flag is explicitly included in the SPS extension data is determined based on a flag ScaledRefLayerOffsetsPresentFlag indicating that at least one reference layer corresponding area information shown in SYNSPS 02 in FIG. 5 is included. ScaledRefLayerOffsetsPresentFlag is derived by logical OR with the value of the reference layer corresponding area presence flag of each layer.

ScaledRefLayerOffsetsPresentFlag |= scaled_ref_layer_present_flag[i];
ScaledRefLyaerOffsetsPresentFlagの値が真(1)の場合、レイヤ間画像予測制約フラグinter_layer_sample_pred_constraint_flagはSPS拡張データに含まれ、偽の場合は、SPS拡張データに含まれず、値は偽(0)と推定される。
ScaledRefLayerOffsetsPresentFlag | = scaled_ref_layer_present_flag [i];
If the value of ScaledRefLyaerOffsetsPresentFlag is true (1), the inter-layer image prediction constraint flag inter_layer_sample_pred_constraint_flag is included in the SPS extension data. If false, it is not included in the SPS extension data, and the value is estimated to be false (0).

なお、ScaledRefLayerOffsetsPresentFlagは、各レイヤの参照レイヤ対応領域有無フラグの値の和によって導出されてもよい。   Note that ScaledRefLayerOffsetsPresentFlag may be derived by the sum of the values of the reference layer corresponding area presence / absence flag of each layer.

ScaledRefLayerOffsetsPresentFlag += scaled_ref_layer_present_flag[i];
また、レイヤ間画像予測制約フラグは、参照レイヤ対応領域情報群有無フラグscaled_ref_layer_offsets_param_present_flagの値が真(1)の場合、SPS拡張データに含まれ、偽の場合は、SPS拡張データに含まれず、値は偽(0)と推定されてもよい。これにより、ScaledRefLayerOffsetsPresentFlagの導出に係る演算を省略することができる。
ScaledRefLayerOffsetsPresentFlag + = scaled_ref_layer_present_flag [i];
In addition, the inter-layer image prediction restriction flag is included in the SPS extended data when the value of the reference layer corresponding area information group presence / absence flag scaled_ref_layer_offsets_param_present_flag is true (1), and when false, it is not included in the SPS extended data and the value is It may be estimated as false (0). Thereby, the calculation concerning derivation of ScaledRefLayerOffsetsPresentFlag can be omitted.

なお、レイヤ間画像予測制約フラグは、各参照レイヤ毎に通知するようにしてもよい。また、レイヤ間画像予測制約フラグは、パラメータセット上に明示的に含まないで、参照レイヤ対応領域情報がパラメータセット(VPS、SPS、PPS、SH等)において含まれる場合、レイヤ間画像予測制約フラグの値を1と設定してもよい。すなわち、参照レイヤ対応領域情報がある場合は、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を常に禁止することとなる。この場合、レイヤ間画像予測制約フラグに係る符号の復号/符号化の省略、符号化効率の向上の効果を奏する。   The inter-layer image prediction restriction flag may be notified for each reference layer. In addition, the inter-layer image prediction restriction flag is not explicitly included in the parameter set, and the inter-layer image prediction restriction flag is included when reference layer corresponding region information is included in the parameter set (VPS, SPS, PPS, SH, etc.) The value of may be set to 1. That is, when there is reference layer corresponding area information, use of inter-layer image prediction which refers to an image outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic is always prohibited. In this case, the decoding / encoding of the code relating to the inter-layer image prediction restriction flag can be omitted, and the encoding efficiency can be improved.

ここで、参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することを示すフラグ(レイヤ間画像予測制約フラグ)を導入することのメリットに関して、図4を用いて説明する。図4において、curPicは、対象ピクチャを示し、rsPicは、リサンプル参照レイヤピクチャを示し、rlPicは参照レイヤピクチャを示し、SRLAは参照レイヤ対応領域を示し、NSRLAは参照レイヤ対応領域SRLAの外側の領域(参照レイヤ対応領域外)を示す。従来技術では、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleの生成において、参照レイヤ対応領域SRLAの部分の画素は、参照レイヤピクチャrlPic上に対応する画素があるため、所定のリサンプルフィルタ(アップサンプリングフィルタとも呼ぶ)を適用することにより生成される。一方、参照レイヤ対応領域外NSRLAの部分の画素は、参照レイヤピクチャrlPic上に対応する画素がない。そのため、(1)参照レイヤ対応領域外NSRLAの部分の画素は、最近接する、リサンプリングによって得られた参照レイヤ対応領域SRLAの境界画素でパディング(コピー)するか、あるいは、(2)参照レイヤ対応領域外NSRLAの部分の画素は、その画素の座標 (xP, yP)を最近接する参照レイヤ対応領域の境界画素の座標(xP’,yP’)へ置換し、境界画素の座標(xP’, yP’)に対応する参照レイヤピクチャrlPicの参照画素の位置(xRL, yRL)を導出し、その参照画素の位置を中心に所定のリサンプルフィルタを適用することで生成される。従って、参照レイヤ対応領域SRLA内のみの画素を参照するレイヤ間画像予測は、参照レイヤピクチャrlPicに対応する画素があるため、予測精度が高く符号化効率の向上につながるが、参照レイヤ対応領域外NSRAの画素を参照するレイヤ間画像予測は予測精度が低いため、逆に、符号化効率の低下へつながる可能性がある。   Here, the merit of introducing the flag (inter-layer image prediction restriction flag) indicating that the use of the inter-layer image prediction referring to the image outside the reference layer corresponding area SRLA is prohibited will be described using FIG. Do. In FIG. 4, curPic indicates a target picture, rsPic indicates a resample reference layer picture, rlPic indicates a reference layer picture, SRLA indicates a reference layer corresponding area, and NSRLA indicates the outside of the reference layer corresponding area SRLA. An area (outside the reference layer corresponding area) is shown. In the prior art, in the generation of the resample image rsPicSample of the resample reference layer picture rsPic, the pixels in the portion of the reference layer corresponding area SRLA have pixels corresponding to the reference layer picture rlPic, so the predetermined resample filter (up (Also referred to as sampling filter). On the other hand, there is no pixel corresponding to the reference layer picture rlPic on the pixel of the part of the reference layer corresponding area NSRLA. Therefore, (1) the pixels of the part of the NSRLA outside the reference layer corresponding area are padded (copied) with the border pixels of the reference layer corresponding area SRLA obtained by the resampling closest to each other, or (2) the reference layer corresponding The pixel of the out-of-area NSRLA is replaced with the coordinate (xP ′, yP ′) of the boundary pixel of the reference layer corresponding area closest to that pixel coordinate (xP, yP) and the coordinate (xP ′, yP) of the boundary pixel The position (xRL, yRL) of the reference pixel of the reference layer picture rlPic corresponding to ') is derived, and is generated by applying a predetermined resampling filter centering on the position of the reference pixel. Therefore, inter-layer image prediction that refers only to pixels in the reference layer correspondence area SRLA has high prediction accuracy and leads to improvement in coding efficiency because there is a pixel corresponding to the reference layer picture rlPic. Interlayer image prediction that refers to pixels of the NSRA may lead to a decrease in coding efficiency because the prediction accuracy is low.

そこで、参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することにより、より符号化効率の高い画像復号装置、および画像符号化装置を実現することが可能である。また、画像復号装置側では、レイヤ間画像予測制約フラグinter_layer_sample_pred_flagを復号した時点で、同フラグが真である場合、対象シーケンスにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像(参照レイヤ対応領域外NSRLA)をレイヤ間画像予測時に参照されないことが分かるため、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleを生成するときに、参照レイヤ対応領域外NSRLAの画像の生成を省略することが可能となる。従って、リサンプリング処理の簡略化、及び参照レイヤ対応領域外NSRLAの画像を保持するために必要なメモリを削減することが可能となる。   Therefore, by prohibiting the use of inter-layer image prediction that refers to an image outside the reference layer corresponding area SRLA, it is possible to realize an image decoding device and an image coding device with higher coding efficiency. Also, on the image decoding device side, when the inter-layer image prediction restriction flag inter_layer_sample_pred_flag is decoded, if the flag is true, an image outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic in the target sequence. Since it is understood that (reference layer outside the corresponding region NSRLA) is not referred to at the time of inter-layer image prediction, generation of a reference layer outside the region NSRLA is omitted when generating the resampled image rsPicSample of the resample reference layer picture rsPic It is possible to Therefore, it is possible to simplify the resampling process and to reduce the memory required to hold the image of the NSRLA outside the reference layer correspondence area.

(参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測について)
以下では、図6(a)を参照しながら、レイヤ間画像予測において、対象ピクチャcurPic上のある予測単位PBXに対応するリサンプル参照レイヤピクチャrsPic上の対応領域RBXが、参照レイヤ対応領域SRLAより外側の画像を参照する条件について説明する。同図において、curPicは対象ピクチャを表わし、rlPicは参照レイヤピクチャ、rsPicはリサンプル参照レイヤピクチャ、SRLAは参照レイヤ対応領域を表わす。同図において、予測単位PBX(X=1…4)に対応するリサンプル参照レイヤピクチャrsPic上の対応領域(参照領域)をRBX(X=1…4)とする。なお、予測単位PBXの縦幅をhPb、横幅wPbとする。
(About inter-layer image prediction that refers to an image outside the reference layer correspondence area)
In the following, referring to FIG. 6A, in inter-layer image prediction, the corresponding area RBX on the resample reference layer picture rsPic corresponding to a certain prediction unit PBX on the target picture curPic is more than the reference layer corresponding area SRLA. The conditions for referring to the outer image will be described. In the figure, curPic represents a target picture, rlPic represents a reference layer picture, rsPic represents a resample reference layer picture, and SRLA represents a reference layer corresponding area. In the figure, the corresponding area (reference area) on the resample reference layer picture rsPic corresponding to the prediction unit PBX (X = 1... 4) is taken as RBX (X = 1... 4). The vertical width of the prediction unit PBX is hPb and the horizontal width wPb.

(A1)対応領域の左端座標(xP)が参照レイヤ対応領域SRLAの左端座標(offsetL)よりも小さい場合(図6(a)においてRB1)、すなわち、次式(H-1)を満たす場合である。   (A1) When the left end coordinate (xP) of the corresponding area is smaller than the left end coordinate (offsetL) of the reference layer corresponding area SRLA (RB1 in FIG. 6A), that is, when the following formula (H-1) is satisfied. is there.

xP < max ( 0, OffsetL ) (H-1)
ここで、maxの演算がある理由は、参照レイヤ対応領域SRLAの左端座標が負値の場合(offsetLが負値である場合)、リサンプル参照レイヤピクチャrsPicの左端座標(0)へ補正するためである。
xP <max (0, OffsetL) (H-1)
Here, the reason for the operation of max is to correct to the left end coordinate (0) of the resample reference layer picture rsPic when the left end coordinate of the reference layer corresponding area SRLA is a negative value (when offsetL is a negative value) It is.

(A2)対応領域の右端座標(xP + wPb - 1)が参照レイヤ対応領域SRLAの右端座標(PW -OffsetR - 1)よりも大きい場合(図6(a)においてRB3)、すなわち、次式(H-2)を満たす場合である。   (A2) When the right end coordinate (xP + wPb-1) of the corresponding area is larger than the right end coordinate (PW-OffsetR-1) of the reference layer corresponding area SRLA (RB3 in FIG. 6A), that is, H-2) is satisfied.

xP + wPb - 1 > min ( PW - 1, PW - OffsetR - 1 ) (H-2)
ここで、minの演算がある理由は、参照レイヤ対応領域SRLAの右端座標がリサンプル参照レイヤピクチャrsPicの右端座標より大きい場合(offsetRが負値である場合)、リサンプル参照レイヤピクチャrsPicの右端座標(PW - 1)へ補正するためである。なお、式(H-2)は(H-2’)とも表現できる。
xP + wPb-1> min (PW-1, PW-OffsetR-1) (H-2)
Here, the reason for the operation of min is that the right end coordinate of the reference layer corresponding area SRLA is larger than the right end coordinate of the resample reference layer picture rsPic (when offsetR is a negative value), the right end of the resample reference layer picture rsPic This is to correct the coordinates (PW-1). Formula (H-2) can also be expressed as (H-2 ′).

xP + wPb > min ( PW, PW - OffsetR ) (H-2’)
(A3)対応領域の上端座標(yP)が参照レイヤ対応領域SRLAの上端座標(offsetT)よりも小さい場合(図6(a)においてRB2)、すなわち、次式(H-3)を満たす場合である。
xP + wPb> min (PW, PW-OffsetR) (H-2 ')
(A3) When the upper end coordinate (yP) of the corresponding area is smaller than the upper end coordinate (offsetT) of the reference layer corresponding area SRLA (RB2 in FIG. 6A), that is, when the following expression (H-3) is satisfied is there.

yP < max ( 0, OffsetT ) (H-3)
ここで、maxの演算がある理由は、参照レイヤ対応領域SRLAの上端座標が負値の場合(offsetTが負値である場合)、リサンプル参照レイヤピクチャrsPicの上端座標(0)へ補正するためである。
yP <max (0, OffsetT) (H-3)
Here, the reason for the operation of max is to correct to the upper end coordinates (0) of the resample reference layer picture rsPic when the upper end coordinates of the reference layer corresponding area SRLA have a negative value (when offsetT is a negative value). It is.

(A4)対応領域の下端座標(yP + hPb - 1)が参照レイヤ対応領域SRLAの下端座標(PH -OffsetB - 1)よりも大きい場合(図6(a)においてRB4)、すなわち、次式(H-4)を満たす場合である。   (A4) When the lower end coordinate (yP + hPb-1) of the corresponding area is larger than the lower end coordinate (PH-OffsetB-1) of the reference layer corresponding area SRLA (RB4 in FIG. 6A), that is, H-4) is satisfied.

yP + yPb - 1 > min ( PH - 1, PH - OffsetB - 1 ) (H-4)
ここで、minの演算がある理由は、参照レイヤ対応領域SRLAの右端座標がリサンプル参照レイヤピクチャrsPicの右端座標より大きい場合(offsetRが負値である場合)、リサンプル参照レイヤピクチャrsPicの右端座標(PW - 1)へ補正するためである。なお、式(H-4)は(H-4’)とも表現できる。
yP + yPb-1> min (PH-1, PH-Offset B-1) (H-4)
Here, the reason for the operation of min is that the right end coordinate of the reference layer corresponding area SRLA is larger than the right end coordinate of the resample reference layer picture rsPic (when offsetR is a negative value), the right end of the resample reference layer picture rsPic This is to correct the coordinates (PW-1). Formula (H-4) can also be expressed as (H-4 ′).

yP + yPb > min ( PH, PH - OffsetR ) (H-4’)
なお、max(A,B)は、A、Bのうち大きい値を返す演算子であり、min(A,B)は、A、Bのうち小さい値を返す演算子である(以下同様)。
yP + yPb> min (PH, PH-OffsetR) (H-4 ')
Note that max (A, B) is an operator that returns a larger value of A and B, and min (A, B) is an operator that returns a smaller value of A and B (the same applies hereinafter).

すなわち、レイヤ間画像予測において、対象ピクチャcurPic上のある予測単位PBXに対応するリサンプル参照レイヤピクチャrsPic上の対応領域RBXが、上記条件(A1)〜(A4)のいずれか一つでも満たす場合、参照レイヤ対応領域SRLAより外側の画像を参照することを示す。   That is, in inter-layer image prediction, the corresponding region RBX on the resample reference layer picture rsPic corresponding to a certain prediction unit PBX on the target picture curPic satisfies even one of the above conditions (A1) to (A4) , Refer to an image outside the reference layer corresponding area SRLA.

(参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測について)
上記で説明したレイヤ間画像予測制約フラグは、対象ピクチャcurPic上の全ての予測単位PBXにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像を参照するレイヤ間画像予測の使用を禁止することを示していたが、これに限定されない。例えば、レイヤ間画像予測制約フラグは、対象ピクチャcurPic上の全ての予測単位PBXにおいて、サンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像のみを参照するレイヤ間画像予測の使用を禁止するフラグと定義してもよい。以下では、図6(b)を参照しながら、レイヤ間画像予測において、対象ピクチャcurPic上のある予測単位PBXに対応するリサンプル参照レイヤピクチャrsPic上の対応領域RBXが、参照レイヤ対応領域SRLAより外側の画像のみ参照する条件について説明する。同図において、curPicは対象ピクチャを表わし、rlPicは参照レイヤピクチャ、rsPicはリサンプル参照レイヤピクチャ、SRLAは参照レイヤ対応領域を表わす。同図において、予測単位PBX(X=1…4)に対応するリサンプル参照レイヤピクチャrsPic上の対応領域をRBX(X=1…4)とする。なお、予測単位PBXの縦幅をhPb、横幅wPbとする。
(For inter-layer image prediction that refers only to images outside the reference layer correspondence area)
The inter-layer image prediction constraint flag described above uses inter-layer image prediction that refers to an image outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic in all prediction units PBX on the target picture curPic Although it has been shown to prohibit, it is not limited to this. For example, the inter-layer image prediction restriction flag prohibits the use of inter-layer image prediction that refers only to the image outside the reference layer corresponding area SRLA on the sample reference layer picture rsPic in all prediction units PBX on the target picture curPic It may be defined as a flag to In the following, referring to FIG. 6B, in the inter-layer image prediction, the corresponding area RBX on the resample reference layer picture rsPic corresponding to a certain prediction unit PBX on the target picture curPic is obtained from the reference layer corresponding area SRLA. The conditions for referring only to the outer image will be described. In the figure, curPic represents a target picture, rlPic represents a reference layer picture, rsPic represents a resample reference layer picture, and SRLA represents a reference layer corresponding area. In the figure, the corresponding region on the resample reference layer picture rsPic corresponding to the prediction unit PBX (X = 1... 4) is taken as RBX (X = 1... 4). The vertical width of the prediction unit PBX is hPb and the horizontal width wPb.

(B1)対応領域の右端座標(xP + wPb - 1)が参照レイヤ対応領域SRLAの左端座標(offsetL)よりも小さい場合(図6(b)においてRB1)、すなわち、次式(H-5)を満たす場合である。     (B1) When the right end coordinate (xP + wPb-1) of the corresponding area is smaller than the left end coordinate (offsetL) of the reference layer corresponding area SRLA (RB1 in FIG. 6B), that is, the following expression (H-5) Is the case when

xP + wPb - 1 < max ( 0, OffsetL ) (H-5)
(B2)対応領域の左端座標(xP)が参照レイヤ対応領域SRLAの右端座標(PW -OffsetR - 1)よりも大きい場合(図6(b)においてRB3)、すなわち、次式(H-6)を満たす場合である。
xP + wPb-1 <max (0, OffsetL) (H-5)
(B2) When the left end coordinate (xP) of the corresponding area is larger than the right end coordinate (PW-OffsetR-1) of the reference layer corresponding area SRLA (RB3 in FIG. 6B), that is, the following expression (H-6) Is the case when

xP > min ( PW - 1, PW - OffsetR - 1 ) (H-6)
(B3)対応領域の下端座標(yP + hPb - 1)が参照レイヤ対応領域SRLAの上端座標(offsetT)よりも小さい場合(図6(b)においてRB2)、すなわち、次式(H-7)を満たす場合である。
xP> min (PW-1, PW-OffsetR-1) (H-6)
(B3) When the lower end coordinate (yP + hPb-1) of the corresponding area is smaller than the upper end coordinate (offsetT) of the reference layer corresponding area SRLA (RB2 in FIG. 6B), that is, the following expression (H-7) Is the case when

yP + hPb - 1 < max ( 0, OffsetT ) (H-7)
(B4)対応領域の上端座標(yP)が参照レイヤ対応領域SRLAの下端座標(PH -OffsetB - 1)よりも大きい場合(図6(b)においてRB4)、すなわち、次式(H-8)を満たす場合である。
yP + hPb-1 <max (0, OffsetT) (H-7)
(B4) When the upper end coordinate (yP) of the corresponding area is larger than the lower end coordinate (PH-OffsetB-1) of the reference layer corresponding area SRLA (RB4 in FIG. 6B), that is, the following expression (H-8) Is the case when

yP > min ( PH - 1, PH - OffsetB - 1 ) (H-8)
レイヤ間画像予測制約フラグが、対象ピクチャcurPic上の全ての予測単位PBXにおいて、サンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAより外側の画像のみを参照するレイヤ間画像予測の使用を禁止することを示す場合においても、予測精度の低い参照レイヤ対応領域外NSRAの画素のみを参照するレイヤ間画像予測を使用しないため、同様に、より符号化効率の高い画像復号装置、および画像符号化装置を実現することが可能である。
yP> min (PH-1 and PH-Offset B-1) (H-8)
The inter-layer image prediction restriction flag prohibits the use of inter-layer image prediction in which all prediction units PBX on the target picture curPic refer to only the image outside the reference layer corresponding area SRLA on the sample reference layer picture rsPic Since the inter-layer image prediction that refers only to the pixels of the reference layer outside the region with low prediction accuracy is not used even in the case of, similarly, an image decoding device and an image coding device with higher coding efficiency It is possible to realize.

ピクチャパラメータセットPPSでは、対象シーケンス内の各ピクチャを復号するために階層動画像復号装置1が参照する符号化パラメータの集合が規定されている。例えば、ピクチャの復号に用いられる量子化幅の基準値や、重み付き予測の適用を示すフラグが含まれる。なお、PPSは符号化データ内に複数存在してもよい。その場合、対象シーケンス内の各ピクチャから複数のPPSの何れかを選択する。特定ピクチャの復号に使用されるPPSはアクティブPPSとも呼ばれる。以下では、特に断りがなければ、PPSは対象ピクチャに対するアクティブPPSを意味する。   In the picture parameter set PPS, a set of coding parameters to be referred to by the hierarchical video decoding device 1 for decoding each picture in the target sequence is defined. For example, the reference value of the quantization width used for decoding of a picture and the flag which shows application of weighted prediction are included. A plurality of PPSs may exist in the encoded data. In that case, one of a plurality of PPSs is selected from each picture in the target sequence. The PPS used to decode a particular picture is also referred to as the active PPS. Hereinafter, PPS means active PPS for a target picture unless otherwise noted.

(ピクチャレイヤ)
ピクチャレイヤでは、処理対象のピクチャPICT(以下、対象ピクチャとも称する)を復号するために階層動画像復号装置1が参照するデータの集合が規定されている。ピクチャPICTは、図2の(b)に示すように、スライスS0〜SNS-1を含んでいる。(NSはピクチャPICTに含まれるスライスの総数)。
(Picture layer)
In the picture layer, a set of data to which the hierarchical moving image decoding apparatus 1 refers in order to decode a picture PICT to be processed (hereinafter also referred to as a target picture) is defined. The picture PICT includes slices S0 to SNS-1 as shown in (b) of FIG. (NS is the total number of slices included in the picture PICT).

なお、以下、スライスS0〜SNS-1のそれぞれを区別する必要が無い場合、符号の添え字を省略して記述することがある。また、以下に説明する階層符号化データDATAに含まれるデータであって、添え字を付している他のデータも同様である。   In the following, when there is no need to distinguish between slices S0 to SNS-1, suffixes of reference numerals may be omitted and described. Further, the same is true for data included in hierarchically encoded data DATA described below and to which subscripts are attached.

(スライスレイヤ)
スライスレイヤでは、処理対象のスライスS(対象スライスとも称する)を復号するために階層動画像復号装置1が参照するデータの集合が規定されている。スライスSは、図2の(c)に示すように、スライスヘッダSH、および、スライスデータSDATAを含んでいる。
(Slice layer)
In the slice layer, a set of data to which the hierarchical moving image decoding apparatus 1 refers in order to decode a slice S to be processed (also referred to as a target slice) is defined. The slice S includes a slice header SH and slice data SDATA as shown in (c) of FIG.

スライスヘッダSHには、対象スライスの復号方法を決定するために階層動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。   The slice header SH includes a coding parameter group to which the hierarchical moving image decoding device 1 refers in order to determine the decoding method of the target slice. The slice type specification information (slice_type) for specifying a slice type is an example of a coding parameter included in the slice header SH.

スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、または、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、または、イントラ予測を用いるBスライスなどが挙げられる。   As slice types that can be designated by slice type designation information, (1) I slice using only intra prediction at the time of encoding, (2) P slice using unidirectional prediction at the time of encoding or intra prediction, (3) B-slice using uni-directional prediction, bi-directional prediction, or intra prediction at the time of encoding.

また、スライスヘッダSHには、VPSで規定された対象シーケンス全体で参照しうる参照レイヤのうち、対象ピクチャの復号/符号化において実際に、レイヤ間予測のために参照する参照レイヤ(アクティブ参照レイヤとも呼ぶ)を指定するためのアクティブ参照レイヤ指定情報inter_pred_enable_flag, num_inter_layer_ref_pics_minus1, inter_layer_pred_layer_idc[i]が含まれる(図7上のSYNSH01)。各シンタックスの定義は次の通りである。   In the slice header SH, of reference layers that can be referred to in the entire target sequence defined in the VPS, a reference layer (active reference layer) that is actually referred to for inter-layer prediction in decoding / encoding of the target picture Active reference layer specification information inter_pred_enable_flag, num_inter_layer_ref_pics_minus 1 and inter_layer_pred_layer_idc [i] for specifying (refer to SYNSH01 in FIG. 7). The definition of each syntax is as follows.

inter_layer_pred_enable_flagは、対象ピクチャcurPicの復号時においてレイヤ間予測の有無を示すフラグ(レイヤ間予測有無フラグとも呼ぶ)であり、値が1の場合、レイヤ間予測が利用されることを示し、値が0の場合は、レイヤ間予測が利用されないことを示す。もし、明示的にスライスヘッダSHに含まれない場合、値は0と推定される。さらに、レイヤ間予測有無フラグの値が1の場合、さらにnum_inter_layer_ref_pic_minus1、inter_layer_pred_layer_idc[i]が含まれる。   inter_layer_pred_enable_flag is a flag indicating the presence or absence of inter-layer prediction at the time of decoding of the target picture curPic (also referred to as an inter-layer prediction presence / absence flag), and a value of 1 indicates that inter-layer prediction is used, and the value is 0 Indicates that inter-layer prediction is not used. If not explicitly included in the slice header SH, the value is estimated to be zero. Furthermore, when the value of the inter-layer prediction presence / absence flag is 1, num_inter_layer_ref_pic_minus1 and inter_layer_pred_layer_idc [i] are further included.

num_inter_layer_ref_pic_minus1 + 1は、対象ピクチャcurPicの復号時においてレイヤ間予測に利用されるアクティブ参照レイヤの数(アクティブ参照レイヤ数とも呼ぶ)NumActiveRefLayerPicsを表わす。具体的には、参照レイヤ数NumDirectRefLayers[curLayerId]、レイヤ間予測有無フラグinter_layer_pred_enable_flagとnum_inter_layer_ref_pic_minus1に基づいて、アクティブ参照レイヤ数NumActiveRefLayerPicsが、例えば、次の式(G-9)により導出される。   num_inter_layer_ref_pic_minus1 + 1 represents the number of active reference layers (also referred to as the number of active reference layers) NumActiveRefLayerPics used for inter-layer prediction at the time of decoding of the target picture curPic. Specifically, the number of active reference layers NumActiveRefLayerPics is derived, for example, by the following equation (G-9) based on the number of reference layers NumDirectRefLayers [curLayerId], the inter-layer prediction presence / absence flag inter_layer_pred_enable_flag, and num_inter_layer_ref_pic_minus1.

if( curLayerId == 0 || NumDirectRefLayers[ curLayerId ] == 0 ||
!inter_layer_pred_enable_flag ){
NumActiveRefLayerPics = 0;
} else{
NumActiveRefLayerPics = num_inter_layer_ref_pics_minus1 + 1;
} (G-9)
inter_layer_pred_layer_idc[i]は、変数RefPicLayerId[i]において、対象ピクチャcurPicのレイヤ間予測のために利用されるi番目の参照レイヤのレイヤ識別子を表わす。
if (curLayerId == 0 || NumDirectRefLayers [curLayerId] == 0 ||
! inter_layer_pred_enable_flag) {
NumActiveRefLayerPics = 0;
} else {
NumActiveRefLayerPics = num_inter_layer_ref_pics_minus1 + 1;
} (G-9)
inter_layer_pred_layer_idc [i] represents, in the variable RefPicLayerId [i], the layer identifier of the i-th reference layer used for inter-layer prediction of the target picture curPic.

すなわち、RefPicLayerId[i] = RefLayerId[curLayerId][inter_layer_pred_layer idc[i]];
また、アクティブレイヤ間動き予測参照レイヤ数NumActivePredRefLayers、及びアクティブレイヤ間動き参照レイヤActiveMotionPredRefLayerId[i]が、例えば、次の式(G-10)により導出される。
That is, RefPicLayerId [i] = RefLayerId [curLayerId] [inter_layer_pred_layer idc [i]];
Further, the inter-active-layer motion prediction reference layer number NumActivePredRefLayers and the inter-active-layer motion reference layer ActiveMotionPredRefLayerId [i] are derived, for example, by the following equation (G-10).

for(i=0, j=0; NumActiveRefLayerPics; i++)
RefPicLayerId[i] = RefLayerId[curLayerId][inter_layer_pred_layer_idc[i]];
if( MotionPredEnableFlag[curLayerId][inter_layer_pred_layer_idc[i]] )
ActiveMotionPredRefLayerId[j++] =
RefLayerId[curLayerId][inter_layer_pred_layer_idc[i];
}
NumActiveMotionPredRefLayers = j; (G-10)
また、スライスヘッダSHには、SPSで規定された参照レイヤ対応領域情報とは別に、対象レイヤの対象ピクチャcurPic上のどの領域がアクティブ参照レイヤピクチャと実際に対応するかを示すアクティブ参照レイヤ対応領域情報(図7)が含まれていてもよい。
for (i = 0, j = 0; NumActiveRefLayerPics; i ++)
RefPicLayerId [i] = RefLayerId [curLayerId] [inter_layer_pred_layer_idc [i]];
if (MotionPredEnableFlag [curLayerId] [inter_layer_pred_layer_idc [i]])
ActiveMotionPredRefLayerId [j ++] =
RefLayerId [curLayerId] [inter_layer_pred_layer_idc [i];
}
NumActiveMotionPredRefLayers = j; (G-10)
Also, in the slice header SH, an active reference layer corresponding area indicating which area on the target picture curPic of the target layer actually corresponds to the active reference layer picture separately from the reference layer corresponding area information defined by the SPS. Information (FIG. 7) may be included.

シンタックスactive_scaled_ref_layer_offsets_param_present_flagは、SPSで規定された参照レイヤ対応領域情報とは別に、対象レイヤcurLayerIdの対象ピクチャcurPicとアクティブ参照レイヤ数NumActiveRefLayerPics[curLayerId]個のアクティブ参照レイヤ対応領域情報の有無を示すフラグ(アクティブ参照レイヤ対応領域情報群有無フラグ)であり、値が真の場合、アクティブ参照レイヤ数個の参照レイヤ対応領域情報があることを示し、値が偽の場合、アクティブ参照レイヤ対応領域情報はないことを示す。図7上のSYNSH02の例では、NumDirectRefLayers[curLyaerId]が0より大きい場合、明示的にアクティブ参照レイヤ対応領域情報群有無フラグが通知され、NumDirectRefLayers[curLyaerId]が0の場合、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定される。なお、従来技術では、対象レイヤの参照レイヤ数NumDirectRefLayers[curLayer]が分かっているのにも関わらず、明示的に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsが含まれていた。一方、本発明では、参照レイヤ対応領域情報群有無フラグが真の場合、明示的に各アクティブ参照レイヤのアクティブ参照レイヤ対応領域情報(NumActiveRefLayers[curLyaerId]個のアクティブ参照レイヤ対応領域情報)を通知する構成である。これによって、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、アクティブ参照レイヤ対応領域情報に係る符号量を削減することが可能である。また、NumActiveRefLayers[curLyaerId]が0の場合、NumActiveRefLayers[curLyaerId]によるループ部のフラグは符号化されない。しかし、これらのフラグを符号化しないことをより明確に示すために、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定しても良い。   Syntax active_scaled_ref_layer_offsets_param_present_flag is a flag indicating the presence / absence of the target picture curPic of the target layer curLayerId and the number of active reference layers NumActiveRefLayerPics [curLayerId] pieces of active reference layer corresponding area information, separately from the reference layer corresponding area information specified by SPS (active If the value is true, it indicates that there are several reference layer corresponding area information in the active reference layer. If the value is false, there is no active reference layer corresponding area information. Indicates In the example of SYNSH02 in FIG. 7, when NumDirectRefLayers [curLyaerId] is larger than 0, the active reference layer corresponding area information group presence / absence flag is explicitly notified, and when NumDirectRefLayers [curLyaerId] is 0, the active reference layer corresponding area information The group presence / absence flag is estimated to be zero. In the prior art, although the reference layer number NumDirectRefLayers [curLayer] of the target layer is known, the syntax num_scaled_ref_layer_offsets explicitly indicating how many reference layer corresponding area information exists is included. The On the other hand, in the present invention, when the reference layer corresponding area information group presence / absence flag is true, the active reference layer corresponding area information of each active reference layer (NumActiveRefLayers [curLyaerId] pieces of active reference layer corresponding area information) is explicitly notified. It is a structure. By this, it is possible to reduce the code amount related to the active reference layer corresponding area information as compared with the prior art in which the syntax num_scaled_ref_layer_offsets indicating the number of reference layer corresponding area information is notified. Also, when NumActiveRefLayers [curLyaerId] is 0, the flag of the loop part by NumActiveRefLayers [curLyaerId] is not encoded. However, in order to more clearly indicate that these flags are not to be encoded, the active reference layer corresponding area information group presence / absence flag may be estimated to be zero.

なお、図7上のSYNSH02の代わりに、図34(a)に示すSYNSH02Aの構成としてもよい。すなわち、NumActiveRefLayers[curLyaerId]が1より大きい場合、明示的にアクティブ参照レイヤ対応領域情報群有無フラグが通知され、NumActiveRefLayers[curLyaerId]が0の場合、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定し、NumActiveRefLayers[curLyaerId]が1の場合、アクティブ参照レイヤ対応領域情報有無フラグは1であると推定する。これによって、図7上のSYNSH02の例に比べて、アクティブ参照レイヤ数が1個の場合、アクティブ参照レイヤ対応領域情報群有無フラグを明示的に通知する必要がなくなり、アクティブ参照レイヤ対応領域情報群有無フラグに係る符号量を削減することが可能である。また、図34(b)に示すSYNSH02Bの構成としてもよい。この場合、アクティブ参照レイヤ対応領域情報群有無フラグは含まれず、明示的に、NumActiveRefLayers[curLayer]個のアクティブ参照レイヤ対応領域情報を通知する構成である。同様に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、アクティブ参照レイヤ対応領域情報に係る符号量を削減することが可能である。   Note that, instead of SYNSH02 in FIG. 7, a configuration of SYNSH 02A shown in FIG. 34 (a) may be used. That is, when NumActiveRefLayers [curLyaerId] is larger than 1, the active reference layer corresponding area information group presence / absence flag is explicitly notified, and when NumActiveRefLayers [curLyaerId] is 0, the active reference layer corresponding area information group presence / absence flag is 0 If NumActiveRefLayers [curLyaerId] is 1, the active reference layer corresponding area information presence / absence flag is estimated to be 1. This eliminates the need to explicitly notify the active reference layer corresponding area information group presence / absence flag when the number of active reference layers is one, as compared to the example of SYNSH02 in FIG. 7, and the active reference layer corresponding area information group It is possible to reduce the amount of code related to the presence / absence flag. Also, the configuration of SYNSH 02B shown in FIG. 34 (b) may be used. In this case, the active reference layer corresponding area information group presence / absence flag is not included, and NumActiveRefLayers [curLayer] pieces of active reference layer corresponding area information are explicitly notified. Similarly, it is possible to reduce the code amount related to the active reference layer corresponding area information as compared with the prior art in which the syntax num_scaled_ref_layer_offsets indicating the number of reference layer corresponding area information is notified.

シンタックスactive_scaled_ref_layer_offset_present_flag[k]は、対象レイヤcurLayerIdとアクティブ参照レイヤRefPicLayerId[k]間のアクティブ参照レイヤ対応領域情報の有無を示すフラグ(アクティブ参照レイヤ対応領域情報有無フラグと呼ぶ)であり、値が真の場合、アクティブ参照レイヤ対応領域情報として、さらに、以下の4つのシンタックスactive_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]が明示的に含まれ、偽の場合は、上記4つのシンタックスの値は、それぞれゼロであると推定される。各シンタックスの定義は、次の通りである。   The syntax active_scaled_ref_layer_offset_present_flag [k] is a flag (referred to as an active reference layer corresponding area information presence / absence flag) indicating the presence / absence of active reference layer corresponding area information between the target layer curLayerId and the active reference layer RefPicLayerId [k]. In the case of, the following four syntaxes active_scaled_ref_layer_left_offset [k], active_scaled_ref_layer_top_offset [k], active_scaled_ref_layer_right_offset [k], active_scaled_ref_layer_bottom_offset [k] are explicitly included as the active reference layer corresponding area information, and false. The values of the above four syntaxes are estimated to be zero respectively. The definition of each syntax is as follows.

active_scaled_ref_layer_left_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目のアクティブ参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_scaled_ref_layer_left_offset [k] is a predetermined value between the top left pixel of the active reference layer corresponding area SRLA ′ on the resampled k-th active reference layer RefPicLayerId [k] used for inter-layer prediction and the top left pixel of the target picture curPic It is an offset in the horizontal direction (x direction) in pixel units.

active_scaled_ref_layer_top_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目のアクティブ参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最左上画素と対象ピクチャcurPicの最左上画素間の所定画素単位の垂直方向(y方向)のオフセットである。   active_scaled_ref_layer_top_offset [k] is a predetermined value between the top left pixel of the active reference layer corresponding area SRLA ′ on the resampled k-th active reference layer RefPicLayerId [k] used for inter-layer prediction and the top left pixel of the target picture curPic It is an offset in the vertical direction (y direction) in pixel units.

active_scaled_ref_layer_right_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目のアクティブ参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最右下画素と対象ピクチャcurPicの最右下輝度画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_scaled_ref_layer_right_offset [k] is the lower rightmost pixel of the active reference layer corresponding area SRLA 'on the resampled k-th active reference layer RefPicLayerId [k] used for inter-layer prediction and the lower right luminance pixel of the target picture curPic Offset in the horizontal direction (x direction) between predetermined pixel units.

active_scaled_ref_layer_bottom_offset[k]は、レイヤ間予測に使われる、リサンプルしたk番目の参照レイヤRefPicLayerId[k]上のアクティブ参照レイヤ対応領域SRLA’の最右下画素と対象ピクチャcurPicの最右下画素間の所定画素単位の垂直方向(y方向)のオフセットである。   active_scaled_ref_layer_bottom_offset [k] is between the lower rightmost pixel of the active reference layer corresponding area SRLA ′ on the resampled k-th reference layer RefPicLayerId [k] used for inter-layer prediction and the lowermost pixel of the target picture curPic It is an offset in the vertical direction (y direction) of a predetermined pixel unit.

従って、アクティブ参照レイヤ対応領域情報有無フラグが0の場合、各シンタックス(active_scaled_ref_layer_left_offset[i]、active_scaled_ref_layer_top_offset[i]、active_scaled_ref_layer_right_offset[i]、active_scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。   Therefore, when the active reference layer corresponding area information presence / absence flag is 0, it is possible to reduce the code amount related to each syntax (active_scaled_ref_layer_left_offset [i], active_scaled_ref_layer_top_offset [i], active_scaled_ref_layer_right_offset [i], active_scaled_ref_layer_bottom_offset [i]). is there.

図4上の各オフセットOffsetL、OffsetT、OffsetR、及びOffsetBは、対象レイヤcurLayerIdとアクティブ参照レイヤRefPicLayerId[k]間のアクティブ参照レイヤ対応領域情報の各シンタックスactive_scaled_ref_layer_offset_present_flag[k]、active_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]を用いて、例えば、以下の式(G-1A)〜(G-4A)により導出される。   The offsets OffsetL, OffsetT, OffsetR, and OffsetB in FIG. 4 are each syntax of active reference layer corresponding area information between the target layer curLayerId and the active reference layer RefPicLayerId [k] For example, the following equations (G-1A) to (G-4A) are derived using [k], active_scaled_ref_layer_right_offset [k], and active_scaled_ref_layer_bottom_offset [k].

OffsetL = active_scaled_ref_layer_left_offset[k] << sample_unit_bit; (G-1A)
OffsetT = active_scaled_ref_layer_top_offset[k] << sample_unit_bit; (G-2A)
OffsetR = active_scaled_ref_layer_right_offset[k] << sample_unit_bit; (G-3A)
OffsetB = active_scaled_ref_layer_bottom_offset[k] << sample_unit_bit; (G-4A)
逆に、各シンタックスactive_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]は、式(G-1)〜(G-4)の逆処理 (I-1)〜(I-4)において、左辺を対応する各シンタックスへ置き換えることで同様に導出される。また、シンタックスactive_scaled_ref_layer_offset_present_flag[k]は、各シンタックスactive_scaled_ref_layer_left_offset[k]、active_scaled_ref_layer_top_offset[k]、active_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]の値が全て0である場合、値を0へ設定し、それ以外の場合は、1へ設定される。
OffsetL = active_scaled_ref_layer_left_offset [k] <<sample_unit_bit; (G-1A)
OffsetT = active_scaled_ref_layer_top_offset [k] <<sample_unit_bit; (G-2A)
OffsetR = active_scaled_ref_layer_right_offset [k] <<sample_unit_bit; (G-3A)
OffsetB = active_scaled_ref_layer_bottom_offset [k] <<sample_unit_bit; (G-4A)
Conversely, each syntax active_scaled_ref_layer_left_offset [k], active_scaled_ref_layer_top_offset [k], active_scaled_ref_layer_right_offset [k], active_scaled_ref_layer_bottom_offset [k] is a reverse process of formulas (G-1) to (G-4) (I-1) to (I-1) to (I-1) In -4), it is derived similarly by replacing the left side with each corresponding syntax. In addition, the value of each syntax active_scaled_ref_layer_offset_present_flag [k] is a value of each syntax active_scaled_ref_layer_left_offset [k], active_scaled_ref_layer_top_offset [k], active_scaled_ref_layer_right_offset [k], active_scaled_ref_layer_bottom_offset [k]. Is set to 1.

すなわち、スライスヘッダSHにおいて、アクティブ参照レイヤ対応領域情報が通知される場合は、SPS上で通知される参照レイヤ対応領域情報によって定まる各オフセットOffsetL, OffsetT, OffsetRおよびOffsetBは、アクティブ参照レイヤ対応領域情報に基づいて再設定される。スライス単位で、アクティブ参照レイヤ対応領域情報を通知することのメリットは、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対して、より正確な参照レイヤ対応領域情報を通知することが可能となり、より高精度なレイヤ間動きマッピング、レイヤ間画像マッピングの実施が可能となる。従って、レイヤ間動きマッピング、及びレイヤ間画像マッピングの精度が向上するため、それに伴いレイヤ間動き予測、レイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   That is, when the active reference layer corresponding area information is notified in the slice header SH, each offset OffsetL, OffsetT, OffsetR, and OffsetB determined by the reference layer corresponding area information notified on the SPS is the active reference layer corresponding area information. It is reset based on. The merit of notifying active reference layer corresponding area information on a slice basis is to notify more accurate reference layer corresponding area information to a sequence in which the corresponding area of the target layer and the reference layer changes on a picture basis. This enables the implementation of more accurate inter-layer motion mapping and inter-layer image mapping. Therefore, since the accuracy of the inter-layer motion mapping and the inter-layer image mapping is improved, the prediction accuracy of the inter-layer motion prediction and the inter-layer image prediction is also improved accordingly, so that it is possible to improve coding efficiency. .

また、アクティブ参照レイヤ対応領域情報のデータ構造は、図7のSYNA05に限定されず、SPSで通知した参照レイヤ対応領域情報に対する差分情報(図8のSYNSH03)としてもよい。以下、図8のSYNSH03のシンタックスの定義について、図9を参照しながら説明する。なお、アクティブ参照レイヤ対応領域情報群有無フラグ、およびアクティブ参照レイヤ対応領域有無フラグは説明済みのため省略する。図9において、対象レイヤの画像と参照レイヤの画像との対応領域(参照レイヤ対応領域)を説明する。同図上のrlPicは、縦幅RLPH、横幅RLPWの画像サイズを有する参照レイヤの画像(参照レイヤピクチャ)である。同図上のrsPicは、参照レイヤピクチャrlPicを、縦幅PH、横幅PWの画像サイズを有する対象レイヤの画像へマッピングした画像(リサンプル参照レイヤピクチャ)rsPicである。同図上のSRLAは、SPSで通知される参照レイヤ対応領域情報により定まる、対象レイヤの画像上で、参照レイヤの画像と実際に対応する領域(参照レイヤ対応領域)であり、縦幅SRLPH、横幅SRLPHのサイズを有する。同図上のOffsetLは、参照レイヤ対応領域SRLAの最左上画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最左上画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetTは、参照レイヤ対応領域SRLAの最左上画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最左上画素間の垂直方向(y方向)のオフセットを表わす。同図上のOffsetRは、参照レイヤ対応領域SRLAの最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetBは、参照レイヤ対応領域SRLAの最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の垂直方向(y方向)のオフセットを表わす。同図上のSRLA’は、スライスヘッダSHで通知されるアクティブ参照レイヤ対応領域情報により定まる、対象レイヤの画像上で、参照レイヤの画像と実際に対応する領域(アクティブ参照レイヤ対応領域)であり、縦幅SRLPH’、横幅SRLPH’のサイズを有する。同図上のOffsetT’は、アクティブ参照レイヤ対応領域SRLA’の最左上画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最左上画素間の垂直方向(y方向)のオフセットを表わす。同図上のOffsetR’は、アクティブ参照レイヤ対応領域SRLA’の最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の水平方向(x方向)のオフセットを表わす。同図上のOffsetB’は、アクティブ参照レイヤ対応領域SRLA’の最右下画素とリサンプル参照ピクチャrsPic(あるいは、対象レイヤの対象ピクチャcurPic)の最右下画素間の垂直方向(y方向)のオフセットを表わす。同図上のΔLは、オフセットOffsetLとOffsetL’との差を表わし、ΔTは、オフセットOffsetTとOffsetT’の差を表わし、ΔRは、オフセットOffsetRとOffsetR’との差を表わし、ΔBは、オフセットOffsetBとOffsetB’との差を表わす。   Further, the data structure of the active reference layer corresponding area information is not limited to the SYNA 05 of FIG. 7, and may be difference information (SYNSH03 of FIG. 8) with respect to the reference layer corresponding area information notified by SPS. Hereinafter, the definition of the syntax of SYNSH03 in FIG. 8 will be described with reference to FIG. Since the active reference layer corresponding area information group presence / absence flag and the active reference layer corresponding area presence / absence flag have been described, they are omitted. In FIG. 9, the corresponding area (reference layer corresponding area) between the image of the target layer and the image of the reference layer will be described. RlPic in the figure is an image (reference layer picture) of a reference layer having an image size of vertical width RLPH and horizontal width RLPW. In the figure, rsPic is an image (resampled reference layer picture) rsPic in which the reference layer picture rlPic is mapped to the image of the target layer having the image size of the vertical width PH and the horizontal width PW. SRLA in the figure is an area (reference layer corresponding area) actually corresponding to the image of the reference layer on the image of the target layer, which is determined by the reference layer corresponding area information notified by the SPS, and the vertical width SRLPH, It has a width of SRLPH. OffsetL on the same figure represents an offset in the horizontal direction (x direction) between the top left pixel of the reference layer corresponding area SRLA and the top left pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). OffsetT in the same figure represents an offset in the vertical direction (y direction) between the top left pixel of the reference layer corresponding area SRLA and the top left pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). OffsetR on the same figure represents an offset in the horizontal direction (x direction) between the lower rightmost pixel of the reference layer corresponding area SRLA and the lower rightmost pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). . OffsetB on the same figure indicates an offset in the vertical direction (y direction) between the lower rightmost pixel of the reference layer corresponding area SRLA and the lower rightmost pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). . SRLA 'in the figure is an area (active reference layer corresponding area) actually corresponding to the image of the reference layer on the image of the target layer, which is determined by the active reference layer corresponding area information notified by the slice header SH , Vertical width SRLPH 'and horizontal width SRLPH'. Offset T ′ in the same figure is an offset in the vertical direction (y direction) between the top left pixel of the active reference layer corresponding area SRLA ′ and the top left pixel of the resample reference picture rsPic (or the target picture curPic of the target layer). Show. Offset R ′ in the same figure is the horizontal direction (x direction) between the lower rightmost pixel of the active reference layer corresponding region SRLA ′ and the lower rightmost pixel of the resampled reference picture rsPic (or the target picture curPic of the target layer). Represents an offset. Offset B ′ in the same figure is the vertical direction (y direction) between the lower rightmost pixel of the active reference layer corresponding area SRLA ′ and the lower rightmost pixel of the resampled reference picture rsPic (or the target picture curPic of the target layer). Represents an offset. In the figure, ΔL represents the difference between the offsets OffsetL and OffsetL ′, ΔT represents the difference between the offsets OffsetT and OffsetT ′, ΔR represents the difference between the offsets OffsetR and OffsetR ′, and ΔB represents the offset OffsetB Represents the difference between and and OffsetB '.

active_diff_scaled_ref_layer_left_offset[k]は、参照レイヤ対応領域SRLAの最左上画素とアクティブ参照レイヤ対応領域SRLA’の最左上画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_diff_scaled_ref_layer_left_offset [k] is an offset in the horizontal direction (x direction) of a predetermined pixel unit between the top left pixel of the reference layer corresponding area SRLA and the top left pixel of the active reference layer corresponding area SRLA '.

active_diff_scaled_ref_layer_top_offset[k]は、参照レイヤ対応領域SRLAの最左上画素とアクティブ参照レイヤ対応領域SRLA’の最左上画素間の所定画素単位の垂直方向(y方向)のオフセットである。   active_diff_scaled_ref_layer_top_offset [k] is an offset in the vertical direction (y direction) between the top left pixel of the reference layer corresponding area SRLA and the top left pixel of the active reference layer corresponding area SRLA 'in a predetermined pixel unit.

active_diff_scaled_ref_layer_left_offset[k]は、参照レイヤ対応領域SRLAの最右下画素とアクティブ参照レイヤ対応領域SRLA’の最右下画素間の所定画素単位の水平方向(x方向)のオフセットである。   active_diff_scaled_ref_layer_left_offset [k] is an offset in the horizontal direction (x direction) of a predetermined pixel unit between the lower rightmost pixel of the reference layer corresponding area SRLA and the lowermost right pixel of the active reference layer corresponding area SRLA '.

active_diff_scaled_ref_layer_bottom_offset[k]は、参照レイヤ対応領域SRLAの最右下画素とアクティブ参照レイヤ対応領域SRLA’の最右下画素間の所定画素単位の垂直方向(y方向)のオフセットである。
なお、上記4つのシンタックスがスライスヘッダSH上で明示的に含まれない場合は、各シンタックスの値はゼロと推定されるものとする。
active_diff_scaled_ref_layer_bottom_offset [k] is an offset in the vertical direction (y direction) between the lowermost right pixel of the reference layer corresponding area SRLA and the lowermost right pixel of the active reference layer corresponding area SRLA ′ in a predetermined pixel unit.
If the above four syntaxes are not explicitly included in the slice header SH, the value of each syntax is assumed to be zero.

従って、参照レイヤiにおいて参照レイヤ対応領域情報が不要である場合、アクティブ参照レイヤ対応領域情報有無フラグを0とすることにより、各シンタックス(active_diff_scaled_ref_layer_left_offset[i]、active_diff_scaled_ref_layer_top_offset[i]、active_diff_scaled_ref_layer_right_offset[i]、active_diff_scaled_ref_layer_bottom_offset[i])に係る符号量を削減することが可能である。   Therefore, when reference layer corresponding area information is unnecessary in the reference layer i, the active reference layer corresponding area information presence / absence flag is set to 0 so that each syntax (active_diff_scaled_ref_layer_left_offset [i], active_diff_scaled_ref_layer_top_offset [i], active_diff_scaled_ref_layer_right_offset [i] , Active_diff_scaled_ref_layer_bottom_offset [i]) can be reduced.

なお、図8のSYNSH03では、アクティブ参照レイヤ数NumActiveRefLayerPics[curLayerId]が0より大きい場合、アクティブ参照レイヤ対応領域情報有無フラグを明示的に通知し、アクティブ参照レイヤ数NumActiveRefLayerPics[curLayerId]が0の場合、アクティブ参照レイヤ対応領域情報有無フラグはゼロであると推定される。図8のSYNSH03の代わりに、図35(a)に示すSYNSH03Bの構成としてもよい。すなわち、NumActiveRefLayers[curLyaerId]が1より大きい場合、明示的にアクティブ参照レイヤ対応領域情報群有無フラグが通知され、NumActiveRefLayers[curLyaerId]が0の場合、アクティブ参照レイヤ対応領域情報群有無フラグは0であると推定し、NumActiveRefLayers[curLyaerId]が1の場合、アクティブ参照レイヤ対応領域情報有無フラグは1であると推定する。これによって、図8上のSYNSH03の例に比べて、アクティブ参照レイヤ数が1個の場合、アクティブ参照レイヤ対応領域情報群有無フラグを明示的に通知する必要がなくなり、アクティブ参照レイヤ対応領域情報群有無フラグに係る符号量を削減することが可能である。また、図35(b)に示すSYNSH03Bの構成としてもよい。この場合、アクティブ参照レイヤ対応領域情報群有無フラグは含まれず、明示的に、NumActiveRefLayers[curLayer]個のアクティブ参照レイヤ対応領域情報を通知する構成である。同様に、何個の参照レイヤ対応領域情報があるかを示すシンタックスnum_scaled_ref_layer_offsetsを通知する従来技術に比べて、アクティブ参照レイヤ対応領域情報に係る符号量を削減することが可能である。   In the case of SYNSH03 in FIG. 8, when the number of active reference layers NumActiveRefLayerPics [curLayerId] is larger than 0, an active reference layer corresponding area information presence / absence flag is explicitly notified, and when the number of active reference layers NumActiveRefLayerPics [curLayerId] is 0, The active reference layer corresponding area information presence / absence flag is estimated to be zero. Instead of SYNSH03 in FIG. 8, a configuration of SYNSH03B shown in FIG. 35A may be used. That is, when NumActiveRefLayers [curLyaerId] is larger than 1, the active reference layer corresponding area information group presence / absence flag is explicitly notified, and when NumActiveRefLayers [curLyaerId] is 0, the active reference layer corresponding area information group presence / absence flag is 0 If NumActiveRefLayers [curLyaerId] is 1, the active reference layer corresponding area information presence / absence flag is estimated to be 1. This eliminates the need to explicitly notify the active reference layer corresponding area information group presence / absence flag when the number of active reference layers is one, as compared with the example of SYNSH03 in FIG. 8, and the active reference layer corresponding area information group It is possible to reduce the amount of code related to the presence / absence flag. Alternatively, the configuration of SYNSH03B shown in FIG. 35 (b) may be used. In this case, the active reference layer corresponding area information group presence / absence flag is not included, and NumActiveRefLayers [curLayer] pieces of active reference layer corresponding area information are explicitly notified. Similarly, it is possible to reduce the code amount related to the active reference layer corresponding area information as compared with the prior art in which the syntax num_scaled_ref_layer_offsets indicating the number of reference layer corresponding area information is notified.

図9上のアクティブ参照レイヤ対応領域SRLA’の各オフセットOffsetL’、OffsetT’、OffsetR’、及びOffsetB’は、参照レイヤ対応領域SRLAの各オフセットOffsetL、OffsetT, OffsetR, OffsetBと、対象レイヤcurLayerIdとアクティブ参照レイヤRefPicLayerId[k]間のアクティブ参照レイヤ対応領域情報の各シンタックスactive_ scaled_ref_layer_offset_present_flag[k]、active_diff_scaled_ref_layer_left_offset[k]、active_diff_scaled_ref_layer_top_offset[k]、active_diff_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]を用いて、例えば、以下の式(G-1B)〜(G-4B)により導出される。   The offsets Offset L ′, Offset T ′, Offset R ′, and Offset B ′ of the active reference layer corresponding area SRLA ′ in FIG. 9 are the offsets Offset L, Offset T, Offset R, Offset B of the reference layer corresponding area SRLA, and the target layer curLayerId Each syntax of active reference layer corresponding area information between reference layers RefPicLayerId [k] active_scaled_ref_layer_offset_present_flag [k], active_diff_scaled_ref_layer_left_offset [k], active_diff_ref_layer_top_offset [k], active_diff_scaled_ref_layer_active_surface Are derived by the equations (G-1B) to (G-4B) of

OffsetL’ = OffsetL + active_diff_scaled_ref_layer_left_offset[k] << sample_unit_bit; (G-1B)
OffsetT’ = OffsetT + active_diff_scaled_ref_layer_top_offset[k] << sample_unit_bit; (G-2B)
OffsetR’ = OffsetR + active_diff_scaled_ref_layer_right_offset[k] << sample_unit_bit; (G-3B)
OffsetB’ = OffsetB + active_diff_scaled_ref_layer_bottom_offset[k] << sample_unit_bit; (G-4B)
逆に、各シンタックスactive_diff_scaled_ref_layer_left_offset[k]、active_diff_scaled_ref_layer_top_offset[k]、active_diff_scaled_ref_layer_right_offset[k]、active_scaled_ref_layer_bottom_offset[k]は、式(G-1B)〜(G-4B)の逆処理である式(I-1B)〜(I-4B)によって導出される。
OffsetL '= OffsetL + active_diff_scaled_ref_layer_left_offset [k] <<sample_unit_bit; (G-1B)
OffsetT '= OffsetT + active_diff_scaled_ref_layer_top_offset [k] <<sample_unit_bit; (G-2B)
OffsetR '= OffsetR + active_diff_scaled_ref_layer_right_offset [k] <<sample_unit_bit; (G-3B)
OffsetB '= OffsetB + active_diff_scaled_ref_layer_bottom_offset [k] <<sample_unit_bit; (G-4B)
Conversely, each syntax active_diff_scaled_ref_layer_left_offset [k], active_diff_scaled_ref_layer_top_offset [k], active_diff_scaled_ref_layer_right_offset [k], active_scaled_ref_layer_bottom_offset [k] is a reverse process of formulas (G-1B) to (G-4B) (I) It is derived by (I-4B).

active_diff_scaled_ref_layer_left_offset[k] = (OffsetL’ - OffsetL) >> sample_unit_bit; (I-1B)
active_diff_scaled_ref_layer_top_offset[k] = (OffsetT’ - OffsetT) >> sample_unit_bit; (I-2B)
active_diff_scaled_ref_layer_right_offset[k] = (OffsetR’ - OffsetR) >> sample_unit_bit; (I-3B)
active_diff_scaled_ref_layer_bottom_offset[k] = (OffsetB’ - OffsetB) >> sample_unit_bit; (I-4B)
なお、active_ scaled_ref_layer_offset_present_flag[k]の値は、式(I-1B)〜(I-4B)で導出される各シンタックスの値が全て0である場合、値を0へ設定し、それ以外の場合は、1へ設定することで定まる。
active_diff_scaled_ref_layer_left_offset [k] = (Offset L '-Offset L) >>sample_unit_bit; (I-1B)
active_diff_scaled_ref_layer_top_offset [k] = (OffsetT '-OffsetT) >>sample_unit_bit; (I-2B)
active_diff_scaled_ref_layer_right_offset [k] = (OffsetR '-OffsetR) >>sample_unit_bit; (I-3B)
active_diff_scaled_ref_layer_bottom_offset [k] = (OffsetB '-OffsetB) >>sample_unit_bit; (I-4B)
In addition, the value of active_scaled_ref_layer_offset_present_flag [k] is set to 0 when all the values of the syntaxes derived by Equations (I-1B) to (I-4B) are 0, otherwise Is determined by setting to 1.

また、図9上のアクティブ参照レイヤ対応領域SRLA’の横幅SRLPW’と縦幅SRLPH’は、例えば、以下の式(G-5A)〜(G-6A)により導出される。   Further, the horizontal width SRLPW 'and the vertical width SRLPH' of the active reference layer corresponding area SRLA 'in FIG. 9 are derived, for example, by the following formulas (G-5A) to (G-6A).

SRLPW’ = PW - OffsetL’ - OffsetR’; (G-5A)
SRLPH’ = PH - OffsetT’ - OffsetB’; (G-6A)
また、図9上のアクティブ参照レイヤ対応領域SRLA’と参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorX、縦幅のサイズ比ScaleFactorYは、前述の式(G-7)〜(G-8)において、SRLPWをSRLPW’、SRLPHをSRLPH’へ置き換えることで導出される。
SRLPW '= PW-OffsetL'-OffsetR '; (G-5A)
SRLPH '= PH-OffsetT'-OffsetB '; (G-6A)
Further, the size ratio ScaleFactorX of the horizontal width of the active reference layer corresponding region SRLA ′ and the reference layer picture rlPic in FIG. 9 and the size ratio ScaleFactorY of the vertical width are SRLPW in the above formulas (G-7) to (G-8). Is derived by replacing SRLPW ′ with SRLPH ′.

以上、アクティブ参照レイヤ対応領域のサイズを明示的に通知する図7のSYNA05のデータ構造に比べて、アクティブ参照レイヤ対応領域情報を、SPSで通知した参照レイヤ対応領域情報に対する差分情報として通知することにより、アクティブ参照レイヤ対応領域のサイズを通知するのに必要な符号量を削減する効果がある。以降、特に断りがなければ、参照レイヤ対応領域SRLA、およびアクティブ参照レイヤ領域SRLA’を区別せずに、単に参照レイヤ対応領域SRLAと呼ぶ。なお、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域)は、各ピクチャの先頭のスライスで一度通知すればよい。それによって、各ピクチャを構成するスライス単位で通知する場合に比べて、アクティブ参照レイヤ対応領域情報を通知するのに必要な符号量を削減する効果がある。   As described above, in comparison with the data structure of SYNA05 in FIG. 7 in which the size of the active reference layer corresponding area is explicitly notified, the active reference layer corresponding area information is notified as difference information with respect to the reference layer corresponding area information notified by SPS. This has the effect of reducing the amount of code required to indicate the size of the active reference layer corresponding area. Hereinafter, the reference layer corresponding area SRLA and the active reference layer area SRLA 'are simply referred to as a reference layer corresponding area SRLA, unless otherwise noted. The active reference layer corresponding area information (reference layer corresponding area in units of pictures) may be notified once at the top slice of each picture. This has the effect of reducing the amount of code required to notify the active reference layer corresponding area information, as compared to the case where notification is made in units of slices making up each picture.

また、スライスタイプがPスライスまたはBスライスである時に、後述するテンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag,collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexが含まれる。   Also, when the slice type is P slice or B slice, the collocated information collocate_from_I0_flag, collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idex for specifying temporal motion information described later is included.

なお、スライスヘッダSHは、上記シーケンスレイヤに含まれる、ピクチャパラメータ
セットPPSへの参照を示すPPS識別子(pic_parameter_set_id)を含んでいても良い。
また、スライスヘッダSH等のパラメータセットでは、対象レイヤの空間スケーラビリティ、時間スケーラビリティ、および、SNRスケーラビリティ、ビュースケーラビリティの階層の識別情報(それぞれ、dependency_id、temporal_id、quality_id、および、view_id)が符号化されていてもよい。
The slice header SH may include a PPS identifier (pic_parameter_set_id) indicating a reference to the picture parameter set PPS, which is included in the sequence layer.
Also, in the parameter set such as slice header SH, identification information (dependency_id, temporal_id, quality_id, and view_id) of the spatial scalability, temporal scalability, SNR scalability, and view scalability layers of the target layer is encoded. May be

(スライスデータレイヤ)
スライスデータレイヤでは、処理対象のスライスデータSDATAを復号するために階層動画像復号装置1が参照するデータの集合が規定されている。スライスデータSDATAは、図2の(d)に示すように、符号化ツリーユニット(CTU: Coding Tree Unit)を含んでいる。符号化ツリーユニットCTUは、スライスを構成する固定サイズ(例えば画素数64×64)の画像領域である。なお、符号化ツリーユニットCTUに対応する画像ブロックを、符号化ツリーブロック(CTB: Coding Tree Block)と称する。
(Slice data layer)
In the slice data layer, a set of data to which the hierarchical moving image decoding apparatus 1 refers to to decode the slice data SDATA to be processed is defined. The slice data SDATA includes a coding tree unit (CTU: Coding Tree Unit), as shown in (d) of FIG. The coding tree unit CTU is an image area of a fixed size (for example, 64 × 64 pixels) constituting a slice. An image block corresponding to the coding tree unit CTU is referred to as a coding tree block (CTB: Coding Tree Block).

(符号化ツリーレイヤ)
符号化ツリーレイヤは、図2の(e)に示すように、処理対象の符号化ツリーユニットを復号するために階層動画像復号装置1が参照するデータの集合が規定されている。符号化ツリーユニットは、再帰的な4分木分割により分割される。再帰的な4分木分割により得られる木構造のことを符号化ツリー(coding tree)と称する。符号化ツリーユニットCTUは、分割フラグ(split_flag)を含み、split_flagが1の場合には、符号化ツリーユニットCTUはさらに4つのCTUに分割される。split_flagが0の場合には、符号化ツリーユニットCTUは4つの符号化ユニット(CU: Coding Unit)に分割される。符号化ユニットCUは符号化ツリーレイヤの末端ノードであり、このレイヤではこれ以上分割されない。符号化ユニットCUは、符号化/復号処理の基本的な単位となる。
(Encoding tree layer)
In the coding tree layer, as shown in (e) of FIG. 2, a set of data to which the hierarchical moving image decoding apparatus 1 refers in order to decode a coding tree unit to be processed is defined. The coding tree unit is divided by recursive quadtree division. The tree structure obtained by recursive quadtree division is called a coding tree. The coding tree unit CTU includes a split flag (split_flag), and when split_flag is 1, the coding tree unit CTU is further split into four CTUs. If split_flag is 0, the coding tree unit CTU is divided into four coding units (CUs: Coding Units). The coding unit CU is an end node of the coding tree layer and is not further divided in this layer. The coding unit CU is a basic unit of coding / decoding processing.

符号化ユニットCUのサイズは、符号化ツリーユニットCTUのサイズが64×64画素の場合には、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。なお、符号化ユニットCUに対応する画像ブロックを、符号化ブロック(CB: Coding Block)と称する。   If the size of the coding tree unit CTU is 64 × 64 pixels, the size of the coding unit CU is 64 × 64 pixels, 32 × 32 pixels, 16 × 16 pixels, or 8 × 8 pixels. It is possible. The image block corresponding to the coding unit CU is referred to as a coding block (CB: Coding Block).

(符号化ユニットレイヤ)
符号化ユニットレイヤは、図2の(f)に示すように、処理対象の符号化ユニットを復号するために階層動画像復号装置1が参照するデータの集合が規定されている。具体的には、符号化ユニットは、CUヘッダCUH、1つ以上の予測ユニット(PU: Prediction Unit)で構成される予測ツリー、1つ以上の変換ユニット(TU: Transform Unit)で構成される変換ツリーを含んで構成される。
(Coding unit layer)
As shown in (f) of FIG. 2, in the coding unit layer, a set of data to which the hierarchical moving image decoding apparatus 1 refers in order to decode the coding unit to be processed is defined. Specifically, a coding unit includes a CU header CUH, a prediction tree including one or more prediction units (PUs), and a transform including one or more transform units (TUs) Constructed to contain a tree.

CUヘッダCUHでは、符号化ユニットが、イントラ予測を用いるユニットであるか、インター予測を用いるユニットであるかを示す予測タイプ情報PTypeなどが規定される。   The CU header CUH defines, for example, prediction type information PType indicating whether the coding unit is a unit using intra prediction or a unit using inter prediction.

予測ツリーでは、符号化ユニットCUが1または複数の予測ユニットPUに分割され、各予測ユニットの位置とサイズとが規定される。予測ツリーにおける分割の種類は、大まかにいえば、イントラ予測の場合と、インター予測の場合との2つがある。イントラ予測とは、同一ピクチャ内の予測であり、インター予測とは、互いに異なるピクチャ間(例えば、表示時刻間、レイヤ画像間)で行われる予測処理を指す。   In the prediction tree, a coding unit CU is divided into one or more prediction units PU, and the position and size of each prediction unit are defined. Broadly speaking, there are two types of division in the prediction tree: intra prediction and inter prediction. Intra prediction is prediction in the same picture, and inter prediction refers to prediction processing performed between mutually different pictures (for example, between display times, between layer images).

イントラ予測の場合、分割方法は、2N×2N(符号化ユニットと同一サイズ)と、N×Nとがある。   In the case of intra prediction, there are 2N × 2N (the same size as the coding unit) and N × N as a division method.

インター予測の場合、分割方法は、CUヘッダCUHに含まれる分割モード(part_mode)により規定され、対象CUのサイズを2N×2Nとすると、次の合計8種類のパターンがある。すなわち、2N×2N(符号化ユニットと同一サイズ)、2N×N、N×2N、およびN×Nの4つの対称的分割(symmetric splitting)、並びに、2N×nU、2N×nD、N×2N、nL×2N、およびnR×2Nの4つの非対称的分割(asymmetric splitting)がある。なお、N=2(mは1以上の任意の整数)を意味している。以下、対象CUを分割して得られる予測単位のことを予測ブロック、または、パーティションと称する。分割数は1、2、4のいずれかであるため、CUに含まれるPUは1個から4個である。これらのPUを順にPU0、PU1、PU2、PU3と表現する。 In the case of inter prediction, the division method is defined by the division mode (part_mode) included in the CU header CUH. Assuming that the size of the target CU is 2N × 2N, there are a total of the following eight types of patterns. That is, four symmetrical splittings of 2N × 2N (the same size as the coding unit), 2N × N, N × 2N, and N × N, and 2N × nU, 2N × nD, N × 2N , NL × 2N, and nR × 2N, there are four asymmetric splittings. Note that N = 2 m (m is an arbitrary integer of 1 or more). Hereinafter, the prediction unit obtained by dividing the target CU is referred to as a prediction block or partition. Since the number of divisions is one, two, or four, the number of PUs included in the CU is one to four. These PUs are expressed as PU0, PU1, PU2 and PU3 in order.

また、変換ツリーにおいては、符号化ユニットCUが1または複数の変換ユニットTUに分割され、各変換ユニットの位置とサイズとが規定される。変換ツリーにおける分割には、符号化ユニットと同一のサイズの領域を変換ユニットとして割り付けるものと、上述した符号化ツリーブロックの分割と同様、再帰的な4分木分割によるものがある。   Also, in the transform tree, the coding unit CU is divided into one or more transform units TU, and the position and size of each transform unit are defined. The division in the transformation tree includes one in which a region of the same size as the coding unit is allocated as a transformation unit, and one in which a recursive quadtree division is used as in the above-described division of the coding tree block.

なお、予測ユニットPU、変換ユニットTUに対応する画像ブロックを、それぞれ予測ブロック(PB: Prediction Block)、変換ブロック(TB: Transform Block)と称する。   The image block corresponding to the prediction unit PU and the transform unit TU is referred to as a prediction block (PB: Prediction Block) and a transform block (TB: Transform Block), respectively.

(予測パラメータ)
予測ユニットの予測画像は、予測ユニットに付随する予測パラメータによって導出される。予測パラメータには、イントラ予測の予測パラメータもしくはインター予測の予測パラメータがある。以下、インター予測の予測パラメータ(インター予測パラメータ)について説明する。インター予測パラメータは、予測リスト利用フラグpredFlagL0、predFlagL1と、参照ピクチャインデックスrefIdxL0、refIdxL1と、ベクトルmvL0、mvL1から構成される。予測リスト利用フラグpredFlagL0、predFlagL1は、各々L0リスト、L1リストと呼ばれる参照ピクチャリストが用いられるか否かを示すフラグであり、値が1の場合に、各フラグに対応する参照ピクチャリストが用いられる。なお、本明細書中「XXであるか否かを示すフラグ」と記す場合、値が1である時はXXである場合、値が0である時はXXではない場合とし、論理否定、論理積などでは1を真、0を偽と扱う(以下同様)。但し、実際の装置や方法では真値、偽値として他の値を用いることもできる。2つの参照ピクチャリストが用いられる場合、つまり、predFlagL0=1,predFlagL1=1の場合、その予測方法を双予測といい、1つの参照ピクチャリストを用いる場合、すなわち(predFlagL0,predFlagL1)=(1,0)もしくは(predFlagL0,predFlagL1)=(0,1)の場合、その予測方法を単予測という。なお、予測リスト利用フラグの情報は、後述のインター予測識別子inter_pred_idcで表現することもできる。
(Prediction parameter)
The prediction image of the prediction unit is derived by the prediction parameters associated with the prediction unit. The prediction parameters include intra prediction prediction parameters or inter prediction prediction parameters. Hereinafter, prediction parameters for inter prediction (inter prediction parameters) will be described. The inter prediction parameter includes prediction list use flags predFlagL0 and predFlagL1, reference picture indexes refIdxL0 and refIdxL1, and vectors mvL0 and mvL1. The prediction list use flags predFlagL0 and predFlagL1 are flags indicating whether a reference picture list called an L0 list or an L1 list is used, respectively. When the value is 1, a reference picture list corresponding to each flag is used. . In the present specification, when "a flag indicating whether or not it is XX", when the value is 1 when it is XX, when the value is 0 it is not when it is XX, logical negation, logic In products, etc., 1 is treated as true, 0 as false (the same applies hereinafter). However, in an actual apparatus or method, other values may be used as true values or false values. When two reference picture lists are used, that is, when predFlagL0 = 1 and predFlagL1 = 1, the prediction method is called bi-prediction, and when one reference picture list is used, that is, (predFlagL0, predFlagL1) = (1, 0) or (predFlagL0, predFlagL1) = (0, 1), the prediction method is called single prediction. In addition, the information of a prediction list utilization flag can also be expressed by the below-mentioned inter prediction identifier inter_pred_idc.

符号化データに含まれるインター予測パラメータを導出するためのシンタックス要素には、例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXがある。   Syntax elements for deriving inter prediction parameters included in encoded data include, for example, split mode part_mode, merge flag merge_flag, merge index merge_idx, inter prediction identifier inter_pred_idc, reference picture index refIdxLX, predicted vector index mvp_LX_idx, difference There is a vector mvdLX.

また、予測パラメータとして、イントラ予測とインター予測と区別して、レイヤ間画像予測を指定する情報が含まれていてもよい。例えば、レイヤ間画像予測の適用有無を指定するフラグ(レイヤ間画像予測フラグ)を含む。なお、レイヤ間画像予測フラグは、texture_rl_flaと呼ばれることもある。   In addition, information for specifying inter-layer image prediction may be included as a prediction parameter in order to distinguish between intra prediction and inter prediction. For example, it includes a flag (inter-layer image prediction flag) for specifying whether or not inter-layer image prediction is applied. The inter-layer image prediction flag may also be called texture_rl_fla.

また、階層符号化データにおいて、拡張レイヤの符号化データを、下位レイヤの符号化方式と異なる符号化方式により生成しても構わない。すなわち、拡張レイヤの符号化・復号処理は、下位レイヤのコーデックの種類に依存しない。下位レイヤが、例えば、MPEG-2や、H.264/AVC方式によって符号化されていてもよい。   Further, in the hierarchical coding data, the coding data of the enhancement layer may be generated by a coding scheme different from the coding scheme of the lower layer. That is, the encoding / decoding process of the enhancement layer does not depend on the type of codec of the lower layer. The lower layer may be encoded by, for example, MPEG-2 or H.264 / AVC.

なお、以上に説明したパラメータは、単独で符号化されていてもよいし、複数のパラメータが複合的に符号化されていてもよい。複数のパラメータが複合的に符号化される場合は、そのパラメータの値の組み合わせに対してインデックスが割り当てられ、割り当てられた当該インデックスが符号化される。また、パラメータが、別のパラメータや、復号済みの情報から導出可能であれば、当該パラメータの符号化を省略できる。   The parameters described above may be independently encoded, or a plurality of parameters may be encoded in combination. When a plurality of parameters are compositely encoded, an index is assigned to the combination of values of the parameters, and the assigned index is encoded. Also, if a parameter can be derived from another parameter or decoded information, encoding of the parameter can be omitted.

(参照ピクチャリストの一例)
次に、参照ピクチャリストの一例について説明する。参照ピクチャリストとは、後述する参照ピクチャメモリ306(図13)に記憶された参照ピクチャからなる列である。図10(a)は、参照ピクチャリストの一例を示す概念図である。参照ピクチャリスト601において、左右に一列に配列された5個の矩形は、それぞれ参照ピクチャを示す。左端から右へ順に示されている符号P0、P1、Q2、P3、P4は、それぞれの参照ピクチャを示す符号である。P1等のPとは、レイヤPを示し、そしてQ2のQとは、レイヤPとは異なるレイヤQを示す。P及びQの添字は、ピクチャ順序番号POC(Picture Order Count)を示す。refIdxLXの真下の下向きの矢印は、参照ピクチャインデックスrefIdxLXが、参照ピクチャメモリ306において参照ピクチャQ2を参照するインデックスであることを示す。
(An example of reference picture list)
Next, an example of the reference picture list will be described. The reference picture list is a sequence of reference pictures stored in a reference picture memory 306 (FIG. 13) described later. FIG. 10A is a conceptual diagram showing an example of a reference picture list. In the reference picture list 601, five rectangles arranged in a line on the left and right sides respectively indicate reference pictures. The codes P0, P1, Q2, P3 and P4 shown in order from the left end to the right are codes indicating the respective reference pictures. P such as P1 indicates a layer P, and Q of Q2 indicates a layer Q different from the layer P. The subscripts of P and Q indicate picture order numbers POC (Picture Order Count). The downward arrow just below refIdxLX indicates that the reference picture index refIdxLX is an index that refers to the reference picture Q2 in the reference picture memory 306.

(参照ピクチャの例)
次に、ベクトルを導出する際に用いる参照ピクチャの例について説明する。図11は、参照ピクチャの例を示す概念図である。図11において、横軸は表示時刻を示し、縦軸はレイヤ数を示す。図示されている、縦2行、横3列(計6個)の長方形は、それぞれピクチャを示す。6個の長方形のうち、下行の左から2列目の長方形は復号対象のピクチャ(対象ピクチャ)を示し、残りの5個の長方形がそれぞれ参照ピクチャを示す。対象ピクチャから下向きの矢印で示される参照ピクチャQ2は対象ピクチャと同じ表示時刻であってレイヤが異なるピクチャである。対象ピクチャcurPic(P2)を基準とするレイヤ間予測においては、参照ピクチャQ2が用いられる。対象ピクチャから左向きの矢印で示される参照ピクチャP1は、対象ピクチャと同じレイヤであって、過去のピクチャである。対象ピクチャから右向きの矢印で示される参照ピクチャP3は、対象ピクチャと同じレイヤであって、未来のピクチャである。対象ピクチャを基準とする動き予測においては、参照ピクチャP1又はP3が用いられる。
(Example of reference picture)
Next, an example of a reference picture used when deriving a vector will be described. FIG. 11 is a conceptual diagram showing an example of a reference picture. In FIG. 11, the horizontal axis indicates display time, and the vertical axis indicates the number of layers. The illustrated two vertical rows and three horizontal columns (total of six) rectangles each indicate a picture. Among the six rectangles, the rectangle in the second column from the left of the lower row indicates the picture to be decoded (target picture), and the remaining five rectangles indicate reference pictures. A reference picture Q2 indicated by a downward arrow from the target picture is a picture at the same display time as the target picture and in a different layer. In inter-layer prediction based on the target picture curPic (P2), a reference picture Q2 is used. The reference picture P1 indicated by the left-pointing arrow from the target picture is the same layer as the target picture and is a past picture. A reference picture P3 indicated by an arrow pointing to the right from the target picture is the same layer as the target picture and is a future picture. The reference picture P1 or P3 is used in motion prediction based on the target picture.

(インター予測フラグと予測リスト利用フラグ)
インター予測識別子と、予測リスト利用フラグpredFlagL0、predFlagL1の関係は以下のように相互に変換可能である。そのため、インター予測パラメータとしては、予測リスト利用フラグを用いても良いし、インター予測識別子を用いてもよい。また、以下、予測リスト利用フラグを用いた判定は、インター予測識別子に置き替えても可能である。逆に、インター予測識別子inter_pred_idcを用いた判定は、予測リスト利用フラグに置き替えても可能である。
(Inter prediction flag and prediction list use flag)
The relationship between the inter prediction identifier and the prediction list utilization flag predFlagL0 and predFlagL1 can be mutually converted as follows. Therefore, as the inter prediction parameter, a prediction list use flag may be used, or an inter prediction identifier may be used. Also, hereinafter, the determination using the prediction list use flag can be replaced with the inter prediction identifier. Conversely, the determination using the inter prediction identifier inter_pred_idc can be replaced with a prediction list use flag.

inter_pred_idc=(predFlagL1 << 1)+ predFlagL0;
predFlagL0 = inter_pred_idc & 1;
predFlagL1 = inter_pred_idc >> 1;
ここで、>>は右シフト、<<は左シフトである。
inter_pred_idc = (predFlagL1 << 1) + predFlagL0;
predFlagL0 = inter_pred_idc &1;
predFlagL1 = inter_pred_idc >>1;
Here, >> is a right shift and << is a left shift.

(マージ予測とAMVP予測)
予測パラメータの復号(符号化)方法には、マージ予測(merge)モードとAMVP(Adaptive Motion Vector Prediction、適応動きベクトル予測)モードがある。マージフラグmerge_flagは、これらを識別するためのフラグである。マージ予測モードでも、AMVPモードでも、既に処理済みのブロックの予測パラメータを用いて、対象PUの予測パラメータが導出される。マージ予測モードは、予測リスト利用フラグpredFlagLX(インター予測識別子inter_pred_idc)、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めずに、既に導出した予測パラメータをそのまま用いるモードであり、AMVPモードは、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、ベクトルmvLXを符号化データに含めるモードである。なおベクトルmvLXは、予測ベクトルを示す予測ベクトルインデックス(mvp_LX_idx)と差分ベクトル(mvdLX)として符号化される。
(Merge forecast and AMVP forecast)
As prediction parameter decoding (encoding) methods, there are a merge prediction (merge) mode and an AMVP (Adaptive Motion Vector Prediction) mode. The merge flag merge_flag is a flag for identifying these. In both the merge prediction mode and the AMVP mode, prediction parameters of the target PU are derived using prediction parameters of already processed blocks. The merge prediction mode is a mode in which the prediction parameter already derived is used as it is without including the prediction list use flag predFlagLX (inter prediction identifier inter_pred_idc), the reference picture index refIdxLX, and the vector mvLX in the encoded data, and the AMVP mode is In this mode, the prediction identifier inter_pred_idc, the reference picture index refIdxLX, and the vector mvLX are included in the encoded data. The vector mvLX is encoded as a predicted vector index (mvp_LX_idx) indicating a predicted vector and a difference vector (mvdLX).

インター予測識別子inter_pred_idcは、参照ピクチャの種類および数を示すデータであり、Pred_L0、Pred_L1、Pred_Biの何れかの値をとる。Pred_L0、Pred_L1は、各々L0リスト、L1リストと呼ばれる参照ピクチャリストに記憶された参照ピクチャが用いられることを示し、共に1枚の参照ピクチャを用いること(単予測)を示す。L0リスト、L1リストを用いた予測を各々L0予測、L1予測と呼ぶ。Pred_Biは2枚の参照ピクチャを用いること(双予測)を示し、L0リストとL1リストに記憶された参照ピクチャ2つを用いることを示す。予測ベクトルインデックスmvp_LX_idxは予測ベクトルを示すインデックスであり、参照ピクチャインデックスrefIdxLXは、参照ピクチャリストに記憶された参照ピクチャを示すインデックスである。なお、LXは、L0予測とL1予測を区別しない場合に用いられる記述方法であり、LXをL0、L1に置き換えることでL0リストに対するパラメータとL1リストに対するパラメータを区別する。例えば、refIdxL0はL0予測に用いる参照ピクチャインデックス、refIdxL1はL1予測に用いる参照ピクチャインデックス、refIdx(またはrefIdxLX)は、refIdxL0とrefIdxL1を区別しない場合に用いられる表記である。   The inter prediction identifier inter_pred_idc is data indicating the type and the number of reference pictures, and takes any value of Pred_L0, Pred_L1, and Pred_Bi. Pred_L0 and Pred_L1 indicate that reference pictures stored in reference picture lists called L0 list and L1 list, respectively, are used, and both indicate using a single reference picture (uni-prediction). The prediction using the L0 list and the L1 list is called L0 prediction and L1 prediction, respectively. Pred_Bi indicates using two reference pictures (bi-prediction), and indicates using two reference pictures stored in the L0 list and the L1 list. The predicted vector index mvp_LX_idx is an index indicating a predicted vector, and the reference picture index refIdxLX is an index indicating a reference picture stored in the reference picture list. LX is a description method used when L0 prediction and L1 prediction are not distinguished, and parameters for L0 list and parameters for L1 list are distinguished by replacing LX with L0 and L1. For example, refIdxL0 is a reference picture index used for L0 prediction, refIdxL1 is a reference picture index used for L1 prediction, and refIdx (or refIdxLX) is a notation used when not distinguishing refIdxL0 from refIdxL1.

マージインデックスmerge_idxは、処理が完了したブロックから導出される予測パラメータ候補(マージ候補)のうち、いずれの予測パラメータを復号対象ブロックの予測パラメータとして用いるかを示すインデックスである。   Merge index merge_idx is an index which shows which prediction parameter is used as a prediction parameter of a decoding object block among prediction parameter candidates (merge candidate) derived | led-out from the block in which the process was completed.

(動きベクトルと変位ベクトル)
ベクトルmvLXには、動きベクトルと変位ベクトルがある。動きベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、異なる表示時刻(例えば、隣接する離散時刻)における同一レイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。変位ベクトルとは、あるレイヤのある表示時刻でのピクチャにおけるブロックの位置と、同一の表示時刻における異なるレイヤのピクチャにおける対応するブロックの位置との間の位置のずれを示すベクトルである。異なるレイヤのピクチャとしては、異なる解像度のピクチャである場合(空間スケーラビリティ)、異なる品質のピクチャである場合(SNRスケーラビリティ)、もしくは、異なる視点のピクチャである場合(ビュースケーラビリティ)などがある。以降の説明では、動きベクトルと変位ベクトルを区別しない場合には、単にベクトルmvLXと呼ぶ。ベクトルmvLXに関する予測ベクトル、差分ベクトルを、それぞれ予測ベクトルmvpLX、差分ベクトルmvdLXと呼ぶ。ベクトルmvLXおよび差分ベクトルmvdLXが、動きベクトルであるか変位ベクトルであるかは、ベクトルに付随する参照ピクチャインデックスrefIdxLXを用いて区別される。
(Motion vector and displacement vector)
There are motion vector and displacement vector in vector mvLX. A motion vector is a displacement between the position of a block in a picture at a display time of a layer and the position of the corresponding block in a picture of the same layer at a different display time (eg, adjacent discrete time) It is a vector shown. The displacement vector is a vector indicating the positional deviation between the position of a block in a picture at a display time of a certain layer and the position of the corresponding block in a picture of a different layer at the same display time. Examples of pictures of different layers include pictures of different resolutions (spatial scalability), pictures of different qualities (SNR scalability), and pictures of different viewpoints (view scalability). In the following description, when the motion vector and the displacement vector are not distinguished, they are simply referred to as the vector mvLX. The prediction vector relating to the vector mvLX and the difference vector are called a prediction vector mvpLX and a difference vector mvdLX, respectively. Whether the vector mvLX and the difference vector mvdLX are a motion vector or a displacement vector is distinguished using a reference picture index refIdxLX attached to the vector.

〔階層動画像復号装置〕
以下では、本実施形態に係る階層動画像復号装置1の構成について、図12〜図22を参照して説明する。
[Layered video decoding device]
Below, the structure of the hierarchy moving image decoding apparatus 1 which concerns on this embodiment is demonstrated with reference to FIGS. 12-22.

(階層動画像復号装置の構成)
図12を用いて、階層動画像復号装置1の概略的構成を説明すると次のとおりである。図12は、階層動画像復号装置1の概略的構成を示した機能ブロック図である。階層動画像復号装置1は、階層動画像符号化装置2から供給される階層符号化データDATAを復号して、対象レイヤの復号画像POUT#Tを生成する。なお、以下では、対象レイヤは拡張レイヤであるとして説明する。そのため、対象レイヤは、参照レイヤに対する上位レイヤでもある。逆に、参照レイヤは、対象レイヤに対する下位レイヤでもある。
(Configuration of hierarchical moving image decoding apparatus)
The schematic configuration of the hierarchical moving image decoding device 1 will be described as follows using FIG. FIG. 12 is a functional block diagram showing a schematic configuration of the hierarchical moving image decoding device 1. The layer moving image decoding device 1 decodes the layer encoded data DATA supplied from the layer moving image encoding device 2 to generate a decoded image POUT # T of the target layer. In the following, the target layer will be described as an enhancement layer. Therefore, the target layer is also an upper layer to the reference layer. Conversely, the reference layer is also a lower layer to the target layer.

図12に示すように階層動画像復号装置1は、NAL逆多重化部11、対象レイヤピクチャ復号部12、および、参照レイヤピクチャ復号部13を備える。     As shown in FIG. 12, the hierarchical moving image decoding device 1 includes an NAL demultiplexing unit 11, a target layer picture decoding unit 12, and a reference layer picture decoding unit 13.

NAL逆多重化部11は、NAL(Network Abstraction Layer)におけるNALユニット単位で伝送される階層符号化データDATAを逆多重化する。   The NAL demultiplexing unit 11 demultiplexes layer encoded data DATA transmitted in units of NAL units in a Network Abstraction Layer (NAL).

NALは、VCL(Video Coding Layer)と、符号化データを伝送・蓄積する下位システムとの間における通信を抽象化するために設けられる層である。   The NAL is a layer provided to abstract communication between a video coding layer (VCL) and a lower system that transmits and stores coded data.

VCLは、動画像符号化処理を行う層のことであり、VCLにおいて符号化が行われる。一方、ここでいう、下位システムは、H.264/AVCおよびHEVCのファイルフォーマットや、MPEG-2システムに対応する。   VCL is a layer that performs moving picture coding processing, and coding is performed in VCL. On the other hand, the lower system referred to here corresponds to the H.264 / AVC and HEVC file formats and the MPEG-2 system.

なお、NALでは、VCLで生成されたビットストリームが、NALユニットという単位で区切られて、宛先となる下位システムへ伝送される。NALユニットには、VCLで符号化された符号化データ、および、当該符号化データが宛先の下位システムに適切に届けられるためのヘッダが含まれる。また、各階層における符号化データは、NALユニット格納されることでNAL多重化されて階層動画像復号装置1に伝送される。   In NAL, a bit stream generated by VCL is divided into units called NAL units and transmitted to a destination lower system. The NAL unit includes encoded data encoded in VCL, and a header for appropriately delivering the encoded data to a destination lower system. Also, the encoded data in each layer is NAL unit stored, NAL multiplexed, and transmitted to the hierarchical moving image decoding device 1.

NAL逆多重化部11は、階層符号化データDATAを逆多重化して、対象レイヤ符号化データDATA#Tおよび参照レイヤ符号化データDATA#Rを取り出す。また、NAL逆多重化部11は、対象レイヤ符号化データDATA#Tを対象レイヤピクチャ復号部12に供給するとともに、参照レイヤ符号化データDATA#Rを参照レイヤピクチャ復号部13に供給する。   The NAL demultiplexing unit 11 demultiplexes the layer coded data DATA to extract the target layer coded data DATA # T and the reference layer coded data DATA # R. Further, the NAL demultiplexing unit 11 supplies the target layer coded data DATA # T to the target layer picture decoding unit 12, and supplies the reference layer coded data DATA # R to the reference layer picture decoding unit 13.

対象レイヤピクチャ復号部12は、対象レイヤ符号化データDATA#Tと参照レイヤ復号ピクチャから対象レイヤ復号ピクチャを復号する。なお、対象レイヤピクチャ復号部12の詳細は後述する。   The target layer picture decoding unit 12 decodes a target layer decoded picture from the target layer coded data DATA # T and the reference layer decoded picture. The details of the target layer picture decoding unit 12 will be described later.

参照レイヤピクチャ復号部13は、参照レイヤ符号化データDATA#Rから参照レイヤ復号ピクチャを復号する。参照レイヤ復号ピクチャは、対象レイヤの復号ピクチャ復号時に利用される参照レイヤの復号ピクチャである。参照レイヤピクチャ復号部13は、復号した参照レイヤ復号ピクチャを対象レイヤピクチャ復号部12に供給する。なお、参照レイヤピクチャ復号部13は、対象レイヤピクチャ復号部12と同等の機能を有するため、詳細な説明は省略する。   The reference layer picture decoding unit 13 decodes the reference layer decoded picture from the reference layer coded data DATA # R. The reference layer decoded picture is a decoded picture of the reference layer used at the time of decoded picture decoding of the target layer. The reference layer picture decoding unit 13 supplies the decoded reference layer decoded picture to the target layer picture decoding unit 12. In addition, since the reference layer picture decoding unit 13 has the same function as the target layer picture decoding unit 12, the detailed description will be omitted.

以下では、対象レイヤピクチャ復号部12の詳細を説明する。   The details of the target layer picture decoding unit 12 will be described below.

(対象レイヤピクチャ復号部12(画像復号装置))
図13を用いて、対象レイヤピクチャ復号部12の詳細構成について説明する。図13は、対象レイヤピクチャ復号部12の構成を例示した機能ブロック図である。対象レイヤピクチャ復号部12は、可変長復号部301、予測パラメータ復号部302、参照ピクチャメモリ(参照ピクチャ記憶部、フレームメモリ)306、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)307、予測画像生成部308、逆量子化・逆DCT部311、加算部312及びリサンプリング部314を含んで構成される。なお、対象レイヤが基本レイヤである場合、リサンプリング部314は不要である。
(Target Layer Picture Decoding Unit 12 (Image Decoding Device))
The detailed configuration of the target layer picture decoding unit 12 will be described using FIG. FIG. 13 is a functional block diagram illustrating the configuration of the target layer picture decoding unit 12. The target layer picture decoding unit 12 includes a variable length decoding unit 301, a prediction parameter decoding unit 302, a reference picture memory (reference picture storage unit, frame memory) 306, a prediction parameter memory (prediction parameter storage unit, frame memory) 307, a predicted image A generation unit 308, an inverse quantization / inverse DCT unit 311, an addition unit 312, and a resampling unit 314 are included. When the target layer is a base layer, the resampling unit 314 is unnecessary.

また、予測パラメータ復号部302は、インター予測パラメータ復号部303、イントラ予測パラメータ復号部304、及び図示しないレイヤ間情報導出部320を含んで構成される。予測画像生成部308は、インター予測画像生成部309及びイントラ予測画像生成部310を含んで構成される。リサンプリング部314は、レイヤ間画像マッピング部315およびレイヤ間動きマッピング部316およびを含んで構成される。   Further, the prediction parameter decoding unit 302 is configured to include an inter prediction parameter decoding unit 303, an intra prediction parameter decoding unit 304, and an inter-layer information deriving unit 320 (not shown). The predicted image generation unit 308 includes an inter predicted image generation unit 309 and an intra predicted image generation unit 310. The resampling unit 314 includes an inter-layer image mapping unit 315 and an inter-layer motion mapping unit 316.

可変長復号部301は、外部から入力された対象レイヤ符号化データDATA#Tに対して可変長復号を行って、個々の符号(シンタックス要素)を分離し復号する。分離された符号には、予測画像を生成するための予測情報および、差分画像を生成するための残差情報などがある。   The variable-length decoding unit 301 performs variable-length decoding on the target layer coded data DATA # T input from the outside, and separates and decodes individual codes (syntax elements). The separated codes include prediction information for generating a prediction image and residual information for generating a difference image.

可変長復号部301は、分離した符号の一部を予測パラメータ復号部302に出力する。分離した符号の一部とは、例えば、予測モードpredMode、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測フラグinter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLX、レイヤ数vps_max_layers_minus1(図3上のSYNVPS01)、レイヤ識別子指定情報(図3上のSYNVPS02)、参照レイヤ指定情報(図3上のSYNVPS04)、レイヤ従属タイプ情報(図3上のSYNVPS05)、参照レイヤ対応領域情報(図5上のSYNSPS02)、レイヤ間画像予測制約フラグ(図5上のSYNSPS03)、アクティブ参照レイヤ指定情報(図7上のSYNSH01)、アクティブ参照レイヤ対応領域情報(図7上のSYNSH02)、コロケート情報collocated_from_l0_flag,collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexなどである。どの符号を復号するか否かの制御は、予測パラメータ復号部302の指示に基づいて行われる。可変長復号部301は、量子化係数を逆量子化・逆DCT部311に出力する。この量子化係数は、符号化処理において、残差信号に対してDCT(Discrete Cosine Transform、離散コサイン変換)を行い量子化して得られる係数である。   The variable-length decoding unit 301 outputs a part of the separated code to the prediction parameter decoding unit 302. Part of separated codes are, for example, prediction mode predMode, split mode part_mode, merge flag merge_flag, merge index merge_idx, inter prediction flag inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, difference vector mvdLX, layer number vps_max_layers_minus1 ( 3, the layer identifier specification information (SYNVPS 02 in FIG. 3), the reference layer specification information (SYNVPS 04 in FIG. 3), the layer dependency type information (SYNVPS 05 in FIG. 3), the reference layer correspondence area information (FIG. 3) 5, the inter-layer image prediction restriction flag (SYNSPS03 in FIG. 5), the active reference layer specification information (SYNSH01 in FIG. 7), the active reference layer corresponding area information (SYNSH 02 in FIG. 7), the co-located information collocated_from_10_flag , Collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idex, and so on. Control of which code is to be decoded is performed based on an instruction of the prediction parameter decoding unit 302. The variable-length decoding unit 301 outputs the quantization coefficient to the inverse quantization / inverse DCT unit 311. The quantization coefficient is a coefficient obtained by performing DCT (Discrete Cosine Transform, discrete cosine transformation) on the residual signal in the encoding process and quantizing the coefficient.

予測パラメータ復号部302は、可変長復号部301から入力された符号に基づいて、インター予測パラメータまたはイントラ予測パラメータを復号する。そして、復号された予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。予測パラメータ復号部302は、また、テンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag、collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexを抽出し、予測パラメータメモリ307に記憶する。   The prediction parameter decoding unit 302 decodes the inter prediction parameter or the intra prediction parameter based on the code input from the variable length decoding unit 301. Then, the decoded prediction parameter is output to the predicted image generation unit 308 and stored in the prediction parameter memory 307. The prediction parameter decoding unit 302 also extracts co-located information collocated_from_I0_flag, collocated_ref_idx, alt_collocated_indication_flag, and collocated_ref_layer_idex for specifying temporal motion information, and stores the extracted information in the prediction parameter memory 307.

インター予測パラメータ復号部303は、予測パラメータメモリ307に記憶された予測パラメータを参照してインター予測パラメータを出力する。インター予測パラメータ復号部303の詳細については後述する。   The inter prediction parameter decoding unit 303 refers to the prediction parameter stored in the prediction parameter memory 307 and outputs the inter prediction parameter. Details of the inter prediction parameter decoding unit 303 will be described later.

イントラ予測パラメータ復号部304は、可変長復号部301から入力された符号に基づいて、予測パラメータメモリ307に記憶された予測パラメータを参照してイントラ予測パラメータを復号する。イントラ予測パラメータとは、ピクチャブロックを1つのピクチャ内で予測する処理で用いるパラメータ、例えば、イントラ予測モードIntraPredModeである。イントラ予測パラメータ復号部304は、復号したイントラ予測パラメータを予測画像生成部308に出力し、また予測パラメータメモリ307に記憶する。   The intra prediction parameter decoding unit 304 decodes the intra prediction parameter with reference to the prediction parameter stored in the prediction parameter memory 307 based on the code input from the variable length decoding unit 301. The intra prediction parameter is a parameter used in the process of predicting a picture block in one picture, for example, the intra prediction mode IntraPredMode. The intra prediction parameter decoding unit 304 outputs the decoded intra prediction parameter to the prediction image generation unit 308, and stores it in the prediction parameter memory 307.

レイヤ間情報導出部320は、復号された参照レイヤ対応領域情報に基づいて、対象レイヤiが参照する参照レイヤjに関するレイヤ間対応関係パラメータとして、リサンプル参照レイヤピクチャrsPic上における参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetBを前述の式(G-1)〜(G-4)を用いて導出し、参照レイヤ対応領域SRLAの横幅SRLPWおよび縦幅SRLPHを前述の式(G-5)〜(G-6)を用いて導出する。   The inter-layer information deriving unit 320 determines, based on the decoded reference layer corresponding area information, the reference layer corresponding area SRLA on the resample reference layer picture rsPic as an inter-layer correspondence parameter related to the reference layer j referenced by the target layer i. The offsets OffsetL, OffsetT, OffsetR, and OffsetB indicating the position of are derived using the equations (G-1) to (G-4) described above, and the horizontal width SRLPW and the vertical width SRLPH of the reference layer corresponding area SRLA are G-5) to (G-6) to derive.

続いて、対象レイヤiが参照する参照レイヤjに対応するアクティブ参照レイヤ対応領域情報があれば、その情報を用いて参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetB、および参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPHを再設定する。   Subsequently, if there is active reference layer corresponding area information corresponding to the reference layer j referred to by the target layer i, offset Offset L, Offset T, Offset R, Offset B, and reference indicating the position of the reference layer corresponding area SRLA using that information The horizontal width SRLPW and the vertical width SRLPH of the layer corresponding area SRLA are reset.

(図7のSYNSH02を用いる場合)
アクティブ参照レイヤ対応領域情報として、図7のSYNSH02を用いる場合は、オフセットOffsetL, OffsetT, OffsetR, およびOffsetBを前述の式(G-1A)〜(G-4A)により導出し、参照レイヤ対応領域SRLAの横幅SRLPW、及び縦幅SRLPHを前述の式(G-5)〜(G-6)により導出する。
(When using SYNSH02 in FIG. 7)
When SYNSH02 of FIG. 7 is used as the active reference layer corresponding area information, the offsets OffsetL, OffsetT, OffsetR, and OffsetB are derived by the above formulas (G-1A) to (G-4A), and the reference layer corresponding area SRLA The horizontal width SRLPW and the vertical width SRLPH of the above are derived according to the aforementioned formulas (G-5) to (G-6).

(図8のSYNSH03を用いる場合)
また、アクティブ参照レイヤ対応領域情報として、図8のSYNSH03を用いる場合は、導出済のオフセットOffsetL, OffsetT, OffsetR, およびOffsetBに対して、それぞれ差分値ΔL、ΔT、ΔR、ΔB(図9)を加算し、オフセットOffsetL’, OffsetT’, OffsetR’, OffsetB’を導出する(前述の式(G-1B)〜(G-4B)が対応)。その後、
アクティブ参照レイヤ対応領域SRLA’の横幅SRLPW’、及び縦幅SRLPH’を前述の式(G-5A)〜(G-6A)により導出する。
(When using SYNSH03 in FIG. 8)
In addition, when using SYNSH03 in FIG. 8 as the active reference layer correspondence area information, the difference values ΔL, ΔT, ΔR, and ΔB (FIG. 9) are respectively calculated for the offsets OffsetL, OffsetT, OffsetR, and OffsetB that have been derived. Add and derive offsets Offset L ′, Offset T ′, Offset R ′, Offset B ′ (corresponding to the above-mentioned formulas (G-1 B) to (G-4 B)). after that,
The horizontal width SRLPW ′ and the vertical width SRLPH ′ of the active reference layer corresponding area SRLA ′ are derived by the above-described formulas (G-5A) to (G-6A).

続いて、参照レイヤ対応領域SRLAと参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorXと縦幅のサイズ比ScaleFactorYを前述の式(G-7)〜(G-8)を用いて導出する。   Subsequently, the size ratio ScaleFactor X of the horizontal width of the reference layer corresponding area SRLA to the reference layer picture rlPic and the size ratio ScaleFactor Y of the vertical width are derived using the above formulas (G-7) to (G-8).

レイヤ間情報導出部3020にて導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)は予測パラメータメモリ307で記憶される。   Interlayer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, ScaleFactor X, ScaleFactor Y, etc.) derived by the inter-layer information derivation unit 3020 are stored in the prediction parameter memory 307.

参照ピクチャメモリ306は、後述する加算部312が生成した参照ピクチャのブロック(参照ピクチャブロック)を、復号対象のピクチャ及びブロック毎に予め定めた位置に記憶する。   The reference picture memory 306 stores the block of the reference picture (reference picture block) generated by the addition unit 312 described later in a predetermined position for each picture and block to be decoded.

予測パラメータメモリ307は、予測パラメータを、復号対象のピクチャ及びブロック毎に予め定めた位置に記憶する。具体的には、予測パラメータメモリ307は、インター予測パラメータ復号部303が復号したインター予測パラメータ、イントラ予測パラメータ復号部304が復号したイントラ予測パラメータ及び可変長復号部301が分離した予測モードpredModeを記憶する。記憶されるインター予測パラメータには、例えば、予測リスト利用フラグpredFlagLX(インター予測識別子inter_pred_idc)、参照ピクチャインデックスrefIdxLX、ベクトルmvLXがある。   The prediction parameter memory 307 stores the prediction parameter in a predetermined position for each picture and block to be decoded. Specifically, the prediction parameter memory 307 stores the inter prediction parameter decoded by the inter prediction parameter decoding unit 303, the intra prediction parameter decoded by the intra prediction parameter decoding unit 304, and the prediction mode predMode separated by the variable length decoding unit 301. Do. The inter prediction parameters to be stored include, for example, a prediction list use flag predFlagLX (inter prediction identifier inter_pred_idc), a reference picture index refIdxLX, and a vector mvLX.

予測画像生成部308には、可変長復号部301から入力された予測モードpredModeが入力され、また予測パラメータ復号部302から予測パラメータが入力される。また、予測画像生成部308は、参照ピクチャメモリ306から参照ピクチャを読み出す。予測画像生成部308は、予測モードpredModeが示す予測モードに応じて、入力された予測パラメータと読み出した参照ピクチャを用いて予測ピクチャブロックP(予測画像)を生成する。   The prediction image generation unit 308 receives the prediction mode predMode input from the variable length decoding unit 301, and also receives a prediction parameter from the prediction parameter decoding unit 302. Further, the predicted image generation unit 308 reads the reference picture from the reference picture memory 306. The prediction image generation unit 308 generates a prediction picture block P (prediction image) using the input prediction parameter and the read reference picture according to the prediction mode indicated by the prediction mode predMode.

ここで、予測モードpredModeがインター予測モードを示す場合、インター予測画像生成部309は、インター予測パラメータ復号部303から入力されたインター予測パラメータと読み出した参照ピクチャを用いてインター予測により予測ピクチャブロックPを生成する。予測ピクチャブロックPはPUに対応する。PUは、上述したように予測処理を行う単位となる複数の画素からなるピクチャの一部分、つまり1度に予測処理が行われる復号対象ブロックに相当する。   Here, when the prediction mode predMode indicates the inter prediction mode, the inter prediction image generation unit 309 uses the inter prediction parameter input from the inter prediction parameter decoding unit 303 and the read reference picture to perform inter prediction using the prediction picture block P. Generate The predicted picture block P corresponds to PU. The PU corresponds to a part of a picture composed of a plurality of pixels, which is a unit for performing prediction processing as described above, that is, a decoding target block for which the prediction processing is performed once.

インター予測画像生成部309は、予測リスト利用フラグpredFlagLXが1である参照ピクチャリスト(L0リスト、もしくはL1リスト)に対し、参照ピクチャインデックスrefIdxLXで示される参照ピクチャから、復号対象ブロックを基準としてベクトルmvLXが示す位置にある参照ピクチャブロックを参照ピクチャメモリ306から読み出す。インター予測画像生成部309は、読み出した参照ピクチャブロックについて予測を行って予測ピクチャブロックPを生成する。インター予測画像生成部309は、生成した予測ピクチャブロックPを加算部312に出力する。   The inter-prediction image generation unit 309 uses the reference picture index refIdxLX for the reference picture list (L0 list or L1 list) for which the prediction list use flag predFlagLX is 1, and based on the block to be decoded, the vector mvLX Is read out from the reference picture memory 306. The inter predicted image generation unit 309 performs prediction on the read reference picture block to generate a predicted picture block P. The inter predicted image generation unit 309 outputs the generated predicted picture block P to the addition unit 312.

予測モードpredModeがイントラ予測モードを示す場合、イントラ予測画像生成部310は、イントラ予測パラメータ復号部304から入力されたイントラ予測パラメータと読み出した参照ピクチャを用いてイントラ予測を行う。具体的には、イントラ予測画像生成部310は、復号対象のピクチャであって、既に復号されたブロックのうち復号対象ブロックから予め定めた範囲にある参照ピクチャブロックを参照ピクチャメモリ306から読み出す。予め定めた範囲とは、復号対象ブロックがいわゆるラスタースキャンの順序で順次移動する場合、例えば、左、左上、上、右上の隣接ブロックのうちのいずれかであり、イントラ予測モードによって異なる。ラスタースキャンの順序とは、各ピクチャにおいて、上端から下端まで各行について、順次左端から右端まで移動させる順序である。   When the prediction mode predMode indicates the intra prediction mode, the intra prediction image generation unit 310 performs intra prediction using the intra prediction parameter input from the intra prediction parameter decoding unit 304 and the read reference picture. Specifically, the intra prediction image generation unit 310 reads out, from the reference picture memory 306, reference picture blocks which are pictures to be decoded and which are in a predetermined range from the decoding target block among the already decoded blocks. The predetermined range is, for example, one of the left, upper left, upper, and upper right adjacent blocks when the decoding target block sequentially moves in the order of so-called raster scan, and differs depending on the intra prediction mode. The order of raster scan is an order of sequentially moving from the left end to the right end for each row from the top to the bottom in each picture.

イントラ予測画像生成部310は、読み出した参照ピクチャブロックについてイントラ予測モードIntraPredModeが示す予測モードで予測を行って予測ピクチャブロックを生成する。イントラ予測画像生成部310は、生成した予測ピクチャブロックPを加算部312に出力する。   The intra prediction image generation unit 310 performs prediction on the read reference picture block in the prediction mode indicated by the intra prediction mode IntraPredMode to generate a prediction picture block. The intra predicted image generation unit 310 outputs the generated predicted picture block P to the addition unit 312.

逆量子化・逆DCT部311は、可変長復号部301から入力された量子化係数を逆量子化してDCT係数を求める。逆量子化・逆DCT部311は、求めたDCT係数について逆DCT(Inverse Discrete Cosine Transform、逆離散コサイン変換)を行い、復号残差信号を算出する。逆量子化・逆DCT部311は、算出した復号残差信号を加算部312に出力する。   The inverse quantization / inverse DCT unit 311 inversely quantizes the quantization coefficient input from the variable length decoding unit 301 to obtain a DCT coefficient. The inverse quantization / inverse DCT unit 311 performs inverse DCT (Inverse Discrete Cosine Transform) on the obtained DCT coefficient to calculate a decoded residual signal. The inverse quantization / inverse DCT unit 311 outputs the calculated decoded residual signal to the addition unit 312.

加算部312は、インター予測画像生成部309及びイントラ予測画像生成部310から入力された予測ピクチャブロックPと逆量子化・逆DCT部311から入力された復号残差信号の信号値を画素毎に加算して、参照ピクチャブロックを生成する。加算部312は、生成した参照ピクチャブロックを参照ピクチャメモリ306に記憶し、生成した参照ピクチャブロックをピクチャ毎に統合した対象レイヤ復号ピクチャPOUT#Tを外部に出力する。   The addition unit 312 sets, for each pixel, the signal values of the predicted picture block P input from the inter prediction image generation unit 309 and the intra prediction image generation unit 310 and the decoded residual signal input from the inverse quantization / inverse DCT unit 311. Add to generate a reference picture block. The addition unit 312 stores the generated reference picture block in the reference picture memory 306, and externally outputs a target layer decoded picture POUT # T obtained by integrating the generated reference picture block for each picture.

リサンプリング部314は、予測パラメータメモリ307に記録された参照レイヤ対応領域情報、レイヤ間画像予測制約フラグ、およびアクティブ参照レイヤ対応領域情報と、参照レイヤピクチャ復号部15で復号された参照レイヤ復号ピクチャ(参照レイヤピクチャrlPicと呼ぶ)の動き情報rlPicMotion、及び画像rlPicSampleを用いて、リサンプル参照レイヤピクチャrsPicのリサンプル動き情報rsPicMotion及びリサンプル画像rsPicSampleをそれぞれレイヤ間動きマッピング部316、レイヤ間画像マッピング部315において生成する。生成されたリサンプル動き情報rsPicMotionは、予測パラメータメモリ307に格納される。また、生成されたリサンプル画像rsPicSampleは参照ピクチャメモリ306に格納される。なお、レイヤ間画像マッピング部315、およびレイヤ間動きマッピング部316の詳細は後述する。   The resampling unit 314 uses the reference layer corresponding area information recorded in the prediction parameter memory 307, the inter-layer image prediction restriction flag, the active reference layer corresponding area information, and the reference layer decoded picture decoded by the reference layer picture decoding unit 15. Inter-layer motion mapping unit 316, Inter-layer image mapping, Resample motion information rsPicMotion of resample reference layer picture rsPic and resample image rsPicSample using motion information rlPicMotion of image (referred to as reference layer picture rlPic) and image rlPicSample It generates in the part 315. The generated resample motion information rsPicMotion is stored in the prediction parameter memory 307. Also, the generated resampled image rsPicSample is stored in the reference picture memory 306. The details of the inter-layer image mapping unit 315 and the inter-layer motion mapping unit 316 will be described later.

(インター予測パラメータ復号部の構成)
次に、インター予測パラメータ復号部303の構成について説明する。図14_は、本実施形態に係るインター予測パラメータ復号部303の構成を示す概略図である。インター予測パラメータ復号部303は、インター予測パラメータ復号制御部3031、AMVP予測パラメータ導出部3032、加算部3035、およびマージ予測パラメータ導出部3036を含んで構成される。
(Configuration of inter prediction parameter decoding unit)
Next, the configuration of the inter prediction parameter decoding unit 303 will be described. FIG. 14_ is a schematic diagram showing the configuration of the inter prediction parameter decoding unit 303 according to this embodiment. The inter prediction parameter decoding unit 303 includes an inter prediction parameter decoding control unit 3031, an AMVP prediction parameter derivation unit 3032, an addition unit 3035, and a merge prediction parameter derivation unit 3036.

インター予測パラメータ復号制御部3031は、インター予測に関連する符号(シンタックス要素の復号を可変長復号部301に指示し、符号化データに含まれる符号(シンタックス要素)を例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXを抽出する。   The inter prediction parameter decoding control unit 3031 instructs the code associated with inter prediction (decoding of syntax element to the variable-length decoding unit 301, the code (syntax element) included in the encoded data, for example, division mode part_mode, A merge flag merge_flag, a merge index merge_idx, an inter prediction identifier inter_pred_idc, a reference picture index refIdxLX, a prediction vector index mvp_LX_idx, and a difference vector mvdLX are extracted.

インター予測パラメータ復号制御部3031は、まず、マージフラグmerge_flagを抽出する。ここ以降、インター予測パラメータ復号制御部3031があるシンタックス要素を抽出すると表現する場合は、あるシンタックス要素の復号を可変長復号部301に指示し、該当のシンタックス要素を符号化データから読み出すことを意味する。ここで、マージフラグが示す値が1、すなわち、マージ予測モードを示す場合、インター予測パラメータ復号制御部3031は、マージ予測に係る予測パラメータとして、マージインデックスmerge_idxを抽出する。インター予測パラメータ復号制御部3031は、抽出したマージインデックスmerge_idxをマージ予測パラメータ導出部3036に出力する。   The inter prediction parameter decoding control unit 3031 first extracts the merge flag merge_flag. Hereinafter, when expressing that the inter prediction parameter decoding control unit 3031 extracts a syntax element, the decoding of a certain syntax element is instructed to the variable length decoding unit 301, and the corresponding syntax element is read from the encoded data. It means that. Here, when the value indicated by the merge flag is 1, that is, indicates the merge prediction mode, the inter prediction parameter decoding control unit 3031 extracts the merge index merge_idx as a prediction parameter related to merge prediction. The inter prediction parameter decoding control unit 3031 outputs the extracted merge index merge_idx to the merge prediction parameter derivation unit 3036.

マージフラグmerge_flagが0、すなわち、AMVP予測モードを示す場合、インター予測パラメータ復号制御部3031は、AMVP予測パラメータを抽出する。AMVP予測パラメータとして、例えば、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXがある。インター予測パラメータ復号制御部3031は、抽出したインター予測識別子inter_pred_idcから導出した予測リスト利用フラグpredFlagLXと、参照ピクチャインデックスrefIdxLXをAMVP予測パラメータ導出部3032及び予測画像生成部308(図13)に出力し、また予測パラメータメモリ307(図13)に記憶する。インター予測パラメータ復号制御部3031は、抽出したベクトルインデックスmvp_LX_idxをAMVP予測パラメータ導出部3032(動き情報導出部)に出力する。インター予測パラメータ復号制御部3031は、抽出した差分ベクトルmvdLXを加算部3035に出力する。   If the merge flag merge_flag is 0, that is, indicates an AMVP prediction mode, the inter prediction parameter decoding control unit 3031 extracts an AMVP prediction parameter. As AMVP prediction parameters, for example, there are inter prediction identifier inter_pred_idc, reference picture index refIdxLX, vector index mvp_LX_idx, and difference vector mvdLX. The inter prediction parameter decoding control unit 3031 outputs the prediction list use flag predFlagLX derived from the extracted inter prediction identifier inter_pred_idc and the reference picture index refIdxLX to the AMVP prediction parameter derivation unit 3032 and the prediction image generation unit 308 (FIG. 13), Further, it is stored in the prediction parameter memory 307 (FIG. 13). The inter prediction parameter decoding control unit 3031 outputs the extracted vector index mvp_LX_idx to the AMVP prediction parameter derivation unit 3032 (motion information derivation unit). The inter prediction parameter decoding control unit 3031 outputs the extracted difference vector mvdLX to the addition unit 3035.

図15は、本実施形態に係るマージ予測パラメータ導出部3036(動き情報導出部)の構成を示す概略図である。マージ予測パラメータ導出部3036は、マージ候補導出部30361とマージ候補選択部30362を備える。マージ候補導出部30361は、マージ候補格納部303611と、基本マージ候補導出部303613を含んで構成される。   FIG. 15 is a schematic view showing a configuration of a merge prediction parameter derivation unit 3036 (motion information derivation unit) according to the present embodiment. The merge prediction parameter derivation unit 3036 includes a merge candidate derivation unit 30361 and a merge candidate selection unit 30362. The merge candidate derivation unit 30361 includes a merge candidate storage unit 303611 and a basic merge candidate derivation unit 303613.

マージ候補格納部303611は、基本マージ候補導出部303613から入力されたマージ候補を格納する。なお、マージ候補は、予測リスト利用フラグpredFlagLX、ベクトルmvLX、参照ピクチャインデックスrefIdxLXを含んで構成されている。   The merge candidate storage unit 303611 stores the merge candidate input from the basic merge candidate derivation unit 303613. The merge candidate is configured to include a prediction list use flag predFlagLX, a vector mvLX, and a reference picture index refIdxLX.

基本マージ候補導出部303613は、空間マージ候補導出部3036131と時間マージ候補導出部3036132と結合マージ候補導出部3036133とゼロマージ候補導出部3036134を含んで構成される。   The basic merge candidate derivation unit 303613 includes a space merge candidate derivation unit 3036131, a temporal merge candidate derivation unit 3036132, a combined merge candidate derivation unit 3036133, and a zero merge candidate derivation unit 3036134.

空間マージ候補導出部3036131は、所定の規則に従って、予測パラメータメモリ307が記憶している予測パラメータ(予測リスト利用フラグpredFlagLX、ベクトルmvLX、参照ピクチャインデックスrefIdxLX)を読み出し、読み出した予測パラメータをマージ候補として導出する。読み出される予測パラメータは、復号対象ブロックから予め定めた範囲内にあるブロック(例えば、復号対象ブロックの左下端、左上端、右上端にそれぞれ接するブロックの全部又は一部)のそれぞれに係る予測パラメータである。導出されたマージ候補はマージ候補格納部303611に格納される。   The space merge candidate derivation unit 3036131 reads the prediction parameters (prediction list use flag predFlagLX, vector mvLX, reference picture index refIdxLX) stored in the prediction parameter memory 307 according to a predetermined rule, and uses the read prediction parameters as merge candidates. To derive. The prediction parameters to be read out are prediction parameters relating to each block within a predetermined range from the decoding target block (for example, all or part of the blocks in contact with the lower left end, upper left end and upper right end of the decoding target block) is there. The derived merge candidate is stored in the merge candidate storage unit 303611.

時間マージ候補導出部3036132は、復号対象ブロックが含まれるスライスのスライスヘッダ内の、テンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag, collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idxにより指定される参照ピクチャcolPicの動き情報を予測パラメータメモリ307より参照し、時間マージ候補と呼ばれる動き情報を導出する。なお、alt_collocated_indication_flagの値が0の場合、collocated_from_l0_flag、collocated_ref_idxによって指定される同一レイヤ上の参照ピクチャcolPicの動き情報に基づいて、時間マージ候補の動き情報を導出する。一方、alt_collocated_indication_flagの値が1の場合、collocated_ref_layer_idxによって指定される参照レイヤピクチャrlPicの動き情報rlPicMotionをレイヤ間動きマッピング315によりリサンプルされたリサンプル動き情報rsPicMotionに基づいて、時間マージ候補の動き情報を導出する。   The temporal merge candidate derivation unit 3036132 predicts the motion information of the reference picture colPic specified by the collocated information from the slice header of the slice including the decoding target block for specifying temporal motion information: collocated_from_10_flag, collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idx By referring to the parameter memory 307, motion information called a temporal merge candidate is derived. When the value of alt_collocated_indication_flag is 0, motion information of a temporal merge candidate is derived based on the motion information of the reference picture colPic on the same layer specified by collocated_from_10_flag and collocated_ref_idx. On the other hand, when the value of alt_collocated_indication_flag is 1, based on resample motion information rsPicMotion resampled by inter-layer motion mapping 315 motion information rlPicMotion of reference layer picture rlPic specified by collated_ref_layer_idx, motion information of temporal merge candidate To derive.

復号対象ブロックの右下座標BRを含む参照ピクチャcolPic中のブロックの予測パラメータを予測パラメータメモリ307から読みだしマージ候補とする。参照ピクチャcolPic及び右下座標BRの導出方法は、時間ベクトル候補導出部303322の方法と同一であるので後述する。なお、時間マージ候補導出部3036132および時間ベクトル候補導出部303322で参照される動き情報をテンポラル動き情報と呼ぶ。導出されたマージ候補はマージ候補格納部303611に格納される。   The prediction parameter of the block in the reference picture colPic including the lower right coordinate BR of the block to be decoded is read from the prediction parameter memory 307 and is regarded as a merge candidate. The method of deriving the reference picture colPic and the lower right coordinate BR is the same as the method of the time vector candidate derivation unit 303322 and will be described later. Motion information referred to by the temporal merge candidate derivation unit 3036132 and the temporal vector candidate derivation unit 303322 is referred to as temporal motion information. The derived merge candidate is stored in the merge candidate storage unit 303611.

図16に、復号対象ブロックXに関して、空間マージ候補導出の際に予測パラメータを読み出す対象とするブロック(座標A0,A1,B0,B1,B2を含むブロック)の位置関係の例を示す。また、復号対象ブロックXに関して、時間マージ候補導出の際に予測パラメータ(動き情報)を参照する対象とする参照ピクチャcolPic内のブロック(座標BRを含むブロック)の位置関係の例を示す。図中のブロックYは、復号対象ブロックXに対応する位置にある、参照ピクチャcolPic内のブロックである。なお、これらブロック位置の関係については、後述する空間ベクトル候補導出部303321においてベクトル候補を導出する際に予測パラメータを読み出す対象とするブロック位置および、時間ベクトル候補導出部303322においてベクトル候補を導出する際に予測パラメータ(動き情報)を参照する対象とするブロック位置も、それぞれ同様の関係がある。   FIG. 16 shows an example of the positional relationship of blocks (blocks including coordinates A0, A1, B0, B1 and B2) which are targets for reading out prediction parameters at the time of spatial merge candidate derivation for block X to be decoded. In addition, regarding the block X to be decoded, an example of the positional relationship of the block (the block including the coordinate BR) in the reference picture colPic to be referred to for prediction parameter (motion information) in temporal merge candidate derivation is shown. A block Y in the drawing is a block in the reference picture colPic at a position corresponding to the decoding target block X. As for the relationship between these block positions, when the space vector candidate derivation unit 303321, which will be described later, derives the vector candidate, the block position for which the prediction parameter is to be read and the time vector candidate derivation unit 303322 derives the vector candidate. The block positions to which the prediction parameters (motion information) are to be referred to are also in the same relation.

結合マージ候補導出部3036133は、既に導出されマージ候補格納部303611に格納された2つの異なる導出済マージ候補のベクトルと参照ピクチャインデックスを、それぞれL0、L1のベクトルとして組み合わせることで結合マージ候補を導出する。導出されたマージ候補はマージ候補格納部303611に格納される。   The combined merge candidate derivation unit 3036133 derives a combined merge candidate by combining the vectors of the two different derived merge candidates already derived and stored in the merge candidate storage unit 303611 and the reference picture index as vectors of L0 and L1, respectively. Do. The derived merge candidate is stored in the merge candidate storage unit 303611.

ゼロマージ候補導出部3036134は、参照ピクチャインデックスrefIdxLXが0であり、ベクトルmvLXのX成分、Y成分が共に0であるマージ候補を導出する。導出されたマージ候補はマージ候補格納部303611に格納される。   The zero merge candidate derivation unit 3036134 derives a merge candidate in which the reference picture index refIdxLX is 0 and both the X component and the Y component of the vector mvLX are 0. The derived merge candidate is stored in the merge candidate storage unit 303611.

マージ候補選択部30362は、マージ候補格納部303611に格納されているマージ候補のうち、インター予測パラメータ復号制御部3031から入力されたマージインデックスmerge_idxに対応するインデックスが割り当てられたマージ候補を、対象PUのインター予測パラメータとして選択する。マージ候補選択部30362は選択したマージ候補を予測パラメータメモリ307(図13)に記憶するとともに、予測画像生成部308(図13)に出力する。   Among the merge candidates stored in the merge candidate storage unit 303611, the merge candidate selection unit 30362 selects, as the target PU, the merge candidate to which the index corresponding to the merge index merge_idx input from the inter prediction parameter decoding control unit 3031 is assigned. Select as inter prediction parameter of. The merge candidate selection unit 30362 stores the selected merge candidate in the prediction parameter memory 307 (FIG. 13) and outputs it to the predicted image generation unit 308 (FIG. 13).

図17は、本実施形態に係るAMVP予測パラメータ導出部3032の構成を示す概略図である。AMVP予測パラメータ導出部3032は、ベクトル候補導出部3033と予測ベクトル選択部3034を備える。   FIG. 17 is a schematic diagram showing the configuration of the AMVP prediction parameter derivation unit 3032 according to this embodiment. The AMVP prediction parameter derivation unit 3032 includes a vector candidate derivation unit 3033 and a prediction vector selection unit 3034.

ベクトル候補導出部3033は、参照ピクチャインデックスrefIdxに基づいて予測パラメータメモリ307(図13)が記憶するベクトル(動きベクトル又は変位ベクトル)をベクトル候補mvpLXとして読み出し、所定の数のベクトル候補を導出してベクトル候補格納部30331へ格納する。導出されるベクトルは、空間ベクトル候補導出部303321、時間ベクトル候補導出部303322、ゼロベクトル候補導出部303323により決定される。   The vector candidate derivation unit 3033 reads a vector (motion vector or displacement vector) stored in the prediction parameter memory 307 (FIG. 13) as vector candidate mvpLX based on the reference picture index refIdx, and derives a predetermined number of vector candidates. It is stored in the vector candidate storage unit 30331. The derived vector is determined by the space vector candidate derivation unit 303321, the time vector candidate derivation unit 303322, and the zero vector candidate derivation unit 303323.

空間ベクトル候補導出部303321は、復号対象ブロックから予め定めた範囲内にあるブロック(例えば、復号対象ブロックの左下端、左上端、右上端にそれぞれ接するブロックの全部又は一部)のそれぞれに係るベクトルを予測パラメータメモリから読み出してベクトル候補とする。   The space vector candidate derivation unit 303321 is a vector relating to each of the blocks within the predetermined range from the decoding target block (for example, all or part of the blocks in contact with the lower left end, upper left end and upper right end of the decoding target block) Are read out from the prediction parameter memory to make vector candidates.

時間ベクトル候補導出部303322は、復号対象ブロックが含まれるスライスのスライスヘッダ内の、テンポラル動き情報を指定するためのコロケート情報collocated_from_l0_flag、collocated_ref_idx、alt_collocated_indication_flag、collocated_ref_layer_idxにより指定される参照ピクチャcolPicの動き情報を予測パラメータメモリ307より参照し、時間ベクトル候補と呼ばれる動き情報を導出する。復号対象ブロックの右下の座標を含む参照ピクチャ中のブロックに係るベクトルを予測パラメータメモリ307から読み出してベクトル候補とする。なお、alt_collocated_indication_flagの値が0の場合、collocated_from_l0_flag、collocated_ref_idxによって指定される同一レイヤ上の参照ピクチャcolPicの動き情報に基づいて、時間ベクトル候補の動き情報を導出する。一方、alt_collocated_indication_flagの値が1の場合、collocated_ref_layer_idxによって指定される参照レイヤピクチャrlPicの動き情報rlPicMotionをレイヤ間動きマッピング315によりリサンプルされたリサンプル動き情報rsPicMotionに基づいて、時間動きベクトル候補の動き情報を導出する。   The time vector candidate derivation unit 303322 predicts motion information of the reference picture colPic specified by the collocated information from the slice header of the slice including the decoding target block for specifying temporal motion information collocated_from_10_flag, collocated_ref_idx, alt_collocated_indication_flag, and collocated_ref_layer_idx. By referring to the parameter memory 307, motion information called a time vector candidate is derived. A vector relating to the block in the reference picture including the lower right coordinates of the block to be decoded is read out from the prediction parameter memory 307 and is set as a vector candidate. When the value of alt_collocated_indication_flag is 0, motion information of a time vector candidate is derived based on the motion information of the reference picture colPic on the same layer specified by collocated_from_I0_flag and collocated_ref_idx. On the other hand, when the value of alt_collocated_indication_flag is 1, based on resample motion information rsPicMotion in which the motion information rlPicMotion of the reference layer picture rlPic specified by collated_ref_layer_idx is resampled by the inter-layer motion mapping 315, motion information of temporal motion vector candidate Derive

参照ピクチャcolPicと右下座標BRの導出方法を以下説明する。レイヤ間動き予測フラグalt_collocated_indication_flagが1に等しい時、対象ピクチャと同一アクセスユニット内にあるコロケート参照レイヤインデックスcollocated_ref_layer_idxが指定するアクティブ参照レイヤActiveMotionPredRefLayerId[collocated_ref_layer_idx]のリサンプル参照レイヤピクチャrsPicを、テンポラル動き情報の対象となる参照ピクチャcolPicとする。レイヤ間動き予測フラグalt_collocated_indication_flagが0に等しい場合は、次のように参照ピクチャcolPicを導出する。復号対象ブロックを含むスライスのスライスタイプがBスライスの場合で、かつコロケート情報collocated_from_l0_flagが0に等しい時、参照ピクチャリストL1内で、テンポラルインデックスcollocated_ref_idxが指す位置の参照ピクチャ(=RefPicList1[collocated_ref_idx])を、テンポラル動き情報の対象となる参照ピクチャcolPicとする。一方、スライスタイプがBスライスの場合でも上記の条件にあてはまらないか、またはスライスタイプがPスライスの場合、参照ピクチャリストL0内で、インデックスcollocated_ref_idxが指す位置の参照ピクチャ(=RefPicList0[collocated_ref_idx])を、テンポラル動き情報の対象となる参照ピクチャcolPicとする。   A method of deriving the reference picture colPic and the lower right coordinate BR will be described below. When inter-layer motion prediction flag alt_collocated_indication_flag is equal to 1, resample reference layer picture rsPic of active reference layer ActiveMotionPredRefLayerId [collocated_ref_layer_idx] specified by co-located reference layer index collocated_ref_layer_idx in same access unit as target picture And the reference picture colPic. If the inter-layer motion prediction flag alt_collocated_indication_flag is equal to 0, the reference picture colPic is derived as follows. When the slice type of the slice including the block to be decoded is B slice and colocated information from colocated_from_I0_flag is equal to 0, a reference picture (= RefPicList1 [collocated_ref_idx]) at a position pointed to by temporal index collapsed_ref_idx in reference picture list L1. , And a reference picture colPic to be an object of temporal motion information. On the other hand, even if the slice type is B slice, if the above conditions do not apply, or if the slice type is P slice, the reference picture (= RefPicList0 [collocated_ref_idx]) at the position pointed to by index collocated_ref_idx in reference picture list L0. , And a reference picture colPic to be an object of temporal motion information.

右下座標BRは、復号対象ブロックの座標が(xPb, yPb)、サイズが(nPbW, nPbH)である場合、ブロックの右下座標xColBr、yColBrを以下の式により導出する(図16参照)。   The lower right coordinates BR derive the lower right coordinates xColBr and yColBr of the block according to the following equation when the coordinates of the block to be decoded are (xPb, yPb) and the size is (nPbW, nPbH) (see FIG. 16).

xColBr = xPb + nPbW
yColBr = yPb + nPbH
さらに、座標の水平成分、垂直成分がそれぞれ16の倍数となるように、以下の式により座標を生成する。
xColBr = xPb + nPbW
yColBr = yPb + nPbH
Further, the coordinates are generated by the following equation so that the horizontal component and the vertical component of the coordinates become multiples of 16, respectively.

xColBr´ = ( ( xColBr >> 4 ) << 4
yColBr´ = ( ( yColBr >> 4 ) << 4
この生成後の座標(xColBr´, yColBr´)を、テンポラル動き情報の参照位置を示す右下座標BRとする。
xColBr = = ((xColBr >> 4) << 4
yColBr = = ((yColBr >> 4) << 4
Coordinates (xColBr ', yColBr') after the generation are set as lower right coordinates BR indicating the reference position of temporal motion information.

ゼロベクトル候補導出部303323は、ベクトル候補として水平成分と垂直成分が共にゼロであるゼロベクトルを生成する。ゼロベクトルの生成は、前述の空間ベクトル候補導出部および時間ベクトル候補導出部によって導出されたベクトル候補の数が、前記所定の数に達しなかった場合にのみ実行する。例えば、空間ベクトル候補の対象となる範囲のブロックや時間ベクトル候補の対象となるブロックがイントラ予測符号化されている場合は、そのブロックに関する動きベクトルがないため、ベクトル候補として利用できないことになる。その結果として、ベクトル候補の数が所定の数に満たない場合に、ゼロベクトル候補導出部がゼロベクトルを生成し、ベクトル候補格納部へ出力する。ベクトル候補格納部30331は、空間ベクトル候補導出部303321、時間ベクトル候補導出部303322、ゼロベクトル候補導出部303323から出力される候補ベクトルを、予測ベクトルリストに所定の数まで順番に格納する。ここで、ベクトル候補に関する前記所定の数は例えば2とし、ベクトル候補導出部3033は、前記所定の数に達するまで各ベクトル候補を導出し、以降の導出処理は省略してもよい。   The zero vector candidate derivation unit 303323 generates a zero vector whose horizontal component and vertical component are both zero as vector candidates. The generation of the zero vector is performed only when the number of vector candidates derived by the space vector candidate deriving unit and the time vector candidate deriving unit does not reach the predetermined number. For example, when a block in a target range of a space vector candidate or a target block in a time vector candidate is intra-prediction encoded, it can not be used as a vector candidate because there is no motion vector for the block. As a result, when the number of vector candidates does not reach a predetermined number, the zero vector candidate derivation unit generates a zero vector and outputs the zero vector to the vector candidate storage unit. The vector candidate storage unit 30331 sequentially stores candidate vectors output from the space vector candidate derivation unit 303321, the time vector candidate derivation unit 303322, and the zero vector candidate derivation unit 303323 in the prediction vector list up to a predetermined number. Here, the predetermined number of vector candidates may be 2, for example, and the vector candidate derivation unit 3033 may derive each vector candidate until the predetermined number is reached, and the subsequent derivation process may be omitted.

予測ベクトル選択部3034は、ベクトル候補導出部3033が読み出したベクトル候補のうち、インター予測パラメータ復号制御部3031から入力されたベクトルインデックスmvp_LX_idxが示すベクトル候補を予測ベクトルmvpLXとして選択する。予測ベクトル選択部3034は、選択した予測ベクトルmvpLXを加算部3035に出力する。   The prediction vector selection unit 3034 selects, as a prediction vector mvpLX, a vector candidate indicated by the vector index mvp_LX_idx input from the inter prediction parameter decoding control unit 3031 among the vector candidates read out by the vector candidate derivation unit 3033. The prediction vector selection unit 3034 outputs the selected prediction vector mvpLX to the addition unit 3035.

候補ベクトルは、復号処理が完了したブロックであって、復号対象ブロックから予め定めた範囲のブロック(例えば、隣接ブロック)を参照し、参照したブロックに係るベクトルに基づいて生成される。なお、隣接ブロックには、対象ブロックに空間的に隣接するブロック、例えば、左ブロック、上ブロックの他、対象ブロックに時間的に隣接するブロック、例えば、対象ブロックと同じ位置で、表示時刻が異なるブロックから得られたブロックを含む。候補ベクトルに関しては、参照ブロックが、復号対象ブロックと空間的に隣接するブロックである場合と、時間的に隣接するブロックである場合とを区別するために、それぞれ空間動きベクトル、時間動きベクトル(またはテンポラル動きベクトル、テンポラル動き情報)と称することもある。   The candidate vector is a block for which decoding processing has been completed, and is generated based on a vector related to the block referred to with reference to a block (for example, an adjacent block) in a predetermined range from the block to be decoded. In the adjacent block, a block spatially adjacent to the target block, for example, a left block, an upper block, and a block temporally adjacent to the target block, for example, the same position as the target block, the display time is different. Contains the block obtained from the block. With regard to candidate vectors, a spatial motion vector, a temporal motion vector (or a spatial motion vector (or a spatial motion vector), respectively, to distinguish between the case where the reference block is a block spatially adjacent to the current block and the case where the reference block is temporally adjacent. It may be called temporal motion vector (temporal motion information).

加算部3035は、予測ベクトル選択部3034すなわちAMVP予測パラメータ導出部3032から入力された予測ベクトルmvpLXとインター予測パラメータ復号制御部3031から入力された差分ベクトルmvdLXを加算してベクトルmvLXを算出する。加算部3035は、算出したベクトルmvLXを予測画像生成部308(図13)に出力する。   The adding unit 3035 adds the prediction vector mvpLX input from the prediction vector selection unit 3034, that is, the AMVP prediction parameter derivation unit 3032 and the difference vector mvdLX input from the inter prediction parameter decoding control unit 3031 to calculate a vector mvLX. The addition unit 3035 outputs the calculated vector mvLX to the predicted image generation unit 308 (FIG. 13).

(レイヤ間画像マッピング部)
次に、レイヤ間画像マッピング部315の構成について説明する。レイヤ間画像マッピング部315は、リサンプル参照レイヤピクチャrsPicのリサンプル画像rsPicSampleを、参照レイヤピクチャrlPicの画像rlPicSampleからレイヤ間画像マッピングにより生成する。
(Inter-layer image mapping unit)
Next, the configuration of the inter-layer image mapping unit 315 will be described. The inter-layer image mapping unit 315 generates the resampled image rsPicSample of the resampled reference layer picture rsPic from the image rlPicSample of the reference layer picture rlPic by inter-layer image mapping.

図18に、レイヤ間画像マッピング部315の構成を示す。レイヤ間画像マッピング部315は、リサンプル参照レイヤピクチャrsPicの各画素に対応する、参照レイヤピクチャrlPicにおける参照画素の位置を導出する参照画素導出部3151と、導出された位置にある画素とその周辺画素にリサンプルフィルタを適用して、リサンプル画像を生成するリサンプル画像生成部3152とをさらに含んで構成される。   The configuration of the inter-layer image mapping unit 315 is shown in FIG. The inter-layer image mapping unit 315 derives the position of the reference pixel in the reference layer picture rlPic corresponding to each pixel of the resample reference layer picture rsPic, and the pixel at the derived position and its periphery And a resample image generation unit 3152 that applies a resample filter to the pixels to generate a resample image.

レイヤ間画像マッピング部315は、リサンプル参照レイヤピクチャrsPic上のxP = 0…PW-1、yP = 0…PH - 1)の範囲にある輝度、及びxPC = 0…PWC - 1, yPC = 0…PHC - 1)の範囲にある色差の各画素値を生成する。ここで、PWC、PHCは、それぞれ、リサンプル参照レイヤピクチャrsPicの色差における横幅、縦幅である。なお、レイヤ間画像予測制約フラグinter_pred_sample_constraint_flagが真の場合、参照レイヤ対応領域SRLA(輝度(xP = offsetL …PW - offsetR - 1, yP = offsetT…PH - offsetB - 1), 色差(xPC = 0ffsetL/2 … PWC - offsetR/2 - 1, offsetT/2…PHC - offset/2 - 1))の範囲にある画像のみレイヤ間画像予測で参照されるため、上記範囲のみのリサンプル画像を生成し、参照ピクチャメモリ308へ記憶してもよい。それにより、参照レイヤ対応領域外NSRLのリサンプル画像(輝度、色差)の生成の処理簡略化、及び保持するためのメモリ削減をすることが可能である。   The inter-layer image mapping unit 315 sets the luminance in the range of xP = 0 to PW-1, yP = 0 to PH-1) on the resample reference layer picture rsPic, and xPC = 0 to PWC-1 and yPC = 0. ... generate each pixel value of the color difference in the range of PHC-1). Here, PWC and PHC are respectively the horizontal width and the vertical width in the color difference of the resample reference layer picture rsPic. In addition, when the inter-layer image prediction constraint flag inter_pred_sample_constraint_flag is true, the reference layer corresponding area SRLA (brightness (xP = offsetL ... PW-offsetR-1, yP = offsetT ... PH-offsetB-1), color difference (xPC = 0ffsetL / 2) ... Because only images in the range of PWC-offsetR / 2-1, offsetT / 2 ... PHC-offset / 2-1)) are referenced in inter-layer image prediction, a resample image of only the above range is generated and referenced It may be stored in the picture memory 308. As a result, it is possible to simplify the process of generating the resampled image (brightness, color difference) of the NSRL outside the reference layer corresponding area, and to reduce the memory for holding.

参照画素位置導出部3151は、レイヤ間情報導出部3020で導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY)を用いて、リサンプル参照レイヤピクチャrsPic上の各画素に対応する参照レイヤピクチャrlPic上の参照画素の位置を算出する。具体的には、対象画素のピクチャ内の座標が(xP, yP)であるとき、参照画素位置(xRef, yRef)と位相(xPhase, yPhase)を以下の手順で導出し、リサンプル画像生成部3152へ出力する。
(1)1/2^MP画素精度(MPは、0…nosf_bitまでの整数)の参照画素位置(xRefMP, yRefMP)を例えば、式(N-1)〜(N-2)により導出する。例えば、1/16画素精度であれば、MP=4となる。
The reference pixel position derivation unit 3151 uses the inter-layer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, ScaleFactor X, ScaleFactor Y) derived by the inter-layer information derivation unit 3020 to obtain a resample reference layer picture rsPic. The position of the reference pixel on the reference layer picture rlPic corresponding to each upper pixel is calculated. Specifically, when the coordinates of the target pixel in the picture are (xP, yP), the reference pixel position (xRef, yRef) and the phase (xPhase, yPhase) are derived in the following procedure, and the resampled image generation unit Output to 3152
(1) The reference pixel position (xRefMP, yRefMP) of 1/2 ^ MP pixel accuracy (MP is an integer up to 0... Nosf_bit) is derived by, for example, equations (N-1) to (N-2). For example, if 1/16 pixel accuracy, then MP = 4.

xRefMP = (((xP - offsetX ) * ScaleFactorX +
( 1<< (nosf_bit - MP - 1) ) >> (nosf_bit - MP) ); (N-1)
yRefMP = (((yP - offsetY ) * ScaleFactorY +
( 1<< (nosf_bit - MP - 1) ) >> (nosf_bit - MP) ); (N-2)
ここで、offsetX、offsetYは、輝度、色差によって値が異なる。輝度である場合は、offsetX = OffsetL、offsetY = offsetTとなる。色差である場合は、offsetX = OffsetL/2、offsetY = offsetT / 2となる。なお、1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)の導出は、式(N-1)〜(N-2)に限定されない。例えば、輝度と色差のサンプル位置を考慮し、輝度の場合、式(N-1)〜(N-2)により、色差の場合、式(N-1A)〜(N-2A)、(N-1B)〜(N-2B)により導出してもよい。ここで、phaseX、phaseYは、輝度に対する色差のサンプル位置の位相差である。
xRefMP = (((xP-offsetX) * ScaleFactorX +
(1 << (nosf_bit-MP-1)) >>(nosf_bit-MP)); (N-1)
yRefMP = (((yP-offsetY) * ScaleFactorY +
(1 << (nosf_bit-MP-1)) >>(nosf_bit-MP)); (N-2)
Here, offsetX and offsetY have different values depending on luminance and color difference. In the case of luminance, offsetX = OffsetL and offsetY = offsetT. In the case of color difference, offsetX = OffsetL / 2 and offsetY = offsetT / 2. The derivation of the reference pixel position (xRefMP, yRefMP) with 1/2 ^ MP pixel accuracy is not limited to the equations (N-1) to (N-2). For example, in consideration of sample positions of luminance and color difference, in the case of luminance, the expressions (N-1) to (N-2), and in the case of color difference, the expressions (N-1A) to (N-2A), (N- It may be derived by 1B) to (N-2B). Here, phaseX and phaseY are phase differences of sample positions of color difference with respect to luminance.

(色差の場合)
xRefMP = (((xP - offsetX ) * ScaleFactorX + iAddX )
>> (nosf_bit - MP) ) - (phaseX<<2); (N-1A)
iAddX = ((( RLPW * phaseX)<<( nosf_bit -2 )) + (SRLPW >> 1) ) / SRLPW +
+ (1<<( nosf_bit - 1)); (N-1B);
yRefMP = (((yP - offset ) * ScaleFactorY + iAddY )
>> (nosf_bit - MP) ) - (phaseY<<2); (N-2A)
iAddY = ((( RLPH * phaseY)<<( nosf_bit -2 )) + (SRLPH >> 1) ) / SRLPH
+ (1<<( nosf_bit - 1)); (N-2B)
(2)導出した1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)から、整数精度の参照画素位値(xRef, yRef)および位相(xPhase, yPhase)を式(N-3)〜(N-6)により導出する。
(In the case of color difference)
xRefMP = (((xP-offsetX) * ScaleFactorX + iAddX)
>> (nosf_bit-MP)-(phaseX <<2); (N-1A)
iAddX = (((RLPW * phaseX) <<<(nosf_bit-2)) + (SRLPW >> 1)) / SRLPW +
+ (1 <<(nosf_bit-1)); (N-1 B);
yRefMP = (((yP-offset) * ScaleFactorY + iAddY)
>> (nosf_bit-MP)-(phaseY <<2); (N-2A)
iAddY = (((RLPH * phaseY) <<<(nosf_bit-2)) + (SRLPH >> 1)) / SRLPH
+ (1 <<(nosf_bit-1)); (N-2B)
(2) From the derived reference pixel position (xRefMP, yRefMP) of 1/2 ^ MP pixel accuracy, reference pixel position value (xRef, yRef) of integer accuracy and phase (xPhase, yPhase) can be expressed as equations (N-3) to Derivate by (N-6).

xRef = (xRefMP >> MP); (N-3)
xPhase = (xRefMP % (1<<MP)); (N-4)
yRef = (yRefMP >> MP); (N-5)
yPhase = (yRefMP % (1<<MP)); (N-6)
リサンプル画像生成部3152は、導出された参照画素位置(xRef, yRef)及び位相(xPhase, yPhase)と所定のリサンプルフィルタを適用し、輝度及び色差のリサンプル画素intSampleを生成し、生成したリサンプル画像rsPicSampleを参照ピクチャメモリ308へ格納する。
xRef = (xRefMP >>MP); (N-3)
xPhase = (xRefMP% (1 <<MP)); (N-4)
yRef = (yRefMP >>MP); (N-5)
yPhase = (yRefMP% (1 <<MP)); (N-6)
The resample image generation unit 3152 applies a predetermined resample filter to the derived reference pixel position (xRef, yRef) and phase (xPhase, yPhase), and generates and generates a resample pixel intSample of luminance and chrominance. The resampled image rsPicSample is stored in the reference picture memory 308.

(輝度の場合)
まず、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲(フィルタ領域)にある画素rlPicSampleLに対して、所定のリサンプルフィルタFL(例えば、図19に示す8タップ、1/16画素精度のフィルタ)を適用し、画素tempArray[n] (n=0…fs - 1)を生成する(式(N-7))。ここで、式(N-7)は、水平方向にリサンプルフィルタを適用することを表わす。なお、fsはフィルタのタップ数を表わす。
(For luminance)
First, the range (filter area) of the horizontal position xPosRL (xPosRL = xRef-fs / 2 +1 ... xRef + fs / 2) and the vertical position yPosRL (yPosRL = yRef-1 ... yRef + fs-1) on the reference layer picture rlPic Apply a predetermined resample filter FL (for example, an 8-tap, 1 / 16-pixel-accurate filter shown in FIG. 19) to the pixel rlPicSampleL in), and the pixel tempArray [n] (n = 0 ... fs-1) ) (Formula (N-7)). Here, equation (N-7) represents applying the resampling filter in the horizontal direction. Here, fs represents the number of taps of the filter.

tempArray[n] =
ΣFL[xPhase,i]*rlPicSampleL[Clip3(0, RLPW-1,xRef-fs/2 + 1 + i),yPosRL]; (N-7)
ここで、Clip3(a,b,X)は、Xに関して、X<aの時はX=aとし、b<Xの時はX=bとすることによって、a≦X≦bとなるようにXを制限する関数である。すなわち、上記式において、Clip3(0, RLPW-1,xRef-fs/2 + 1 + i)の部分は、リサンプルフィルタを適用する水平方向の参照画素位置(xRef - fs/2 + 1 + i)が、画面外の座標を示す場合は、画面端座標へ補正する操作を示す。また、iは0…fs-1の値をとる。また、yPosRLは、参照レイヤピクチャrlPicの画面外の座標を示す場合、以下の式(N-8)により画面端座標へ補正される。
tempArray [n] =
FL FL [x Phase, i] * rlPic Sample L [Clip 3 (0, RLPW-1, xRef-fs / 2 + 1 + i), yPosRL]; (N-7)
Here, with respect to X, Clip 3 (a, b, X) is X ≦ a when X <a and X = b when b <X so that a ≦ X ≦ b. It is a function that limits X. That is, in the above equation, the portion of Clip 3 (0, RLPW-1, xRef-fs / 2 + 1 + i) corresponds to the horizontal reference pixel position (xRef-fs / 2 + 1 + i) to which the resample filter is applied. When the) indicates the coordinates outside the screen, an operation of correcting to the screen edge coordinates is shown. Also, i takes a value of 0... Fs-1. Further, when yPosRL indicates the off-screen coordinates of the reference layer picture rlPic, it is corrected to the screen edge coordinates by the following equation (N-8).

yPosRL = Clip3 (0, RLPH - 1, yRef + n - 1); (N-8)
続いて、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタFL(例えば、図19に示す8タップ、1/16画素精度のフィルタ)を適用し、対象画素(xP,yP)の値rsPicSampleL[xP][yP]を導出する(式(N-9)〜(N-10))。ここで、式(N-9)は、垂直方向にリサンプルフィルタを適用することを表わす。
yPosRL = Clip3 (0, RLPH-1, yRef + n-1); (N-8)
Subsequently, a predetermined resampling filter FL (for example, an 8-tap, 1/16 pixel accuracy filter shown in FIG. 19) is applied to the derived pixel tempArray [n] (n = 0... Fs-1). The value rsPicSampleL [xP] [yP] of the target pixel (xP, yP) is derived (equations (N-9) to (N-10)). Here, equation (N-9) represents applying the resampling filter in the vertical direction.

intSample = ((ΣFL[yPhase,i]*tempArray[i]) + (1<<11) )>>12; (N-9)
rsPicSampleL[xP][yP] = Clip3( 0, (1<<BitDepthY), intSample ); (N-10)
ここで、iは0…fs-1の値をとり、はBitDepthYは輝度のビット精度を表わす。
intSample = ((ΣFL [yPhase, i] * tempArray [i]) + (1 << 11)) >>12; (N-9)
rsPicSampleL [xP] [yP] = Clip3 (0, (1 << BitDepthY), intSample); (N-10)
Here, i takes a value of 0... Fs-1, and BitDepthY represents the bit precision of luminance.

(色差の場合)
まず、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 + 1…xRef + fs/2)、垂直位置yPosRL (yPosRL = yRef- fs/2 + 1…yRef + fs/2 )の範囲(フィルタ領域)にある画素rlPicSampleCに対して、所定のリサンプルフィルタFC(例えば、図20に示す4タップ、1/16画素精度のフィルタ)を適用し、画素tempArray[n] (n=0…fs-1)を生成する(式(N-11))。
(In the case of color difference)
First, horizontal position xPosRL (xPosRL = xRef-fs / 2 + 1 ... xRef + fs / 2) and vertical position yPosRL (yPosRL = yRef-fs / 2 + 1 ... yRef + fs / 2) on the reference layer picture rlPic A predetermined resample filter FC (for example, a 4-tap, 1/16 pixel accuracy filter shown in FIG. 20) is applied to the pixel rlPicSampleC in the range (filter area), and the pixel tempArray [n] (n = 0 ... fs-1) is generated (Expression (N-11)).

tempArray[n] =
ΣFC[xPhase,i]*rlPicSampleC[Clip3(0, RLPWC-1,xRef- 1 + i),yPosRL]; (N-11)
ここで、iは0…fs-1の値をとる。また、yPosRLは、参照レイヤピクチャrlPicの画面外の座標を示す場合、以下の式(N-12)により画面端座標へ補正される。
tempArray [n] =
FCFC [xPhase, i] * rlPicSampleC [Clip 3 (0, RLPWC-1, xRef-1 + i), yPosRL]; (N-11)
Here, i takes a value of 0... Fs-1. Further, when yPosRL indicates the off-screen coordinates of the reference layer picture rlPic, it is corrected to the screen edge coordinates by the following equation (N-12).

yPosRL = Clip3 (0, RLPHC - 1, yRef + n - 1); (N-12)
ここで、RLPWC、RLPHCはそれぞれ、参照レイヤピクチャrlPicの色差の横幅、横幅である。
yPosRL = Clip3 (0, RLPHC-1, yRef + n-1); (N-12)
Here, RLPWC and RLPHC are respectively the width and width of the color difference of the reference layer picture rlPic.

続いて、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタFC(例えば、図20に示す4タップ、1/16画素精度のフィルタ)を適用し、対象画素(xP,yP)の値rsPicSampleC[xP][yP]を導出する(式(N-12)〜(N-13))。   Subsequently, a predetermined resample filter FC (for example, a 4-tap, 1/16 pixel accuracy filter shown in FIG. 20) is applied to the derived pixel tempArray [n] (n = 0... Fs-1). The value rsPicSampleC [xP] [yP] of the target pixel (xP, yP) is derived (equations (N-12) to (N-13)).

intSample = ((ΣFC[yPhase,i]*tempArray[i]) + (1<<11) )>>12; (N-12)
rsPicSampleC[xP][yP] = Clip3( 0, (1<<BitDepthC), intSample ); (N-13)
ここで、iは0…fs-1の値をとり、BitDepthCは色差のビット精度を表わす。
intSample = ((ΣFC [yPhase, i] * tempArray [i]) + (1 << 11)) >>12; (N-12)
rsPicSampleC [xP] [yP] = Clip3 (0, (1 << BitDepthC), intSample); (N-13)
Here, i takes a value of 0... Fs-1, and BitDepthC represents the bit precision of color difference.

なお、レイヤ間画像マッピング部315は、下記方法の何れかによって、参照レイヤピクチャrlPicを特定し、レイヤ間対応関係パラメータに基づいて、レイヤ間画像マッピングを行う。   The inter-layer image mapping unit 315 specifies the reference layer picture rlPic by any of the following methods, and performs inter-layer image mapping based on the inter-layer correspondence parameter.

(参照レイヤピクチャ特定方法1)スライスヘッダ上のアクティブ参照レイヤ指定情報(図7上のSYNSH01)により指定されるアクティブ参照レイヤをレイヤ間画像マッピングの対象とする参照レイヤピクチャrlPicとする。すなわち、レイヤ間予測有無フラグが真(1)の場合、アクティブ参照レイヤ数(num_inter_layer_ref_pic_minus1 + 1)個のアクティブ参照レイヤ(RefLayerId[curLayerId][inter_layer_pred_idc])が、レイヤ間画像マッピングの対象となる。   (Reference Layer Picture Identification Method 1) An active reference layer specified by active reference layer specification information (SYNSH01 in FIG. 7) on a slice header is set as a reference layer picture rlPic to be subjected to inter-layer image mapping. That is, when the inter-layer prediction presence / absence flag is true (1), the number of active reference layers (num_inter_layer_ref_pic_minus1 + 1) active reference layers (RefLayerId [curLayerId] [inter_layer_pred_idc]) is a target of inter-layer image mapping.

(参照レイヤピクチャ特定方法2)参照ピクチャリストに含まれる参照ピクチャのうち、参照ピクチャのレイヤIDが、復号対象画像のレイヤIDと異なる場合、その参照ピクチャをレイヤ間画像マッピングの対象とする参照レイヤピクチャとする。具体的にはRefPicList0[]、RefPicList1[]の参照ピクチャのレイヤIDを走査し、復号対象画像のレイヤIDと異なる参照ピクチャを特定する。   (Reference layer picture identification method 2) When the layer ID of the reference picture among the reference pictures included in the reference picture list is different from the layer ID of the image to be decoded, the reference layer for which the reference picture is subjected to inter-layer image mapping It is a picture. Specifically, the layer IDs of the reference pictures of RefPicList0 [] and RefPicList1 [] are scanned, and a reference picture different from the layer ID of the image to be decoded is specified.

以上のように、レイヤ間画像マッピング部315において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の各画素に対応する参照レイヤピクチャrlPic上の参照画素の位置を決定し、その参照画素と周辺画素に所定のリサンプルフィルタを適用することで、対象画素を生成することができる。これにより、レイヤ間画像予測で使用されるリサンプル画像の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域情報)により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行うことにより、レイヤ間画像予測で使用されるリサンプル画像の精度をより向上させる効果を奏する。それに伴いレイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer image mapping unit 315, the inter-layer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, and the like between the target layer (for example, enhancement layer) and the reference layer (for example, base layer)). Based on ScaleFactor X, ScaleFactor Y, etc., determine the position of the reference pixel on the reference layer picture rlPic corresponding to each pixel on the resampled reference layer picture rsPic, and apply a predetermined resample filter to the reference pixel and peripheral pixels By doing this, the target pixel can be generated. Thereby, the effect of improving the accuracy of the resampled image used in the inter-layer image prediction can be obtained. In particular, for a sequence in which the correspondence area between the target layer and the reference layer changes in units of pictures, inter-layer image mapping is performed based on the inter-layer correspondence relationship parameter derived by the reference layer correspondence area information. Inter-layer image mapping is performed based on inter-layer correspondence parameters derived from active reference layer corresponding area information (reference layer corresponding area information in units of pictures), so that the accuracy of the resampled image used in inter-layer image prediction The effect of improving the Along with this, the prediction accuracy of the inter-layer image prediction is also improved, so that the coding efficiency can be improved.

(本発明におけるレイヤ間画像マッピングの動作)
本発明に係るレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理について、図29を参照しながら、説明する。図29は、本発明に係るレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理の動作を示すフロー図である。
(Operation of inter-layer image mapping in the present invention)
A process of generating resampled pixels regarding coordinates (xP, yP) on the resampled reference layer picture rsPic in the inter-layer image mapping unit according to the present invention will be described with reference to FIG. FIG. 29 is a flowchart showing an operation of generation processing of a resampled pixel regarding coordinates (xP, yP) on the resampled reference layer picture rsPic in the inter-layer image mapping unit according to the present invention.

(ステップS802)参照画素位置導出部3151は、各座標(xP,yP)に対応する1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)を前述の式(N-1)〜(N-2)により導出する。   (Step S802) The reference pixel position deriving unit 3151 sets the reference pixel position (xRefMP, yRefMP) of 1/2 ^ MP pixel accuracy corresponding to each coordinate (xP, yP) to the above-mentioned equations (N-1) to (N). It derives by -2).

(ステップS803)参照画素位置導出部3151は、導出した1/2^MP画素精度の参照画素位置より、整数画素精度の参照画素位置(xRef, yRef)及び位相(xPhase, yPhase)を前述の式(N-3)〜(N-6)により導出する。   (Step S 803) The reference pixel position deriving unit 3151 uses the derived reference pixel position of 1/2 ^ MP pixel precision to set the reference pixel positions (xRef, yRef) and phase (xPhase, yPhase) of integer pixel precision Derivate by (N-3) to (N-6).

(ステップS804)リサンプル画像生成部3152は、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲(フィルタ領域)にある画素rlPicSampleX(X=L,C)に対して、所定のリサンプルフィルタを適用し、画素tempArray[n] (n=0…fs - 1)を生成する(式(N-7)、または、(N-12))。   (Step S804) The resampled image generation unit 3152 sets the horizontal position xPosRL (xPosRL = xRef-fs / 2 +1 ... xRef + fs / 2) on the reference layer picture rlPic, the vertical position yPosRL (yPosRL = yRef-1 ... yRef A predetermined resample filter is applied to the pixel rlPicSampleX (X = L, C) in the range (filter area) of + fs-1), and the pixel tempArray [n] (n = 0 ... fs-1) is obtained. Generate (formula (N-7) or (N-12)).

(ステップS805)リサンプル画像生成部3152は、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタを適用し、対象画素(xP,yP)の値rsPicSampleX[xP][yP](X=L, C)を導出する(式(N-9)〜(N-10)、または(N-12)〜(N-13))。   (Step S805) The resample image generation unit 3152 applies a predetermined resample filter to the derived pixel tempArray [n] (n = 0 ... fs-1), and the value of the target pixel (xP, yP) rsPicSampleX [xP] [yP] (X = L, C) is derived (formulas (N-9) to (N-10), or (N-12) to (N-13)).

(従来技術におけるレイヤ間画像マッピング部の動作)
一方、従来技術におけるレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理について、図30を参照しながら、説明する。図30は、従来技術におけるレイヤ間画像マッピング部におけるリサンプル参照レイヤピクチャrsPic上の座標(xP, yP)に関するリサンプル画素の生成処理の動作を示すフロー図である。
(Operation of the inter-layer image mapping unit in the prior art)
On the other hand, generation processing of resampled pixels regarding coordinates (xP, yP) on the resample reference layer picture rsPic in the inter-layer image mapping unit in the prior art will be described with reference to FIG. FIG. 30 is a flowchart showing an operation of generation processing of a resampled pixel regarding coordinates (xP, yP) on a resampled reference layer picture rsPic in the inter-layer image mapping unit in the prior art.

(ステップS801’)従来技術における参照画素位置導出部3151は、リサンプル参照レイヤピクチャrsPic上のxP = 0…PW-1、yP = 0…PH - 1の範囲にある輝度、及びxPC = 0…PWC - 1, yPC = 0…PHC - 1の範囲にある色差の各画素を生成する際に、まず、座標(xP, yP)を参照レイヤ対応領域SRLA内に制限した座標(xP’,yP’)を式(N-20)〜(N-21)に基づいて導出する。すなわち、図31(a)に示すように、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)が参照レイヤ対応領域SRLAより外側にある場合、座標(xP, yP)を最近接する参照レイヤ対応領域SRLAの境界画素の座標(xP’,yP’)へ置換する処理である。   (Step S801 ′) The reference pixel position deriving unit 3151 in the prior art detects the luminance in the range of xP = 0..PW-1, yP = 0.PH-1 on the resample reference layer picture rsPic, and xPC = 0. When generating each pixel of the color difference in the range of PWC-1, yPC = 0 ... PHC-1, coordinates (xP ', yP') in which the coordinates (xP, yP) are limited within the reference layer corresponding area SRLA Is derived based on Formulas (N-20) to (N-21). That is, as shown in FIG. 31A, when the coordinates (xP, yP) on the resample reference layer picture rsPic are outside the reference layer corresponding area SRLA, the reference layer correspondence closest to the coordinates (xP, yP) This is processing for replacing with the coordinates (xP ′, yP ′) of the boundary pixel of the region SRLA.

xP’ = Clip3 ( offsetL, PW - offsetR - 1, xP ); (N-20)
yP’ = Clip3 ( offsetT, PH - offsetB - 1, yP ); (N-21)
(ステップS802’) 従来技術における参照画素位置導出部3151は、導出した座標(xP’,yP’)に対応する1/2^MP画素精度の参照画素位置(xRefMP, yRefMP)を前述の式(N-1)〜(N-2)により導出する。
xP '= Clip3 (offsetL, PW-offsetR-1, xP); (N-20)
yP '= Clip3 (offsetT, PH-offsetB-1, yP); (N-21)
(Step S802 ′) The reference pixel position deriving unit 3151 in the prior art converts the reference pixel position (xRefMP, yRefMP) of 1/2 ^ MP pixel accuracy corresponding to the derived coordinates (xP ′, yP ′) into the above equation (XRefMP, yRefMP). N-1) to (N-2).

(ステップS803)従来技術における参照画素位置導出部3151は、導出した1/2^MP画素精度の参照画素位置より、整数画素精度の参照画素位置(xRef, yRef)及び位相(xPhase, yPhase)を前述の式(N-3)〜(N-6)により導出する。   (Step S803) The reference pixel position deriving unit 3151 in the prior art calculates reference pixel positions (xRef, yRef) and phase (xPhase, yPhase) of integer pixel accuracy from the derived reference pixel position of 1/2 ^ MP pixel accuracy. It derives from the above-mentioned formulas (N-3) to (N-6).

(ステップS804)従来技術におけるリサンプル画像生成部3152は、参照レイヤピクチャrlPic上の水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲にある画素rlPicSampleX(X=L,C)に対して、所定のリサンプルフィルタを適用し、画素tempArray[n] (n=0…fs - 1)を生成する(式(N-7)、または、(N-12))。   (Step S804) The resampled image generation unit 3152 in the prior art detects the horizontal position xPosRL (xPosRL = xRef-fs / 2 +1 ... xRef + fs / 2) on the reference layer picture rlPic, the vertical position yPosRL (yPosRL = yRef- A predetermined resample filter is applied to the pixel rlPicSampleX (X = L, C) in the range of 1 ... yRef + fs-1) to generate a pixel tempArray [n] (n = 0 ... fs-1) (Formula (N-7) or (N-12)).

(ステップS805)従来技術におけるリサンプル画像生成部3152は、導出した画素tempArray[n](n=0…fs-1)に対して、所定のリサンプルフィルタを適用し、対象画素(xP,yP)の値rsPicSampleX[xP][yP](X=L, C)を導出する(式(N-9)〜(N-10)、又は(N-12)〜(N-13))。   (Step S805) The resampled image generation unit 3152 in the related art applies a predetermined resample filter to the derived pixel tempArray [n] (n = 0 ... fs-1) to obtain the target pixel (xP, yP). The value rsPicSampleX [xP] [yP] (X = L, C) is derived (equations (N-9) to (N-10) or (N-12) to (N-13)).

(本発明のレイヤ間画像マッピング部の効果)
以下、従来技術と本発明との差異を説明し、本発明のレイヤ間画像マッピング部の効果を説明する。従来技術と本発明との異なる点は、図31(a)に示すように、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)が参照レイヤ対応領域SRLAより外側にある場合、座標(xP, yP)を最近接する参照レイヤ対応領域SRLAの境界画素の座標(xP’,yP’)へ置換する処理の有無である(図30のステップS801’)。この結果、図32(a)に示すように、従来技術におけるリサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAの画素(xP,yP)は、最近接する、参照レイヤ対応領域SRLA上の境界画素(xP’,yP’)の画素と同一となる。
(Effect of the inter-layer image mapping unit of the present invention)
Hereinafter, differences between the prior art and the present invention will be described, and the effects of the inter-layer image mapping unit of the present invention will be described. The difference between the prior art and the present invention is that, as shown in FIG. 31A, if the coordinates (xP, yP) on the resample reference layer picture rsPic are outside the reference layer corresponding area SRLA, the coordinates (xP, , yP) is replaced with the coordinates (xP ′, yP ′) of the border pixel of the reference layer corresponding area SRLA closest to the nearest neighbor (step S801 ′ in FIG. 30). As a result, as shown in FIG. 32A, the pixel (xP, yP) of the NSRLA outside the reference layer corresponding area on the resample reference layer picture rsPic in the prior art is the closest on the reference layer corresponding area SRLA. It is identical to the pixel of the pixel (xP ′, yP ′).

一方、本発明では、図31(b)に示すように、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)が参照レイヤ対応領域SRLAより外側にある場合、直接、参照レイヤピクチャrlPic上の参照画素位置(xRef, yRef)を導出する。従って、従来技術と比較して、参照画素位置の導出に係る導出処理を簡略化することが可能である。   On the other hand, in the present invention, as shown in FIG. 31 (b), when the coordinates (xP, yP) on the resample reference layer picture rsPic are outside the reference layer corresponding area SRLA, directly on the reference layer picture rlPic. The reference pixel position (xRef, yRef) is derived. Therefore, it is possible to simplify the derivation process relating to the derivation of the reference pixel position as compared to the prior art.

また、本発明では、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAの画素(xP,yP)は、最近接する、参照レイヤ対応領域SRLA上の境界画素(xP’,yP’)の画素と必ずしも同一とはならない。具体的には、図32(b)において、参照レイヤ対応領域SRLAの境界より外側に、水平方向に幅ΔFX、高さΔFYの領域NSRLA’(図32(b)上のNSRLA’)に関しては、滑らかに画素値が変化する領域となり、領域NSRLA’より外側の画素は、最近接する画素領域NSRLA’の境界画素と同一となる。ここで、ΔFX、ΔFYの大きさは、例えば、式(N-22)〜(N-24)に示すように、リサンプルフィルタのタップ数(フィルタサイズ)fsと、参照レイヤ対応領域SRLAの横幅SRLPW、縦幅SRLPHと参照レイヤピクチャrlPicの横幅RLPW、縦幅RLPHによって定まる。   Further, in the present invention, the pixel (xP, yP) of the NSRLA outside the reference layer corresponding area on the resample reference layer picture rsPic is the pixel of the border pixel (xP ′, yP ′) on the reference layer corresponding area SRLA. And not necessarily identical. Specifically, in FIG. 32B, outside of the boundary of the reference layer corresponding area SRLA, the area NSRLA ′ (NSRLA ′ on FIG. 32B) having a width ΔFX and a height ΔFY in the horizontal direction is It becomes an area where the pixel value changes smoothly, and the pixel outside the area NSRLA ′ is the same as the boundary pixel of the nearest pixel area NSRLA ′. Here, the sizes of ΔFX and ΔFY are, for example, the number of taps (filter size) fs of the resample filter and the horizontal width of the reference layer corresponding area SRLA as shown in the equations (N-22) to (N-24) It is determined by SRLPW, vertical width SRLPH, and horizontal width RLPW and vertical width RLPH of the reference layer picture rlPic.

ΔFX = (fs * ScaleFactorXA + ( 1<< (nosf_bit - 1) ) >> (nosf_bit) ); (N-22)
ΔFY = (fs * ScaleFactorYA + ( 1<< (nosf_bit - 1) ) >> (nosf_bit) ); (N-23)
ScaleFactorXA = ( ( SRLPW << nosf_bit) + (RLPW>>1) )/ RLPW; (N-24)
ScaleFactorYA = ( ( SRLPH << nosf_bit) + (RLPH>>1) )/ RLPH; (N-24)
なお、ScaleFactorXAは、参照レイヤピクチャrlPicの横幅RLPWに対する参照レイヤ対応領域SRLAの横幅SRLPWのサイズ比であり、ScaleFactorYAは、同様にrsPicの縦幅に対するSRLAの縦幅SRLPHのサイズ比である。例えば、参照レイヤ対応領域SRLAのサイズを1920x1080(SRLPW=1920, SRLPH=1080)、参照レイヤピクチャrlPicのサイズを960x540(RLPW=960,RLPH=540)、フィルタサイズfs = 8、ビット精度nosf_bit = 16とすれば、それぞれ、下式のように、ΔFX=16、ΔFY=16と導出される。
ΔFX = (fs * ScaleFactor XA + (1 << (nosf_bit-1)) >>(nosf_bit)); (N-22)
ΔFY = (fs * ScaleFactorYA + (1 << (nosf_bit-1)) >>(nosf_bit)); (N-23)
ScaleFactorXA = ((SRLPW << nosf_bit) + (RLPW >> 1)) / RLPW; (N-24)
ScaleFactorYA = ((SRLPH << nosf_bit) + (RLPH >> 1)) / RLPH; (N-24)
ScaleFactor XA is the size ratio of the horizontal width SRLP of the reference layer corresponding area SRLA to the horizontal width RLPW of the reference layer picture rlPic, and ScaleFactor YA is the size ratio of the vertical width SRLPH of SRLA to the vertical width of rsPic. For example, the size of reference layer corresponding area SRLA is 1920x1080 (SRLPW = 1920, SRLPH = 1080), the size of reference layer picture rlPic is 960x540 (RLPW = 960, RLPH = 540), filter size fs = 8, bit precision nosf_bit = 16 In this case, ΔFX = 16 and ΔFY = 16 are derived, respectively, as in the following equation.

ΔFX = (8 * (((1920 << 16) + (960 >> 1)) / 960) + (1<< 15)) >> 16 = 16;
ΔFY = (8 * (((1080 << 16) + (540 >> 1)) / 540) + (1<< 15)) >> 16 = 16;
また、参照レイヤ対応領域SRLAのサイズを1920x1080(SRLPW=1920, SRLPH=1080)、参照レイヤピクチャrlPicのサイズを1280x720 (RLPW=1280,RLPH=720)、フィルタサイズfs = 8、ビット精度nosf_bit = 16とすれば、それぞれ、下式のように、ΔFX=12、ΔFY=12と導出される。
ΔFX = (8 * (((1920 << 16) + (960 >> 1)) / 960) + (1 <15)) >> 16 = 16;
ΔFY = (8 * (((1080 << 16) + (540 >> 1)) / 540) + (1 << 15)) >> 16 = 16;
In addition, the size of the reference layer corresponding area SRLA is 1920x1080 (SRLPW = 1920, SRLPH = 1080), the size of the reference layer picture rlPic is 1280x720 (RLPW = 1280, RLPH = 720), the filter size fs = 8, bit precision nosf_bit = 16 In this case, ΔFX = 12 and ΔFY = 12, respectively.

ΔFX = (8 * (((1920 << 16) + (1280>> 1)) / 1280) + (1<< 15)) >> 16 = 12;
ΔFX = (8 * (((1080 << 16) + (720 >> 1)) / 720) + (1<< 15)) >> 16 = 12;
このようなリサンプル画像が生成されるのは、参照レイヤ対応領域外NSRLA上の画素(xP,yP)を、例えば、垂直位置yPを固定して、水平方向に水平位置xPをxP=0…offsetT-1まで変化させた場合、リサンプルフィルタを適用するフィルタ領域(参照レイヤピクチャrsPic上の参照画素位置(xRef, yRef)を中心に、水平位置xPosRL(xPosRL = xRef - fs/2 +1 …xRef + fs /2)、垂直位置yPosRL (yPosRL = yRef-1…yRef + fs - 1 )の範囲、図31(b)上のFLTA)が、従来技術とは異なり、座標(xP,yP)に応じて変化するためである。なお、フィルタ領域FLTAにおいて、参照レイヤピクチャrlPicの画面外の座標を参照する画素は、その画素と相関の高い(空間的距離が近い)画面端の画素へ置換される。
ΔFX = (8 * (((1920 << 16) + (1280 >> 1)) / 1280) + (1 <15)) >> 16 = 12;
ΔFX = (8 * (((1080 << 16) + (720 >> 1)) / 720) + (1 << 15)) >> 16 = 12;
Such a resampled image is generated by, for example, fixing the vertical position yP on the pixel (xP, yP) on the reference layer outside the corresponding area outside the reference layer corresponding area and setting the horizontal position xP in the horizontal direction to xP = 0 ... When changing to offsetT-1, the horizontal position xPosRL (xPosRL = xRef-fs / 2 +1 ... centering on the filter area (reference pixel position (xRef, yRef) on the reference layer picture rsPic) to which the resampling filter is applied Unlike the prior art, the range of xRef + fs / 2), vertical position yPosRL (yPosRL = yRef-1 ... yRef + fs-1), FLTA on FIG. 31 (b), is different from the prior art in coordinates (xP, yP) It is to change accordingly. Note that, in the filter area FLTA, a pixel that refers to coordinates outside the screen of the reference layer picture rlPic is replaced with a pixel at the screen end that has a high correlation with that pixel (close spatial distance).

以上、本発明におけるレイヤ間画像マッピング部は、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域外NSRLAの各座標のリサンプル画素を生成する際に、リサンプルフィルタの適用する参照レイヤピクチャrsPic上のフィルタ領域FLTAにおいて、画面外の座標の画素がある場合、その画素と相関の高い(空間的距離が近い)画素を利用して、リサンプル画像を生成する。その結果、従来技術に比べて、参照レイヤ対応領域外NSRLAのリサンプル画像の精度を向上させることができる。また、参照レイヤ対応領域外NSRLAの画素を参照するレイヤ間画像予測に関して、従来技術よりも予測精度を向上させることができる。従って、符号化効率を向上にもつながる。特に、本発明では、参照レイヤ対応領域SRLAの境界より外側に、水平方向に幅ΔFX、高さΔFYの領域NSRLA’において、リサンプル画像の画素値が滑らかに変化する領域を生成することができる。そのため、レイヤ間画像予測において、参照レイヤ対応領域外NSRLAのうち、上記領域NSRLA’を参照するレイヤ間画像予測の予測精度を向上させることができる。なお、本発明におけるレイヤ間画像マッピング部は、レイヤ間画像予測制約フラグによらず単独で適用可能である。   As described above, the inter-layer image mapping unit in the present invention generates the resample pixel of each coordinate of the non-reference layer corresponding area on the resample reference layer picture rsPic on the reference layer picture rsPic applied by the resample filter. In the filter area FLTA, if there is a pixel at a coordinate outside the screen, a resampled image is generated using a pixel having a high correlation (closer spatial distance) to the pixel. As a result, it is possible to improve the accuracy of the resampled image of the NSRLA outside the reference layer corresponding region as compared with the prior art. In addition, with regard to inter-layer image prediction that refers to pixels of the reference layer corresponding area outside the NSRLA, prediction accuracy can be improved more than in the related art. Therefore, it leads to the improvement of coding efficiency. In particular, in the present invention, a region where the pixel value of the resample image changes smoothly can be generated outside the boundary of the reference layer corresponding region SRLA in the region NSRLA ′ of width ΔFX and height ΔFY in the horizontal direction . Therefore, in the inter-layer image prediction, it is possible to improve the prediction accuracy of the inter-layer image prediction which refers to the region NSRLA 'in the reference layer corresponding region out-of-region NSRLA. Note that the inter-layer image mapping unit in the present invention is independently applicable regardless of the inter-layer image prediction restriction flag.

(レイヤ間動きマッピング部)
次に、レイヤ間動きマッピング部316の構成について説明する。レイヤ間動きマッピング部316は、リサンプル参照レイヤピクチャrsPicのリサンプル動き情報rsPicMotionを、参照レイヤピクチャrlPicの動き情報rlPicMotionを動きマッピングにより生成する。
(Inter-layer motion mapping unit)
Next, the configuration of the inter-layer motion mapping unit 316 will be described. The inter-layer motion mapping unit 316 generates resample motion information rsPicMotion of the resample reference layer picture rsPic by motion mapping of motion information rlPicMotion of the reference layer picture rlPic.

図18に、レイヤ間動きマッピング部316の構成を示す。レイヤ間動きマッピング部315は、対象レイヤにおける対象ブロックに対応する、参照レイヤにおける画像ブロックである参照画像ブロックを決定する参照画像ブロック導出部3161と、決定された参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成する動き情報生成部3162とをさらに含んで構成される。   The configuration of the inter-layer motion mapping unit 316 is shown in FIG. The inter-layer motion mapping unit 315 determines a reference image block deriving unit 3161 that determines a reference image block that is an image block in the reference layer corresponding to the target block in the target layer, and the motion information of the determined reference image block. And a motion information generation unit 3162 that generates motion information of the target block.

参照画像ブロック導出部3161は、レイヤ間情報導出部3020で導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY)を用いて、リサンプル参照レイヤピクチャrsPic上の所定単位の対象ブロック(例えば、16×16)に対応する、参照レイヤピクチャrlPic上における参照画像ブロックの位置を算出する。   The reference image block derivation unit 3161 uses the inter-layer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, ScaleFactor X, ScaleFactor Y) derived by the inter-layer information derivation unit 3020 to obtain the resample reference layer picture rsPic. The position of the reference image block on the reference layer picture rlPic corresponding to the target block (for example, 16 × 16) in the upper predetermined unit is calculated.

対象ブロックとは、動きマッピングの対象となるリサンプル参照レイヤピクチャrsPic上のブロックである。対象ブロックは、また、対象レイヤ上の復号対象ブロックのテンポラリ動きベクトルとして参照されるブロックである。具体的には、対象ブロックのピクチャ内の座標が(xP, yP)であるとき、参照画像ブロックの座標(xRL, yRL)を以下の手順で導出する。
(1)対象ブロックの中心座標(xPCtr, yPCtr)を式(M-1)〜(M-2)により導出する。
The target block is a block on the resample reference layer picture rsPic to be subjected to motion mapping. The target block is also a block referred to as a temporary motion vector of the decoding target block on the target layer. Specifically, when the coordinates in the picture of the target block are (xP, yP), the coordinates (xRL, yRL) of the reference image block are derived in the following procedure.
(1) The center coordinates (xPCtr, yPCtr) of the target block are derived by the equations (M-1) to (M-2).

xPCtr = xP + ctrOffsetX; (M-1)
yPCtr = yP + ctrOffsetY; (M-2)
ここで、ctrOffsetXおよびctrOffsetYは、それぞれ対象ブロックの左上画素位置から対象ブロックの中心画素位置までの水平方向(x方向)のオフセット、垂直方向(y方向)のオフセットである。対象ブロックのサイズが2^M1×2^N1(M1、N1は自然数)、すなわち、横幅2^M1、縦幅2^N1である場合、 ctrOffsetX = 2^(M1-1)、ctrOffsetY = 2^(N1-1)と設定することが好ましい。例えば、対象ブロックのサイズが16×16であれば、各オフセットの値は8となる。
(2)導出した対象ブロックの中心座標(xPCtr, yPCtr)に対応する参照レイヤピクチャrlPic上の座標(xRef, yRef)を式(M-3)〜(M-4)により導出する。
xPCtr = xP + ctrOffsetX; (M-1)
yPCtr = yP + ctrOffsetY; (M-2)
Here, ctrOffsetX and ctrOffsetY are an offset in the horizontal direction (x direction) and an offset in the vertical direction (y direction) from the upper left pixel position of the target block to the central pixel position of the target block. If the size of the target block is 2 ^ M1 × 2 ^ N1 (M1, N1 is a natural number), that is, if the width is 2 ^ M1 and the width is 2 ^ N1, ctrOffsetX = 2 ^ (M1-1), ctrOffsetY = 2 ^ It is preferable to set as (N1-1). For example, if the size of the target block is 16 × 16, the value of each offset is 8.
(2) The coordinates (xRef, yRef) on the reference layer picture rlPic corresponding to the center coordinates (xPCtr, yPCtr) of the derived target block are derived by the equations (M-3) to (M-4).

xRef =
( ( xPCtr - OffsetL ) * ScaleFactorX + (1<<(nosf_bit-1)) ) >> nosf_bit; (M-3)
yRef =
( ( yPCtr - OffsetT ) * ScaleFactorX + (1<<(nosf_bit-1)) ) >> nosf_bit; (M-4)
(3)参照画像ブロックの座標(xRL, yRL)を式(M-5)〜(M-6)により導出する。
xRef =
((xPCtr-OffsetL) * ScaleFactorX + (1 << (nosf_bit-1))) >>nosf_bit; (M-3)
yRef =
((yPCtr-OffsetT) * ScaleFactorX + (1 << (nosf_bit-1))) >>nosf_bit; (M-4)
(3) The coordinates (xRL, yRL) of the reference image block are derived by the equations (M-5) to (M-6).

xRL = ( xRef >> M2 ) << M2; (M-5)
yRL = ( yRef >> N2 ) << N2; (M-6)
ここで、M2、N2はそれぞれ参照画像ブロックのサイズ2^M2×2^N2を表す値である。例えば、参照画像ブロックのサイズが16×16であれば、M2 = 4、N2 = 4となる。なお、動き情報の記録単位は、参照レイヤピクチャrlPicとリサンプル参照レイヤピクチャrsPicとで同一であることが好ましい。
xRL = (xRef >> M2) <<M2; (M-5)
yRL = (yRef >> N2) <<N2; (M-6)
Here, M2 and N2 are values representing the size 2 ^ M2 x 2 ^ N2 of the reference image block. For example, if the size of the reference image block is 16 × 16, then M2 = 4 and N2 = 4. Preferably, the recording unit of the motion information is the same for the reference layer picture rlPic and the resampled reference layer picture rsPic.

参照画像ブロック導出部3131は、導出した参照画像ブロックの位置を、動き情報生成部3132へ出力する。   The reference image block derivation unit 3131 outputs the derived position of the reference image block to the motion information generation unit 3132.

動き情報生成部3132は、参照画像ブロック導出部3131から入力された参照画像ブロックの座標(xRL, yRL)に対応する参照レイヤピクチャrlPicの動き情報rlPicMotionを参照し、それを基にリサンプル参照レイヤピクチャrsPic上の対象ブロックのリサンプル動き情報rsPicMotion(復号対象ブロックのテンポラリ動きベクトルとして参照される対象ブロックの予測パラメータ)を生成する。具体的には、対象ブロックの動き情報(予測モードpredMode、参照ピクチャインデックスrefIdxLX、ベクトルmvLX)について、後述の条件に応じて所定の値を設定し、生成した動き情報(rsPicMotion)を予測パラメータメモリ307に記憶する。   The motion information generation unit 3132 refers to the motion information rlPicMotion of the reference layer picture rlPic corresponding to the coordinates (xRL, yRL) of the reference image block input from the reference image block derivation unit 3131, and based on that, the resample reference layer Resample motion information rsPicMotion of the target block on the picture rsPic (a prediction parameter of the target block referred to as a temporary motion vector of the target block to be decoded) is generated. Specifically, for the motion information (prediction mode predMode, reference picture index refIdxLX, vector mvLX) of the target block, a predetermined value is set according to the conditions described later, and the generated motion information (rsPicMotion) is used as the prediction parameter memory 307 Remember to

動き情報生成部3132は、上記の各予測パラメータを生成する際、参照画像ブロックの座標や、予測モードpredModeに従って、次のように予測パラメータを決定する。まず、参照画像ブロックの座標(xRL, yRL)が参照レイヤピクチャrlPicの外側に位置する場合、即ち、参照レイヤピクチャrlPicの画像サイズをRLPW × RLPHとしたときに、以下の条件式のいずれかを満たす場合には、予測モードpredMode[xP][yP]をイントラ予測モード(MODE_INTRA)へ設定する。   The motion information generation unit 3132 determines the prediction parameters as follows according to the coordinates of the reference image block and the prediction mode predMode when generating each of the above-mentioned prediction parameters. First, when the coordinates (xRL, yRL) of the reference image block are located outside the reference layer picture rlPic, that is, when the image size of the reference layer picture rlPic is RLPW × RLPH, either of the following conditional expressions If satisfied, the prediction mode predMode [xP] [yP] is set to the intra prediction mode (MODE_INTRA).

( xRL < 0 ) || ( xRL >= RLPW )
( yRL < 0 ) || ( yRL >= RLPH )
ここで、記号||は、論理和を意味する。上記の条件いずれにも当てはまらない場合には、以下の式のように参照画像ブロックに対応する予測モードをpredMode[xP][yP]に代入して生成する。ここでpredModeRLは、参照レイヤピクチャrlPicにおける予測モードである。
(xRL <0) || (xRL> = RLPW)
(yRL <0) || (yRL> = RLPH)
Here, the symbol || means a logical sum. If none of the above conditions is met, the prediction mode corresponding to the reference image block is generated by substituting it into predMode [xP] [yP] as in the following equation. Here, predModeRL is a prediction mode in the reference layer picture rlPic.

predMode[xP][yP] = predModeRL[xRL][yRL];
上記の結果、predMode[xP][yP]がインター予測モード(MODE_INTER)になる場合、参照ピクチャリストL0, L1それぞれに対応する参照ピクチャインデックスrefIdxLX、参照ピクチャインデックスrefIdxLXに対応するピクチャ順序番号refPOCLXおよび予測リスト利用フラグpredFlagLXに対応する参照レイヤピクチャrlPicの予測パラメータを代入して設定する。具体的には以下の式を適用する。
predMode [xP] [yP] = predModeRL [xRL] [yRL];
As a result of the above, when predMode [xP] [yP] becomes the inter prediction mode (MODE_INTER), the reference picture index refIdxLX corresponding to each of the reference picture lists L0 and L1 and the picture order number refPOCLX corresponding to the reference picture index refIdxLX and prediction The prediction parameter of the reference layer picture rlPic corresponding to the list use flag predFlagLX is substituted and set. Specifically, the following equation is applied.

refIdxLX[xP][yP] = refIdxLXRL[xRL][yRL];
refPOCLX[xP][yP] = refPOCLXRL[xRL][yRL];
predFlagLX[xP][yP]= predFlagLXRL[xRL][yRL];
ここで、refIdxLXRLは参照レイヤピクチャrlPicにおける参照ピクチャインデックスであり、refPOCLXRLは、参照レイヤピクチャrlPicにおける参照ピクチャインデックスrefPOCLXRLに対応するピクチャ順序番号であり、predFlagLXRLは、参照レイヤピクチャrlPicにおける予測リスト利用フラグである。
refIdxLX [xP] [yP] = refIdxLXRL [xRL] [yRL];
refPOCLX [xP] [yP] = refPOCLXRL [xRL] [yRL];
predFlagLX [xP] [yP] = predFlagLXRL [xRL] [yRL];
Here, refIdxLXRL is a reference picture index in the reference layer picture rlPic, refPOCLXRL is a picture order number corresponding to the reference picture index refPOCLXRL in the reference layer picture rlPic, and predFlagLXRL is a prediction list use flag in the reference layer picture rlPic is there.

さらに、ベクトルmvLXが、参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPH、参照レイヤピクチャrlPicの横幅RLPWと縦幅RLPH、及び参照レイヤピクチャrlPicのベクトルmvLXRLを用いて以下の手順で導出される。
(1―A)参照レイヤ対応領域SRLAの横幅SRLPWと参照レイヤピクチャの横幅RLPWが等しい場合、以下の式により水平成分のベクトルmvLX[xP][yP][0]を設定する。
Further, the vector mvLX is derived in the following procedure using the horizontal width SRLPW and the vertical width SRLPH of the reference layer corresponding area SRLA, the horizontal width RLPW and the vertical width RLPH of the reference layer picture rlPic, and the vector mvLXRL of the reference layer picture rlPic.
(1-A) If the horizontal width SRLPW of the reference layer corresponding area SRLA is equal to the horizontal width RLPW of the reference layer picture, the horizontal component vector mvLX [xP] [yP] [0] is set according to the following equation.

mvLX[xP][yP][0] = mvLXRL[xRL][yRL][0];
(1−B)参照レイヤ対応領域SRLAの横幅SRLPWと参照レイヤピクチャの横幅RLPWが等しくない場合、参照レイヤピクチャrlPicの水平成分の動きベクトルを以下の式によりスケーリングし、水平成分のベクトルmvLX[xP][yP][0]を設定する。
mvLX [xP] [yP] [0] = mvLXRL [xRL] [yRL] [0];
(1-B) When the horizontal width SRLPW of the reference layer corresponding area SRLA and the horizontal width RLPW of the reference layer picture are not equal, the motion vector of the horizontal component of the reference layer picture rlPic is scaled by the following equation, and the horizontal component vector mvLX [xP Set [yP] [0].

scaleFactorMVX = Clip3(-2^12, 2^12 - 1, ( ( SRLPW << 8 ) + (RLPW>>1) )/RLPW);
mvLX’= Sign(scaleFactorMVX * mvLXRL[xRL][yRL][0]) *
(( Abs ( scaleFactorMVX *mvLXRL[xRL][yRL][0] ) + 127) >> 8);
mvLX[xP][yP][0] = Clip3( -2^15, 2^15 - 1, mvLX’);
(2―A)参照レイヤ対応領域SRLAの縦幅SRLPHと参照レイヤピクチャの縦幅RLPHが等しい場合、以下の式により垂直成分のベクトルmvLX[xP][yP][1]を設定する。
scaleFactor MVX = Clip 3 (-2 ^ 12, 2 ^ 12-1, ((SRPW << 8) + (RLPW >> 1)) / RLPW);
mvLX '= Sign (scaleFactorMVX * mvLXRL [xRL] [yRL] [0]) *
(((Abs (scaleFactorMVX * mvLXRL [xRL] [yRL] [0]) + 127) >>8);
mvLX [xP] [yP] [0] = Clip3 (-2 ^ 15, 2 ^ 15-1, mvLX ');
(2-A) When the vertical width SRLPH of the reference layer corresponding area SRLA and the vertical width RLPH of the reference layer picture are equal, the vector mvLX [xP] [yP] [1] of the vertical component is set according to the following equation.

mvLX[xP][yP][1] = mvLXRL[xRL][yRL][1];
(2−B)参照レイヤ対応領域SRLAの縦幅SRLPHと参照レイヤピクチャの横幅RLPHが等しくない場合、参照レイヤピクチャrlPicの垂直成分の動きベクトルを以下の式によりスケーリングし、垂直成分のベクトルmvLX[xP][yP][1]を設定する。
mvLX [xP] [yP] [1] = mvLXRL [xRL] [yRL] [1];
(2-B) If the vertical width SRLPH of the reference layer corresponding area SRLA and the horizontal width RLPH of the reference layer picture are not equal, the motion vector of the vertical component of the reference layer picture rlPic is scaled by Set xP] [yP] [1].

scaleFactorMVY = Clip3(-2^12, 2^12 - 1, ( ( SRLPH << 8 ) + (RLPH>>1) )/RLPH);
mvLX’= Sign(scaleFactorMVY * mvLXRL[xRL][yRL][1]) *
(( Abs ( scaleFactorMVY *mvLXRL[xRL][yRL][1] ) + 127) >> 8);
mvLX[xP][yP][1] = Clip3( -2^15, 2^15 - 1, mvLX’);
ここで、ベクトルmvLX[][][]は、3つめの配列添え字0,1がそれぞれ水平成分、垂直成分を表す。
scaleFactor MVY = Clip 3 (-2 ^ 12, 2 ^ 12-1, ((SRLPH << 8) + (RLPH >> 1)) / RLPH);
mvLX '= Sign (scaleFactorMVY * mvLXRL [xRL] [yRL] [1]) *
(((Abs (scaleFactorMVY * mvLXRL [xRL] [yRL] [1]) + 127) >>8);
mvLX [xP] [yP] [1] = Clip3 (-2 ^ 15, 2 ^ 15-1, mvLX ');
Here, in the vector mvLX [] [] [], the third array subscripts 0 and 1 represent the horizontal component and the vertical component, respectively.

一方、生成後のpredMode[xP][yP]がイントラ予測モード(MODE_INTRA)になる場合は、参照ピクチャリストL0, L1それぞれに対応する参照ピクチャインデックスrefIdxLX、参照ピクチャインデックスrefIdxLXに対応するピクチャ順序番号refPOCLXおよび予測リスト利用フラグpredFlagLX、及びベクトルmvLXを、それぞれ参照なし、およびゼロになるよう設定する。具体的には以下の式により設定する。   On the other hand, when predMode [xP] [yP] after generation is in the intra prediction mode (MODE_INTRA), the picture order number refPOCLX corresponding to the reference picture index refIdxLX and the reference picture index refIdxLX corresponding to the reference picture lists L0 and L1, respectively. The prediction list utilization flag predFlagLX and the vector mvLX are set to be no reference and zero, respectively. Specifically, it is set by the following equation.

refIdxLX[xP][yP] = -1;
refPOCLX[xP][yP] = -1;
predFlagLX[xP][yP] = 0;
mvLX[xP][yP][0] = mvLX[xP][yP][1] = 0;
レイヤ間動きマッピング部313は、リサンプル参照レイヤピクチャrsPicののき情報を、対象レイヤの復号を開始する前に生成する。レイヤ間動きマッピング部313は、参照レイヤピクチャ復号部13より入力される参照レイヤピクチャrlPicが存在し、レイヤ間動き予測フラグalt_collocated_indication_flagが1の場合には、以下の処理に基づいて、参照ピクチャの予測パラメータpredMode[xP][yP]、refIdxLX[xP][yP]、mvL0[xP][yP]、mvL1[xP][yP]を生成する。
refIdxLX [xP] [yP] = -1;
refPOCLX [xP] [yP] = -1;
predFlagLX [xP] [yP] = 0;
mvLX [xP] [yP] [0] = mvLX [xP] [yP] [1] = 0;
The inter-layer motion mapping unit 313 generates layer information of the resample reference layer picture rsPic before starting decoding of the target layer. If there is a reference layer picture rlPic input from the reference layer picture decoding unit 13 and the inter-layer motion prediction flag alt_collocated_indication_flag is 1, the inter-layer motion mapping unit 313 predicts a reference picture based on the following processing. The parameters predMode [xP] [yP], refIdxLX [xP] [yP], mvL0 [xP] [yP], and mvL1 [xP] [yP] are generated.

レイヤ間動きマッピング部316は、リサンプル参照レイヤピクチャrsPic上の座標(xP, yP)を、それぞれ、0からリサンプル参照レイヤピクチャrsPicの幅,高さまで、16の倍数になるように順次設定する。具体的には、以下の式を適用する。   The inter-layer motion mapping unit 316 sequentially sets coordinates (xP, yP) on the resample reference layer picture rsPic to be multiples of 16 from 0 to the width and height of the resample reference layer picture rsPic, respectively. . Specifically, the following equation is applied.

xP = xPb << 4;
yP = yPb << 4;
ここで、xPb,yPbはそれぞれ、以下のように0から最大値までインクリメントした整数値を設定する。
xP = xPb <<4;
yP = yPb <<4;
Here, xPb and yPb are respectively set to integer values incremented from 0 to the maximum value as follows.

xPb = 0 ... ( (PW + 15) >> 4 ) - 1;
yPb = 0 ... ( (PH + 15) >> 4 ) - 1;
なお、レイヤ間動きマッピング部316は、下記方法の何れかによって、参照レイヤピクチャrlPicを特定し、レイヤ間対応関係パラメータに基づいて、レイヤ間動きマッピングを行う。。
xPb = 0 ... ((PW + 15) >>4)-1;
yPb = 0 ... ((PH + 15) >>4)-1;
The inter-layer motion mapping unit 316 identifies the reference layer picture rlPic by any of the following methods, and performs inter-layer motion mapping based on the inter-layer correspondence parameter. .

(参照レイヤピクチャ特定方法1)スライスヘッダ上のコロケート情報で指定される参照レイヤピクチャを、レイヤ間動きマッピングの対象とする参照レイヤピクチャrlPicとする。具体的には、コロケート情報は、スライスヘッダに含まれリストL0フラグcollocated_from_L0_flagおよび参照インデックスcollocated_ref_idxにより指定されるリストL0フラグcollocated_from_L0_flagは、参照画像ブロックが含まれる画像(参照レイヤピクチャ)が参照ピクチャリストL0から得られるか否かを示し、参照インデックスcollocated_ref_idxは、前記参照画像の、参照ピクチャリスト内の位置(インデックス)を示す。collocated_from_L0_flag、collocated_ref_idxにより指定される参照画像colPicのレイヤIDが、復号対象画像のレイヤIDと異なる場合、参照画像colPicを、レイヤ間動きマッピングの対象とする参照レイヤピクチャとする。   (Reference Layer Picture Identification Method 1) A reference layer picture specified by co-located information on a slice header is set as a reference layer picture rlPic to be subjected to inter-layer motion mapping. Specifically, the collocated information is included in the slice header and the list L0 flag collated_from_L0_flag specified by the list L0 flag collocated_from_L0_flag and the reference index collated_ref_idx is an image (reference layer picture) including a reference image block from the reference picture list L0 The reference index collated_ref_idx indicates the position (index) of the reference image in the reference picture list. When the layer ID of the reference image colPic specified by collocated_from_L0_flag and collocated_ref_idx is different from the layer ID of the image to be decoded, the reference image colPic is set as a reference layer picture to be subjected to the inter-layer motion mapping.

(参照レイヤピクチャ特定方法2)スライスヘッダ上のレイヤ間動き予測フラグalt_colloated_indication_flagが真(1)の場合、コロケート参照レイヤIDcollocated_ref_layer_idxで指定されるアクティブレイヤ間動き参照レイヤActiveMotionPredRefLayerId[ collocated_ref_layer_idx ]を、レイヤ間動きマッピングの対象とする参照レイヤピクチャrlPicとする。   (Method 2 for specifying a reference layer picture) If the inter-layer motion prediction flag alt_colloated_indication_flag on the slice header is true (1), the inter-active-layer motion reference layer ActiveMotionPredRefLayerId [collocated_ref_layer_idx] specified by the co-located reference layer ID collocated_ref_layer_idx It is assumed that the reference layer picture rlPic targeted by

(参照レイヤピクチャ特定方法3)参照ピクチャリストに含まれる参照ピクチャのうち、参照ピクチャのレイヤIDが、復号対象画像のレイヤIDと異なる場合、その参照ピクチャをレイヤ間動きマッピングの対象とする参照レイヤピクチャとする。具体的にはRefPicList0[]、RefPicList1[]の参照ピクチャのレイヤIDを走査し、復号対象画像のレイヤIDと異なる参照ピクチャを特定する。   (Reference layer picture identification method 3) When the layer ID of the reference picture among the reference pictures included in the reference picture list is different from the layer ID of the picture to be decoded, the reference layer for which the reference picture is subjected to the inter-layer motion mapping It is a picture. Specifically, the layer IDs of the reference pictures of RefPicList0 [] and RefPicList1 [] are scanned, and a reference picture different from the layer ID of the image to be decoded is specified.

以上のように、レイヤ間動きマッピング部316において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の対象ブロックに対応する参照レイヤピクチャrlPic上の参照画像ブロックを決定し、参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成することができる。これにより、レイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報(ピクチャ単位の参照レイヤ対応領域情報)により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行うことにより、よりレイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度をより向上させる効果を奏する。それに伴いレイヤ間動き予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer motion mapping unit 316, the inter-layer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, and the like between the target layer (eg, enhancement layer) and the reference layer (eg, base layer)). Based on ScaleFactor X, ScaleFactor Y, etc.), the reference image block on the reference layer picture rlPic corresponding to the target block on the resample reference layer picture rsPic is determined, and the motion information of the target block is determined based on the motion information of the reference image block. Can be generated. As a result, it is possible to obtain an effect of improving the accuracy of motion information (temporal motion information) used in inter-layer motion prediction. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, motion mapping between layers is performed based on the inter-layer correspondence relationship parameter derived by the reference layer corresponding region information. By performing inter-layer motion mapping based on inter-layer correspondence relationship parameters derived from active reference layer corresponding region information (reference layer corresponding region information in units of pictures), motion information (temporal used more in inter-layer motion prediction) The effect of improving the accuracy of motion information) is achieved. Along with this, the prediction accuracy of the inter-layer motion prediction is also improved, so that the coding efficiency can be improved.

<予測パラメータ復号部302の変形例1>
上述の例では、対象CUの予測タイプがインター予測である場合に、各PU単位で、参照画像リスト上の参照レイヤの画像(リサンプル参照レイヤピクチャrsPic)を示す参照画像インデックスを指定することで、レイヤ間画像予測を利用することが可能である。対象CUにおいてレイヤ間画像予測を利用するかどうかは、上記例に限定されず、対象CU内で、明示的にレイヤ間画像予測フラグtexture_rl_flagを通知することにより可能である。図21は、CU単位でレイヤ間画像予測フラグtexture_rl_flagを含む場合の符号化データの構成を示す図である。図21に示す通り、CU単位の符号化データは、SYNCU01に示すレイヤ間画像予測フラグ(texture_rl_flag)、SYNCU02に示すCUタイプ情報(予測モードフラグ(pred_mode_flag))、SYNCU03に示すPU分割タイプ(part_mode)、並びに図示しないPU情報、およびTU情報から構成される。
<Modification 1 of Prediction Parameter Decoding Unit 302>
In the above-described example, when the prediction type of the target CU is inter prediction, a reference image index indicating the image of the reference layer on the reference image list (resample reference layer picture rsPic) is specified in each PU. Inter-layer image prediction can be used. Whether to use inter-layer image prediction in the target CU is not limited to the above example, and it is possible by explicitly notifying the inter-layer image prediction flag texture_rl_flag in the target CU. FIG. 21 is a diagram showing the configuration of coded data in the case where the inter-layer image prediction flag texture_rl_flag is included in CU units. As shown in FIG. 21, the encoded data in units of CUs is an inter-layer image prediction flag (texture_rl_flag) shown in SYNCU01, CU type information (prediction mode flag (pred_mode_flag)) shown in SYNCU02, and a PU division type (part_mode) shown in SYNCU03. , And PU information and TU information not shown.

以下、図22を用いて、CU単位でレイヤ間画像予測フラグを含む場合の符号化データを復号する動作を説明する。   Hereinafter, an operation of decoding encoded data in the case where the inter-layer image prediction flag is included in CU units will be described using FIG.

(S601)予測パラメータ復号部302は、可変長復号部301を用いて、所定のパラメータセット(例えば、VPS)単位毎に、参照レイヤ指定情報、及びレイヤ間予測タイプ情報を復号し、それらの情報に基づいて、対象レイヤiが参照レイヤjからのレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]を導出する。また、可変長復号部301を用いて、所定のパラメータセット(例えば、SPS)単位毎に、参照レイヤ対応領域情報を復号する。さらに、参照レイヤ対応領域情報に基づいて、レイヤ間画像予測制約フラグを復号する。   (S601) The prediction parameter decoding unit 302 decodes the reference layer specification information and the inter-layer prediction type information for each predetermined parameter set (for example, VPS) unit using the variable length decoding unit 301, and those information Based on the above, the inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j] is derived, which indicates whether the target layer i is inter-layer image prediction from the reference layer j. In addition, the variable-length decoding unit 301 is used to decode reference layer corresponding area information for each predetermined parameter set (for example, SPS) unit. Furthermore, the inter-layer image prediction restriction flag is decoded based on the reference layer corresponding area information.

(S602)予測パラメータ復号部302は、可変長復号部301を用いて、所定パラメータセット(例えば、スライスヘッダ)単位毎に、アクティブ参照レイヤ対応領域情報を復号する。さらに、予測パラメータ復号部302は、復号した参照レイヤ対応領域情報、及びアクティブ参照レイヤ対応領域情報に基づいて、対象ピクチャが参照する各リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAの位置情報(OffsetL、OffsetT、OffsetR、OffsetB)とサイズ情報(SRLPW、SRLPH)を導出する。具体的な導出方法は説明済のため省略する。続いて、各CTBにおいて、以下の処理を行う。   (S602) The prediction parameter decoding unit 302 decodes the active reference layer corresponding area information for each predetermined parameter set (for example, slice header) using the variable-length decoding unit 301. Further, based on the decoded reference layer corresponding area information and the active reference layer corresponding area information, the prediction parameter decoding unit 302 detects position information of the reference layer corresponding area SRLA on each resample reference layer picture rsPic to which the target picture refers. (Offset L, Offset T, Offset R, Offset B) and size information (SRLPW, SRL PH) are derived. A specific derivation method is omitted since it has been described. Subsequently, the following processing is performed in each CTB.

(S603)CUのループを開始する。CUのループはCTBに含まれる全てのCUを順に処理することで行われる。   (S603) A loop of CU is started. A loop of CUs is performed by sequentially processing all CUs included in the CTB.

(S604)予測パラメータ復号部302は、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlag、及びレイヤ間画像予測禁止フラグNoInterlayerSamplePredFlagを導出する。レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlagは、例えば、次式によって導出される。   (S604) The prediction parameter decoding unit 302 derives the inter-layer image prediction applicable flag InterLayerSamplePredEnableFlag, and the inter-layer image prediction prohibition flag NoInterlayerSamplePredFlag. The inter-layer image prediction applicable flag InterLayerSamplePredEnableFlag is derived, for example, by the following equation.

InterlayerSamplePredEnableFlag = SamplePredEnableFlag[curLayerId][refLayerId]
ここで、curLayerIdは、対象レイヤiを示すレイヤ識別子を示し、refLayerIdは、参照レイヤjを示すレイヤ識別子である。なお、refLayerIdは、予めスライスヘッダ上で通知されていてもよいし、CU単位で通知されてもよい。
InterlayerSamplePredEnableFlag = SamplePredEnableFlag [curLayerId] [refLayerId]
Here, curLayerId indicates a layer identifier indicating a target layer i, and refLayerId is a layer identifier indicating a reference layer j. Note that refLayerId may be notified in advance on the slice header, or may be notified in CU units.

また予測パラメータ復号部302は、レイヤ間画像予測制約フラグ、及び対象CUの最左上画素の座標(xP, yP)とCUサイズlog2CbSize(CUサイズを2を底とした対数値で表現)に基づいて、レイヤ間画像予測禁止フラグNoInterLayerSamplePredFlagを導出する。具体的には、レイヤ間画像予測制約フラグが0の場合は、レイヤ間画像予測禁止フラグを0へ設定する(NoInterLayerSamplePredFlag = 0)。一方、レイヤ間画像予測制約フラグが1の場合は、対象ピクチャcurPic上の対象CUと対応するリサンプル参照レイヤピクチャrsPic上の対応領域が、(参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測について)において説明した条件(A1)〜(A4)のいずれかの条件を満たす場合、レイヤ間画像予測禁止フラグを1へ設定し (NoInterLayerSamplePredFlag = 1)、それ以外の場合は、レイヤ間画像予測禁止フラグを0へ設定する(NoInterLayerSamplePredFlag = 0)。なお、対象CUの縦幅をhPb(=log2CbSize<<1)、横幅wPb(=log2CbSize)とする。   In addition, the prediction parameter decoding unit 302 is based on the inter-layer image prediction restriction flag, the coordinates (xP, yP) of the upper leftmost pixel of the target CU, and the CU size log2CbSize (representing the CU size as a logarithmic value with 2 bottom). The inter-layer image prediction prohibition flag NoInterLayerSamplePredFlag is derived. Specifically, when the inter-layer image prediction restriction flag is 0, the inter-layer image prediction prohibition flag is set to 0 (NoInterLayerSamplePredFlag = 0). On the other hand, when the inter-layer image prediction restriction flag is 1, the corresponding area on the resample reference layer picture rsPic corresponding to the target CU on the target picture curPic is (between the layers referring to the image outside the reference layer corresponding area). Inter-layer image prediction prohibition flag is set to 1 if any of the conditions (A1) to (A4) described in “image prediction” is satisfied (NoInterLayerSamplePredFlag = 1), and otherwise the inter-layer image Set the prediction inhibition flag to 0 (NoInterLayerSamplePredFlag = 0). Note that the vertical width of the target CU is hPb (= log2CbSize << 1), and the horizontal width wPb (= log2CbSize).

(S605)対象レイヤcurLayerId、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlagとレイヤ間画像予測禁止フラグNoInterLayerSamplePredFlagが次式(J-1)を満たすかを判定する。   (S605) It is determined whether the target layer curLayerId, the inter-layer image prediction applicable flag InterLayerSamplePredEnableFlag, and the inter-layer image prediction prohibition flag NoInterLayerSamplePredFlag satisfy the following expression (J-1).

curLayerId > 0 &&
InterLayerSamplePredEnableFlag && !NoInterLayerSamplePredFlag ? 1 : 0; (J-1)
すなわち、対象レイヤのレイヤ識別子curLayerIdが0より大きく(拡張レイヤである)、かつ、レイヤ間画像予測適用可フラグが真、かつレイヤ間画像予測禁止フラグが偽であるかどうかを判定する。式(J-1)において、値が真の場合(S605においてYes)、ステップS606へ遷移し、レイヤ間画像予測フラグtexture_rl_flag(図21上のSYNCU01)を復号する(S606)。それ以外の場合(式(J-1)の値が偽の場合)、ステップS607へ遷移し、レイヤ間画像予測フラグtexture_rl_flagの復号を省略し、texture_rl_flagの値をゼロへ設定する(S607)。
curLayerId> 0 &&
InterLayerSamplePredEnableFlag &&! NoInterLayerSamplePredFlag? 1: 0; (J-1)
That is, it is determined whether the layer identifier curLayerId of the target layer is larger than 0 (which is an enhancement layer), the inter-layer image prediction applicable flag is true, and the inter-layer image prediction prohibition flag is false. In the equation (J-1), when the value is true (Yes in S605), the process transitions to step S606, and the inter-layer image prediction flag texture_rl_flag (SYNCU01 in FIG. 21) is decoded (S606). Otherwise (when the value of the expression (J-1) is false), the process transitions to step S607, the decoding of the inter-layer image prediction flag texture_rl_flag is omitted, and the value of texture_rl_flag is set to zero (S607).

(S608)レイヤ間画像予測フラグの値が1であるかを判定する。同フラグの値が真である場合、ステップS611へ遷移する。同フラグの値が偽の場合、ステップS609へ遷移する。   (S608) It is determined whether the value of the inter-layer image prediction flag is one. If the value of the flag is true, the process proceeds to step S611. If the value of the flag is false, the process proceeds to step S609.

(S609)対象CUのCUタイプを示すCUタイプ情報、例えば図21上のSYNCU02に示す予測モードフラグ(pred_mode_flag)を復号する。予測モードフラグに基づいて、対象CUのCUタイプ、すなわちイントラCUであるか、インターCUであるか決定する。予測モードフラグが1の場合は、イントラCUであることを示し、0の場合は、インターCUであることを示す。なお、インターCUの場合は、予測モードフラグの後に、図21上のSYNCU03に示すPU分割タイプ情報(part_mode)がさらに復号されうる。   (S609) The CU type information indicating the CU type of the target CU, for example, the prediction mode flag (pred_mode_flag) shown in SYNCU 02 in FIG. 21 is decoded. Based on the prediction mode flag, it is determined whether the CU type of the target CU, that is, the intra CU or the inter CU. If the prediction mode flag is 1, it indicates that it is an intra CU, and if it is 0, it indicates that it is an inter CU. In the case of the inter CU, PU split type information (part_mode) shown in SYNCU 03 in FIG. 21 may be further decoded after the prediction mode flag.

(S610)対象CU内に含まれる各PU単位のPU情報が復号される。   (S610) PU information of each PU unit included in the target CU is decoded.

(S611)対象CU内に含まれる各TU単位のTU情報が復号される。   (S611) TU information in units of TUs included in the target CU is decoded.

(S612)CU単位のループの終端である。   (S612) This is the end of the loop in CU units.

上記予測パラメータ復号部302の変形1によれば、対象CU(対象予測単位)のレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に復号するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を含むレイヤ間画像予測を禁止することを示すレイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐ場合(前述の条件(A1)〜(A4)のいずれかを満たす場合)、レイヤ間画像予測フラグの復号を省略する(すなわち、レイヤ間画像予測フラグが0であると推定)ことにより、レイヤ間画像予測フラグの復号に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。また、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素が、レイヤ間画像予測において参照されないことが補償されているため、参照レイヤ対応領域外の画素をレイヤ間画像マッピング(リサンプリング処理)によって生成する処理を省略することができる。また、参照ピクチャメモリにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素を保持するためのメモリを削減することができる。   According to the first modification of the prediction parameter decoding unit 302, the inter-layer image prediction applicable flag and the inter-layer enable flag indicate whether the inter-layer image prediction flag (texture_rl_flag) of the target CU (target prediction unit) is explicitly decoded. Control based on the image prediction prohibition flag. In particular, when the inter-layer image prediction restriction flag indicating that inter-layer image prediction including a pixel outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information is prohibited is 1, It is ensured between the image decoding apparatus and the image coding apparatus that inter-layer image prediction is not used in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding region SRLA. Therefore. When the corresponding area on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding area SRLA (when any of the above conditions (A1) to (A4) is satisfied), decoding of the inter-layer image prediction flag By omitting (in other words, it is estimated that the inter-layer image prediction flag is 0), it is possible to reduce the amount of processing involved in decoding of the inter-layer image prediction flag. In addition, since the code amount related to the inter-layer image prediction flag can be reduced, the code efficiency can be improved. In addition, since it is compensated that pixels outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic are not referred to in the inter-layer image prediction, the pixels outside the reference layer corresponding area are mapped to the image between layers (resampling The process generated by the process can be omitted. Further, in the reference picture memory, it is possible to reduce the memory for holding the pixels outside the reference layer corresponding area SRLA on the resampled reference layer picture rsPic.

<予測パラメータ復号部302の変形例2>
なお、上記の例では、レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を参照するレイヤ間画像予測の使用を禁止することを示すこと前提に説明したが、それに限定されない。レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測の使用を禁止することを示してもよい。
<Modification 2 of Prediction Parameter Decoding Unit 302>
In the above example, when the inter-layer image prediction restriction flag is 1, an inter-layer image that refers to pixels outside the reference layer corresponding area SRLA specified by the reference layer corresponding area information or the active reference layer corresponding area information Although described on the premise to indicate that the use of forecasts is prohibited, it is not limited thereto. When the inter-layer image prediction restriction flag is 1, the use of inter-layer image prediction which refers only to pixels outside the reference layer corresponding area SRLA designated by the reference layer corresponding area information or the active reference layer corresponding area information is prohibited. You may indicate that.

この場合、上記ステップS604において,レイヤ間画像予測禁止フラグを導出する条件式を前述の条件(A1)〜(A4)の代わりに、(参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測について)において説明した条件(B1)〜(B4)へ置き換える。   In this case, the conditional expression for deriving the inter-layer image prediction prohibition flag in the above step S604 is replaced by (an inter-layer image which refers only to an image outside the reference layer corresponding region) instead of the conditions (A1) to (A4) To the conditions (B1) to (B4) described in the section above.

上記予測パラメータ復号部302の変形例2によれば、対象CUのレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に復号するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、レイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照する場合(前述の条件(B1)〜(B4)のいずれかを満たす場合)、レイヤ間画像予測フラグの復号を省略する(すなわち、レイヤ間画像予測フラグが0であると推定)ことにより、レイヤ間画像予測フラグの復号に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。   According to the second modification of the prediction parameter decoding unit 302, the inter-layer image prediction applicable flag and the inter-layer image prediction prohibition flag indicate whether or not the inter-layer image prediction flag (texture_rl_flag) of the target CU is explicitly decoded. Control based on In particular, when the inter-layer image prediction restriction flag is 1, inter-layer image prediction in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU refers only to pixels outside the reference layer corresponding region SRLA is not used. Is secured between the image decoding device and the image coding device. Therefore. When the corresponding area on the resample reference layer picture rsPic corresponding to the target CU refers only to pixels outside the reference layer corresponding area SRLA (when any of the above-described conditions (B1) to (B4) is satisfied), inter-layer By omitting the decoding of the image prediction flag (ie, estimating that the inter-layer image prediction flag is 0), the amount of processing related to the decoding of the inter-layer image prediction flag can be reduced. In addition, since the code amount related to the inter-layer image prediction flag can be reduced, the code efficiency can be improved.

(ビットストリーム制限による階層動画像復号装置)
なお、以上説明した階層動画像復号装置によれば、レイヤ間画像予測制約フラグを復号し、フラグが真の場合に、所定条件を満たさないレイヤ間画像予測により予測単位の予測画像を生成していたが、レイヤ間画像予測制約フラグではなく、ビットストリーム制限としても良い。
(Layered video decoding device with bit stream restriction)
According to the hierarchical moving image decoding apparatus described above, the inter-layer image prediction restriction flag is decoded, and when the flag is true, the predicted image of the prediction unit is generated by the inter-layer image prediction not satisfying the predetermined condition. However, instead of the inter-layer image prediction restriction flag, a bitstream restriction may be used.

すなわち、特定のプロファイル(例えばスケーラブル拡張プロファイル)において、本実施形態の階層動画像復号装置は、以下の条件(CF条件)をビットストリームコンフォーマンスとして要求する。   That is, in a specific profile (for example, a scalable extension profile), the hierarchical moving image decoding device of this embodiment requests the following conditions (CF conditions) as bitstream conformance.

予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たすレイヤ間画像予測を行ってはならない・・・CF条件
上記CF条件は、以下の条件としても同値である。
When the prediction method of the prediction unit is inter-layer image prediction, inter-layer image prediction that satisfies a predetermined condition must not be performed ... CF condition The above-mentioned CF condition is the same even under the following conditions.

予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たさないレイヤ間画像予測を行う・・・CF条件
なお、ビットストリームコンフォーマンスとは、階層動画像復号装置(ここでは本発明の実施形態に係る階層動画像復号装置)が復号するビットストリームが満たす必要がある条件である。
When the prediction method of the prediction unit is inter-layer image prediction, inter-layer image prediction not satisfying the predetermined condition is performed ... CF condition Note that the bitstream conformance is a hierarchical moving image decoding device (here, This is a condition that the bitstream to be decoded by the hierarchical moving image decoding apparatus according to the embodiment needs to satisfy.

この場合、階層動画像復号装置は、予測画像生成手段は、予測単位の予測方式がレイヤ間画像予測である場合、所定条件を満たさないレイヤ間画像予測により予測単位の予測画像を生成することを特徴とする。   In this case, in the hierarchical moving image decoding device, the prediction image generation unit generates the prediction image of the prediction unit by the inter-layer image prediction not satisfying the predetermined condition when the prediction method of the prediction unit is the inter-layer image prediction. It features.

〔階層動画像符号化装置〕
以下では、本実施形態に係る階層動画像符号化装置2の構成について、図23を参照して説明する。
[Hierarchical Video Coding Device]
Below, the structure of the hierarchy moving image coding apparatus 2 which concerns on this embodiment is demonstrated with reference to FIG.

(階層動画像符号化装置の構成)
図23を用いて、階層動画像符号化装置2の概略構成を説明する。図23は、階層動画像符号化装置2の概略的構成を示した機能ブロック図である。階層動画像符号化装置2は、対象レイヤの入力画像PIN#Tを、参照レイヤ符号化データDATA#Rを参照しながら符号化して、対象レイヤの階層符号化データDATAを生成する。なお、参照レイヤ符号化データDATA#Rは、参照レイヤに対応する階層動画像符号化装置において符号化済みであるとする。
(Arrangement of Hierarchical Video Coding Device)
The schematic configuration of the hierarchical moving image encoding device 2 will be described with reference to FIG. FIG. 23 is a functional block diagram showing a schematic configuration of the layer moving picture coding device 2. The hierarchical moving image encoding device 2 encodes the input image PIN # T of the target layer with reference to the reference layer coded data DATA # R to generate hierarchically coded data DATA of the target layer. Here, it is assumed that the reference layer coded data DATA # R has already been coded in the hierarchical video coding device corresponding to the reference layer.

図23に示すように階層動画像符号化装置2は、対象レイヤピクチャ符号化部22、NAL多重化部21、および、参照レイヤピクチャ復号部13を備える。   As shown in FIG. 23, the layer moving picture coding apparatus 2 includes a target layer picture coding unit 22, an NAL multiplexing unit 21, and a reference layer picture decoding unit 13.

対象レイヤピクチャ符号化部22は、入力画像PIN#Tを符号化して、対象レイヤ符号化データDATA#Tとして出力する。また、対象レイヤピクチャ符号化部22は、入力画像PIN#Tを符号化するために、参照レイヤピクチャ復号部13において復号された参照レイヤ復号ピクチャを利用したレイヤ間画像予測を用いる。   The target layer picture coding unit 22 codes the input image PIN # T and outputs the coded data as target layer coded data DATA # T. Further, the target layer picture coding unit 22 uses inter-layer image prediction using the reference layer decoded picture decoded by the reference layer picture decoding unit 13 in order to code the input image PIN # T.

NAL多重化部213は、入力される対象レイヤ符号化データDATA#Tと、参照レイヤ符号化データDATA#RとをNALユニットに格納することでNAL多重化した階層動画像符号化データDATAを生成し、外部に出力する。   The NAL multiplexing unit 213 generates hierarchical moving image coded data DATA in which NAL multiplexing is performed by storing the input target layer coded data DATA # T and the reference layer coded data DATA # R in the NAL unit. Output to the outside.

参照レイヤピクチャ復号部13は、既に説明した階層動画像復号装置1の備える参照レイヤ復号部13と同一の構成要素であり、詳細説明は省略する。   The reference layer picture decoding unit 13 is the same component as the reference layer decoding unit 13 included in the hierarchical moving image decoding apparatus 1 described above, and the detailed description will be omitted.

(対象レイヤピクチャ符号化部22(画像符号化装置))
図24を用いて、対象レイヤピクチャ符号化部22の詳細構成について説明する。図24は、対象レイヤピクチャ符号化部22の構成を例示した機能ブロック図である。画対象レイヤピクチャ符号化部22は、予測画像生成部101、減算部102、DCT・量子化部103、可変長符号化部104、逆量子化・逆DCT部105、加算部106、予測パラメータメモリ(予測パラメータ記憶部、フレームメモリ)108、参照ピクチャメモリ(参照画像記憶部、フレームメモリ)109、符号化パラメータ決定部110、予測パラメータ符号化部111、参照レイヤ対応領域推定部114およびリサンプリング部314を含んで構成される。予測パラメータ符号化部111は、インター予測パラメータ符号化部112及びイントラ予測パラメータ符号化部113を含んで構成される。リサンプリング部314は、レイヤ間画像マッピング部315、レイヤ間動きマッピング部316を含んで構成される。なお、リサンプリング部314は、画像復号装置におけるリサンプリング部314と同等の構成を有する。
(Target layer picture coding unit 22 (image coding apparatus))
The detailed configuration of the target layer picture coding unit 22 will be described using FIG. FIG. 24 is a functional block diagram illustrating the configuration of the target layer picture coding unit 22. The image target layer picture coding unit 22 includes a predicted image generation unit 101, a subtraction unit 102, a DCT / quantization unit 103, a variable length coding unit 104, an inverse quantization / inverse DCT unit 105, an addition unit 106, and a prediction parameter memory. (Prediction parameter storage unit, frame memory) 108, reference picture memory (reference image storage unit, frame memory) 109, coding parameter determination unit 110, prediction parameter coding unit 111, reference layer corresponding area estimation unit 114, resampling unit It comprises 314. The prediction parameter coding unit 111 includes an inter prediction parameter coding unit 112 and an intra prediction parameter coding unit 113. The resampling unit 314 includes an inter-layer image mapping unit 315 and an inter-layer motion mapping unit 316. The resampling unit 314 has a configuration similar to that of the resampling unit 314 in the image decoding apparatus.

リサンプリング部314は、予測パラメータメモリ108に記録されたレイヤ間画像予測制約フラグ、および予測パラメータメモリ108へ記録された参照レイヤ対応領域情報、およびアクティブ参照レイヤ対応領域情報と、参照レイヤピクチャ復号部15が復号した参照レイヤ復号ピクチャ(参照レイヤピクチャrlPicと呼ぶ)の動き情報rlPicMotion、及び画像rlPicSampleを用いて、リサンプル参照レイヤピクチャrsPicのリサンプル動き情報rsPicMotion及びリサンプル画像rsPicSampleをそれぞれレイヤ間動きマッピング部316、レイヤ間画像マッピング部315において生成する。生成されたリサンプル動き情報rsPicMotionは、予測パラメータメモリ108に格納される。また、生成されたリサンプル画像rsPicSampleは参照ピクチャメモリ109に格納される。なお、レイヤ間画像マッピング部315、およびレイヤ間動きマッピング部316は、対象レイヤピクチャ復号部12と同一であるため説明を省略する。ただし、予測パラメータメモリ307、参照ピクチャメモリ308を予測パラメータメモリ108、参照ピクチャメモリ109へ置き換えて解釈するものとする。   An inter-layer image prediction restriction flag recorded in the prediction parameter memory 108, a reference layer corresponding area information recorded in the prediction parameter memory 108, an active reference layer corresponding area information, and a reference layer picture decoding section Inter-layer motion of resample motion information rsPicMotion of resample reference layer picture rsPic and resample image rsPicSample using motion information rlPicMotion and image rlPicSample of reference layer decoded picture (referred to as reference layer picture rlPic) decoded by 15 The mapping unit 316 generates this in the inter-layer image mapping unit 315. The generated resample motion information rsPicMotion is stored in the prediction parameter memory 108. Also, the generated resampled image rsPicSample is stored in the reference picture memory 109. Note that the inter-layer image mapping unit 315 and the inter-layer motion mapping unit 316 are the same as the target layer picture decoding unit 12 and thus the description thereof is omitted. However, the prediction parameter memory 307 and the reference picture memory 308 are replaced with the prediction parameter memory 108 and the reference picture memory 109 for interpretation.

予測画像生成部101は、外部から入力された対象レイヤの入力画像PIN#Tの各ピクチャについて、そのピクチャを分割した領域であるブロック毎に予測ピクチャブロックPを生成する。ここで、予測画像生成部101は、予測パラメータ符号化部111から入力された予測パラメータに基づいて参照ピクチャメモリ109から参照ピクチャブロックを読み出す。予測パラメータ符号化部111から入力された予測パラメータとは、例えば、動きベクトル又は変位ベクトルである。予測画像生成部101は、符号化対象ブロックを起点として予測された動きベクトル又は変位ベクトルが示す位置にあるブロックの参照ピクチャブロックを読み出す。予測画像生成部101は、読み出した参照ピクチャブロックについて複数の予測方式のうちの1つの予測方式を用いて予測ピクチャブロックPを生成する。予測画像生成部101は、生成した予測ピクチャブロックPを減算部102に出力する。なお、予測画像生成部101は、既に説明した予測画像生成部308と同じ動作であるため予測ピクチャブロックPの生成の詳細は省略する。   The predicted image generation unit 101 generates a predicted picture block P for each block which is an area obtained by dividing the picture of each input image PIN # T of the target layer input from the outside. Here, the predicted picture generation unit 101 reads the reference picture block from the reference picture memory 109 based on the prediction parameter input from the prediction parameter coding unit 111. The prediction parameter input from the prediction parameter coding unit 111 is, for example, a motion vector or a displacement vector. The prediction image generation unit 101 reads out a reference picture block of a block at a position indicated by a motion vector or a displacement vector predicted from a coding target block as a starting point. The predicted image generation unit 101 generates a predicted picture block P for the read reference picture block using one of a plurality of prediction methods. The prediction image generation unit 101 outputs the generated prediction picture block P to the subtraction unit 102. The prediction image generation unit 101 performs the same operation as the prediction image generation unit 308 described above, and therefore details of generation of the prediction picture block P will be omitted.

減算部102は、予測画像生成部101から入力された予測ピクチャブロックPの信号値を、外部から入力された対象レイヤの入力画像PIN#Tの対応するブロックの信号値から画素毎に減算して、残差信号を生成する。減算部102は、生成した残差信号をDCT・量子化部103に出力する。   Subtraction unit 102 subtracts the signal value of predicted picture block P input from predicted image generation unit 101 from the signal value of the corresponding block of input image PIN # T of the target layer input from the outside for each pixel. , Generate a residual signal. The subtraction unit 102 outputs the generated residual signal to the DCT / quantization unit 103.

DCT・量子化部103は、減算部102から入力された残差信号についてDCTを行い、DCT係数を算出する。DCT・量子化部103は、算出したDCT係数を量子化して量子化係数を求める。DCT・量子化部103は、求めた量子化係数をエントロピー可変長符号化部104及び逆量子化・逆DCT部105に出力する。   The DCT / quantization unit 103 performs DCT on the residual signal input from the subtraction unit 102 to calculate DCT coefficients. The DCT / quantization unit 103 quantizes the calculated DCT coefficient to obtain a quantization coefficient. The DCT / quantization unit 103 outputs the obtained quantization coefficient to the entropy variable length coding unit 104 and the inverse quantization / inverse DCT unit 105.

可変長符号化部104には、DCT・量子化部103から量子化係数が入力され、予測パラメータ符号化部111から符号化パラメータが入力される。入力される符号化パラメータには、例えば、予測モードpredMode、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測フラグinter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLX、レイヤ数vps_max_layers_minus1(図3上のSYNVPS01)、レイヤ識別子指定情報(図3上のSYNVPS02)、参照レイヤ指定情報(図3上のSYNVPS04)、レイヤ従属タイプ情報(図3上のSYNVPS05)、参照レイヤ対応領域情報(図5上のSYNSPS02)、レイヤ間画像予測制約フラグ(図5上のSYNSPS03)、アクティブ参照レイヤ指定情報(図7上のSYNSH01)、アクティブ参照レイヤ対応領域情報(図7上のSYNSH02)、コロケート情報collocated_from_l0_flag,collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idexなどの符号がある。   The variable-length coding unit 104 receives the quantization coefficient from the DCT / quantization unit 103, and receives the coding parameter from the prediction parameter coding unit 111. The coding parameters to be input include, for example, prediction mode predMode, split mode part_mode, merge flag merge_flag, merge index merge_idx, inter prediction flag inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, difference vector mvdLX, layer number vps_max_layers_minus1 ( 3, the layer identifier specification information (SYNVPS 02 in FIG. 3), the reference layer specification information (SYNVPS 04 in FIG. 3), the layer dependency type information (SYNVPS 05 in FIG. 3), the reference layer correspondence area information (FIG. 3) 5, the inter-layer image prediction restriction flag (SYNSPS03 in FIG. 5), the active reference layer specification information (SYNSH01 in FIG. 7), the active reference layer corresponding area information (SYNSH 02 in FIG. 7), the co-located information collocated_from_10_flag , Collocated_ref_idx, alt_collocated_indication_flag, collocated_ref_layer_idex, etc.

可変長符号化部104は、入力された量子化係数と符号化パラメータを可変長符号化して、対象レイヤ符号化データDATA#Tを生成し、外部に出力する。   The variable-length coding unit 104 performs variable-length coding on the input quantization coefficient and coding parameter to generate target layer coded data DATA # T, and outputs the data to the outside.

逆量子化・逆DCT部105は、DCT・量子化部103から入力された量子化係数を逆量子化してDCT係数を求める。逆量子化・逆DCT部105は、求めたDCT係数について逆DCTを行い、復号残差信号を算出する。逆量子化・逆DCT部105は、算出した復号残差信号を加算部106に出力する。   The inverse quantization / inverse DCT unit 105 inversely quantizes the quantization coefficient input from the DCT / quantization unit 103 to obtain a DCT coefficient. The inverse quantization / inverse DCT unit 105 performs inverse DCT on the obtained DCT coefficient to calculate a decoded residual signal. The inverse quantization / inverse DCT unit 105 outputs the calculated decoded residual signal to the addition unit 106.

加算部106は、予測画像生成部101から入力された予測ピクチャブロックPの信号値と逆量子化・逆DCT部105から入力された復号残差信号の信号値を画素毎に加算して、参照ピクチャブロックを生成する。加算部106は、生成した参照ピクチャブロックを参照ピクチャメモリ109に記憶する。   The addition unit 106 adds, for each pixel, the signal value of the predicted picture block P input from the prediction image generation unit 101 and the signal value of the decoded residual signal input from the inverse quantization / inverse DCT unit 105 for reference. Generate a picture block. The addition unit 106 stores the generated reference picture block in the reference picture memory 109.

予測パラメータメモリ108は、予測パラメータ符号化部111が生成した予測パラメータを、符号化対象のピクチャ及びブロック毎に予め定めた位置に記憶する。   The prediction parameter memory 108 stores the prediction parameter generated by the prediction parameter coding unit 111 in a predetermined position for each picture and block to be coded.

参照ピクチャメモリ109は、加算部106が生成した参照ピクチャブロックを、符号化対象のピクチャ及びブロック毎に予め定めた位置に記憶する。   The reference picture memory 109 stores the reference picture block generated by the adding unit 106 in a predetermined position for each picture and block to be encoded.

符号化パラメータ決定部110は、符号化パラメータの複数のセットのうち、1つのセットを選択する。符号化パラメータとは、上述した予測パラメータやこの予測パラメータに関連して生成される符号化の対象となるパラメータである。   The coding parameter determination unit 110 selects one of a plurality of sets of coding parameters. The coding parameter is a prediction parameter described above or a parameter to be coded that is generated in association with the prediction parameter.

符号化パラメータ決定部110は、上記符号化パラメータの複数のセットの各々について情報量の大きさと符号化誤差を示すコスト値を算出する。コスト値は、例えば、符号量と二乗誤差に係数λを乗じた値との和である。符号量は、量子化誤差と符号化パラメータを可変長符号化して得られる対象レイヤ符号化データDATA#Tの情報量である。二乗誤差は、減算部102において算出された残差信号の残差値の二乗値についての画素間の総和である。係数λは、予め設定されたゼロよりも大きい実数である。符号化パラメータ決定部110は、算出したコスト値が最小となる符号化パラメータのセットを選択する。これにより、可変長符号化部104は、選択した符号化パラメータのセットを対象レイヤ符号化データDATA#Tとして外部に出力し、選択されなかった符号化パラメータのセットを出力しない。   The coding parameter determination unit 110 calculates, for each of the plurality of sets of coding parameters, a value of the amount of information and a cost value indicating a coding error. The cost value is, for example, the sum of the code amount and a value obtained by multiplying the square error by the coefficient λ. The code amount is the information amount of the target layer coded data DATA # T obtained by subjecting the quantization error and the coding parameter to variable length coding. The squared error is a sum between pixels with respect to the square value of the residual value of the residual signal calculated by the subtraction unit 102. The factor λ is a real number greater than a preset zero. The coding parameter determination unit 110 selects a set of coding parameters that minimize the calculated cost value. As a result, the variable-length coding unit 104 externally outputs the set of selected coding parameters as the target layer coded data DATA # T, and does not output the set of non-selected coding parameters.

選択される符号化パラメータのセットは、選択する予測方式に依存する。選択の対象となる予測方式は、符号化対象のピクチャが基本レイヤのピクチャである場合には、イントラ予測、動き予測及びマージ予測である。動き予測とは、上述のインター予測のうち、表示時刻間の予測である。マージ予測とは、既に符号化されたブロックであって、符号化対象ブロックから予め定めた範囲内にあるブロックと同一の参照ピクチャブロック及び予測パラメータを用いる予測である。符号化対象のピクチャが上位レイヤ(拡張レイヤ)のピクチャである場合には、選択の対象となる予測方式は、イントラ予測、動き予測、マージ予測、及びレイヤ間予測(レイヤ間画像予測、レイヤ間動き予測)である。   The set of coding parameters to be selected depends on the prediction scheme to be selected. The prediction method to be selected is intra prediction, motion prediction, and merge prediction when the picture to be encoded is a picture of the base layer. Motion prediction is prediction among display times among the above-described inter predictions. Merge prediction is prediction that uses a reference picture block and a prediction parameter that are blocks that have already been coded and that are within a predetermined range from the current block to be coded. When the picture to be encoded is a picture of the upper layer (the enhancement layer), the prediction methods to be selected are intra prediction, motion prediction, merge prediction, and inter-layer prediction (inter-layer image prediction, inter-layer prediction) Motion prediction).

符号化パラメータ決定部110は、選択した予測方式に対応する予測モードpredModeを予測パラメータ符号化部111に出力する。例えば、予測方式として動き予測を選択した場合、符号化パラメータ決定部110は、動きベクトルmvLXも併せて出力する。動きベクトルmvLXは、符号化対象ブロックの位置から予測ピクチャブロックPを生成する際の参照ピクチャブロックの位置までのベクトルを示す。動きベクトルmvLXを示す情報には、参照ピクチャを示す情報(例えば、参照ピクチャインデックスrefIdxLX、ピクチャ順序番号POC)を含み、予測パラメータを表すものであっても良い。予測方式としてレイヤ間予測を選択した場合、符号化パラメータ決定部110は、変位ベクトルmvLXも併せて出力する。変位ベクトルmvLXは、符号化対象ブロックの位置から予測ピクチャブロックPを生成する際の参照ピクチャブロックの位置までのベクトルを示す。変位ベクトルmvLXを示す情報には、参照ピクチャを示す情報(例えば、参照ピクチャインデックスrefIdxLX、レイヤ識別子layer_id)を含み、予測パラメータを表すものであっても良い。予測方式としてマージ予測を選択した場合、符号化パラメータ決定部110は、マージインデックスmerge_idxも併せて出力する。   The coding parameter determination unit 110 outputs the prediction mode predMode corresponding to the selected prediction scheme to the prediction parameter coding unit 111. For example, when motion prediction is selected as the prediction method, the coding parameter determination unit 110 also outputs the motion vector mvLX. The motion vector mvLX indicates a vector from the position of the encoding target block to the position of the reference picture block at the time of generating the prediction picture block P. The information indicating the motion vector mvLX may include information indicating a reference picture (for example, reference picture index refIdxLX, picture order number POC), and may represent a prediction parameter. When the inter-layer prediction is selected as the prediction method, the coding parameter determination unit 110 also outputs the displacement vector mvLX. The displacement vector mvLX indicates a vector from the position of the encoding target block to the position of the reference picture block at the time of generating the predicted picture block P. The information indicating the displacement vector mvLX may include information indicating a reference picture (for example, reference picture index refIdxLX, layer identifier layer_id), and may represent a prediction parameter. When merge prediction is selected as the prediction method, the coding parameter determination unit 110 also outputs the merge index merge_idx.

なお、符号化パラメータ決定部110は、レイヤ間画像予測制約フラグが真(1)であって、対象予測単位が参照しうるリサンプル参照ピクチャ上rsPic上の対応領域が、(参照レイヤ対応領域より外側の画像を参照するレイヤ間画像予測について)において説明した条件(A1)〜(A4)の何れか一つでも満たす場合、対象予測単位の予測方式として、レイヤ間画像予測(異なるレイヤを参照するインター予測)を選択せず、イントラ予測、あるいは同一レイヤ上のインター予測を選択するものとする。すなわち、上記条件を満たす参照ピクチャインデックスを含む予測パラメータは、符号化データに含まれないことになる。なお、条件(A1)〜(A4)の代わりに、(参照レイヤ対応領域より外側の画像のみを参照するレイヤ間画像予測について)において説明した条件(B1)〜(B4)を用いてもよい。なお、インター予測において、参照画像リスト上の参照レイヤの画像(リサンプル参照レイヤピクチャrsPic)を示す参照画像インデックスを指定することで、レイヤ間画像予測を利用することが可能である。   Note that the coding parameter determination unit 110 determines that the corresponding region on rsPic on the resample reference picture that the inter-layer image prediction restriction flag is true (1) and the target prediction unit can refer to (from the reference layer corresponding region When any one of the conditions (A1) to (A4) described in “Inter-layer image prediction with reference to the outer image” is satisfied, inter-layer image prediction (refer to different layers) is performed as a prediction method of the target prediction unit Inter prediction, or inter prediction on the same layer. That is, prediction parameters including the reference picture index that satisfies the above conditions are not included in the encoded data. The conditions (B1) to (B4) described in (for inter-layer image prediction in which only the image outside the reference layer corresponding region is referred to) may be used instead of the conditions (A1) to (A4). In inter prediction, inter-layer image prediction can be used by specifying a reference image index indicating an image of a reference layer on the reference image list (resample reference layer picture rsPic).

予測パラメータ符号化部111は、符号化パラメータ決定部110から入力されたパラメータに基づいて予測ピクチャを生成する際に用いる予測パラメータを導出し、導出した予測パラメータを符号化して符号化パラメータのセットを生成する。予測パラメータ符号化部111は、生成した符号化パラメータのセットを可変長符号化部104に出力する。   The prediction parameter coding unit 111 derives a prediction parameter to be used when generating a predicted picture based on the parameters input from the coding parameter determination unit 110, encodes the derived prediction parameter, and sets a set of coding parameters. Generate The prediction parameter coding unit 111 outputs the generated set of coding parameters to the variable-length coding unit 104.

予測パラメータ符号化部111は、生成した符号化パラメータのセットのうち符号化パラメータ決定部110が選択したものに対応する予測パラメータを予測パラメータメモリ108に記憶する。   The prediction parameter coding unit 111 stores, in the prediction parameter memory 108, prediction parameters corresponding to the generated set of coding parameters selected by the coding parameter determination unit 110.

予測パラメータ符号化部111は、符号化パラメータ決定部110から入力された予測モードpredModeがインター予測モードを示す場合、インター予測パラメータ符号化部112を動作させる。予測パラメータ符号化部111は、予測モードpredModeがイントラ予測モードを示す場合、イントラ予測パラメータ符号化部113を動作させる。   The prediction parameter coding unit 111 operates the inter prediction parameter coding unit 112 when the prediction mode predMode input from the coding parameter determination unit 110 indicates the inter prediction mode. The prediction parameter coding unit 111 operates the intra prediction parameter coding unit 113 when the prediction mode predMode indicates the intra prediction mode.

インター予測パラメータ符号化部112は、符号化パラメータ決定部110から入力された予測パラメータに基づいてインター予測パラメータを導出する。インター予測パラメータ符号化部112は、インター予測パラメータを導出する構成として、インター予測パラメータ復号部303がインター予測パラメータを導出する構成(図15,図17参照)と同一の構成を含む。インター予測パラメータ符号化部112の構成については、後述する。   The inter prediction parameter coding unit 112 derives inter prediction parameters based on the prediction parameters input from the coding parameter determination unit 110. The inter prediction parameter coding unit 112 includes the same configuration as the configuration in which the inter prediction parameter decoding unit 303 derives the inter prediction parameter (see FIGS. 15 and 17) as the configuration for deriving the inter prediction parameter. The configuration of the inter prediction parameter coding unit 112 will be described later.

イントラ予測パラメータ符号化部113は、符号化パラメータ決定部110から入力された予測モードpredModeが示すイントラ予測モードIntraPredModeをイントラ予測パラメータのセットとして定める。   The intra prediction parameter coding unit 113 determines the intra prediction mode IntraPredMode indicated by the prediction mode predMode input from the coding parameter determination unit 110 as a set of intra prediction parameters.

参照レイヤ対応領域推定部114は、入力される対象レイヤの画像と、参照レイヤピクチャ復号部13より入力される参照レイヤピクチャrlPicの画像rlSampleから、対象レイヤと参照レイヤの対応領域を表わす参照レイヤ対応領域情報(シーケンス全体で共通の参照レイヤ対応領域情報(図5のSYNSPS02)、ピクチャ単位の参照レイヤ対応領域情報(図7のSYNSH02、または図8のSYNSH03))を算出し、予測パラメータ符号化部111へ出力する。例えば、参照レイヤ対応領域推定部114は、対象レイヤと参照レイヤの同時刻のピクチャ間で、まずエッジやコーナー点などの特徴点を抽出し、その特徴点どうしの対応点を求める特徴点ベースマッチングを行い、画像間の対応付けを示すパラメータ(例えば、射影変換行列、または回転行列と平行移動ベクトル))を算出する。基本的に、スケーラブル符号化では、対象レイヤと参照レイヤは、空間的な倍率、及び位置が異なる画像であるため、算出する必要があるのは、倍率(x方向、y方向)、及び平行移動ベクトル(x方向、y方向)である。算出した画像間の対応付けを示すパラメータから、対象レイヤのピクチャと参照レイヤ対応領域との位置関係を示すパラメータ(参照レイヤ対応領域情報(offsetL、offsetT、offsetR、offsetBなど)を導出し、予測パラメータ符号化部111へ出力する。なお、参照レイヤ対応領域推定部114を含まずに、対象レイヤと参照レイヤの対応関係(参照レイヤ対応領域情報)を既知であるとし、外部より入力してもよい。   The reference layer corresponding area estimation unit 114 uses the image of the target layer to be input and the image rlSample of the reference layer picture rlPic input from the reference layer picture decoding unit 13 to correspond to the reference layer that indicates the corresponding area of the target layer and the reference layer. Area information (reference layer corresponding area information common to the whole sequence (SYN SPS 02 in FIG. 5), reference layer corresponding area information in picture units (SYN 02 in FIG. 7 or SYNSH 03 in FIG. 8) is calculated, and a prediction parameter coding unit Output to 111. For example, the reference layer corresponding area estimation unit 114 first extracts feature points such as edges and corner points between pictures of the target layer and the reference layer at the same time, and feature point based matching to obtain corresponding points of the feature points. To calculate the parameters indicating the correspondence between the images (for example, a projective transformation matrix or a rotation matrix and a translation vector). Basically, in scalable coding, the target layer and the reference layer are images having different spatial magnifications and positions, so it is necessary to calculate the magnification (x direction, y direction), and translation. It is a vector (x direction, y direction). A parameter (reference layer corresponding area information (offset L, offset T, offset R, offset B, etc.) indicating the positional relation between the picture of the target layer and the reference layer corresponding area is derived from the parameter indicating the correspondence between the calculated images, and the prediction parameter It is output to the encoding unit 111. Note that the correspondence relationship between the target layer and the reference layer (reference layer correspondence region information) is assumed to be known without including the reference layer correspondence region estimation unit 114, and may be input from the outside. .

予測パラメータ符号化部111は、参照レイヤ対応領域推定部114から入力された参照レイヤ対応領域情報から各シンタックスを、例えば式(I-1)〜(I-4)、(I-1B)〜(I-4B)等で導出し、導出した各シンタックスを符号化する。なお、参照レイヤ対応領域情報は、スライスレイヤ単位、ピクチャレイヤ単位、シーケンスレイヤ単位のいずれかの単位で出力する。また、予測パラメータ符号化部111は、図示しないレイヤ間情報導出部1160をさらに含む。レイヤ間情報導出部1160は、予測パラメータ復号部302が備えるレイヤ間情報導出部3020と同等の機能を有する。符号化された参照レイヤ対応領域情報に基づいて、対象レイヤiが参照する参照レイヤjに関するレイヤ間対応関係パラメータとして、リサンプル参照レイヤピクチャrsPic上における参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetBを前述の式(G-1)〜(G-4)を用いて導出し、参照レイヤ対応領域SRLAの横幅SRLPWおよび縦幅SRLPHを前述の式(G-5)〜(G-6)を用いて導出する。   The prediction parameter coding unit 111 uses the reference layer corresponding region information input from the reference layer corresponding region estimation unit 114 to generate each syntax, for example, according to Equations (I-1) to (I-4), (I-1 B) to (I-4B) or the like, and each derived syntax is encoded. The reference layer corresponding area information is output in any unit of slice layer unit, picture layer unit, and sequence layer unit. Further, the prediction parameter coding unit 111 further includes an inter-layer information deriving unit 1160 not shown. The inter-layer information derivation unit 1160 has the same function as the inter-layer information derivation unit 3020 included in the prediction parameter decoding unit 302. Offset Offset L indicating the position of the reference layer corresponding area SRLA on the resample reference layer picture rsPic as an inter-layer correspondence parameter related to the reference layer j referred to by the target layer i based on the encoded reference layer corresponding area information OffsetT, OffsetR, OffsetB are derived using the above equations (G-1) to (G-4), and the horizontal width SRLPW and the vertical width SRLPH of the reference layer corresponding area SRLA are obtained from the above equations (G-5) to (G -6) to derive.

続いて、対象レイヤiが参照する参照レイヤjに対応するアクティブ参照レイヤ対応領域情報があれば、その情報を用いて参照レイヤ対応領域SRLAの位置を示すオフセットOffsetL、OffsetT、OffsetR、OffsetB、および参照レイヤ対応領域SRLAの横幅SRLPWと縦幅SRLPHを再設定する。   Subsequently, if there is active reference layer corresponding area information corresponding to the reference layer j referred to by the target layer i, offset Offset L, Offset T, Offset R, Offset B, and reference indicating the position of the reference layer corresponding area SRLA using that information The horizontal width SRLPW and the vertical width SRLPH of the layer corresponding area SRLA are reset.

続いて、参照レイヤ対応領域SRLAと参照レイヤピクチャrlPicの横幅のサイズ比ScaleFactorXと縦幅のサイズ比ScaleFactorYを前述の式(G-7)〜(G-8)を用いて導出する。   Subsequently, the size ratio ScaleFactor X of the horizontal width of the reference layer corresponding area SRLA to the reference layer picture rlPic and the size ratio ScaleFactor Y of the vertical width are derived using the above formulas (G-7) to (G-8).

レイヤ間情報導出部1160にて導出されたレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)は予測パラメータメモリ108で記憶される。   Inter-layer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, ScaleFactor X, ScaleFactor Y, etc.) derived by the inter-layer information deriving unit 1160 are stored in the prediction parameter memory 108.

さらに、予測パラメータ符号化部111は、参照レイヤ対応領域情報に基づいて、レイヤ間画像予測制約フラグを符号化する。参照レイヤ対応領域情報があれば、レイヤ間予測画像制約フラグを符号化し、参照レイヤ対応領域情報がなければ、レイヤ間画像制約フラグの値は0と推定し、符号化を省略する。なお、レイヤ間画像予測制約フラグの値は、符号化パラメータ決定部110において決定されてもよいし、外部より指定してもよい。   Furthermore, the prediction parameter coding unit 111 codes the inter-layer image prediction restriction flag based on the reference layer corresponding area information. If there is reference layer corresponding area information, the inter-layer predicted image constraint flag is encoded. If there is no reference layer corresponding area information, the value of the inter-layer image constraint flag is estimated to be 0, and the encoding is omitted. Note that the value of the inter-layer image prediction restriction flag may be determined by the coding parameter determination unit 110 or may be designated from the outside.

(インター予測パラメータ符号化部112)
インター予測パラメータ符号化部112の構成について説明する。インター予測パラメータ符号化部112は、画像復号装置におけるインター予測パラメータ復号部303に対応する手段である。
(Inter prediction parameter coding unit 112)
The configuration of the inter prediction parameter coding unit 112 will be described. The inter prediction parameter coding unit 112 is a means corresponding to the inter prediction parameter decoding unit 303 in the image decoding apparatus.

図25は、本実施形態に係るインター予測パラメータ符号化部112の構成を示す概略図である。インター予測パラメータ符号化部112は、マージ予測パラメータ導出部1121、AMVP予測パラメータ導出部1122、減算部1123、インター予測パラメータ符号化制御部1124を含んで構成される。   FIG. 25 is a schematic diagram showing the configuration of the inter prediction parameter coding unit 112 according to the present embodiment. The inter prediction parameter coding unit 112 includes a merge prediction parameter derivation unit 1121, an AMVP prediction parameter derivation unit 1122, a subtraction unit 1123, and an inter prediction parameter coding control unit 1124.

マージ予測パラメータ導出部1121は、上述のマージ予測パラメータ導出部3036(図15参照)と同様の構成を有する。   Merge prediction parameter derivation unit 1121 has a configuration similar to that of merge prediction parameter derivation unit 3036 described above (see FIG. 15).

マージ予測パラメータ導出部1121には、符号化パラメータ決定部110から入力される予測モードpredModeがマージ予測モードを示す場合、符号化パラメータ決定部110からマージインデックスmerge_idxが入力される。マージインデックスmerge_idxは、インター予測パラメータ符号化制御部1124に出力される。マージ予測パラメータ導出部1121は、マージ候補のうちマージインデックスmerge_idxが示す参照ブロックの参照ピクチャインデックスrefIdxLX、ベクトルmvLXを予測パラメータメモリ108から読み出す。マージ候補とは、符号化対象となる符号化対象ブロックから予め定めた範囲にある参照ブロック(例えば、符号化対象ブロックの左下端、左上端、右上端に接する参照ブロックのうち)であって、符号化処理が完了した参照ブロックである。   When the prediction mode predMode input from the coding parameter determination unit 110 indicates a merge prediction mode, the merge prediction parameter derivation unit 1121 receives the merge index merge_idx from the coding parameter determination unit 110. The merge index merge_idx is output to the inter prediction parameter coding control unit 1124. The merge prediction parameter derivation unit 1121 reads out from the prediction parameter memory 108 the reference picture index refIdxLX and the vector mvLX of the reference block indicated by the merge index merge_idx among the merge candidates. The merge candidate is a reference block in a predetermined range from the encoding target block to be encoded (for example, among reference blocks in contact with the lower left end, upper left end, and upper right end of the encoding target block) It is a reference block for which the encoding process has been completed.

AMVP予測パラメータ導出部1122は、上述のAMVP予測パラメータ導出部3032(図17参照)と同様の構成を有する。   The AMVP prediction parameter derivation unit 1122 has a configuration similar to that of the above-described AMVP prediction parameter derivation unit 3032 (see FIG. 17).

AMVP予測パラメータ導出部1122には、符号化パラメータ決定部110から入力される予測モードpredModeがインター予測モードを示す場合、符号化パラメータ決定部110からベクトルmvLXが入力される。AMVP予測パラメータ導出部1122は、入力されたベクトルmvLXに基づいて予測ベクトルmvpLXを導出する。AMVP予測パラメータ導出部1122は、導出した予測ベクトルmvpLXを減算部1123に出力する。なお、参照ピクチャインデックスrefIdx及びベクトルインデックスmvp_LX_idxは、インター予測パラメータ符号化制御部1124に出力される。   When the prediction mode predMode input from the coding parameter determination unit 110 indicates the inter prediction mode, the AMVP prediction parameter derivation unit 1122 receives the vector mvLX from the coding parameter determination unit 110. The AMVP prediction parameter derivation unit 1122 derives a prediction vector mvpLX based on the input vector mvLX. The AMVP prediction parameter derivation unit 1122 outputs the derived prediction vector mvpLX to the subtraction unit 1123. The reference picture index refIdx and the vector index mvp_LX_idx are output to the inter prediction parameter coding control unit 1124.

減算部1123は、符号化パラメータ決定部110から入力されたベクトルmvLXから、AMVP予測パラメータ導出部1122から入力された予測ベクトルmvpLXを減算して差分ベクトルmvdLXを生成する。差分ベクトルmvdLXはインター予測パラメータ符号化制御部1124に出力する。   The subtraction unit 1123 subtracts the prediction vector mvpLX input from the AMVP prediction parameter derivation unit 1122 from the vector mvLX input from the coding parameter determination unit 110 to generate a difference vector mvdLX. The difference vector mvdLX is output to the inter prediction parameter coding control unit 1124.

インター予測パラメータ符号化制御部1124は、インター予測に関連する符号(シンタックス要素)の符号化を可変長符号化部104に指示し、符号化データに含める符号(シンタックス要素)を例えば、分割モードpart_mode、マージフラグmerge_flag、マージインデックスmerge_idx、インター予測識別子inter_pred_idc、参照ピクチャインデックスrefIdxLX、予測ベクトルインデックスmvp_LX_idx、差分ベクトルmvdLXを符号化する。   The inter-prediction parameter coding control unit 1124 instructs the variable-length coding unit 104 to code a code (syntax element) related to inter prediction, and divides, for example, the code (syntax element) included in the coded data. The mode part_mode, merge flag merge_flag, merge index merge_idx, inter prediction identifier inter_pred_idc, reference picture index refIdxLX, prediction vector index mvp_LX_idx, difference vector mvdLX are encoded.

インター予測パラメータ符号化制御部1124は、予測モードpredModeがマージ予測モードを示す場合には、符号化パラメータ決定部110から入力されたマージインデックスmerge_idxを可変長符号化部104に出力する。   When the prediction mode predMode indicates the merge prediction mode, the inter prediction parameter coding control unit 1124 outputs the merge index merge_idx input from the coding parameter determination unit 110 to the variable length coding unit 104.

インター予測パラメータ符号化制御部1124は、予測モードpredModeがインター予測モードを示す場合には、符号化パラメータ決定部110から入力された参照ピクチャインデックスrefIdxLX及びベクトルインデックスmvp_LX_idx、減算部1123から入力された差分ベクトルmvdLXを、可変長符号化部104に出力する。   When the prediction mode predMode indicates the inter prediction mode, the inter prediction parameter coding control unit 1124 determines the reference picture index refIdxLX and the vector index mvp_LX_idx input from the coding parameter determination unit 110, and the difference input from the subtraction unit 1123. The vector mvdLX is output to the variable-length coding unit 104.

以上のように、レイヤ間画像マッピング部315において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の各画素に対応する参照レイヤピクチャrlPic上の参照画素の位置を決定し、その参照画素と周辺画素に所定のリサンプルフィルタを適用することで、対象画素を生成することができる。これにより、レイヤ間画像予測で使用されるリサンプル画像の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間画像マッピングを行うことにより、よりレイヤ間画像予測で使用されるリサンプル画像の精度をより向上させる効果を奏する。それに伴いレイヤ間画像予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer image mapping unit 315, the inter-layer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, and the like between the target layer (for example, enhancement layer) and the reference layer (for example, base layer)). Based on ScaleFactor X, ScaleFactor Y, etc., determine the position of the reference pixel on the reference layer picture rlPic corresponding to each pixel on the resampled reference layer picture rsPic, and apply a predetermined resample filter to the reference pixel and peripheral pixels By doing this, the target pixel can be generated. Thereby, the effect of improving the accuracy of the resampled image used in the inter-layer image prediction can be obtained. In particular, for a sequence in which the correspondence area between the target layer and the reference layer changes in units of pictures, inter-layer image mapping is performed based on the inter-layer correspondence parameter derived by the reference layer correspondence area information, By performing the inter-layer image mapping based on the inter-layer correspondence relationship parameter derived by the active reference layer corresponding region information, the effect of further improving the accuracy of the resampled image used in the inter-layer image prediction can be achieved. Along with this, the prediction accuracy of the inter-layer image prediction is also improved, so that the coding efficiency can be improved.

以上のように、レイヤ間動きマッピング部316において、対象レイヤ(例えば拡張レイヤ)と参照レイヤ(例えばベースレイヤ)との間のレイヤ間対応関係パラメータ(OffsetL、OffsetT、OffsetR、OffsetB、SRLPW、SRLPH、ScaleFactorX、ScaleFactorY等)に基づいて、リサンプル参照レイヤピクチャrsPic上の対象ブロックに対応する参照レイヤピクチャrlPic上の参照画像ブロックを決定し、参照画像ブロックの動き情報に基づいて対象ブロックの動き情報を生成することができる。これにより、レイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度を向上させる効果を得ることができる。特に、ピクチャ単位で対象レイヤと参照レイヤの対応領域が変化するシーケンスに対しては、参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行う場合に比べて、アクティブ参照レイヤ対応領域情報により導出されるレイヤ間対応関係パラメータに基づいてレイヤ間動きマッピングを行うことにより、よりレイヤ間動き予測で使用される動き情報(テンポラル動き情報)の精度をより向上させる効果を奏する。それに伴いレイヤ間動き予測の予測精度も向上するため、符号化効率の向上を図ることが可能となる。   As described above, in the inter-layer motion mapping unit 316, the inter-layer correspondence relationship parameters (Offset L, Offset T, Offset R, Offset B, SRLPW, SRL PH, and the like between the target layer (eg, enhancement layer) and the reference layer (eg, base layer)). Based on ScaleFactor X, ScaleFactor Y, etc.), the reference image block on the reference layer picture rlPic corresponding to the target block on the resample reference layer picture rsPic is determined, and the motion information of the target block is determined based on the motion information of the reference image block. Can be generated. As a result, it is possible to obtain an effect of improving the accuracy of motion information (temporal motion information) used in inter-layer motion prediction. In particular, for a sequence in which the corresponding region of the target layer and the reference layer changes in units of pictures, inter-layer motion mapping is performed based on the inter-layer correspondence relationship parameter derived by the reference layer corresponding region information. By performing the inter-layer motion mapping based on the inter-layer correspondence relationship parameter derived by the active reference layer correspondence region information, the effect of further improving the accuracy of motion information (temporal motion information) used in inter-layer motion prediction Play. Along with this, the prediction accuracy of the inter-layer motion prediction is also improved, so that the coding efficiency can be improved.

<予測パラメータ符号化部111の変形例1>
上述の例では、対象CUの予測タイプがインター予測である場合に、各PU単位で、参照画像リスト上の参照レイヤの画像(リサンプル参照レイヤピクチャrsPic)を示す参照画像インデックスを指定することで、レイヤ間画像予測を利用することが可能である。対象CUにおいてレイヤ間画像予測を利用するかどうかは、上記例に限定されず、対象CU内で、明示的にレイヤ間画像予測フラグtexture_rl_flagを通知することにより可能である。図21は、CU単位でレイヤ間画像予測フラグtexture_rl_flagを含む場合の符号化データの構成を示す図である。図21に示す通り、CU単位の符号化データは、SYNCU01に示すレイヤ間画像予測フラグ(texture_rl_flag)、SYNCU02に示すCUタイプ情報(予測モードフラグ(pred_mode_flag))、SYNCU03に示すPU分割タイプ(part_mode)、並びに図示しないPU情報、およびTU情報から構成される。
<Modification 1 of Prediction Parameter Encoding Unit 111>
In the above-described example, when the prediction type of the target CU is inter prediction, a reference image index indicating the image of the reference layer on the reference image list (resample reference layer picture rsPic) is specified in each PU. Inter-layer image prediction can be used. Whether to use inter-layer image prediction in the target CU is not limited to the above example, and it is possible by explicitly notifying the inter-layer image prediction flag texture_rl_flag in the target CU. FIG. 21 is a diagram showing the configuration of coded data in the case where the inter-layer image prediction flag texture_rl_flag is included in CU units. As shown in FIG. 21, the encoded data in units of CUs is an inter-layer image prediction flag (texture_rl_flag) shown in SYNCU01, CU type information (prediction mode flag (pred_mode_flag)) shown in SYNCU02, and a PU division type (part_mode) shown in SYNCU03. , And PU information and TU information not shown.

以下、図26を用いて、CU単位でレイヤ間画像予測フラグを含む場合の符号化データを符号化する動作を説明する。なお、予測パラメータ符号化部111の変形例1は、予測パラメータ復号部302の逆処理に相当する。   Hereinafter, an operation of encoding encoded data in the case where the inter-layer image prediction flag is included in CU units will be described using FIG. The first modification of the prediction parameter coding unit 111 corresponds to the reverse process of the prediction parameter decoding unit 302.

(S701)予測パラメータ符号化部111は、所定のパラメータセット(例えば、VPS)単位毎に、符号化パラメータ決定部110で決定された、参照レイヤ指定情報、及びレイヤ間予測タイプ情報に基づいて、対象レイヤiが参照レイヤjからのレイヤ間画像予測の有無を示すレイヤ間画像予測有無フラグSamplePredEnableFlag[i][j]を導出する。
また、予測パラメータ符号化部111は、可変長符号化部104へ指示して、上記参照レイヤ指定情報、及びレイヤ間予測タイプ情報の符号を符号化する。また、予測パラメータ符号化部111は、所定のパラメータセット(例えば、SPS)単位毎に、符号化パラメータ決定部110で決定された、参照レイヤ対応領域情報の符号を可変長符号化部104へ指示して符号化する。さらに、予測パラメータ符号化部111は、符号化パラメータ決定部110において、参照レイヤ対応領域情報に基づいて決定された、レイヤ間画像予測制約フラグを可変長符号化部104へ指示して符号化する。
(S701) The prediction parameter coding unit 111 determines, for each predetermined parameter set (for example, VPS), based on the reference layer designation information and the inter-layer prediction type information determined by the coding parameter determination unit 110. The inter-layer image prediction presence / absence flag SamplePredEnableFlag [i] [j] indicating the presence / absence of inter-layer image prediction from the reference layer j is derived from the target layer i.
Further, the prediction parameter coding unit 111 instructs the variable-length coding unit 104 to code the reference layer designation information and the code of the inter-layer prediction type information. In addition, the prediction parameter coding unit 111 instructs the variable-length coding unit 104 on the code of the reference layer corresponding area information determined by the coding parameter determination unit 110 for each predetermined parameter set (for example, SPS) unit. And encode. Furthermore, the prediction parameter coding unit 111 instructs the variable-length coding unit 104 to code the inter-layer image prediction constraint flag determined based on the reference layer corresponding area information in the coding parameter determination unit 110. .

(S702)予測パラメータ符号化部111は、所定パラメータセット(例えば、スライスヘッダ)単位毎に、符号化パラメータ決定部110で決定されたアクティブ参照レイヤ対応領域情報の符号を可変長符号化部104へ指示して符号化する。さらに、予測パラメータ符号化部111は、符号化パラメータ決定部110で決定された参照レイヤ対応領域情報、及びアクティブ参照レイヤ対応領域情報に基づいて、対象ピクチャが参照する各リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLAの位置情報(OffsetL、OffsetT、OffsetR、OffsetB)とサイズ情報(SRLPW、SRLPH)を導出する。具体的な導出方法は説明済のため省略する。続いて、各CTBにおいて、以下の処理を行う。   (S702) The prediction parameter coding unit 111 transmits the code of the active reference layer corresponding area information determined by the coding parameter determination unit 110 to the variable length coding unit 104 for each predetermined parameter set (for example, slice header). Directly encode. Furthermore, the prediction parameter coding unit 111 determines, on each resample reference layer picture rsPic that the target picture refers to, based on the reference layer corresponding region information determined by the coding parameter determination unit 110 and the active reference layer corresponding region information. The position information (Offset L, Offset T, Offset R, Offset B) and size information (SRLPW, SRLPH) of the reference layer corresponding area SRLA are derived. A specific derivation method is omitted since it has been described. Subsequently, the following processing is performed in each CTB.

(S703)CUのループを開始する。CUのループはCTBに含まれる全てのCUを順に処理することで行われる。   (S703) A loop of CU is started. A loop of CUs is performed by sequentially processing all CUs included in the CTB.

(S704)予測パラメータ符号化部111は、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlag、及びレイヤ間画像予測禁止フラグNoInterlayerSamplePredFlagを導出する。なお、レイヤ間画像予測適用可フラグ、およびレイヤ間画像予測禁止フラグの導出方法は、図22のS604と同一であるため、説明を省略する。   (S704) The prediction parameter encoding unit 111 derives the inter-layer image prediction applicable flag InterLayerSamplePredEnableFlag, and the inter-layer image prediction prohibition flag NoInterlayerSamplePredFlag. Note that the method of deriving the inter-layer image prediction applicable flag and the inter-layer image prediction prohibition flag are the same as in S604 of FIG.

(S705)予測パラメータ符号化部111は、対象レイヤcurLayerId、レイヤ間画像予測適用可フラグInterLayerSamplePredEnableFlagとレイヤ間画像予測禁止フラグNoInterLayerSamplePredFlagが前述の式(J-1)を満たすかを判定する。式(J-1)において、値が真の場合(S705においてYes)、ステップS706へ遷移し、予測パラメータ符号化部111は、符号化パラメータ決定部110で決定されたレイヤ間画像予測フラグtexture_rl_flag(図21上のSYNCU01)を可変長符号化部110へ指示し符号化する(S706)。それ以外の場合(式(J-1)の値が偽の場合)、レイヤ間画像予測フラグtexture_rl_flagの符号化を省略し、ステップS708へ遷移する。   (S705) The prediction parameter encoding unit 111 determines whether the target layer curLayerId, the inter-layer image prediction applicable flag InterLayerSamplePredEnableFlag, and the inter-layer image prediction prohibition flag NoInterLayerSamplePredFlag satisfy the above-mentioned equation (J-1). In Formula (J-1), when the value is true (Yes in S705), the process proceeds to step S706, and the prediction parameter coding unit 111 determines the inter-layer image prediction flag texture_rl_flag (determined by the coding parameter determination unit 110). The SYNCU 01) in FIG. 21 is instructed to the variable-length coding unit 110 to be coded (S706). Otherwise (when the value of the expression (J-1) is false), the coding of the inter-layer image prediction flag texture_rl_flag is omitted, and the process proceeds to step S708.

(S708)レイヤ間画像予測フラグの値が1であるかを判定する。同フラグの値が真である場合、ステップS711へ遷移する。同フラグの値が偽の場合、ステップS709へ遷移する。   (S708) It is determined whether the value of the inter-layer image prediction flag is one. If the value of the flag is true, the process proceeds to step S711. If the value of the flag is false, the process proceeds to step S709.

(S709)対象CUのCUタイプを示すCUタイプ情報、例えば図21上のSYNCU02に示す予測モードフラグ(pred_mode_flag)を符号化する。なお、予測モードフラグが0の場合、予測モードフラグの符号化後に、図21上のSYNCU03に示すPU分割タイプ情報(part_mode)がさらに符号化されうる。   (S709) CU type information indicating the CU type of the target CU, for example, the prediction mode flag (pred_mode_flag) shown in SYNCU 02 in FIG. 21 is encoded. In addition, when a prediction mode flag is 0, PU division | segmentation type information (part_mode) shown to SYNCU03 in FIG. 21 may be further encoded after an encoding of a prediction mode flag.

(S710)対象CU内に含まれる各PU単位のPU情報が符号化される。   (S710) PU information of each PU unit included in the target CU is encoded.

(S711)対象CU内に含まれる各TU単位のTU情報が符号化される。   (S711) TU information in units of TUs included in the target CU is encoded.

(S712)CU単位のループの終端である。   (S712) This is the end of the loop in CU units.

上記予測パラメータ符号化部111の変形1によれば、対象CUのレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に符号化するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を含むレイヤ間画像予測を禁止することを示すレイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLAを跨ぐ場合(前述の条件(A1)〜(A4)のいずれかを満たす場合)、レイヤ間画像予測フラグの符号化を省略することにより、レイヤ間画像予測フラグの符号化に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。また、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素が、レイヤ間画像予測において参照されないことが補償されているため、参照レイヤ対応領域外の画素をレイヤ間画像マッピング(リサンプリング処理)によって生成する処理を省略することができる。また、参照ピクチャメモリにおいて、リサンプル参照レイヤピクチャrsPic上の参照レイヤ対応領域SRLA外の画素を保持するためのメモリを削減することができる。   According to the modification 1 of the prediction parameter coding unit 111, the inter-layer image prediction applicable flag and the inter-layer image prediction prohibition as to whether or not the inter-layer image prediction flag (texture_rl_flag) of the target CU is explicitly encoded Control based on the flag. In particular, when the inter-layer image prediction restriction flag indicating that inter-layer image prediction including a pixel outside the reference layer corresponding region SRLA specified by the reference layer corresponding region information or the active reference layer corresponding region information is prohibited is 1, It is ensured between the image decoding apparatus and the image coding apparatus that inter-layer image prediction is not used in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding region SRLA. Therefore. When the corresponding area on the resample reference layer picture rsPic corresponding to the target CU straddles the reference layer corresponding area SRLA (when any of the above-described conditions (A1) to (A4) is satisfied), the code of the inter-layer image prediction flag By omitting this process, it is possible to reduce the amount of processing involved in the encoding of the inter-layer image prediction flag. In addition, since the code amount related to the inter-layer image prediction flag can be reduced, the code efficiency can be improved. In addition, since it is compensated that pixels outside the reference layer corresponding area SRLA on the resample reference layer picture rsPic are not referred to in the inter-layer image prediction, the pixels outside the reference layer corresponding area are mapped to the image between layers (resampling The process generated by the process can be omitted. Further, in the reference picture memory, it is possible to reduce the memory for holding the pixels outside the reference layer corresponding area SRLA on the resampled reference layer picture rsPic.

<予測パラメータ符号化部111の変形例2>
なお、上記の例では、レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素を参照するレイヤ間画像予測の使用を禁止することを示すこと前提に説明したが、それに限定されない。レイヤ間画像予測制約フラグが1の場合は、参照レイヤ対応領域情報、またはアクティブ参照レイヤ対応領域情報で指定される参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測の使用を禁止することを示してもよい。
<Modification 2 of Prediction Parameter Encoding Unit 111>
In the above example, when the inter-layer image prediction restriction flag is 1, an inter-layer image that refers to pixels outside the reference layer corresponding area SRLA specified by the reference layer corresponding area information or the active reference layer corresponding area information Although described on the premise to indicate that the use of forecasts is prohibited, it is not limited thereto. When the inter-layer image prediction restriction flag is 1, the use of inter-layer image prediction which refers only to pixels outside the reference layer corresponding area SRLA designated by the reference layer corresponding area information or the active reference layer corresponding area information is prohibited. You may indicate that.

この場合、上記ステップS704において、レイヤ間画像予測禁止フラグを導出する条件式を前述の条件(A1)〜(A4)の代わりに、前述の条件(B1)〜(B4)へ置き換えればよい。   In this case, in step S704, the conditional expression for deriving the inter-layer image prediction prohibition flag may be replaced with the above-mentioned conditions (B1) to (B4) instead of the above-mentioned conditions (A1) to (A4).

上記予測パラメータ符号化部111の変形例2によれば、対象CUのレイヤ間画像予測フラグ(texture_rl_flag)を、明示的に符号化するか否かをレイヤ間画像予測適用可フラグおよびレイヤ間画像予測禁止フラグに基づいて制御する。特に、レイヤ間画像予測制約フラグが1である場合、対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照するレイヤ間画像予測が利用されないことが画像復号装置と画像符号化装置間において保障されている。従って。対象CUに対応するリサンプル参照レイヤピクチャrsPic上の対応領域が参照レイヤ対応領域SRLA外の画素のみを参照する場合(前述の条件(B1)〜(B4)のいずれかを満たす場合)、レイヤ間画像予測フラグの符号化を省略することにより、レイヤ間画像予測フラグの符号化に係る処理量を低減することができる。また、レイヤ間画像予測フラグに係る符号量を削減することができるため、符号効率の向上の効果を奏する。   According to the second modification of the prediction parameter coding unit 111, the inter-layer image prediction applicable flag and the inter-layer image prediction whether the inter-layer image prediction flag (texture_rl_flag) of the target CU is explicitly encoded or not Control based on the prohibition flag. In particular, when the inter-layer image prediction restriction flag is 1, inter-layer image prediction in which the corresponding region on the resample reference layer picture rsPic corresponding to the target CU refers only to pixels outside the reference layer corresponding region SRLA is not used. Is secured between the image decoding device and the image coding device. Therefore. When the corresponding area on the resample reference layer picture rsPic corresponding to the target CU refers only to pixels outside the reference layer corresponding area SRLA (when any of the above-described conditions (B1) to (B4) is satisfied), inter-layer By omitting the coding of the image prediction flag, it is possible to reduce the amount of processing related to the coding of the inter-layer image prediction flag. In addition, since the code amount related to the inter-layer image prediction flag can be reduced, the code efficiency can be improved.

(他の階層動画像符号化/復号システムへの適用例)
上述した階層動画像符号化装置2及び階層動画像復号装置1は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用できる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
(Example applied to other hierarchical video coding / decoding systems)
The hierarchical moving image encoding device 2 and the hierarchical moving image decoding device 1 described above can be used by being installed in various devices for transmitting, receiving, recording, and reproducing moving images. The moving image may be a natural moving image captured by a camera or the like, or an artificial moving image (including CG and GUI) generated by a computer or the like.

図27に基づいて、上述した階層動画像符号化装置2および階層動画像復号装置1を、動画像の送信および受信に利用できることを説明する。図27の(a)は、階層動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。   Based on FIG. 27, it will be described that the above-described hierarchical moving image encoding device 2 and hierarchical moving image decoding device 1 can be used for transmission and reception of moving images. (A) of FIG. 27 is a block diagram showing a configuration of a transmitter PROD_A on which the hierarchical moving image encoder 2 is mounted.

図27の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3とを備えている。上述した階層動画像符号化装置2は、この符号化部PROD_A1として利用される。   As shown in (a) of FIG. 27, the transmission device PROD_A modulates a carrier wave with the coding unit PROD_A1 for obtaining coded data by coding a moving image, and the coding data obtained by the coding unit PROD_A1. Thus, the modulation unit PROD_A2 for obtaining a modulation signal and the transmission unit PROD_A3 for transmitting the modulation signal obtained by the modulation unit PROD_A2 are provided. The above-described hierarchical moving picture coding device 2 is used as the coding unit PROD_A1.

送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、動画像を外部から入力するための入力端子PROD_A6、及び、画像を生成または加工する画像処理部A7を更に備えていてもよい。図27の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。   The transmission device PROD_A is a camera PROD_A4 for capturing a moving image, a recording medium PROD_A5 for recording the moving image, an input terminal PROD_A6 for externally inputting the moving image, and a transmission source of the moving image input to the encoding unit PROD_A1. , And may further include an image processing unit A7 that generates or processes an image. In (a) of FIG. 27, although the configuration in which the transmission device PROD_A includes all of these is illustrated, a part of the configuration may be omitted.

なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。   Note that the recording medium PROD_A5 may be a recording of a non-coded moving image, or a moving image encoded by a recording encoding method different from the transmission encoding method. It may be one. In the latter case, it is preferable to interpose, between the recording medium PROD_A5 and the encoding unit PROD_A1, a decoding unit (not shown) that decodes the encoded data read from the recording medium PROD_A5 according to the encoding scheme for recording.

図27の(b)は、階層動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図27の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3とを備えている。上述した階層動画像復号装置1は、この復号部PROD_B3として利用される。   (B) of FIG. 27 is a block diagram showing a configuration of a reception device PROD_B in which the hierarchical moving image decoding device 1 is mounted. As shown in (b) of FIG. 27, the receiver PROD_B demodulates the modulated signal received by the receiver PROD_B1, which receives the modulated signal, and the demodulator PROD_B2, which obtains encoded data by demodulating the modulated signal received by the receiver PROD_B1, and A decoding unit PROD_B3 that obtains a moving image by decoding encoded data obtained by the unit PROD_B2 is provided. The hierarchical moving image decoding device 1 described above is used as the decoding unit PROD_B3.

受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図27の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。   The receiving device PROD_B is a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3. It may further comprise PROD_B6. Although (b) of FIG. 27 illustrates the configuration in which the reception device PROD_B includes all of these, a part may be omitted.

なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。   Incidentally, the recording medium PROD_B5 may be for recording a moving image which has not been encoded, or is encoded by a recording encoding method different from the transmission encoding method. May be In the latter case, an encoding unit (not shown) may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5 to encode the moving image acquired from the decoding unit PROD_B3 according to the encoding method for recording.

なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。   The transmission medium for transmitting the modulation signal may be wireless or wired. Further, the transmission mode for transmitting the modulation signal may be broadcast (here, a transmission mode in which the transmission destination is not specified in advance), or communication (in this case, transmission in which the transmission destination is specified in advance) (Refer to an aspect). That is, transmission of the modulation signal may be realized by any of wireless broadcast, wired broadcast, wireless communication, and wired communication.

例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。   For example, a broadcasting station (broadcasting facility etc.) / Receiving station (television receiver etc.) of terrestrial digital broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B which transmits and receives a modulated signal by wireless broadcasting. A cable television broadcast station (broadcasting facility or the like) / receiving station (television receiver or the like) is an example of a transmitting device PROD_A / receiving device PROD_B which transmits and receives a modulated signal by cable broadcasting.

また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。   In addition, a server (such as a workstation) / client (television receiver, personal computer, smart phone, etc.) such as a VOD (Video On Demand) service or a video sharing service using the Internet is a transmitting device that transmits and receives modulated signals by communication. This is an example of PROD_A / receiving device PROD_B (Normally, in a LAN, either wireless or wired is used as a transmission medium, and in a WAN, wired is used as a transmission medium). Here, the personal computer includes a desktop PC, a laptop PC, and a tablet PC. The smartphone also includes a multifunctional mobile phone terminal.

なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。   In addition to the function of decoding the encoded data downloaded from the server and displaying it on the display, the client of the moving image sharing service has a function of encoding a moving image captured by a camera and uploading it to the server. That is, the client of the moving image sharing service functions as both the transmitting device PROD_A and the receiving device PROD_B.

図28に基づいて、上述した階層動画像符号化装置2および階層動画像復号装置1を、動画像の記録および再生に利用できることを説明する。図28の(a)は、上述した階層動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。   Based on FIG. 28, it will be described that the above-described hierarchical moving image encoding device 2 and hierarchical moving image decoding device 1 can be used for recording and reproduction of moving images. (A) of FIG. 28 is a block diagram showing a configuration of a recording device PROD_C on which the above-described hierarchical moving image encoding device 2 is mounted.

図28の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した階層動画像符号化装置2は、この符号化部PROD_C1として利用される。   As shown in (a) of FIG. 28, the recording device PROD_C uses the encoding unit PROD_C1, which obtains encoded data by encoding a moving image, and the encoded data obtained by the encoding unit PROD_C1, to the recording medium PROD_M. And a writing unit PROD_C2 for writing. The hierarchical moving image encoding device 2 described above is used as the encoding unit PROD_C1.

なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)等のように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリ等のように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disc:登録商標)等のように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   The recording medium PROD_M may be (1) a type incorporated in the recording device PROD_C, such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive), or (2) an SD memory. It may be of a type connected to the recording device PROD_C, such as a card or a Universal Serial Bus (USB) flash memory, or (3) a DVD (Digital Versatile Disc) or a BD (Blu-ray Disc: registration). It may be loaded into a drive device (not shown) built in the recording device PROD_C, such as a trademark.

また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、動画像を受信するための受信部PROD_C5、及び、画像を生成または加工する画像処理部C6を更に備えていてもよい。図28の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。   In addition, the recording device PROD_C is a camera PROD_C3 for capturing a moving image as a supply source of the moving image input to the encoding unit PROD_C1, an input terminal PROD_C4 for inputting the moving image from the outside, and a reception for receiving the moving image The unit PROD_C5 may further include an image processing unit C6 that generates or processes an image. Although (a) of FIG. 28 exemplifies a configuration in which the recording apparatus PROD_C includes all of these, a part may be omitted.

なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。   Note that the receiving unit PROD_C5 may receive an uncoded moving image, and receives encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. It may be In the latter case, it is preferable to interpose a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding scheme between the reception unit PROD_C5 and the encoding unit PROD_C1.

このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HDD(Hard Disk Drive)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5又は画像処理部C6が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。   Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, an HDD (Hard Disk Drive) recorder, etc. (In this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main supply source of moving images). . In addition, a camcorder (in this case, the camera PROD_C3 is a main supply source of moving images), a personal computer (in this case, a reception unit PROD_C5 or an image processing unit C6 is a main supply source of moving images), a smartphone (this In this case, the camera PROD_C3 or the receiving unit PROD_C5 is a main supply source of moving images), etc. is also an example of such a recording device PROD_C.

図28の(b)は、上述した階層動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図28の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した階層動画像復号装置1は、この復号部PROD_D2として利用される。   (B) of FIG. 28 is a block showing the configuration of the playback device PROD_D equipped with the above-described hierarchical moving image decoding device 1. As shown in (b) of FIG. 28, the playback device PROD_D decodes the moving image by decoding the encoded data read by the reading unit PROD_D1 that reads the encoded data written to the recording medium PROD_M and the reading unit PROD_D1. And a decryption unit PROD_D2 to be obtained. The hierarchical moving image decoding device 1 described above is used as the decoding unit PROD_D2.

なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。   The recording medium PROD_M may be (1) a type incorporated in the playback device PROD_D such as an HDD or an SSD, or (2) such as an SD memory card or a USB flash memory. It may be of a type connected to the playback device PROD_D, or (3) it may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.

また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図28の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。   In addition, the playback device PROD_D is a display PROD_D3 that displays a moving image as a supply destination of the moving image output by the decoding unit PROD_D2, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image. It may further comprise PROD_D5. Although (b) of FIG. 28 exemplifies a configuration in which the playback device PROD_D includes all of these, a part may be omitted.

なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。   The transmission unit PROD_D5 may transmit a non-encoded moving image, or transmit encoded data encoded by a transmission encoding method different from the recording encoding method. It may be In the latter case, an encoding unit (not shown) may be interposed between the decoding unit PROD_D2 and the transmission unit PROD_D5 for encoding moving pictures according to a transmission encoding scheme.

このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デジタルサイネージ(電子看板や電子掲示板等とも称され、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。   As such a playback device PROD_D, for example, a DVD player, a BD player, an HDD player, etc. may be mentioned (in this case, the output terminal PROD_D4 to which a television receiver etc. is connected is the main supply destination of moving images) . In addition, television receivers (in this case, the display PROD_D3 is the main supply destination of moving images), digital signage (also referred to as electronic signboards and electronic bulletin boards, etc.), the display PROD_D3 or the transmission unit PROD_D5 is the main supply of moving images. First, desktop type PC (in this case, output terminal PROD_D4 or transmission unit PROD_D5 is the main supply destination of moving images), laptop type or tablet type PC (in this case, display PROD_D3 or transmission unit PROD_D5 is moving image) The main supply destination of the image), the smartphone (in this case, the display PROD_D3 or the transmission unit PROD_D5 is the main supply destination of the moving image), and the like are also examples of such a reproduction device PROD_D.

(ハードウェア的実現およびソフトウェア的実現について)
最後に、階層動画像復号装置1、階層動画像符号化装置2の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
(Regarding hardware implementation and software implementation)
Finally, each block of the hierarchical moving image decoding device 1 and the hierarchical moving image encoding device 2 may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or a CPU (Central Processing Unit). It may be realized as software using a Processing Unit).

後者の場合、上記各装置は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU(Micro Processing Unit))が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   In the latter case, each of the above-described devices includes a CPU that executes instructions of a control program that implements each function, a ROM (Read Only Memory) that stores the program, a RAM (Random Access Memory) that expands the program, the program and A storage device (recording medium) such as a memory for storing various data is provided. Then, the object of the present invention is a recording medium in which the program code (the executable program, the intermediate code program, the source program) of the control program of each device, which is software that realizes the functions described above, is readable by computer. This can also be achieved by supplying the above respective devices and the computer (or CPU or MPU (Micro Processing Unit)) reading out and executing the program code stored in the recording medium.

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM(Compact Disc Read-Only Memory)/MO(Magneto-Optical)/MD(Mini Disc)/DVD(Digital Versatile Disk)/CD−R(CD Recordable)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(Erasable Programmable Read-only Memory)/EEPROM(登録商標)(Electrically Erasable and Programmable Read-only Memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。   Examples of the recording medium include tapes such as magnetic tape and cassette tape, magnetic disks such as floppy (registered trademark) disk / hard disk, and compact disc read-only memory (CD-ROM) / magneto-optical (MO). Disc including optical disc such as MD (Mini Disc) / DVD (Digital Versatile Disc) / CD-R (CD Recordable), IC card (including memory card) / card such as optical card, mask ROM / EPROM (Erasable) Semiconductor memory such as programmable read-only memory (EEPROM) / EEPROM (registered trademark) (electrically erasable and programmable read-only memory) / flash ROM, or logic circuit such as PLD (programmable logic device) or FPGA (field programmable gate array) And the like can be used.

また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(Local Area Network)、ISDN(Integrated Services Digital Network)、VAN(Value-Added Network)、CATV(Community Antenna Television)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(Institute of Electrical and Electronic Engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDA(Infrared Data Association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, each device may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. This communication network is not particularly limited as long as the program code can be transmitted. For example, the Internet, intranet, extranet, LAN (Local Area Network), ISDN (Integrated Services Digital Network), VAN (Value-Added Network), CATV (Community Antenna Television) communication network, Virtual Private Network, A telephone network, a mobile communication network, a satellite communication network, etc. can be used. Also, the transmission medium that constitutes this communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type. For example, even if wired such as IEEE (Institute of Electrical and Electronic Engineers) 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA (Infrared Data Association) or remote control , Bluetooth (registered trademark), IEEE802.11 radio, HDR (High Data Rate), NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite link, and even radio such as terrestrial digital network etc. It is possible. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave, in which the program code is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention.

本発明は、画像データが階層的に符号化された符号化データを復号する階層画像復号装置、および、画像データが階層的に符号化された符号化データを生成する階層画像符号化装置に好適に適用できる。また、階層画像符号化装置によって生成され、階層画像復号装置によって参照される階層符号化データのデータ構造に好適に適用できる。   The present invention is suitable for a hierarchical image decoding apparatus that decodes encoded data in which image data is hierarchically encoded, and a hierarchical image encoding apparatus that generates encoded data in which image data is hierarchically encoded. Applicable to Further, the present invention can be suitably applied to the data structure of hierarchically encoded data generated by the hierarchical image encoding device and referred to by the hierarchical image decoding device.

1 階層動画像復号装置(画像復号装置)
11 NAL逆多重化部
12 対象レイヤピクチャ復号部(画像復号装置)
13 参照レイヤピクチャ復号部(画像復号装置)
301 可変長復号部
302 予測パラメータ復号部
303 インター予測パラメータ復号部
304 イントラ予測パラメータ復号部
320 レイヤ間情報導出部
306 参照ピクチャメモリ
307 予測パラメータメモリ
308 予測画像生成部
309 インター予測画像生成部
310 イントラ予測画像生成部
311 逆量子化・逆DCT部
312 加算部
314 リサンプリング部
315 レイヤ間画像マッピング部
3151 参照画素導出部
3152 リサンプル画像生成部
316 レイヤ間動きマッピング部
3161 参照画像ブロック導出部
3162 動き情報生成部
3020 レイヤ間情報導出部
3031 インター予測パラメータ復号制御部
3032 AMVP予測パラメータ導出部
3035 加算部
3036 マージ予測パラメータ導出部
30361 マージ候補導出部
30362 マージ候補選択部
303611 マージ候補格納部
303613 基本マージ候補導出部
3036131 空間マージ候補導出部
3036132 時間マージ候補導出部
3036133 結合マージ候補導出部
3036134 ゼロマージ候補導出部
3033 ベクトル候補導出部
3034 予測ベクトル選択部
30331 ベクトル候補格納部
30332 基本ベクトル候補導出部
303321 空間ベクトル候補導出部
303322 時間ベクトル候補導出部
303323 ゼロベクトル候補導出部
2 階層動画像符号化装置(画像符号化装置)
21 NAL多重化部
22 対象レイヤピクチャ符号化部
102 減算部
103 DCT・量子化部
104 可変長符号化部
105 逆量子化・逆DCT部
106 加算部
108 予測パラメータ符号部
109 参照ピクチャメモリ
110 符号化パラメータ決定部
111 予測パラメータ符号化部
112 インター予測パラメータ符号化部
113 イントラ予測パラメータ符号化部
114 参照レイヤ対応領域推定部
1121 マージ予測導出部
1122 AMVP予測パラメータ導出部
1123 減算部
1124 インター予測パラメータ符号化制御部
1160 レイヤ間情報導出部
1-layer video decoding device (image decoding device)
11 NAL demultiplexing unit 12 target layer picture decoding unit (image decoding apparatus)
13 Reference Layer Picture Decoding Unit (Image Decoding Device)
301 variable length decoding unit 302 prediction parameter decoding unit 303 inter prediction parameter decoding unit 304 intra prediction parameter decoding unit 320 inter-layer information derivation unit 306 reference picture memory 307 prediction parameter memory 308 predicted image generation unit 309 inter predicted image generation unit 310 intra prediction Image generation unit 311 inverse quantization / inverse DCT unit 312 addition unit 314 resampling unit 315 inter-layer image mapping unit 3151 reference pixel derivation unit 3152 re-sample image generation unit 316 inter-layer motion mapping unit 3161 reference image block derivation unit 3162 motion information Generation unit 3020 Inter-layer information derivation unit 3031 Inter prediction parameter decoding control unit 3032 AMVP prediction parameter derivation unit 3035 Addition unit 3036 Merge prediction parameter derivation unit 30 61 Merge candidate derivation unit 30362 Merge candidate selection unit 303611 Merge candidate storage unit 303613 Basic merge candidate derivation unit 3036131 Space merge candidate derivation unit 3036132 Temporal merge candidate derivation unit 3036133 Combined merge candidate derivation unit 3036134 Zero merge candidate derivation unit 3033 Vector candidate derivation unit 3034 Prediction vector selection unit 30331 Vector candidate storage unit 30332 Basic vector candidate derivation unit 303321 Space vector candidate derivation unit 303322 Time vector candidate derivation unit 303323 Zero vector candidate derivation unit 2 Hierarchical video encoding device (image encoding device)
21 NAL multiplexing unit 22 target layer picture coding unit 102 subtraction unit 103 DCT / quantization unit 104 variable length coding unit 105 inverse quantization / inverse DCT unit 106 addition unit 108 prediction parameter coding unit 109 reference picture memory 110 coding Parameter determination unit 111 prediction parameter coding unit 112 inter prediction parameter coding unit 113 intra prediction parameter coding unit 114 reference layer corresponding region estimation unit 1121 merge prediction derivation unit 1122 AMVP prediction parameter derivation unit 1123 subtraction unit 1124 inter prediction parameter coding Control unit 1160 inter-layer information deriving unit

Claims (4)

階層符号化データを復号する画像復号装置であって、
対象レイヤピクチャと参照レイヤピクチャの対応領域を示す参照レイヤ対応領域情報を、当該参照レイヤ対応領域情報の有無を示すフラグを参照することにより復号する参照レイヤ対応領域情報復号部と、
復号済の参照レイヤピクチャの画像を用いて参照レイヤピクチャのリサンプル画像を生成するリサンプル画像生成部と、
上記参照レイヤ対応領域情報およびパラメータセットにおいて通知されるパラメータを用いて、上記対応領域の位置情報を導出し、さらに、上記対応領域に対する参照レイヤピクチャの縦横それぞれのサイズ比を導出するパラメータ導出部と、
上記リサンプル画像の各画素において、上記参照レイヤピクチャの第1の参照画素位置を導出する第1の参照画素位置導出部と、
上記第1の参照画素位置を用いて、第2の参照画素位置と位相を導出する第2の参照画素位置導出部と、
少なくとも上記第2の参照画素位置、上記位相及びリサンプルフィルタを用いて、上記リサンプル画像の各画素を生成するリサンプリング画像生成部とを備え、
上記リサンプリング画像生成部は、フィルタ処理に用いられる座標が、上記参照レイヤピクチャの画面外の場合、該座標を上記参照レイヤピクチャの画面端に近接する座標にクリップすることを特徴とする画像復号装置。
An image decoding apparatus that decodes hierarchically encoded data, comprising:
A reference layer corresponding area information decoding unit that decodes reference layer corresponding area information indicating a corresponding area of a target layer picture and a reference layer picture by referring to a flag indicating presence or absence of the reference layer corresponding area information;
A resampled image generation unit that generates a resampled image of a reference layer picture using an image of the decoded reference layer picture;
A parameter deriving unit that derives position information of the corresponding area using the reference layer corresponding area information and parameters notified in the parameter set, and further derives a size ratio of each of the reference layer picture to the corresponding area ,
A first reference pixel position deriving unit that derives a first reference pixel position of the reference layer picture in each pixel of the resampled image;
A second reference pixel position deriving unit that derives a second reference pixel position and a phase using the first reference pixel position;
A resampling image generation unit configured to generate each pixel of the resampled image using at least the second reference pixel position, the phase, and the resample filter;
When the coordinates used for the filter processing are outside the screen of the reference layer picture, the resampling image generation unit clips the coordinates to coordinates close to the screen edge of the reference layer picture. apparatus.
上記リサンプリング画像生成部は、上記フィルタ処理に用いる座標のx座標の値が0より小さい場合、0にクリップし、該x座標の値が上記参照レイヤピクチャの横幅−1より大きい場合、該参照レイヤピクチャの横幅−1にクリップすることを特徴とする請求項1に記載の画像復号装置。   The resampling image generation unit clips to 0 when the value of the x coordinate of the coordinates used for the filter processing is smaller than 0, and refers to the reference when the value of the x coordinate is larger than the horizontal width -1 of the reference layer picture. 2. The image decoding apparatus according to claim 1, wherein clipping is performed to the horizontal width -1 of the layer picture. 階層符号化データを復号する画像復号方法であって、
対象レイヤピクチャと参照レイヤピクチャの対応領域を示す参照レイヤ対応領域情報を、当該参照レイヤ対応領域情報の有無を示すフラグを参照することにより復号するステップと、
復号済の参照レイヤピクチャの画像を用いて参照レイヤピクチャのリサンプル画像を生成するステップと、
上記参照レイヤ対応領域情報およびパラメータセットにおいて通知されるパラメータを用いて、上記対応領域の位置情報を導出するステップと、
上記対応領域に対する参照レイヤピクチャの縦横それぞれのサイズ比を導出するステップと、
上記リサンプル画像の各画素において、上記参照レイヤピクチャの第1の参照画素位置を導出するステップと、
上記第1の参照画素位置を用いて、第2の参照画素位置と位相を導出するステップと、
少なくとも上記第2の参照画素位置、上記位相及びリサンプルフィルタを用いて、上記リサンプル画像の各画素を生成するステップとを少なくとも含み、
フィルタ処理に用いられる座標が、上記参照レイヤピクチャの画面外の場合、該座標を上記参照レイヤピクチャの画面端に近接する座標にクリップすることを特徴とする画像復号方法。
An image decoding method for decoding hierarchical encoded data, comprising:
Decoding reference layer corresponding area information indicating a corresponding area of the target layer picture and the reference layer picture by referring to a flag indicating presence / absence of the reference layer corresponding area information;
Generating a resampled image of the reference layer picture using the image of the decoded reference layer picture;
Deriving position information of the corresponding area using the reference layer corresponding area information and parameters notified in the parameter set ;
Deriving a size ratio of each of the reference layer picture to the corresponding area in the vertical and horizontal directions;
Deriving a first reference pixel position of the reference layer picture at each pixel of the resampled image;
Deriving a second reference pixel position and phase using the first reference pixel position;
Generating each pixel of the resampled image using at least the second reference pixel position, the phase, and the resampling filter.
An image decoding method characterized in that, when coordinates used for filtering are outside the screen of the reference layer picture, the coordinates are clipped to coordinates close to the screen edge of the reference layer picture.
階層符号化データを符号化する画像符号化装置であって、
対象レイヤピクチャにおける参照レイヤピクチャの対応領域を示す参照レイヤ対応領域情報および当該参照レイヤ対応領域情報の有無を示すフラグを符号化する参照レイヤ対応領域情報符号化部と、
符号化済の参照レイヤピクチャの画像を用いて参照レイヤピクチャのリサンプル画像を生成するリサンプル画像生成部と、
上記参照レイヤ対応領域情報およびパラメータセットにおいて通知されるパラメータを用いて、上記対応領域の位置情報を導出し、さらに、上記対応領域に対する参照レイヤピクチャの縦横それぞれのサイズ比を導出するパラメータ導出部と、
上記リサンプル画像の各画素において、上記参照レイヤピクチャの第1の参照画素位置を導出する第1の参照画素位置導出部と、
上記第1の参照画素位置を用いて、第2の参照画素位置と位相を導出する第2の参照画素位置導出部と、
少なくとも上記第2の参照画素位置、上記位相及びリサンプルフィルタを用いて、上記リサンプル画像の各画素を生成するリサンプリング画像生成部とを備え、
上記リサンプリング画像生成部は、フィルタ処理に用いられる座標が、上記参照レイヤピクチャの画面外の場合、該座標を上記参照レイヤピクチャの画面端に近接する座標にクリップすることを特徴とする画像符号化装置。
An image coding apparatus for coding hierarchical coding data, comprising:
Reference layer corresponding area information encoding unit that encodes reference layer corresponding area information indicating the corresponding area of the reference layer picture in the target layer picture and a flag indicating the presence or absence of the reference layer corresponding area information;
A resampled image generation unit that generates a resampled image of a reference layer picture using an image of a coded reference layer picture;
A parameter deriving unit that derives position information of the corresponding area using the reference layer corresponding area information and parameters notified in the parameter set, and further derives a size ratio of each of the reference layer picture to the corresponding area ,
A first reference pixel position deriving unit that derives a first reference pixel position of the reference layer picture in each pixel of the resampled image;
A second reference pixel position deriving unit that derives a second reference pixel position and a phase using the first reference pixel position;
A resampling image generation unit configured to generate each pixel of the resampled image using at least the second reference pixel position, the phase, and the resample filter;
The image code characterized in that, when the coordinates used for the filtering process are outside the screen of the reference layer picture, the resampling image generation unit clips the coordinates to coordinates close to the screen edge of the reference layer picture. Device.
JP2013145778A 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus Expired - Fee Related JP6224930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013145778A JP6224930B2 (en) 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013144618 2013-07-10
JP2013144618 2013-07-10
JP2013145778A JP6224930B2 (en) 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus

Publications (3)

Publication Number Publication Date
JP2015035641A JP2015035641A (en) 2015-02-19
JP2015035641A5 JP2015035641A5 (en) 2016-04-07
JP6224930B2 true JP6224930B2 (en) 2017-11-01

Family

ID=52543899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013145778A Expired - Fee Related JP6224930B2 (en) 2013-07-10 2013-07-11 Image decoding apparatus, image decoding method and image encoding apparatus

Country Status (1)

Country Link
JP (1) JP6224930B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088093A1 (en) * 2015-11-23 2017-06-01 Mediatek Singapore Pte. Ltd. On the smallest allowed block size in video coding
CN115022630A (en) * 2016-02-03 2022-09-06 Oppo广东移动通信有限公司 Moving image decoding device, encoding device, and predicted image generation device
FR3072850B1 (en) * 2017-10-19 2021-06-04 Tdf CODING AND DECODING METHODS OF A DATA FLOW REPRESENTATIVE OF AN OMNIDIRECTIONAL VIDEO

Also Published As

Publication number Publication date
JP2015035641A (en) 2015-02-19

Similar Documents

Publication Publication Date Title
US20220060741A1 (en) Video encoding device and video decoding device
WO2017130696A1 (en) Prediction image generation device, moving image decoding device, and moving image encoding device
WO2017195554A1 (en) Predicted image generation device, video decoding device and video encoding device
US20200021837A1 (en) Video decoding apparatus and video coding apparatus
WO2017195608A1 (en) Moving image decoding device
CN113170186A (en) Moving image decoding device
CN115334315B (en) Predictive image generating device, moving image decoding device, and moving image encoding device
WO2020184487A1 (en) Dynamic image decoding device
CN112740704A (en) Image decoding device and image encoding device
CN113228682A (en) Predictive image generation device, moving image decoding device, moving image encoding device, and predictive image generation method
US20230319305A1 (en) Video decoding apparatus
JP6224930B2 (en) Image decoding apparatus, image decoding method and image encoding apparatus
WO2014104242A1 (en) Image decoding device and image encoding device
JP2019201254A (en) Image decoding apparatus and image encoding apparatus
WO2021200658A1 (en) Dynamic image decoding device and dynamic image decoding method
WO2021200610A1 (en) Dynamic image decoding device, dynamic image coding device, dynamic image decoding method, and dynamic image coding method
WO2018037919A1 (en) Image decoding device, image coding device, image decoding method, and image coding method
US11044490B2 (en) Motion compensation filter apparatus, image decoding apparatus, and video coding apparatus
JP2022156140A (en) Video encoding device and decoding device
JP2022096879A (en) Moving image encoding device and decoding device
JP7465128B2 (en) Video encoding device and video decoding device
CN113170190B (en) Prediction image generating apparatus and method for generating prediction image from two prediction images
WO2021235448A1 (en) Video coding device and video decoding device
JP2021175009A (en) Video coding device and video decoding device
JP2022085475A (en) Video encoding device and decoding device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171006

R150 Certificate of patent or registration of utility model

Ref document number: 6224930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees