[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005123907A - Data reconstruction apparatus - Google Patents

Data reconstruction apparatus Download PDF

Info

Publication number
JP2005123907A
JP2005123907A JP2003356922A JP2003356922A JP2005123907A JP 2005123907 A JP2005123907 A JP 2005123907A JP 2003356922 A JP2003356922 A JP 2003356922A JP 2003356922 A JP2003356922 A JP 2003356922A JP 2005123907 A JP2005123907 A JP 2005123907A
Authority
JP
Japan
Prior art keywords
data
display time
media data
nal unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003356922A
Other languages
Japanese (ja)
Inventor
Tadamasa Toma
正真 遠間
Yoshinori Matsui
義徳 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003356922A priority Critical patent/JP2005123907A/en
Publication of JP2005123907A publication Critical patent/JP2005123907A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a data reconstruction apparatus capable of acquiring display time for each access unit in encoded data of an MPEG-4 AVC multiplexed by a PES packet. <P>SOLUTION: In step 205, by analyzing access unit data or information on a descriptor, a method for acquiring the display time of the access unit is determined, while in step 206, the display time is acquired on the basis of the method determined in step 205. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、動画像、音声などの符号化メディアデータがパケット多重化されたデータを再構成して出力するためのデータ再構成装置に関する。   The present invention relates to a data reconstruction device for reconstructing and outputting data obtained by packet-multiplexing encoded media data such as moving images and voices.

近年、蓄積メディアや通信ネットワークの大容量化、あるいは伝送技術の進歩にともない、動画や音声などの符号化マルチメディアデータを扱う機器や、サービスが普及してきた。蓄積メディアとしてはDVD(Digital Versatile Disk)関連機器の急速な普及が顕著な例であるとともに、放送分野においても、従来のアナログ放送に代わり、デジタル符号化されたメディアデータの放送が開始されている。メディアデータを蓄積、配信する際には、メディアデータの再生に必要なヘッダ情報とメディアデータとを多重化することになるが、デジタル放送やDVDにおいては、多重化規格としてISO/IEC JTC1/SC29/WG 11 (International Standardization Organization/International Engineering Consortium)において標準化されたMPEG(Moving Picture Experts Group)−2システム規格を使用する。また、動画の符号化方式としては、現在普及しているMPEG−2 VisualやMPEG−4 Visualの後継規格としてMPEG−4 AVC(Advanced Video Coding)が標準化中であり、今後MPEG−4 AVCの符号化ビデオデータをMPEG−2システム規格により多重化し、蓄積あるいは配信することが予想される。   In recent years, devices and services that handle encoded multimedia data such as moving images and voices have become widespread as storage media and communication networks have increased in capacity and transmission technology has advanced. As storage media, the rapid spread of DVD (Digital Versatile Disk) -related equipment is a notable example, and in the broadcasting field, broadcasting of digitally encoded media data has started instead of conventional analog broadcasting. . When storing and distributing media data, the header information and media data necessary for media data playback are multiplexed, but in digital broadcasting and DVD, ISO / IEC JTC1 / SC29 is used as a multiplexing standard. The MPEG (Moving Picture Experts Group) -2 system standard standardized in / WG 11 (International Standardization Organization / International Engineering Consortium) is used. As a moving picture coding system, MPEG-4 AVC (Advanced Video Coding) is being standardized as a successor to the currently popular MPEG-2 Visual and MPEG-4 Visual. It is expected that multiplexed video data will be multiplexed and stored or distributed according to the MPEG-2 system standard.

以下に、MPEG−2 Visualのビデオ符号化データがMPEG−2システムにより多重化されたデータを分離する際の従来例について、放送分野での使用例をもとに説明する。放送では、符号化データは、まずPES(Packetized Elementary Stream)パケットに多重化され、さらにPESパケットがTS(Transport Stream)パケットに多重化される。図15の(a)と(b)に、それぞれPESパケットとTSパケットの構造を示す。PESパケットのペイロードには、アクセスユニット(AU)データが格納される。1アクセスユニットには、必ず1ピクチャ分の符号化データが含まれ、加えてシーケンスヘッダやGOP(Group of Pictures)ヘッダが格納されることがある。以降、本明細書では、符号化データを扱う際の基準単位としてAUを用いることにする。図15(a)の(1)から(3)は、PESパケットのペイロードへのAUデータの格納例を示すものであり、(1)、(2)に示すように1以上のAUをまとめて格納してもよいし、(3)に示すようにAUデータを分割して格納してもよい。PESパケットのヘッダには、ペイロード内で開始する先頭AUの復号時間、あるいは表示時間を格納できる。ここで、復号時間、および表示時間は、MPEG−2システム規格の規定に従って格納されるが、全てのPESパケットに必ずこれらの時間情報が格納されるわけではなく、時間情報が格納されないPESパケットも存在する。PESパケットのヘッダにより復号時間、あるいは表示時間が示されないAUの時間情報が必要である際には、AUデータを解析することにより、直前AUとの復号時間、あるいは表示時間の差分値を取得し、PESパケットのヘッダにより時間情報が示されるAUの表示時間、あるいは復号時間を基準として、差分値を加算することにより時間情報を取得する。一方、PESパケットのデータは、図15の(b)に示すように、TSパケットのペイロードに分割して格納される。TSパケットは、4バイトのヘッダと184バイトのペイロードから構成される固定長のパケットである。TSパケットを受信して再生する際には、データ再構成装置によって受信データからPESパケットを分離し、分離されたPESパケットからAUのデータ、およびAUの表示時間を取得した後に、データ復号化手段によりAUデータを復号化する。従来のデータ再構成装置の処理について、図16のフローチャートを参照して説明する。なお、ここではTSパケットのペイロードデータからPESパケットデータを分離した後の処理について説明する。まず、ステップ101においてPESパケットのヘッダとペイロードを分離する。ステップ102では、分離されたPESパケットのペイロードからAUの境界を検出する。ステップ102においてAU境界が検出されるまでステップ101およびステップ102の処理を繰り返し、AU境界が検出された時点で1AU分のデータが揃ったと判定し、AUデータを分離する。ステップ103では、PESパケットのヘッダに格納された表示時間、および予め定められた方法によりAUデータから取得される表示時間情報に基づいてAUの表示時間を取得する。ここで、予め定められた方法とは、AU毎のTemporal Reference値を取得し、直前AUのTemporal Reference値と比較することにより、直前AUとの表示時間の差分値を計算するものである。
特開平9―139937号公報(第47−55項、図6)
Hereinafter, a conventional example of separating data in which MPEG-2 Visual video encoded data is multiplexed by the MPEG-2 system will be described based on an example of use in the broadcast field. In broadcasting, encoded data is first multiplexed into a PES (Packetized Elementary Stream) packet, and further the PES packet is multiplexed into a TS (Transport Stream) packet. FIGS. 15A and 15B show the structures of the PES packet and the TS packet, respectively. Access unit (AU) data is stored in the payload of the PES packet. One access unit always includes encoded data for one picture, and may additionally store a sequence header and a GOP (Group of Pictures) header. Hereinafter, in the present specification, AU is used as a reference unit when handling encoded data. (1) to (3) in FIG. 15 (a) show an example of storing AU data in the payload of the PES packet. As shown in (1) and (2), one or more AUs are grouped together. The AU data may be divided and stored as shown in (3). The header of the PES packet can store the decoding time or display time of the first AU starting in the payload. Here, the decoding time and the display time are stored in accordance with the provisions of the MPEG-2 system standard. However, the time information is not necessarily stored in all PES packets, and there are PES packets in which time information is not stored. Exists. When the time information of the AU whose decoding time or display time is not indicated by the header of the PES packet is required, the AU data is analyzed to obtain the difference value of the decoding time or display time from the immediately preceding AU. The time information is acquired by adding the difference values based on the display time of the AU whose time information is indicated by the header of the PES packet or the decoding time. On the other hand, as shown in FIG. 15B, the data of the PES packet is divided and stored in the payload of the TS packet. A TS packet is a fixed-length packet composed of a 4-byte header and a 184-byte payload. When the TS packet is received and reproduced, the data reconstructing unit separates the PES packet from the received data, obtains the AU data and the AU display time from the separated PES packet, and then decrypts the data. To decrypt the AU data. The processing of the conventional data reconstruction device will be described with reference to the flowchart of FIG. Here, the processing after separating the PES packet data from the payload data of the TS packet will be described. First, in step 101, the PES packet header and payload are separated. In step 102, an AU boundary is detected from the payload of the separated PES packet. Steps 101 and 102 are repeated until an AU boundary is detected in step 102, it is determined that 1 AU of data has been prepared when the AU boundary is detected, and AU data is separated. In step 103, the AU display time is acquired based on the display time stored in the header of the PES packet and the display time information acquired from the AU data by a predetermined method. Here, the predetermined method is to obtain a temporal reference value for each AU and compare it with the temporal reference value of the immediately preceding AU, thereby calculating a difference value of the display time with the immediately preceding AU.
Japanese Patent Laid-Open No. 9-139937 (Section 47-55, FIG. 6)

MPEG−4 AVCでは、AU内の2種類のパラメータにより表示時間情報を示すことができるが、これらのパラメータは常に存在することは保証されておらず、また、存在していても表示時間情報を示さないことがある。しかしながら、前記従来のデータ再構成装置では、予め定められた方法によりAUデータから表示時間情報を取得していたため、一方のパラメータのみしか参照できず、参照するパラメータが存在しない、あるいは表示時間情報を示さない際には、AUの表示時間を取得できないという第1の課題があった。   In MPEG-4 AVC, the display time information can be indicated by two types of parameters in the AU, but it is not guaranteed that these parameters always exist, and even if they exist, the display time information is not displayed. May not show. However, since the conventional data reconstruction device acquires display time information from AU data by a predetermined method, only one parameter can be referred to, and there is no parameter to be referred to, or display time information is not displayed. When not shown, there was a first problem that the AU display time could not be acquired.

また、MPEG−4 AVCでは、AUにおけるピクチャデータの格納形式が2種類存在する。従来のデータ再構成装置では、入力されたAUデータを変更せずにそのまま出力していたため、出力AUにおけるデータ格納形式も2種類存在していた。このため、出力AUデータを復号化する復号化装置が、どちらか一方のデータ格納方式にしか対応していない際には、非対応であるデータ格納方式のAUが出力されると復号化できないという第2の課題があった。   In MPEG-4 AVC, there are two types of picture data storage formats in AU. In the conventional data reconstruction device, the input AU data is output as it is without being changed, so there are two types of data storage formats in the output AU. For this reason, when a decoding device that decodes output AU data supports only one of the data storage methods, it cannot be decoded if an AU with a data storage method that is not supported is output. There was a second problem.

また、従来のデータ再構成装置では、AUデータとAUの表示時間とを別々に出力していたため、AUデータと表示時間とを関連付けて管理する新たな手段が必要となるという第3の課題があった。   Further, since the conventional data reconstruction device outputs AU data and AU display time separately, a third problem is that a new means for managing AU data and display time in association with each other is required. there were.

本発明は、以上の課題を解決するためになされたものである。
本発明の請求項1にかかるデータ再構成装置は、動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成装置であって、前記パケットのヘッダとペイロードを分離する分離手段と、前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離手段と、前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得手段と、前記分離されたフレームデータ、および前記取得された時間情報を出力する出力手段とを備え、前記時間情報取得手段は、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とするものである。
The present invention has been made to solve the above problems.
A data reconstruction device according to claim 1 of the present invention is a data reconstruction device that separates and outputs each media data from data obtained by packet-multiplexing encoded media data such as moving images and voices. Separating means for separating the header and payload of the packet; detection separating means for detecting and separating a frame boundary of the media data from the payload data; and a decoding time of the frame of the separated media data; Alternatively, it includes a time information acquisition unit that acquires a display time, and an output unit that outputs the separated frame data and the acquired time information. The time information acquisition unit includes identification information included in the media data. Or based on parameter information related to the media data acquired separately from the media data. There are, is characterized in that for switching the method of obtaining the decoding time, or display time.

本発明の請求項2にかかるデータ再構成装置は、請求項1に記載のデータ再構成装置であって、前記時間情報取得手段は、特定の符号化モードにより符号化されたフレーム毎に、時間情報の取得方法を切り替えるかどうか判定することを特徴とするものである。
本発明の請求項3にかかるデータ再構成装置は、請求項1に記載のデータ再構成装置であって、前記フレームデータが1以上のサブフレーム単位から構成され、前記サブフレーム単位の先頭に前記サブフレームのサイズ情報が格納されている際には、前記サイズ情報を、前記サブフレームの開始を示す識別コードに変換する格納形式変換手段をさらに備えることを特徴とするものである。
A data reconstruction device according to a second aspect of the present invention is the data reconstruction device according to the first aspect, wherein the time information acquisition unit is configured to generate a time for each frame encoded in a specific encoding mode. It is characterized by determining whether or not the information acquisition method is switched.
A data reconstruction device according to claim 3 of the present invention is the data reconstruction device according to claim 1, wherein the frame data is composed of one or more subframe units, and the top of the subframe unit includes the frame data. When subframe size information is stored, storage format conversion means for converting the size information into an identification code indicating the start of the subframe is further provided.

本発明の請求項4にかかるデータ再構成装置は、請求項1に記載のデータ再構成装置であって、前記フレームデータが1以上のサブフレーム単位から構成される際に、前記出力手段は、前記時間情報取得手段により取得された時間情報を前記サブフレームの格納単位に格納し、前記フレームデータに付加して出力することを特徴とするものである。
本発明の請求項5にかかるデータ再構成装置は、動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成方法であって、前記パケットのヘッダとペイロードを分離する分離ステップと、前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とするものである。
A data reconstruction device according to a fourth aspect of the present invention is the data reconstruction device according to the first aspect, wherein when the frame data is composed of one or more subframe units, the output means includes: The time information acquired by the time information acquisition means is stored in the storage unit of the subframe, added to the frame data, and output.
A data reconstruction device according to claim 5 of the present invention is a data reconstruction method for separating and outputting each media data from data obtained by packet-multiplexing encoded media data such as moving images and voices. A separation step of separating the header and payload of the packet; a detection separation step of detecting and separating a frame boundary of the media data from the payload data; and a decoding time of the frame of the separated media data; Alternatively, it includes a time information acquisition step for acquiring a display time, and an output step for outputting the separated frame data and the acquired time information. In the time information acquisition step, the identification information included in the media data Or the media data acquired separately from the media data Based on the associated parameter information, it is characterized in that for switching the method of obtaining the decoding time, or display time.

本発明の請求項6にかかるプログラムは、動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成装置のためのプログラムであって、前記パケットのヘッダとペイロードを分離する分離ステップと、前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とする各ステップをコンピュータに実行させることを特徴とするものである。   A program according to a sixth aspect of the present invention is a program for a data reconstruction device that separates and outputs each media data from data obtained by packet-multiplexing encoded media data such as moving images and sounds. A separation step of separating the header and payload of the packet, a detection separation step of detecting and separating a frame boundary of the media data from the payload data, and a decoding time of the frame of the separated media data Or a time information obtaining step for obtaining a display time, and an output step for outputting the separated frame data and the obtained time information. In the time information obtaining step, the identification included in the media data Information or the media data acquired separately from the media data Iadeta based on the associated parameter information, it is characterized in that to execute the steps, characterized in that for switching the method of obtaining the decoding time, or the display time on the computer.

本発明の請求項1に記載のデータ再構成装置によれば、AUデータに含まれる識別情報、あるいは符号化データに関連するパラメータ情報に基づいて表示時間の取得方法を切り替えるため、PESパケットのヘッダにより表示時間が示されないAUについても、必ず表示時間を取得することができるという効果が得られる。
本発明の請求項2に記載のデータ再構成装置によれば、特定の符号化モードにより符号化されたAU毎に表示時間の取得方法を切り替えるかどうか判定するため、符号化データの途中のAUにおいて表示時間情報の設定方法、あるいは表示時間情報の取得に必要なパラメータ情報が変化する際にも、正しい表示時間を取得することができるという効果が得られる。
According to the data reconstruction device of the first aspect of the present invention, since the display time acquisition method is switched based on the identification information included in the AU data or the parameter information related to the encoded data, the header of the PES packet As a result, it is possible to obtain the display time even for the AU whose display time is not indicated.
According to the data reconstruction device of the second aspect of the present invention, in order to determine whether to switch the display time acquisition method for each AU encoded in the specific encoding mode, the AU in the middle of the encoded data is determined. Even when the setting method of the display time information or the parameter information necessary for obtaining the display time information changes, an effect that the correct display time can be obtained can be obtained.

本発明の請求項3に記載のデータ再構成装置によれば、AUデータのデータ格納形式を変換することにより、入力AUにおけるデータ格納形式に依らず、出力AUデータにおけるデータ格納形式を1通りに統一することができるため、特定のデータ格納形式であるAUデータの復号化にのみ対応した復号化装置においても常に出力データを復号化できるという効果が得られる。   According to the data reconstruction device of the third aspect of the present invention, by converting the data storage format of the AU data, the data storage format of the output AU data is changed to one regardless of the data storage format of the input AU. Since the data can be unified, an output data can always be decoded even in a decoding apparatus that only supports decoding of AU data that is a specific data storage format.

本発明の請求項4に記載のデータ再構成装置によれば、AUの表示時間をAUデータに付加して出力することにより、AUデータとAUの表示時間とを関連付けて管理するための手段が不要になるという効果が得られる。
本発明の請求項5に記載のデータ再構成方法によれば、特定のAUデータに含まれる識別情報、あるいは符号化データに関連するパラメータ情報に基づいて表示時間の取得方法を切り替えるため、PESパケットのヘッダにより表示時間が示されないAUについても、必ず表示時間を取得することができるという効果が得られる。
According to the data reconstruction device of the present invention, the means for associating and managing the AU data and the AU display time by adding the AU display time to the AU data and outputting it. The effect that it becomes unnecessary is acquired.
According to the data reconstruction method of the fifth aspect of the present invention, since the display time acquisition method is switched based on the identification information included in the specific AU data or the parameter information related to the encoded data, the PES packet Even for an AU whose display time is not indicated by the header, the effect that the display time can be obtained without fail is obtained.

本発明の請求項6に記載のプログラムによれば、特定のAUデータに含まれる識別情報、あるいは符号化データに関連するパラメータ情報に基づいて表示時間の取得方法を切り替える処理をコンピュータに行わせることができるため、PESパケットのヘッダにより表示時間が示されないAUについても、必ず表示時間を取得できるデータ再構成装置を実現できるという効果が得られる。   According to the program described in claim 6 of the present invention, the computer is caused to perform a process of switching the display time acquisition method based on the identification information included in the specific AU data or the parameter information related to the encoded data. Therefore, an effect that a data reconstruction device that can always acquire the display time can be realized even for an AU whose display time is not indicated by the header of the PES packet is obtained.

以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
まず、本発明の実施の形態1に係るデータ再構成装置について説明する。ここでは、MPEG−4 AVCの符号化ビデオデータが多重化されたPESパケットを入力して再構成処理を行うものとする。なお、多重化方式として、主にインターネット上でのストリーミングに用いられるRTP(Real Time Transport Protocol)のパケット、あるいはISO/IEC 14496−1にて定められたMP4などのファイルフォーマットを使用することとしてもよい。また、パケット多重化される符号化データは、MPEG−4 AVCに限定されるものではなく、MPEG−4 Visualなどのビデオ符号化データ、あるいはMPEG−4 AACやAMRなどのオーディオ符号化データであってもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
First, the data reconstruction device according to the first embodiment of the present invention will be described. Here, it is assumed that a PES packet multiplexed with MPEG-4 AVC encoded video data is input to perform reconstruction processing. As a multiplexing method, RTP (Real Time Transport Protocol) packets mainly used for streaming on the Internet, or a file format such as MP4 defined by ISO / IEC 14496-1 may be used. Good. Also, the encoded data to be packet-multiplexed is not limited to MPEG-4 AVC, but is video encoded data such as MPEG-4 Visual or audio encoded data such as MPEG-4 AAC or AMR. May be.

図1は、データ再構成装置の全体構成を示す図である。このデータ再構成装置は、PESパケットデータを入力してメモリ102に格納し、再構成処理終了後のAUデータ、およびその関連データを出力するデータI/O手段101と、メモリ102からPESパケットの再構成に必要な再構成処理入力データを取得してAU単位に再構成し、再構成処理の結果をメモリ102に出力する再構成手段103とから構成される。再構成処理入力データとは、データI/O手段101から入力されてメモリ102に保持されたPESパケットデータ、あるいはメモリ102により既に保持されている再構成手段103の再構成処理結果を指す。ここで、メモリ102には、入出力データの保存領域、および再構成結果やAUデータを一時的に格納するワーク領域が存在し、これら各領域のサイズは可変とできる。また、再構成手段103は、ここではCPUであるとするが、専用のハードウェアであってもよい。   FIG. 1 is a diagram showing the overall configuration of the data reconstruction device. This data reconstruction device inputs PES packet data, stores it in the memory 102, and outputs data AU data after the reconstruction processing is completed, and data I / O means 101 for outputting the related data, and the PES packet from the memory 102. Reconfiguration processing input data necessary for reconfiguration is acquired, reconfiguration is performed in units of AUs, and reconfiguration means 103 is configured to output the result of the reconfiguration processing to the memory 102. The reconfiguration processing input data refers to PES packet data input from the data I / O unit 101 and held in the memory 102, or the reconfiguration processing result of the reconfiguration unit 103 already held in the memory 102. Here, the memory 102 has a storage area for input / output data and a work area for temporarily storing the reconstruction result and AU data, and the size of each area can be made variable. In addition, the reconfiguration unit 103 is a CPU here, but may be dedicated hardware.

まず、MPEG−4 AVCにおけるAUデータの構造について説明する。MPEG−4 AVCでは、ピクチャの復号化に必須のデータに加えて、復号化には必須でないSEI(Supplemental Enhancement Information)と呼ばれる補助情報や、符号化データ内での境界情報を符号化データに含めることができ、これらのデータは全てNAL(Network Adaptation Layer)ユニットに格納される。NALユニットは、図2(a)に示すようにヘッダとペイロードから構成され、ヘッダにはペイロードに格納されるデータのタイプ(以降、NALユニットタイプと呼ぶ)を示すフィールドなどが含まれる。NALユニットタイプは、スライスやSEIなどデータの種類別に値が定義されており、NALユニットに格納されたデータの種類を取得する際にはNALユニットタイプを参照する。AUには、図2(b)および(c)に示すように、1ピクチャ分のスライスデータに加えて、ヘッダ情報やSEIなどのNALユニットが格納されるが、NALユニットにはNALユニットデータの境界を識別するための情報が存在しないため、AU格納時には、各NALユニットの先頭に境界情報が付加することができる。境界情報としては、図2(b)のように0x000001の3バイトで示されるスタートコードを付加する方法(以降、バイトストリームフォーマットと呼ぶ)と、図2(c)のようにNALユニットのサイズを付加する方法(以降、NALサイズフォーマットと呼ぶ)の2種類がある。なお、バイトストリームフォーマットでは、AUの先頭NALユニット、および特定のNALユニットタイプ値をもつNALユニットに対しては、スタートコードの前に、zero_byte(値が0x00である1バイト)を1つ以上付加することが規定されている。PESパケットにMPEG−4 AVCのAUデータを多重化する際には、バイトストリームフォーマットが使用される。なお、MP4ではNALサイズフォーマットが使用され、RTPパケットにAUデータを格納する際にはNALユニットの境界情報は付加されない。次に、スライス、およびヘッダ情報について詳しく説明する。スライスは、IDR(Instantaneous Decoder Refresh)スライスとそれ以外のスライスの2種類に分けられる。IDRスライスとは、画面内符号化されたスライスデータであり、後述するSPS(Sequence Parameter Set)などのヘッダ情報はIDRにおいてのみ切り替えることができる。ピクチャにIDRスライスが含まれる際には、同一ピクチャ内の他のスライスも全てIDRスライスである。ここで、IDRスライスを含むピクチャから、次のIDRスライスを含むピクチャの直前ピクチャまでをシーケンスと呼ぶ。次に、ヘッダ情報にはSPSとPPS(Picture Parameter Set)の2種類があり、SPSはシーケンス単位で固定のヘッダ情報であり、PPSはピクチャ単位で切り替えることのできるヘッダ情報である。SPSとPPSは、ともに複数もつことができ、個々のSPS、あるいはPPSはインデックス番号により区別される。また、1NALユニットには1つのSPS、あるいはPPSが格納される。各ピクチャが参照するSPS、およびPPSのインデックス番号は次のように取得される。まず、ピクチャが参照するPPSのインデックス番号は、スライスデータのヘッダ部に示される。次に、PPSには、PPSが参照するSPSのインデックス番号が示されるため、ピクチャが参照するPPSを解析することにより、ピクチャが参照するSPSのインデックス番号を取得する。図3は、PESパケットに格納されるAUデータ内のNALユニットを示す。AUの先頭には、必ずアクセスユニットデリミタ−(AUD)のNALユニットが配置される。以降のNALユニットの配置順は、SPS、PPS、SEI、スライスの順となるが、全てのAUに必ず含まれるのはスライスのNALユニット、およびアクセスユニットデリミタ−のNALユニットのみである。図3(a)は、IDRのスライスを含むAU(IDR AU)におけるNALユニットの格納例、図3(b)は、non−IDRスライスを含むAU(non−IDR AU))におけるNALユニットの格納例を示す。(a)では、復号時間、あるいは、表示時間情報を示すBuffering Period SEIとPicture Timing SEIのNALユニットが含まれる。Picture Timing SEIには、Buffering Period SEIを含む直近のAUとPicture Timing SEIが含まれるAUとの復号時間の差分値と、Picture Timing SEIが含まれるAUにおける復号時間と表示時間の差分値とが格納される。これら2つのSEIによりAUの復号時間、および表示時間を示す際には、Buffering Period SEIはIDR−AUに必ず格納され、Picture Timing SEIは全てのAUに必ず格納される。さらに、ここでは図示しないが、符号化データにおける最終AUの最後のNALユニットとして、符号化データの終端であることを示すエンドオブストリームと呼ばれるNALユニットを付加することができる。   First, the structure of AU data in MPEG-4 AVC will be described. In MPEG-4 AVC, in addition to data essential for picture decoding, auxiliary information called SEI (Supplemental Enhancement Information) that is not essential for decoding and boundary information in the encoded data are included in the encoded data. These data are all stored in a NAL (Network Adaptation Layer) unit. As shown in FIG. 2A, the NAL unit is composed of a header and a payload, and the header includes a field indicating the type of data stored in the payload (hereinafter referred to as a NAL unit type). The NAL unit type has a value defined for each type of data such as slice and SEI, and refers to the NAL unit type when acquiring the type of data stored in the NAL unit. As shown in FIGS. 2B and 2C, in addition to slice data for one picture, the AU stores NAL units such as header information and SEI. The NAL unit stores NAL unit data. Since there is no information for identifying the boundary, the boundary information can be added to the head of each NAL unit when storing the AU. As boundary information, a method of adding a start code indicated by 3 bytes of 0x000001 as shown in FIG. 2B (hereinafter referred to as a byte stream format) and the size of the NAL unit as shown in FIG. There are two types of methods (hereinafter referred to as NAL size format). In the byte stream format, one or more zero_bytes (1 byte whose value is 0x00) is added before the start code for the first NAL unit of the AU and the NAL unit having a specific NAL unit type value. It is prescribed. When multiplexing MPEG-4 AVC AU data in a PES packet, a byte stream format is used. Note that the NAL size format is used in MP4, and the boundary information of the NAL unit is not added when AU data is stored in the RTP packet. Next, the slice and header information will be described in detail. The slices are divided into two types: IDR (Instantaneous Decoder Refresh) slices and other slices. The IDR slice is slice data encoded in the screen, and header information such as SPS (Sequence Parameter Set) described later can be switched only in the IDR. When an IDR slice is included in a picture, all other slices in the same picture are also IDR slices. Here, a sequence from a picture including an IDR slice to a picture immediately before a picture including the next IDR slice is referred to as a sequence. Next, there are two types of header information, SPS and PPS (Picture Parameter Set), SPS is fixed header information in sequence units, and PPS is header information that can be switched in picture units. There can be a plurality of SPS and PPS, and each SPS or PPS is distinguished by an index number. Further, one SPS or PPS is stored in one NAL unit. The index numbers of the SPS and the PPS referred to by each picture are obtained as follows. First, the PPS index number referenced by the picture is indicated in the header portion of the slice data. Next, since the PPS indicates the index number of the SPS referred to by the PPS, the index number of the SPS referenced by the picture is obtained by analyzing the PPS referenced by the picture. FIG. 3 shows the NAL unit in the AU data stored in the PES packet. An access unit delimiter (AUD) NAL unit is always placed at the head of the AU. Subsequent NAL units are arranged in the order of SPS, PPS, SEI, and slice, but all AUs always include only the NAL unit of the slice and the NAL unit of the access unit delimiter. FIG. 3A illustrates an example of storage of NAL units in an AU (IDR AU) including an IDR slice, and FIG. 3B illustrates storage of NAL units in an AU including a non-IDR slice (non-IDR AU). An example is shown. In (a), NAL units of Buffering Period SEI and Picture Timing SEI indicating decoding time or display time information are included. The Picture Timing SEI stores a difference value between the decoding time and the display time difference between the nearest AU including the Buffering Period SEI and the AU including the Picture Timing SEI, and the AU including the Picture Timing SEI. Is done. When the AU decoding time and display time are indicated by these two SEIs, the Buffering Period SEI is always stored in the IDR-AU, and the Picture Timing SEI is always stored in all AUs. Furthermore, although not shown here, a NAL unit called an end-of-stream indicating the end of the encoded data can be added as the last NAL unit of the final AU in the encoded data.

再構成手段103の動作について、以下詳しく説明する。
図4は、再構成手段103の構成を示すブロック図である。再構成手段103は、PES分離手段201、AU分離手段202、およびPTS取得手段203を備える。PES分離手段201は、入力されたPESパケットデータからPESパケットのヘッダとペイロードとを分離し、AU分離手段202とPTS取得手段203に入力する。AU分離手段202は、PES分離手段により入力されたPESパケットのペイロードデータからNALユニットデータを分離し、PESパケットのヘッダ情報、NALユニットタイプ、あるいはNALユニットのペイロードデータを解析することによりAUの境界を検出した後に、AUデータを分離して出力する。さらに、PTS取得手段203は、PES分離手段により入力されたPESパケットヘッダにおける表示時間、AU分離手段202により分離されたAUデータを解析して得られる表示時間情報、およびメモリ102に保持された表示時間情報とからAUの表示時間を取得して出力する。再構成手段103の処理フローについて、図5を参照して説明する。まず、ステップ201においてPESパケットのヘッダとペイロードを分離する。ステップ202では、分離されたPESパケットのペイロードからAUを構成する各NALユニットを分離し、ステップ203では、ステップ202において分離されたNALユニットのNALユニットタイプ、あるいはNALユニットのペイロードデータを解析することによりAUの境界を検出する。次に、ステップ204において、AUがIDR AUであるかどうか判定する。IDR AUである際にはステップ205に進み、IDR AUでない場合にはステップ206に進む。なお、AUがIDR AUであるかどうかは、ステップ203におけるAU境界の検出時に取得しておく。ステップ205では、SPS内のパラメータ値などに基づいて、AUの表示時間(PTS、Presentation Time Stamp)の取得方法を決定する。AUデータにおいて表示時間情報を示す方法としては、前述したBuffering Period SEIおよびPicture Timing SEIを用いる方法と、AU毎に設定されるPOC(Picture Order Count)と呼ばれるパラメータを用いる方法の2通りがある。ここで、POCの値は、SPS内のフィールド値、およびスライスデータのヘッダ内のフィールド値とから計算される。通常、POCはAUの表示順序を表すものであるが、予め定められたの条件の下では、AU間におけるPOCの差分値がAU間の表示時間の差分値と一致するため、表示時間情報の取得に使用することができる。続いて、ステップ206では、ステップ205において決定された取得方法によりAUの表示時間を決定する。再構成手段103においては、エンドオブストリームのNALユニットを検出によりAUデータの入力が終了したと判定し、AUデータの再構成処理を終了することとするが、ユーザーからの終了指示、予め定められた条件などに基づいて再構成処理を終了することとしてもよい。なお、MPEG−4 AVCのAUデータを多重化したRTPパケットからAUデータを分離する際には、RTPパケットのヘッダ情報のみからAU境界を識別できるため、AUを構成するNALユニットのNALユニットタイプやNALユニットのペイロードデータを解析しないこととしてもよい。
The operation of the reconstruction unit 103 will be described in detail below.
FIG. 4 is a block diagram showing the configuration of the reconfiguration unit 103. The reconstruction unit 103 includes a PES separation unit 201, an AU separation unit 202, and a PTS acquisition unit 203. The PES separation unit 201 separates the header and payload of the PES packet from the input PES packet data, and inputs them to the AU separation unit 202 and the PTS acquisition unit 203. The AU separation unit 202 separates the NAL unit data from the payload data of the PES packet input by the PES separation unit, and analyzes the header information of the PES packet, the NAL unit type, or the payload data of the NAL unit, thereby defining the AU boundary. After detection, the AU data is separated and output. Further, the PTS acquisition unit 203 displays the display time in the PES packet header input by the PES separation unit, the display time information obtained by analyzing the AU data separated by the AU separation unit 202, and the display held in the memory 102. AU display time is acquired from the time information and output. A processing flow of the reconfiguration unit 103 will be described with reference to FIG. First, in step 201, the header and payload of the PES packet are separated. In step 202, each NAL unit constituting the AU is separated from the payload of the separated PES packet. In step 203, the NAL unit type of the NAL unit separated in step 202 or the payload data of the NAL unit is analyzed. Detect AU boundaries. Next, in step 204, it is determined whether the AU is an IDR AU. If it is IDR AU, the process proceeds to step 205. If it is not IDR AU, the process proceeds to step 206. Whether or not AU is IDR AU is acquired at the time of detecting the AU boundary in step 203. In step 205, an AU display time (PTS, Presentation Time Stamp) acquisition method is determined based on parameter values in the SPS. There are two methods for indicating display time information in AU data: a method using Buffering Period SEI and Picture Timing SEI, and a method using a parameter called POC (Picture Order Count) set for each AU. Here, the POC value is calculated from the field value in the SPS and the field value in the header of the slice data. Normally, POC represents the display order of AUs. However, under a predetermined condition, the POC difference value between AUs matches the difference value of the display time between AUs. Can be used for acquisition. Subsequently, in step 206, the AU display time is determined by the acquisition method determined in step 205. The reconstruction unit 103 determines that the AU data input has been completed by detecting the end-of-stream NAL unit, and terminates the AU data reconstruction process. The termination instruction from the user is determined in advance. The reconstruction process may be terminated based on conditions or the like. Note that when separating AU data from RTP packets in which MPEG-4 AVC AU data is multiplexed, the AU boundary can be identified only from the header information of the RTP packet, so the NAL unit type and NAL of the NAL units that constitute the AU. The unit payload data may not be analyzed.

以下に、ステップ205、およびステップ206の処理について詳しく説明する。図6は、ステップ205の処理を示すフローチャートである。ここで、poc_flagは、POCから表示時間情報が取得できるかどうかを示すフラグ、sei_flagは、SEIから表示時間情報が取得できるかどうかを示すフラグであるとし、両フラグともに初期値は0とする。まず、ステップ301において、AUデータ以外の情報により、表示時間情報の取得にPOCが使用できるかどうか判定する。MPEG−2システム規格においては、デスクリプタ(descriptor)と呼ばれるデータにより、符号化データに関する情報などをAUデータとは別途格納することができる。MPEG−4 AVC用にもデスクリプタが用意されており、そのうちの1つであるAVC−timing and HRD Descriptor内のtemporal_poc_flagと呼ばれるフラグ情報によって、POCから表示時間情報が取得できるかどうか示される。ここで、temporal_poc_flagが1にセットされている際には、poc_flagを1にセットする。符号化データが多重化されたPESパケットをTSパケットにより伝送する際には、デスクリプタはProgram Map Table(PMT)と呼ばれるデータ格納単位により格納され、PESパケットとは別にTSパケットに多重化される。このため、TSパケットにより多重化されたPESパケットを受信する際には、PESパケットの解析開始に先立ってPMTを解析し、PMT内にAVC−timing and HRD Descriptor内が含まれる際には、temporal_poc_flagの値を取得しておく。一方、MPEG−2システムにおけるプログラムストリームと呼ばれる格納形式のようにTSパケットを使用しない際には、デスクリプタはPESパケットのヘッダに格納される。そのため、PESパケットデータの解析時には、PESパケットのヘッダを解析してからPESパケットのペイロードに格納されるAUデータを解析することにより、PESパケット内のAUデータの解析に先立ってAVC−timing and HRD Descriptorを解析し、temporal_poc_flag値を取得する。ここで、PMT、あるいはPESパケットにより示されるAVC−timing and HRD Descriptorにおけるtemporal_poc_flag値が更新された際には、更新後の値を取得する。PMT、あるいはPESパケット内にAVC−timing and HRD Descriptorが存在しない際には、POCにより表示時間情報が取得できるかどうかは判定できないものとし、poc_flag値は0とする。なお、AVC−timing and HRD Descriptor以外のデスクリプタ、あるいは運用規定などによって、POCから表示時間情報が取得できるかどうかを示すこととして、poc_flagの値を設定することとしてもよい。上記の方法により、AUデータ以外の情報に基づいてpoc_flag値が1に設定された際にはステップ303に進み、poc_flag値が0である際にはステップ302に進む。ステップ302では、AUデータ内の情報を解析して表示時間の取得方法を決定し、解析結果に基づいてpoc_flag値、およびsei_flag値を決定する。続いて、ステップ303において、ステップ301、あるいはステップ302において取得したpoc_flag値を調べ、poc_flag値が1である際にはステップ305に進み、0である際にはステップ304に進む。ステップ304では、ステップ302において取得したsei_flag値を調べ、sei_flag値が1である際にはステップ306に進み、0である際にはステップ307に進む。ステップ305ではPOCからAUの表示時間を取得すると決定し、ステップ306ではSEIからAUの表示時間を取得すると決定する。poc_flagとsei_flagの値が共に0である際には、POCからもSEIからもAUの表示時間が取得できないため、ステップ307では、AUデータからはAUの表示時間を取得しないと決定し、表示時間は全てPESパケットのヘッダ情報から取得する。以上の処理により、AUの表示時間の取得方法を決定して処理を終了する。   Hereinafter, the processing of step 205 and step 206 will be described in detail. FIG. 6 is a flowchart showing the processing of step 205. Here, poc_flag is a flag indicating whether display time information can be acquired from POC, and sei_flag is a flag indicating whether display time information can be acquired from SEI. Both flags have an initial value of 0. First, in step 301, it is determined whether or not the POC can be used to acquire display time information based on information other than AU data. In the MPEG-2 system standard, information about encoded data and the like can be stored separately from AU data by data called a descriptor. A descriptor is also prepared for MPEG-4 AVC, and flag information called temporal_poc_flag in AVC-timing and HRD Descriptor, which is one of them, indicates whether or not display time information can be acquired from the POC. Here, when temporal_poc_flag is set to 1, poc_flag is set to 1. When a PES packet in which encoded data is multiplexed is transmitted as a TS packet, the descriptor is stored in a data storage unit called a Program Map Table (PMT), and is multiplexed into the TS packet separately from the PES packet. For this reason, when receiving a PES packet multiplexed with a TS packet, the PMT is analyzed prior to the start of analysis of the PES packet, and when the AVC-timing and HRD Descriptor is included in the PMT, temporal_poc_flag Get the value of. On the other hand, when a TS packet is not used as in a storage format called a program stream in the MPEG-2 system, the descriptor is stored in the header of the PES packet. Therefore, when analyzing the PES packet data, the AVC-timing and HRD is performed prior to the analysis of the AU data in the PES packet by analyzing the AU data stored in the payload of the PES packet after analyzing the header of the PES packet. The Descriptor is analyzed to obtain a temporal_poc_flag value. Here, when the temporal_poc_flag value in the AVC-timing and HRD Descriptor indicated by the PMT or PES packet is updated, the updated value is acquired. When there is no AVC-timing and HRD Descriptor in the PMT or PES packet, it cannot be determined whether the display time information can be acquired by the POC, and the poc_flag value is 0. Note that the value of poc_flag may be set to indicate whether display time information can be acquired from the POC according to a descriptor other than AVC-timing and HRD Descriptor, or an operation rule. When the poc_flag value is set to 1 based on information other than AU data by the above method, the process proceeds to step 303, and when the poc_flag value is 0, the process proceeds to step 302. In step 302, information in the AU data is analyzed to determine a display time acquisition method, and a poc_flag value and a sei_flag value are determined based on the analysis result. Subsequently, in step 303, the poc_flag value acquired in step 301 or 302 is checked. If the poc_flag value is 1, the process proceeds to step 305. If it is 0, the process proceeds to step 304. In step 304, the sei_flag value acquired in step 302 is checked. If the sei_flag value is 1, the process proceeds to step 306. If it is 0, the process proceeds to step 307. In step 305, it is determined that the AU display time is acquired from the POC, and in step 306, it is determined that the AU display time is acquired from the SEI. When the values of poc_flag and sei_flag are both 0, the AU display time cannot be acquired from the POC or SEI. Therefore, in step 307, it is determined that the AU display time is not acquired from the AU data, and the display time is displayed. Are all obtained from the header information of the PES packet. With the above processing, the acquisition method of the AU display time is determined and the processing is terminated.

次に、ステップ302において、AUデータ内の情報を解析して表示時間の取得方法を決定する方法について、図7のフローチャートを参照して説明する。ステップ302では、AU内の先頭NALユニットから順に、ステップ416において方法決定フラグが1にセットされるまで、ステップ401からステップ416までの処理を繰り返す。ここで、方法決定フラグとは、表示時間情報の取得方法が決定したかどうかを示すフラグであり、ステップ302の処理開始時の初期値は0であるとする。まず、ステップ401においてNALユニットにSEIが格納されるかどうか判定する。SEIを格納するNALユニットのNALユニットタイプ値は6であるため、入力されたNALユニットのNALユニットタイプが6であるかどうか判定し、6である際にはステップ402においてNALユニットのペイロードに格納されるSEIの種類を取得する。ステップ403において、ステップ402で解析したNALユニットにBuffering Period SEIが含まれるかどうか判定し、含まれる際にはステップ404に進み、含まれなければステップ406に進む。ステップ404では、Buffering Period SEIがAU内に存在することを示すフラグであるbp_flagを1にセットする。なお、ステップ302の処理開始時におけるbp_flagの初期値は0とする。Buffering Period SEIには、本SEIが格納されるAUにおけるピクチャが参照するSPSのインデックス番号が示されるため、そのインデックス番号をステップ405において取得し、target_sps_idにセットする。target_sps_idは、AU内のピクチャデータが参照するSPSのインデックス番号であるとする。ステップ406では、AUがIDR AUであるかどうか判定する。IDRスライスを格納するNALユニットのNALユニットタイプは5であるため、入力されたNALユニットのNALユニットタイプが5であるかどうか判定し、5である際にはステップ407に進み、5でない場合には解析中であるのNALユニットの解析を終了し、次NALユニットの解析を行う。ステップ407では、ステップ406において検出されたIDRスライスを解析して、AU内のピクチャが参照するSPSのインデックス番号を取得し、target_sps_idにセットする。次に、ステップ408にでは、インデックス番号がtarget_sps_idと同一であるSPSのVideo Usability Information(VUI)を取得する。VUIには、AUの表示が固定フレームレートであるかどうかを示すフラグであるfixed_frame_rate_flag含まれるため、本フラグ値を取得し、ステップ409においてfixed_frame_rate_flag値が1であるかどうか判定する。fixed_frame_rate_flag値が1である際には、ステップ410に進み、0である際にはステップ412に進む。ステップ410ではpoc_flagを1にセットする。ステップ411では、AU間のPOC値の増分と、表示時間の差分値との関係を示す値であるdelta_dpbを取得する。delta_dpbは、POCが1増加した際の表示時間の増分を示すものとし、タイムスケールはVUI内のフィールドにより示される値を使用する。例えば、連続する2つのAUであるau1とau2において、それぞれのPOC値をpoc1、およびpoc2とすると、au1とau2の表示時間の差分値は(poc2―poc1)*delta_dpbとなる。差分値が正である際には、au2はau1よりも後に表示され、負である際には、au2はau1よりも先に表示される。ここで、AU内のピクチャがフレーム構造である際には、POCの値としては、トップフィールド用とボトムフィールド用の2種類が定義される。AUの表示時間を算出する際には、トップフィールドとボトムフィールドのPOCを比較し、表示時間が早いフィールドのPOC値を使用する。次に、ステップ412では、poc_flagを0にセットし、ステップ413に進む。ステップ413では、SEIからAUの表示時間を取得できるかどうか判定する。VUIには、vcl_hrd_parameters_present_flag、nal_hrd_parameters_present_flagの2つのフラグが存在し、両フラグの少なくともどちらか一方が1にセットされていれば、SEIからAUの表示時間を取得できることを示す。そこで、ステップ413において、vcl_hrd_parameters_present_flag、nal_hrd_parameters_present_flagのいずれか一方が1であるかどうか判定する。いずれか一方が1である際には、ステップ414においてsei_flag1を1にセットし、どちらも0である際には、ステップ415においてsei_flag1を0にセットする。ここで、SEIにより表示時間の計算を行う際にも、タイムスケールはVUI内のフィールドを使用する。最後に、ステップ411、ステップ414、あるいはステップ415の処理が終了した後に、ステップ416において方法決定フラグを1にセットする。上記では、SPS内に必ずVUIが存在し、VUI内には必ずfixed_frame_rate_flagフィールドが存在するものとしたが、VUIの使用、あるいはVUIにおけるfixed_frame_rate_flagフィールドの使用は必須ではない。そのため、VUIが存在しない、あるいは、VUIが存在してもVUI内にfixed_frame_rate_flagフィールドが存在しない場合の処理について以下に示す。まず、MPEG−4 AVCでは、デスクリプタによってもfixed_frame_rate_flag値、およびタイムスケール値などVUI内の情報を示すことができるため、デスクリプタによりfixed_frame_rate_flag値が示される際には、その値に従いステップ409の処理を行うこととする。そうでない場合には、poc_flagとsei_flagを共に0にセットしてステップ416の処理を行う。また、運用規定などにより、POCあるいはSEIによりAUの表示時間が取得できることが示される際には、運用規定に従いpoc_flag値、およびsei_flag値を決定することとしてもよい。   Next, a method of determining the display time acquisition method by analyzing information in the AU data in step 302 will be described with reference to the flowchart of FIG. In step 302, the processing from step 401 to step 416 is repeated in order from the first NAL unit in the AU until the method determination flag is set to 1 in step 416. Here, the method determination flag is a flag indicating whether or not the display time information acquisition method has been determined, and the initial value at the start of the processing in step 302 is 0. First, in step 401, it is determined whether SEI is stored in the NAL unit. Since the NAL unit type value of the NAL unit storing the SEI is 6, it is determined whether or not the NAL unit type of the input NAL unit is 6, and when it is 6, the NAL unit type is stored in the payload of the NAL unit in step 402 Get the type of SEI. In step 403, it is determined whether or not the Buffering Period SEI is included in the NAL unit analyzed in step 402. If included, the process proceeds to step 404. If not included, the process proceeds to step 406. In step 404, bp_flag, which is a flag indicating that Buffering Period SEI exists in the AU, is set to 1. Note that the initial value of bp_flag at the start of the processing in step 302 is 0. The Buffering Period SEI indicates the SPS index number referenced by the picture in the AU in which the SEI is stored, so that the index number is acquired in step 405 and set in target_sps_id. It is assumed that target_sps_id is the index number of the SPS referenced by the picture data in the AU. In step 406, it is determined whether the AU is an IDR AU. Since the NAL unit type of the NAL unit that stores the IDR slice is 5, it is determined whether the NAL unit type of the input NAL unit is 5, and if it is 5, the process proceeds to step 407. The analysis of the current NAL unit is terminated, and the next NAL unit is analyzed. In step 407, the IDR slice detected in step 406 is analyzed, the index number of the SPS referenced by the picture in the AU is acquired, and set to target_sps_id. Next, in Step 408, SPS Video Usability Information (VUI) having the same index number as target_sps_id is acquired. Since the VUI includes fixed_frame_rate_flag that is a flag indicating whether or not the display of the AU is a fixed frame rate, this flag value is acquired, and it is determined whether or not the fixed_frame_rate_flag value is 1 in step 409. When the fixed_frame_rate_flag value is 1, the process proceeds to step 410, and when it is 0, the process proceeds to step 412. In step 410, poc_flag is set to 1. In step 411, delta_dpb which is a value indicating the relationship between the increment of the POC value between the AUs and the difference value of the display time is acquired. delta_dpb indicates the increment of the display time when POC increases by 1, and the time scale uses the value indicated by the field in the VUI. For example, if the POC values of two consecutive AUs au1 and au2 are poc1 and poc2, the difference value between the display times of au1 and au2 is (poc2−poc1) * delta_dpb. When the difference value is positive, au2 is displayed after au1, and when it is negative, au2 is displayed before au1. Here, when the picture in the AU has a frame structure, two types of values for the top field and for the bottom field are defined as POC values. When calculating the AU display time, the POC values of the top field and the bottom field are compared, and the POC value of the field with the earlier display time is used. Next, in step 412, poc_flag is set to 0, and the process proceeds to step 413. In step 413, it is determined whether the display time of AU can be acquired from SEI. In the VUI, there are two flags, vcl_hrd_parameters_present_flag and nal_hrd_parameters_present_flag, and if at least one of both flags is set to 1, it indicates that the display time of AU can be acquired from SEI. Accordingly, in step 413, it is determined whether one of vcl_hrd_parameters_present_flag and nal_hrd_parameters_present_flag is 1. When either one is 1, sei_flag1 is set to 1 at step 414, and when both are 0, sei_flag1 is set to 0 at step 415. Here, when the display time is calculated by SEI, the time scale uses a field in the VUI. Finally, after the processing of step 411, step 414, or step 415 is completed, the method determination flag is set to 1 in step 416. In the above description, it is assumed that the VUI always exists in the SPS and the fixed_frame_rate_flag field always exists in the VUI. However, the use of the VUI or the fixed_frame_rate_flag field in the VUI is not essential. For this reason, the processing when the VUI does not exist or the fixed_frame_rate_flag field does not exist in the VUI even if the VUI exists will be described below. First, in MPEG-4 AVC, information in the VUI such as a fixed_frame_rate_flag value and a time scale value can also be indicated by the descriptor. Therefore, when the fixed_frame_rate_flag value is indicated by the descriptor, the process of step 409 is performed according to the value. I will do it. Otherwise, both poc_flag and sei_flag are set to 0 and the process of step 416 is performed. In addition, when the operation rules indicate that the AU display time can be acquired by POC or SEI, the poc_flag value and the sei_flag value may be determined according to the operation rules.

ここで、AUが参照するSPSはIDR AUにおいてのみ更新可能である。AUの表示時間の取得方法はSPSのVUI情報が更新された際にのみ更新されるため、図5のステップ205に示す表示時間の取得方法の決定処理は、IDR AUにおいてのみ行う。
なお、AUの表示時間の取得方法が固定であることが予め示される場合には、表示時間の取得方法決定処理は先頭のIDR AUにおいてのみ行うこととしてもよい。また、non−IDR AUにおいてもステップ205の処理を行うこととしてもよい。
Here, the SPS referred to by the AU can be updated only in the IDR AU. Since the acquisition method of the AU display time is updated only when the VPS information of the SPS is updated, the determination process of the display time acquisition method shown in step 205 of FIG. 5 is performed only in the IDR AU.
When it is indicated in advance that the acquisition method of the AU display time is fixed, the display time acquisition method determination process may be performed only in the first IDR AU. Further, the process of step 205 may be performed in the non-IDR AU.

なお、ステップ302の処理は、図5に示す再構成手段103の処理フローにおいて、ループA0内に含めることとしてもよい。この際は、ステップ202においてNALユニットを分離した際に、NALユニットデータを解析してAUの表示時間の取得方法を決定する。   Note that the processing of step 302 may be included in the loop A0 in the processing flow of the reconfiguration unit 103 shown in FIG. In this case, when the NAL unit is separated in step 202, the NAL unit data is analyzed to determine the acquisition method of the AU display time.

次に、図5のステップ206においてAUの表示時間を決定する方法について、図8のフローチャートを参照しながら説明する。ここで、pts_flagは、AUの表示時間がPESパケットのヘッダにより示されるかどうかを示すフラグであり、pes_ptsは、PESパケットのヘッダにより示されるAUの表示時間を示す。また、curr_pts、prev_ptsは、それぞれ現在のAUの表示時間、および復号順で直前のAUの表示時間を示すものとし、delta_ptsは、POCあるいはSEIから計算される、現在のAUの表示時間と、復号順で直前のAUの表示時間との差分値を示すものとする。delta_ptsは正負の値をとり、pes_ptsと同一のタイムスケールを使用する。また、max_PTSは、復号順が現在のAUよりも早いAUの内、表示時間が最も遅いAUの表示時間を示すものとする。ここで、pts_flagの値については、ステップ501に先立って取得しているものとする。ステップ501において、pts_flagの値を調べ、フラグ値が1である際には、ステップ502において、curr_ptsにpes_ptsを代入して表示時間の取得処理を終了する。全AUの表示時間がPESパケットのヘッダから取得できる際には、常にステップ502により表示時間が決定される。次に、pes_flag値が0である際には、ステップ503に進む。ステップ503では、AUについてのpoc_flag値を調べ、フラグ値が1である際にはステップ504に進み、0である際にはステップ506に進む。ステップ504では、現AUがIDR AUであるかどうか判定し、IDR AUである際にはステップ507に進み、IDR AUでない際にはステップ505に進む。ステップ505では、AUについてのsei_flag値を調べ、フラグ値が1である際にはステップ506に進み、0である際にはステップ508に進む。ステップ506では、直前AUの表示時間に、現AUと直前AUの差分値を加算することによって現AUの表示時間を取得する。一方、ステップ507では、max_PTSにdelta_ptsを加算することによりAUの表示時間を決定する。このように、POCからAUの表示時間を算出する際に、AUがIDR AUであるか否かによって算出方法を切り替えるのは、POC値がIDR AU毎に0にリセットされるためである。IDR AUにおいてPOC値がリセットされると、直前AUとのPOCの差分値が取得できないため、フレームレートが固定であることを利用して、ステップ507の方法により表示時間を算出する。ステップ508では、POCおよびSEIからは表示時間情報は取得できないため、フレームレートが固定であると仮定して、pts_flagが0であるAUの表示時間を計算する。具体的には、pts_flagが1である、復号順で連続する2つのAUをau1、au2とし、au1、au2のpes_ptsをそれぞれpts1、pts2とすると、pts2からpts1を減算した値を、au1とau2の間に含まれるAUの数で割ることにより、フレームレートを算出する。なお、フレームレートには予め定められた値を使ってもよいし、IDR AUなど特定のAUにおいてのみフレームレートを計算することにしてもよい。この方法では双方向予測を用いたAUにおいては正しい表示時間が取得できないため、各AUの予測構造が予め既知である際には、予測構造を考慮してAUの表示時間を取得することとしてもよい。   Next, a method of determining the AU display time in step 206 of FIG. 5 will be described with reference to the flowchart of FIG. Here, pts_flag is a flag indicating whether or not the AU display time is indicated by the header of the PES packet, and pes_pts indicates the AU display time indicated by the header of the PES packet. Further, curr_pts and prev_pts respectively indicate the current AU display time and the display time of the immediately preceding AU in decoding order, and delta_pts indicates the current AU display time calculated from POC or SEI, and decoding. The difference value with the display time of the immediately preceding AU is shown in order. delta_pts takes a positive or negative value and uses the same time scale as pes_pts. Also, max_PTS indicates the display time of the AU with the latest display time among the AUs whose decoding order is earlier than the current AU. Here, it is assumed that the value of pts_flag is acquired prior to step 501. In step 501, the value of pts_flag is checked. When the flag value is 1, in step 502, pes_pts is substituted for curr_pts, and the display time acquisition process ends. When the display time of all AUs can be acquired from the header of the PES packet, the display time is always determined by step 502. Next, when the pes_flag value is 0, the process proceeds to step 503. In step 503, the poc_flag value for AU is checked. When the flag value is 1, the process proceeds to step 504, and when it is 0, the process proceeds to step 506. In step 504, it is determined whether the current AU is an IDR AU. If the current AU is an IDR AU, the process proceeds to step 507. If not, the process proceeds to step 505. In step 505, the sei_flag value for AU is checked. If the flag value is 1, the process proceeds to step 506, and if it is 0, the process proceeds to step 508. In step 506, the display time of the current AU is obtained by adding the difference value between the current AU and the previous AU to the display time of the previous AU. On the other hand, in step 507, the AU display time is determined by adding delta_pts to max_PTS. Thus, when calculating the AU display time from the POC, the calculation method is switched depending on whether or not the AU is an IDR AU because the POC value is reset to 0 for each IDR AU. When the POC value is reset in the IDR AU, since the difference value of the POC from the immediately previous AU cannot be acquired, the display time is calculated by the method of step 507 using the fact that the frame rate is fixed. In step 508, since the display time information cannot be acquired from the POC and SEI, the display time of the AU whose pts_flag is 0 is calculated on the assumption that the frame rate is fixed. Specifically, when two AUs consecutive in decoding order with pts_flag being 1 are au1 and au2, and pes_pts of au1 and au2 are pts1 and pts2, respectively, values obtained by subtracting pts1 from pts2 are au1 and au2 The frame rate is calculated by dividing by the number of AUs included in between. Note that a predetermined value may be used as the frame rate, or the frame rate may be calculated only in a specific AU such as an IDR AU. In this method, the correct display time cannot be acquired in the AU using bi-directional prediction. Therefore, when the prediction structure of each AU is known in advance, the display time of the AU may be acquired in consideration of the prediction structure. Good.

なお、PESパケットのヘッダにおける表示時間、POC、あるいはBuffering Period SEI、Picture Timing SEIにおいて、フィールド値が規格で定められた最大値に達して循環した際には、循環を考慮して表示時間、あるいは表示時間の差分値を算出することとする。
また、上記では再構成手段103は表示時間を出力することとしたが、復号時間も出力してもよい。復号時間についても、POCの使用方法を除いて、表示時間の算出と同様の手順により算出できる。POCは表示時間情報しか示すことができないが、poc_flagが1となるのは固定フレームレートの場合のみであるため、AUの復号時間は固定のフレームレートで単調増加する。このため、poc_flagが1の際の復号時間は、復号順で直前のAUの復号時間に一定値を加算することにより取得できる。
In the display time in the header of the PES packet, in POC, Buffering Period SEI, and Picture Timing SEI, when the field value reaches the maximum value defined by the standard and circulates, the display time in consideration of the circulation, or The display time difference value is calculated.
In the above description, the reconstruction unit 103 outputs the display time, but the decoding time may also be output. The decoding time can also be calculated by the same procedure as the calculation of the display time, except for the method of using POC. POC can only display display time information, but po_flag is 1 only at a fixed frame rate, so the AU decoding time monotonously increases at a fixed frame rate. Therefore, the decoding time when poc_flag is 1 can be obtained by adding a constant value to the decoding time of the immediately preceding AU in decoding order.

なお、上記の方法は、表示時間の取得方法を切り替える必要がある符号化方式であれば、MPEG−4 AVC以外にも適用できる。また、MP4では、1つ以上のAUから構成される、サンプルと呼ばれる単位で符号化データが管理されるが、サンプルに複数のAUが含まれる際には、上記方法によりサンプル内のAUの表示時間を取得できる。   Note that the above method can be applied to other than MPEG-4 AVC as long as the encoding method needs to switch the display time acquisition method. In MP4, encoded data is managed in units called samples, which are composed of one or more AUs. When a sample includes a plurality of AUs, the AUs in the samples are displayed by the above method. You can get time.

(実施の形態2)
次に、本発明の実施の形態2に係るデータ再構成装置について説明する。本実施の形態2に係るデータ再構成装置は、主な構成要素において、上記実施の形態1に係るデータ再構成装置と共通するが、再構成手段103において特徴的な構成を備えており、この点において上記実施の形態1に係るデータ再構成装置と異なる。以下、この異なる点を中心に説明する。なお、上記実施の形態1と同一の構成要素については、同一の符号を用いることとし、説明を省略する。
(Embodiment 2)
Next, a data reconstruction device according to Embodiment 2 of the present invention will be described. The data reconstruction device according to the second embodiment is common in the main components to the data reconstruction device according to the first embodiment, but the reconstruction unit 103 has a characteristic configuration. This is different from the data reconstruction apparatus according to the first embodiment. Hereinafter, this difference will be mainly described. In addition, about the same component as the said Embodiment 1, the same code | symbol shall be used and description is abbreviate | omitted.

図9は、本実施の形態2に係る再構成手段103の構成を示すブロック図である。再構成手段103は、入力されたAUにおけるNALユニットの格納形式を変換して出力する機能を有する。AU分離手段301は、PES分離手段により入力されたPESパケットのペイロードからNALユニットを分離し、分離後のNALユニットデータ、およびNALユニットのサイズを格納形式変換手段302に入力する。ここで、格納形式変換手段302に入力されるNALユニットデータでは、バイトストリームフォーマットにおいてNALユニットに付加されるzero_byte、およびスタートコードは除去されている。格納形式変換手段302は、入力されたNALユニットデータに対して変換を行い、変換後のデータをAU分離手段301に出力する。AU分離手段301は、格納形式変換手段302において変換された後の格納形式でNALユニットが格納されたAUデータを出力する。図10は、再構成手段103における処理を示すフローチャートであり、動作のフローは、図5に示す実施の形態1の動作フローにおけるループA0の処理に、NALユニットの格納形式を変換する処理であるステップ301が追加される。ステップ301では、NALユニットの格納形式をバイトストリームフォーマットからNALサイズフォーマットに変換する。この結果、再構成手段103から出力されるAUデータにおけるNALユニットの格納形式はNALサイズフォーマットとなる。格納形式変換手段302における変換処理について図11のフローチャートに示す。まず、ステップ401において、NALユニットデータとともに入力されたサイズに基づいて、NALサイズフォーマットにおいてNALユニットのサイズを示すフィールドを作成する。この際、NALユニットのサイズを示すフィールドのフィールド長には、予め定められた値を使用する。なお、フィールド長は、MPEG−4 AVCのプロファイルやレベル、あるいは符号化時のビットレートなどから見積もられるスライスのNALユニットの最大値に応じて設定することとしてもよいし、IDR AU毎に切り替えるなど、ビデオデータの途中のAUにおいて更新することとしてもよい。次に、ステップ402において、ステップ401で作成したNALユニットのサイズを示すフィールドをNALユニットデータに付加してNALユニットデータを出力する。なお、ここではzero_byte、およびスタートコードを予め除去してNALユニットデータのみを格納形式変換手段302に入力することとしたが、zero_byteとスタートコードが付加された状態で入力することとしてもよい。この際は、ステップ401に先立って、zero_byteとスタートコードを除去する。また、NALサイズフォーマットのAUデータが再構成手段103に入力される際には、格納形式変換手段302における変換処理を行わないこととする。さらに、RTPパケットに多重化されるAUのように、AUにNALユニットデータのみが格納される際にも、NALユニットのサイズを示すフィールドを付加して出力することとしてもよい。さらにまた、PESパケットやRTPパケットと異なる格納形式をもつAUデータが入力された際にも、NALサイズフォーマットに変換して出力することとしてもよい。   FIG. 9 is a block diagram showing a configuration of the reconstruction unit 103 according to the second embodiment. The reconfiguration unit 103 has a function of converting and outputting the storage format of the NAL unit in the input AU. The AU separation unit 301 separates the NAL unit from the payload of the PES packet input by the PES separation unit, and inputs the separated NAL unit data and the size of the NAL unit to the storage format conversion unit 302. Here, in the NAL unit data input to the storage format conversion unit 302, the zero_byte added to the NAL unit in the byte stream format and the start code are removed. The storage format conversion unit 302 performs conversion on the input NAL unit data, and outputs the converted data to the AU separation unit 301. The AU separation unit 301 outputs AU data in which the NAL unit is stored in the storage format after being converted by the storage format conversion unit 302. FIG. 10 is a flowchart showing the processing in the reconfiguration unit 103, and the operation flow is processing for converting the storage format of the NAL unit into the processing of the loop A0 in the operation flow of the first embodiment shown in FIG. Step 301 is added. In step 301, the storage format of the NAL unit is converted from the byte stream format to the NAL size format. As a result, the storage format of the NAL unit in the AU data output from the reconstruction unit 103 is the NAL size format. The conversion process in the storage format conversion means 302 is shown in the flowchart of FIG. First, in step 401, a field indicating the size of the NAL unit in the NAL size format is created based on the size input together with the NAL unit data. At this time, a predetermined value is used as the field length of the field indicating the size of the NAL unit. The field length may be set according to the maximum value of the NAL unit of the slice estimated from the profile or level of MPEG-4 AVC, the bit rate at the time of encoding, or the like, or switched for each IDR AU. Further, it may be updated in the AU in the middle of the video data. Next, in step 402, a field indicating the size of the NAL unit created in step 401 is added to the NAL unit data, and the NAL unit data is output. Here, zero_byte and the start code are removed in advance and only the NAL unit data is input to the storage format conversion means 302. However, it may be input with the zero_byte and the start code added. In this case, prior to step 401, zero_byte and the start code are removed. In addition, when the AU data in the NAL size format is input to the reconstruction unit 103, the conversion process in the storage format conversion unit 302 is not performed. Further, when only NAL unit data is stored in the AU as in the AU multiplexed in the RTP packet, a field indicating the size of the NAL unit may be added and output. Furthermore, when AU data having a storage format different from that of the PES packet or RTP packet is input, it may be converted into a NAL size format and output.

このように、バイトストリームフォーマットからNALサイズフォーマットに変換することにより、PESパケットのようにバイトストリームフォーマットでAUデータが多重化されたパケットデータが入力された際にも、NALサイズフォーマットにしか対応していない復号化手段において、再構成手段103から出力されたAUデータを復号化できる。   Thus, by converting from the byte stream format to the NAL size format, even when packet data in which AU data is multiplexed in the byte stream format, such as a PES packet, is input, only the NAL size format is supported. The AU data output from the reconstruction unit 103 can be decoded by the decoding unit that is not.

なお、上記ではバイトストリームフォーマットからNALサイズフォーマットに変換することとしたが、NALサイズフォーマットからバイトストリームフォーマットに変換することとしてもよい。例えば、MP4ではNALサイズフォーマットによりAUデータを格納するが、PESパケットにおける格納形式であるバイトストリームフォーマットに統一して出力することができる。図17は、NALサイズフォーマットからバイトストリームフォーマットに変換する処理を示すフローチャートである。ここで、入力されるのはNALユニットデータ、NALユニットのサイズ、およびNALユニットがAUにおける先頭NALユニットであるかどうかを示すフラグ情報であるとする。まず、ステップ601において、NALユニットがAUの先頭NALユニットであるかどうか判定し、先頭である際にはステップ603に進み、先頭でない際にはステップ602に進む。ステップ602では、NALユニットのNALユニットタイプを解析し、予め定められた特定種類のデータが含まれるかどうか判定する。具体的には、NALユニットがSPS、あるいはPPSを格納するかどうかを判定し、SPS、あるいはPPSを格納するNALユニットである際にはステップ603に進み、そうでなければステップ604に進む。ステップ603では、1つ以上のzero_byte作成し、AUデータの先頭に付加する。最後に、ステップ604において、スタートコードを付加してNALユニットデータを出力する。この際、ステップ603においてzero_byteが付加される際には、付加されたzero_byteの直後にスタートコードを付加し、zero_byteが付加されない際には、AUデータの先頭にスタートコートを付加する。   In the above description, the byte stream format is converted to the NAL size format, but the NAL size format may be converted to the byte stream format. For example, although MP4 stores AU data in the NAL size format, it can be output in a unified byte stream format that is a storage format in the PES packet. FIG. 17 is a flowchart showing a process of converting from the NAL size format to the byte stream format. Here, it is assumed that the NAL unit data, the size of the NAL unit, and flag information indicating whether the NAL unit is the head NAL unit in the AU are input. First, in step 601, it is determined whether the NAL unit is the head NAL unit of the AU. If it is the head, the process proceeds to step 603, and if it is not the head, the process proceeds to step 602. In step 602, the NAL unit type of the NAL unit is analyzed to determine whether or not a predetermined type of data is included. Specifically, it is determined whether or not the NAL unit stores SPS or PPS. If the NAL unit is a NAL unit storing SPS or PPS, the process proceeds to step 603, and if not, the process proceeds to step 604. In step 603, one or more zero_bytes are created and added to the head of the AU data. Finally, in step 604, a start code is added and NAL unit data is output. At this time, when zero_byte is added in step 603, a start code is added immediately after the added zero_byte, and when zero_byte is not added, a start code is added to the head of the AU data.

なお、ステップ601、あるいはステップ602においてzero_byteを付加すると決定されたNALユニット以外のNALユニットについても、zero_byteを付加することとしてもよい。例えば、スタッフィングのためにzero_byteを付加することができる。なお、NALユニットのサイズを示すフィールドが付加された状態でNALユニットのデータを入力することとしてもよい。この際は、予めNALユニットのサイズを示すフィールドのフィールド長を取得しておくことにより、NALユニットのサイズを示すフィールドを除去する。例えば、MP4においては、NALユニットのサイズを示すフィールドのフィールド長はMP4ファイルのヘッダ領域に格納されており、その値はチャンク単位で可変であるため、変換処理を行うAU毎にNALユニットのサイズを示すフィールドのフィールド長を取得する必要がある。ここで、チャンクとは1以上のサンプルをグループ化した単位を示す。さらに、RTPパケットに多重化されるAUのように、AUにはNALユニットデータのみが格納される際にも、バイトストリームフォーマットに変換することとしてもよい。   Note that zero_byte may be added to NAL units other than the NAL unit determined to add zero_byte in step 601 or step 602. For example, zero_byte can be added for stuffing. The NAL unit data may be input with a field indicating the size of the NAL unit added. In this case, the field indicating the size of the NAL unit is removed by acquiring the field length of the field indicating the size of the NAL unit in advance. For example, in MP4, the field length of the field indicating the size of the NAL unit is stored in the header area of the MP4 file, and the value is variable in units of chunks. Therefore, the size of the NAL unit for each AU to be converted. It is necessary to obtain the field length of the field indicating. Here, the chunk indicates a unit in which one or more samples are grouped. Further, when only the NAL unit data is stored in the AU, like the AU multiplexed in the RTP packet, it may be converted into the byte stream format.

(実施の形態3)
次に、本発明の実施の形態3に係るデータ再構成装置について説明する。本実施の形態3に係るデータ再構成装置は、主な構成要素において、上記実施の形態2に係るデータ再構成装置と共通するが、再構成手段103において特徴的な構成を備えており、この点において上記実施の形態2に係るデータ再構成装置と異なる。以下、この異なる点を中心に説明する。なお、上記実施の形態2と同一の構成要素については、同一の符号を用いることとし、説明を省略する。
(Embodiment 3)
Next, a data reconstruction device according to Embodiment 3 of the present invention will be described. The data reconstruction device according to the third embodiment is common in the main components to the data reconstruction device according to the second embodiment, but the reconstruction unit 103 has a characteristic configuration. In this respect, it differs from the data reconstruction device according to the second embodiment. Hereinafter, this difference will be mainly described. In addition, about the same component as the said Embodiment 2, the same code | symbol is used and description is abbreviate | omitted.

図12は、本実施の形態3に係る再構成手段103の構成を示すブロック図である。再構成手段103は、AUの表示時間などの付加情報を含む特別なNALユニットを、入力されたAUにおけるNALユニットのデータに付加して出力する機能を有する。AUヘッダ追加手段401は、PTS取得手段203から入力されたAUの表示時間、およびAU分離手段301から出力されたAUデータに基づいて、AUの表示時間を格納した特別なNALユニットタイプをもつNALユニットを、入力されたAUデータに付加して出力する。図13は、再構成手段103における処理を示すフローチャートであり、動作のフローは、図10に示す実施の形態2の動作フローにおいてAUの表示時間を取得した(ステップ206)後に、ステップ501とステップ502とが追加される。ステップ501では、AUの表示時間を格納したNALユニット(以降、このNALユニットをAUヘッダNALユニットと呼ぶ)を作成する。ステップ502において、ステップ501で作成したAUヘッダNALユニットをAUの先頭に付加して出力する。   FIG. 12 is a block diagram showing a configuration of the reconfiguration unit 103 according to the third embodiment. The reconfiguration unit 103 has a function of adding a special NAL unit including additional information such as an AU display time to the data of the NAL unit in the input AU and outputting it. The AU header adding unit 401 is a NAL unit having a special NAL unit type that stores the AU display time based on the AU display time input from the PTS acquisition unit 203 and the AU data output from the AU separation unit 301. Is added to the input AU data and output. FIG. 13 is a flowchart showing the processing in the reconstruction unit 103. The operation flow is obtained by acquiring the AU display time in the operation flow of the second embodiment shown in FIG. 502 is added. In step 501, a NAL unit storing the AU display time (hereinafter, this NAL unit is referred to as an AU header NAL unit) is created. In step 502, the AU header NAL unit created in step 501 is added to the head of the AU and output.

図14は、AUヘッダ追加手段401から出力されるAUデータ構造の一例を示す。AUの先頭にはAUヘッダNALユニットが配置される。AUヘッダNALユニットにおけるNALユニットタイプの値は24であり、NALユニットのペイロードにはAUの表示時間が格納される。MPEG−4 AVC規格においては、24−31までのNALユニットタイプはユーザー定義領域として使用方法を規定しておらず、アプリケーションによって使用方法を決定することができる。AUデータを復号化する復号化手段においては、解釈できないNALユニットタイプ値を持つNALユニットは読み飛ばす、あるいは破棄するため、AUヘッダNALユニットを解釈できない復号化手段においてAUヘッダNALユニットが付加されたAUデータが入力された際にも、AUヘッダNALユニットは復号化処理に支障をきたすことなく読み飛ばされる、あるいは破棄される。なお、AUヘッダNALユニットのNALユニットタイプ値は24に限定されるものではなく、ユーザー定義領域における他の値のなかで、アプリケーションにおいて未使用である値を選択することとしてもよい。AUヘッダNALユニットのペイロードには、AUの表示時間が格納される。表示時間のタイムスケールは、PESヘッダにおける表示時間のタイムスケールと一致させる。なお、再構成手段103のステップ203において、入力されたAUデータ内にNALユニットタイプ値が24であるNALユニットを検出したした際には、当該NALユニットのデータを破棄することとする。なお、ステップ203において、入力AUにおける全NALユニットのNALユニットタイプを解析しない際には、入力AUにおける全NALユニットのNALユニットタイプを解析する処理を別途追加し、NALユニットタイプ値が24であるNALユニットの検出を行い、検出された際には破棄することとしてもよい。また、ここではAUヘッダNALユニットによりAUの表示時間を示すこととしたが、PESパケットのヘッダを付加することにより表示時間を示すこととしてもよい。このときの再構成手段103は、ペイロードに1以上のAUのデータ、あるいはAUのデータを分割して格納したPESパケットを入力し、入力PESパケットデータを再構成して、ペイロードに1AU分のデータが格納されるPESパケットとして出力することになる。   FIG. 14 shows an example of the AU data structure output from the AU header adding means 401. An AU header NAL unit is arranged at the head of the AU. The value of the NAL unit type in the AU header NAL unit is 24, and the AU display time is stored in the payload of the NAL unit. In the MPEG-4 AVC standard, NAL unit types up to 24-31 do not define a usage method as a user-defined area, and the usage method can be determined by an application. In the decoding means for decoding the AU data, the NAL unit having the NAL unit type value that cannot be interpreted is skipped or discarded. Therefore, the AU in which the AU header NAL unit is added in the decoding means that cannot interpret the AU header NAL unit. Even when data is input, the AU header NAL unit is skipped or discarded without affecting the decoding process. Note that the NAL unit type value of the AU header NAL unit is not limited to 24, and a value that is unused in the application may be selected from other values in the user-defined area. The AU display time is stored in the payload of the AU header NAL unit. The time scale of the display time is matched with the time scale of the display time in the PES header. In step 203 of the reconstruction unit 103, when a NAL unit having a NAL unit type value of 24 is detected in the input AU data, the data of the NAL unit is discarded. In step 203, when the NAL unit type of all NAL units in the input AU is not analyzed, a process for analyzing the NAL unit type of all NAL units in the input AU is added separately, and the NAL unit type value of 24 is determined. Detection may be performed, and when it is detected, it may be discarded. Here, the AU display time is indicated by the AU header NAL unit. However, the display time may be indicated by adding a header of the PES packet. At this time, the reconstructing means 103 inputs one or more AU data in the payload or a PES packet in which the AU data is divided and stored, reconstructs the input PES packet data, and data for one AU in the payload Is output as a PES packet in which is stored.

なお、AUヘッダNALユニットは、AUの最終NALユニット、あるいは途中のNALユニットとして格納することとしてもよい。さらに、AUヘッダNALユニットには、表示時間だけでなく復号時間も格納することとしてもよいし、復号時間を格納するためのNALユニットを新たに定義して格納することとしてもよい。さらに、AUデータを復号化する復号化手段においては、AUヘッダNALユニットをAUの先頭を示す識別情報として使用することもできる。なお、AUヘッダNALユニットのペイロードに格納される表示時間のタイムスケールとしては、予め設定された値を用いることとしてもよい。   Note that the AU header NAL unit may be stored as the last NAL unit of the AU or an NAL unit in the middle. Furthermore, not only the display time but also the decoding time may be stored in the AU header NAL unit, or a NAL unit for storing the decoding time may be newly defined and stored. Further, in the decoding means for decoding the AU data, the AU header NAL unit can be used as identification information indicating the head of the AU. Note that a preset value may be used as the time scale of the display time stored in the payload of the AU header NAL unit.

また、TSパケットによりPESパケットを伝送する際に、伝送路においてTSパケットがロスした際には、パケットロスの発生を通知するためのNALユニット(以降、エラー通知NALユニットと呼ぶ。)をAUデータ内に挿入することとしてもよい。ここで、エラー通知NALユニットは、パケットロス検出位置の直後に挿入することとする。図18は、エラー通知NALユニットの挿入方法の一例である。図18(a)は、再構成手段103に入力されるAUデータを示す。入力AUデータにおいては、TSパケットのロスにより、2番目のスライスNALユニットデータであるスライスNALU#2の後半部分が欠落している。図18(b)は、エラー通知NALユニットを挿入した後のAUデータを示す。TSパケットのロスが発生したかどうかはTSパケットのヘッダを解析することにより検出することができ、図18(a)に示すAUデータが入力された際には、スライスNALU#2の途中でパケットロスの発生が検出される。そのため、受信できたスライスNAL#2データの直後に、エラー通知NALユニットを挿入する。なお、エラー通知NALユニットの挿入後は、少なくともNALユニットデータの先頭部分が取得できたNALユニットから出力AUデータとして格納する。このため、図18(b)の例においてスライスNALU#3の先頭部分が取得できなかった際には、スライスNALU#3のデータは出力AUデータには格納せずに、次にNALユニットの先頭部分が取得できたNALユニットから格納を開始する。エラー通知NALユニットのNALユニットタイプは25であるとし、ペイロードにはエラー通知情報を格納する。エラー通知情報としては、(1)エラー通知NALユニットの直前NALユニットのデータは完全に揃っている、(2)エラー通知NALユニットの直前NALユニットのデータは不完全である、(3)エラー通知NALユニットの直前NALユニットのデータが完全に揃っているかどうかは不明である、の3種類の情報を含めることができる。TSパケットにおいては、例えば1NALユニットを1PESパケットに多重化することにすれば、エラー通知NALユニットの直前NALユニットは必ず完全に揃うことになる。また、RTPパケットによりMPEG−4 AVCのAUデータを伝送する際には、パケットロス発生時に欠落したのはNALユニットデータの全てのデータであるか一部のデータであるかを、RTPパケットのヘッダ情報から判定することができるため、判定結果に基づいてエラー通知情報の内容を切り替えることができる。なお、エラー通知NALユニットの直前NALユニットのデータが不完全であると判定された際には、直前NALユニットのデータを出力しないこととしてもよいし、さらに、エラー通知NALユニットの直前NALユニットのデータが不完全であるかどうかが不明である際にも、直前NALユニットのデータを出力しないこととしてもよい。なお、パケットロス検出後に挿入されたエラー通知NALユニットまでを現AUについての出力AUデータとすることとしてもよい。この際、AU内のNALユニットにおいてパケットロス検出後に取得したNALユニットデータは全て破棄される。また、パケットロス検出後は、次に検出したIDR AU、あるいはnon−IDR AUのデータから出力することとしてもよいし、次に検出したIDR AUのデータから出力してもよい。   Further, when transmitting a PES packet using a TS packet, if a TS packet is lost in the transmission path, a NAL unit (hereinafter referred to as an error notification NAL unit) for notifying the occurrence of a packet loss is used as AU data. It is good also as inserting in. Here, the error notification NAL unit is inserted immediately after the packet loss detection position. FIG. 18 shows an example of an error notification NAL unit insertion method. FIG. 18A shows AU data input to the reconstruction unit 103. In the input AU data, the second half of the slice NALU # 2, which is the second slice NAL unit data, is missing due to the loss of the TS packet. FIG. 18B shows AU data after the error notification NAL unit is inserted. Whether or not a TS packet loss has occurred can be detected by analyzing the header of the TS packet. When the AU data shown in FIG. 18A is input, the packet is transmitted in the middle of the slice NALU # 2. The occurrence of loss is detected. Therefore, an error notification NAL unit is inserted immediately after the received slice NAL # 2 data. After the error notification NAL unit is inserted, at least the head portion of the NAL unit data is stored as output AU data from the NAL unit that can be acquired. For this reason, in the example of FIG. 18B, when the head portion of the slice NALU # 3 cannot be acquired, the data of the slice NALU # 3 is not stored in the output AU data, and the head of the NAL unit is next stored. Storage starts from the NAL unit for which the part was acquired. The NAL unit type of the error notification NAL unit is 25, and error notification information is stored in the payload. The error notification information includes (1) the data of the NAL unit immediately before the error notification NAL unit is completely prepared, (2) the data of the NAL unit immediately before the error notification NAL unit is incomplete, (3) the error notification Three types of information can be included: it is unknown whether the data of the NAL unit immediately before the NAL unit is completely prepared. In a TS packet, for example, if one NAL unit is multiplexed into one PES packet, the NAL units immediately before the error notification NAL unit are always completely aligned. When MPEG-4 AVC AU data is transmitted using an RTP packet, it is determined whether all of the data of the NAL unit data or a part of the data is lost when the packet loss occurs. Since it can be determined from the information, the content of the error notification information can be switched based on the determination result. When it is determined that the data of the NAL unit immediately before the error notification NAL unit is incomplete, the data of the NAL unit immediately before the error notification NAL unit may not be output. Even when it is unknown whether the data is incomplete, the data of the immediately preceding NAL unit may not be output. Note that the error AU data inserted after detecting the packet loss may be output AU data for the current AU. At this time, all the NAL unit data acquired after the packet loss is detected in the NAL unit in the AU is discarded. After the packet loss is detected, the data may be output from the next detected IDR AU or non-IDR AU data, or may be output from the next detected IDR AU data.

なお、エラー通知情報として、上記3つ以外の情報を付加することとしてもよい。また、パケットロスのためにAUデータが欠落していることを示す情報を、NALユニット単位ではなく、AU単位で付加することとしてもよい。また、エラー通知NALユニットのNALユニットタイプ値は25に限定されるものではなく、ユーザー定義領域における他の値のなかで、アプリケーションにおいて未使用である値を選択することとしてもよい。   Note that information other than the above three may be added as error notification information. Further, information indicating that AU data is missing due to packet loss may be added in units of AUs instead of units of NAL units. Further, the NAL unit type value of the error notification NAL unit is not limited to 25, and a value that is not used in the application may be selected from other values in the user-defined area.

なお、表示時間、復号時間、あるいはエラー通知情報以外のデータをNALユニットデータの形式でAUデータに付加することとしてもよい。
なお、上記各実施の形態において、再構成手段103におけるPTS取得手段203、格納形式変換手段302、あるいはAUヘッダ追加手段のいずれか1つのみを使用することとしてもよいし、複数手段を組み合わせて使用することとしてもよい。
Data other than the display time, decoding time, or error notification information may be added to the AU data in the NAL unit data format.
In each of the above embodiments, only one of the PTS acquisition unit 203, the storage format conversion unit 302, or the AU header addition unit in the reconstruction unit 103 may be used, or a plurality of units may be combined. It may be used.

本発明に係るデータ再構成方法は、パケット多重化されたMPEG−4 AVCの符号化データを再生する機器全般に適用することができ、特にデジタル放送の受信機や、ストリーミングデータの受信機などに有効である。   The data reconstruction method according to the present invention can be applied to all devices that reproduce packet-multiplexed MPEG-4 AVC encoded data, and particularly for digital broadcast receivers, streaming data receivers, and the like. It is valid.

本発明の実施の形態1に係るデータ再構成装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the data reconstruction apparatus which concerns on Embodiment 1 of this invention. MPEG−4 AVCにおけるAUのデータ構造を示す図である。It is a figure which shows the data structure of AU in MPEG-4 AVC. AU内のNALユニットの配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the NAL unit in AU. 本発明の実施の形態1に係るデータ再構成装置における再構成手段の構成を示すブロック図である。It is a block diagram which shows the structure of the reconstruction means in the data reconstruction apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るデータ再構成装置における再構成手段の処理を示すフローチャートである。It is a flowchart which shows the process of the reconstruction means in the data reconstruction apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る再構成手段におけるAUの表示時間取得方法の決定手順を示すフローチャートである。It is a flowchart which shows the determination procedure of the display time acquisition method of AU in the reconstruction means which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る再構成手段においてAUデータから表示時間を取得する際の取得方法決定手順を示すフローチャートである。It is a flowchart which shows the acquisition method determination procedure at the time of acquiring display time from AU data in the reconfiguration | reconstruction means which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る再構成手段におけるAUの表示時間取得手順を示すフローチャートである。It is a flowchart which shows the display time acquisition procedure of AU in the reconfiguration | reconstruction means which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係るデータ再構成装置における再構成手段の構成を示すブロック図である。It is a block diagram which shows the structure of the reconstruction means in the data reconstruction apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係るデータ再構成装置における再構成手段の処理を示すフローチャートである。It is a flowchart which shows the process of the reconstruction means in the data reconstruction apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係るデータ再構成装置においてAUデータの格納方式の変換処理を示すフローチャートである。It is a flowchart which shows the conversion process of the storage system of AU data in the data reconstruction apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係るデータ再構成装置における再構成手段の構成を示すブロック図である。It is a block diagram which shows the structure of the reconstruction means in the data reconstruction apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係るデータ再構成装置における再構成手段の処理を示すフローチャートである。It is a flowchart which shows the process of the reconstruction means in the data reconstruction apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係るデータ再構成装置における再構成手段においてAUの表示時間を付加した後のAUのデータ構造を示す図である。It is a figure which shows the data structure of AU after adding the display time of AU in the reconstruction means in the data reconstruction apparatus which concerns on Embodiment 3 of this invention. MPEG−2システム規格におけるPESパケットとTSパケットの構造を示す図である。It is a figure which shows the structure of the PES packet and TS packet in MPEG-2 system specification. 従来のデータ再構成装置における再構成手段の処理を示すフローチャートである。It is a flowchart which shows the process of the reconstruction means in the conventional data reconstruction apparatus. 本発明の実施の形態2に係るデータ再構成装置においてAUデータの格納方式をNALサイズフォーマットからバイトストリームフォーマットに変換する際の処理を示すフローチャートである。It is a flowchart which shows the process at the time of converting the storage system of AU data from a NAL size format to a byte stream format in the data reconstruction apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係るデータ再構成装置においてエラー通知情報を付加した後のAUのデータ構造を示す図である。It is a figure which shows the data structure of AU after adding error notification information in the data reconstruction apparatus which concerns on Embodiment 3 of this invention.

符号の説明Explanation of symbols

101 データI/O手段
102 メモリ
103 再構成手段
201 PES分離手段
202、301 AU分離手段
203 PTS取得手段
302 格納形式変換手段
401 AUヘッダ追加手段
DESCRIPTION OF SYMBOLS 101 Data I / O means 102 Memory 103 Reconfiguration means 201 PES separation means 202, 301 AU separation means 203 PTS acquisition means 302 Storage format conversion means 401 AU header addition means

Claims (6)

動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成装置であって、
前記パケットのヘッダとペイロードを分離する分離手段と、
前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離手段と、
前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得手段と、
前記分離されたフレームデータ、および前記取得された時間情報を出力する出力手段とを備え、
前記時間情報取得手段は、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替える
ことを特徴とするデータ再構成装置。
A data reconstruction device that separates and outputs each media data from data obtained by packet-encoding encoded media data such as moving images and voices,
Separating means for separating the header and payload of the packet;
Detection separation means for detecting and separating frame boundaries of the media data from the payload data;
Time information acquisition means for acquiring a decoding time of a frame of the separated media data or a display time;
An output means for outputting the separated frame data and the acquired time information;
The time information acquisition means switches a method for acquiring a decoding time or a display time based on identification information included in the media data, or parameter information related to the media data acquired separately from the media data. A data reconstruction device.
前記時間情報取得手段は、特定の符号化モードにより符号化されたフレーム毎に、時間情報の取得方法を切り替えるかどうか判定する
ことを特徴とする請求項1に記載のデータ再構成装置。
The data reconstruction apparatus according to claim 1, wherein the time information acquisition unit determines whether to switch a time information acquisition method for each frame encoded in a specific encoding mode.
請求項1に記載のデータ再構成装置において、
前記フレームデータが1以上のサブフレーム単位から構成され、前記サブフレーム単位の先頭に前記サブフレームのサイズ情報が格納されている際には、前記サイズ情報を、前記サブフレームの開始を示す識別コードに変換する格納形式変換手段をさらに備える
ことを特徴とするデータ再構成装置。
The data reconstruction device according to claim 1, wherein
When the frame data is composed of one or more subframe units, and the size information of the subframe is stored at the head of the subframe unit, the size information is an identification code indicating the start of the subframe. A data reconstruction device further comprising storage format conversion means for converting the data into a storage format.
前記フレームデータが1以上のサブフレーム単位から構成される際に、
前記出力手段は、前記時間情報取得手段により取得された時間情報を前記サブフレームの格納単位に格納し、前記フレームデータに付加して出力する
ことを特徴とする請求項1に記載のデータ再構成装置。
When the frame data is composed of one or more subframe units,
2. The data reconstruction according to claim 1, wherein the output unit stores the time information acquired by the time information acquisition unit in a storage unit of the subframe, adds the frame information to the frame data, and outputs the frame data. apparatus.
動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成方法であって、
前記パケットのヘッダとペイロードを分離する分離ステップと、
前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、
前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、
前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、
前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替える
ことを特徴とするデータ再構成方法。
A data reconstruction method for separating and outputting each media data from data obtained by packet-encoding encoded media data such as moving images and voices,
A separation step of separating the header and payload of the packet;
A detection separation step of detecting and separating a frame boundary of the media data from the data of the payload;
A time information acquisition step of acquiring a decoding time of the frame of the separated media data or a display time;
Outputting the separated frame data and the acquired time information,
In the time information acquisition step, the acquisition method of the decoding time or the display time is switched based on the identification information included in the media data or the parameter information related to the media data acquired separately from the media data. A data reconstruction method characterized by the above.
動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成装置のためのプログラムであって、
前記パケットのヘッダとペイロードを分離する分離ステップと、
前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、
前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、
前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、
前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とする各ステップをコンピュータに実行させる
ことを特徴とするプログラム。
A program for a data reconstruction device that separates and outputs each media data from data in which encoded media data such as moving images and audio are packet-multiplexed,
A separation step of separating the header and payload of the packet;
A detection separation step of detecting and separating a frame boundary of the media data from the data of the payload;
A time information acquisition step of acquiring a decoding time of the frame of the separated media data or a display time;
Outputting the separated frame data and the acquired time information,
In the time information acquisition step, the acquisition method of the decoding time or the display time is switched based on the identification information included in the media data or the parameter information related to the media data acquired separately from the media data. A program characterized by causing a computer to execute each step characterized by the above.
JP2003356922A 2003-10-16 2003-10-16 Data reconstruction apparatus Pending JP2005123907A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003356922A JP2005123907A (en) 2003-10-16 2003-10-16 Data reconstruction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003356922A JP2005123907A (en) 2003-10-16 2003-10-16 Data reconstruction apparatus

Publications (1)

Publication Number Publication Date
JP2005123907A true JP2005123907A (en) 2005-05-12

Family

ID=34613999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003356922A Pending JP2005123907A (en) 2003-10-16 2003-10-16 Data reconstruction apparatus

Country Status (1)

Country Link
JP (1) JP2005123907A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229587A (en) * 2004-01-15 2005-08-25 Matsushita Electric Ind Co Ltd Multiplex system conversion device
JP2006211201A (en) * 2005-01-27 2006-08-10 Sanyo Electric Co Ltd Digital broadcasting receiver
WO2007119335A1 (en) * 2006-03-17 2007-10-25 Pioneer Corporation Apparatus and method for processing digital image data
JP2008067202A (en) * 2006-09-08 2008-03-21 Toshiba Corp Moving image decoder
WO2009001800A1 (en) * 2007-06-22 2008-12-31 Nec Corporation Image quality evaluation device, image quality evaluation method and program
JP2009010934A (en) * 2007-06-27 2009-01-15 Lianfa Science & Technology Co Ltd Apparatus and method for processing bitstream
JP2009118179A (en) * 2007-11-06 2009-05-28 Panasonic Corp Electronic device
WO2009093292A1 (en) * 2008-01-24 2009-07-30 Panasonic Corporation Dynamic image transmission/reception system
JP2011172252A (en) * 2011-03-24 2011-09-01 Toshiba Corp Video processing apparatus and video processing method
US8060651B2 (en) 2006-08-17 2011-11-15 Sharp Laboratories Of America, Inc. Systems and methods for adaptively packetizing data partitions for transport over a network
US8358918B2 (en) 2009-06-24 2013-01-22 Kabushiki Kaisha Toshiba Video processing apparatus and video processing method
CN104322071A (en) * 2012-04-26 2015-01-28 高通股份有限公司 Parameter set coding
JP2018093497A (en) * 2013-09-20 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, and transmitter device and receiver device
JP2022003834A (en) * 2013-09-20 2022-01-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, transmitter and receiver

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229587A (en) * 2004-01-15 2005-08-25 Matsushita Electric Ind Co Ltd Multiplex system conversion device
JP4693427B2 (en) * 2005-01-27 2011-06-01 京セラ株式会社 Digital broadcast receiver
JP2006211201A (en) * 2005-01-27 2006-08-10 Sanyo Electric Co Ltd Digital broadcasting receiver
WO2007119335A1 (en) * 2006-03-17 2007-10-25 Pioneer Corporation Apparatus and method for processing digital image data
JPWO2007119335A1 (en) * 2006-03-17 2009-08-27 パイオニア株式会社 Digital image data processing apparatus and processing method
JP4674918B2 (en) * 2006-03-17 2011-04-20 パイオニア株式会社 Digital image data processing apparatus and processing method
US8060651B2 (en) 2006-08-17 2011-11-15 Sharp Laboratories Of America, Inc. Systems and methods for adaptively packetizing data partitions for transport over a network
JP2008067202A (en) * 2006-09-08 2008-03-21 Toshiba Corp Moving image decoder
JP4703522B2 (en) * 2006-09-08 2011-06-15 株式会社東芝 Video decoding device
WO2009001800A1 (en) * 2007-06-22 2008-12-31 Nec Corporation Image quality evaluation device, image quality evaluation method and program
JP2009010934A (en) * 2007-06-27 2009-01-15 Lianfa Science & Technology Co Ltd Apparatus and method for processing bitstream
JP2009118179A (en) * 2007-11-06 2009-05-28 Panasonic Corp Electronic device
JP2009177447A (en) * 2008-01-24 2009-08-06 Panasonic Corp Moving image transmitting and receiving system
WO2009093292A1 (en) * 2008-01-24 2009-07-30 Panasonic Corporation Dynamic image transmission/reception system
US8358918B2 (en) 2009-06-24 2013-01-22 Kabushiki Kaisha Toshiba Video processing apparatus and video processing method
JP2011172252A (en) * 2011-03-24 2011-09-01 Toshiba Corp Video processing apparatus and video processing method
US9813705B2 (en) 2012-04-26 2017-11-07 Qualcomm Incorporated Parameter set coding
JP2015518352A (en) * 2012-04-26 2015-06-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated Parameter set coding
CN104322071A (en) * 2012-04-26 2015-01-28 高通股份有限公司 Parameter set coding
CN104322071B (en) * 2012-04-26 2018-09-28 高通股份有限公司 Method and apparatus and computer-readable storage medium for handling video data
JP2018093497A (en) * 2013-09-20 2018-06-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, and transmitter device and receiver device
US10499113B2 (en) 2013-09-20 2019-12-03 Panasonic Intellectual Property Corporation Of America Transmission method, reception method, transmitting apparatus, and receiving apparatus
JP2021007258A (en) * 2013-09-20 2021-01-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, transmitter and receiver
JP2022003834A (en) * 2013-09-20 2022-01-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Transmission method, reception method, transmitter and receiver
JP7238066B2 (en) 2013-09-20 2023-03-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Transmission method, reception method, transmission device and reception device
US12010395B2 (en) 2013-09-20 2024-06-11 Panasonic Intellectual Property Corporation Of America Transmission method, reception method, transmitting apparatus, and receiving apparatus

Similar Documents

Publication Publication Date Title
KR101073777B1 (en) Converting apparatus of multiplexed system
KR101516325B1 (en) Storage/playback method and apparatus for mpeg-2 transport stream based on iso base media file format
US7139470B2 (en) Navigation for MPEG streams
JP4503858B2 (en) Transition stream generation / processing method
US8437619B2 (en) Method of processing a sequence of coded video frames
CN107634930B (en) Method and device for acquiring media data
US20170085904A1 (en) Personal Video Recorder
JP2005123907A (en) Data reconstruction apparatus
EP3096533B1 (en) Communication apparatus, communication data generation method, and communication data processing method
JP2005229587A (en) Multiplex system conversion device
US10194182B2 (en) Signal transmission and reception apparatus and signal transmission and reception method for providing trick play service
US20080037956A1 (en) Systems and Methods of Generating Encapsulated MPEG Program Streams
JP4541962B2 (en) Multiplexer, playback device
US11006173B2 (en) Information processing device, information recording medium, and information processing method, and program
EP3096525A1 (en) Communication apparatus, communication data generation method, and communication data processing method
US20160212435A1 (en) Transmission device, transmission method, reception device, and reception method
US8457468B2 (en) Method for embedding video annotation data into a coded video stream and video recording device
JP6641344B2 (en) Encoding device
JP2007267144A (en) Method for distributing information, server device and program
CN113315931B (en) HLS stream-based data processing method and electronic equipment
CN106105241B (en) The method and apparatus for sending and receiving the broadcast singal for providing HEVC stream trick play service
CN113261283B (en) Video processing method, apparatus and computer readable storage medium
KR100710393B1 (en) method for decording packetized streams
CN118354166A (en) HLS information generation method
JP2001308879A (en) Protocol-processing method and system