JP2005123907A - Data reconstruction apparatus - Google Patents
Data reconstruction apparatus Download PDFInfo
- Publication number
- JP2005123907A JP2005123907A JP2003356922A JP2003356922A JP2005123907A JP 2005123907 A JP2005123907 A JP 2005123907A JP 2003356922 A JP2003356922 A JP 2003356922A JP 2003356922 A JP2003356922 A JP 2003356922A JP 2005123907 A JP2005123907 A JP 2005123907A
- Authority
- JP
- Japan
- Prior art keywords
- data
- display time
- media data
- nal unit
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Television Systems (AREA)
Abstract
Description
本発明は、動画像、音声などの符号化メディアデータがパケット多重化されたデータを再構成して出力するためのデータ再構成装置に関する。 The present invention relates to a data reconstruction device for reconstructing and outputting data obtained by packet-multiplexing encoded media data such as moving images and voices.
近年、蓄積メディアや通信ネットワークの大容量化、あるいは伝送技術の進歩にともない、動画や音声などの符号化マルチメディアデータを扱う機器や、サービスが普及してきた。蓄積メディアとしてはDVD(Digital Versatile Disk)関連機器の急速な普及が顕著な例であるとともに、放送分野においても、従来のアナログ放送に代わり、デジタル符号化されたメディアデータの放送が開始されている。メディアデータを蓄積、配信する際には、メディアデータの再生に必要なヘッダ情報とメディアデータとを多重化することになるが、デジタル放送やDVDにおいては、多重化規格としてISO/IEC JTC1/SC29/WG 11 (International Standardization Organization/International Engineering Consortium)において標準化されたMPEG(Moving Picture Experts Group)−2システム規格を使用する。また、動画の符号化方式としては、現在普及しているMPEG−2 VisualやMPEG−4 Visualの後継規格としてMPEG−4 AVC(Advanced Video Coding)が標準化中であり、今後MPEG−4 AVCの符号化ビデオデータをMPEG−2システム規格により多重化し、蓄積あるいは配信することが予想される。 In recent years, devices and services that handle encoded multimedia data such as moving images and voices have become widespread as storage media and communication networks have increased in capacity and transmission technology has advanced. As storage media, the rapid spread of DVD (Digital Versatile Disk) -related equipment is a notable example, and in the broadcasting field, broadcasting of digitally encoded media data has started instead of conventional analog broadcasting. . When storing and distributing media data, the header information and media data necessary for media data playback are multiplexed, but in digital broadcasting and DVD, ISO / IEC JTC1 / SC29 is used as a multiplexing standard. The MPEG (Moving Picture Experts Group) -2 system standard standardized in / WG 11 (International Standardization Organization / International Engineering Consortium) is used. As a moving picture coding system, MPEG-4 AVC (Advanced Video Coding) is being standardized as a successor to the currently popular MPEG-2 Visual and MPEG-4 Visual. It is expected that multiplexed video data will be multiplexed and stored or distributed according to the MPEG-2 system standard.
以下に、MPEG−2 Visualのビデオ符号化データがMPEG−2システムにより多重化されたデータを分離する際の従来例について、放送分野での使用例をもとに説明する。放送では、符号化データは、まずPES(Packetized Elementary Stream)パケットに多重化され、さらにPESパケットがTS(Transport Stream)パケットに多重化される。図15の(a)と(b)に、それぞれPESパケットとTSパケットの構造を示す。PESパケットのペイロードには、アクセスユニット(AU)データが格納される。1アクセスユニットには、必ず1ピクチャ分の符号化データが含まれ、加えてシーケンスヘッダやGOP(Group of Pictures)ヘッダが格納されることがある。以降、本明細書では、符号化データを扱う際の基準単位としてAUを用いることにする。図15(a)の(1)から(3)は、PESパケットのペイロードへのAUデータの格納例を示すものであり、(1)、(2)に示すように1以上のAUをまとめて格納してもよいし、(3)に示すようにAUデータを分割して格納してもよい。PESパケットのヘッダには、ペイロード内で開始する先頭AUの復号時間、あるいは表示時間を格納できる。ここで、復号時間、および表示時間は、MPEG−2システム規格の規定に従って格納されるが、全てのPESパケットに必ずこれらの時間情報が格納されるわけではなく、時間情報が格納されないPESパケットも存在する。PESパケットのヘッダにより復号時間、あるいは表示時間が示されないAUの時間情報が必要である際には、AUデータを解析することにより、直前AUとの復号時間、あるいは表示時間の差分値を取得し、PESパケットのヘッダにより時間情報が示されるAUの表示時間、あるいは復号時間を基準として、差分値を加算することにより時間情報を取得する。一方、PESパケットのデータは、図15の(b)に示すように、TSパケットのペイロードに分割して格納される。TSパケットは、4バイトのヘッダと184バイトのペイロードから構成される固定長のパケットである。TSパケットを受信して再生する際には、データ再構成装置によって受信データからPESパケットを分離し、分離されたPESパケットからAUのデータ、およびAUの表示時間を取得した後に、データ復号化手段によりAUデータを復号化する。従来のデータ再構成装置の処理について、図16のフローチャートを参照して説明する。なお、ここではTSパケットのペイロードデータからPESパケットデータを分離した後の処理について説明する。まず、ステップ101においてPESパケットのヘッダとペイロードを分離する。ステップ102では、分離されたPESパケットのペイロードからAUの境界を検出する。ステップ102においてAU境界が検出されるまでステップ101およびステップ102の処理を繰り返し、AU境界が検出された時点で1AU分のデータが揃ったと判定し、AUデータを分離する。ステップ103では、PESパケットのヘッダに格納された表示時間、および予め定められた方法によりAUデータから取得される表示時間情報に基づいてAUの表示時間を取得する。ここで、予め定められた方法とは、AU毎のTemporal Reference値を取得し、直前AUのTemporal Reference値と比較することにより、直前AUとの表示時間の差分値を計算するものである。
MPEG−4 AVCでは、AU内の2種類のパラメータにより表示時間情報を示すことができるが、これらのパラメータは常に存在することは保証されておらず、また、存在していても表示時間情報を示さないことがある。しかしながら、前記従来のデータ再構成装置では、予め定められた方法によりAUデータから表示時間情報を取得していたため、一方のパラメータのみしか参照できず、参照するパラメータが存在しない、あるいは表示時間情報を示さない際には、AUの表示時間を取得できないという第1の課題があった。 In MPEG-4 AVC, the display time information can be indicated by two types of parameters in the AU, but it is not guaranteed that these parameters always exist, and even if they exist, the display time information is not displayed. May not show. However, since the conventional data reconstruction device acquires display time information from AU data by a predetermined method, only one parameter can be referred to, and there is no parameter to be referred to, or display time information is not displayed. When not shown, there was a first problem that the AU display time could not be acquired.
また、MPEG−4 AVCでは、AUにおけるピクチャデータの格納形式が2種類存在する。従来のデータ再構成装置では、入力されたAUデータを変更せずにそのまま出力していたため、出力AUにおけるデータ格納形式も2種類存在していた。このため、出力AUデータを復号化する復号化装置が、どちらか一方のデータ格納方式にしか対応していない際には、非対応であるデータ格納方式のAUが出力されると復号化できないという第2の課題があった。 In MPEG-4 AVC, there are two types of picture data storage formats in AU. In the conventional data reconstruction device, the input AU data is output as it is without being changed, so there are two types of data storage formats in the output AU. For this reason, when a decoding device that decodes output AU data supports only one of the data storage methods, it cannot be decoded if an AU with a data storage method that is not supported is output. There was a second problem.
また、従来のデータ再構成装置では、AUデータとAUの表示時間とを別々に出力していたため、AUデータと表示時間とを関連付けて管理する新たな手段が必要となるという第3の課題があった。 Further, since the conventional data reconstruction device outputs AU data and AU display time separately, a third problem is that a new means for managing AU data and display time in association with each other is required. there were.
本発明は、以上の課題を解決するためになされたものである。
本発明の請求項1にかかるデータ再構成装置は、動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成装置であって、前記パケットのヘッダとペイロードを分離する分離手段と、前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離手段と、前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得手段と、前記分離されたフレームデータ、および前記取得された時間情報を出力する出力手段とを備え、前記時間情報取得手段は、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とするものである。
The present invention has been made to solve the above problems.
A data reconstruction device according to
本発明の請求項2にかかるデータ再構成装置は、請求項1に記載のデータ再構成装置であって、前記時間情報取得手段は、特定の符号化モードにより符号化されたフレーム毎に、時間情報の取得方法を切り替えるかどうか判定することを特徴とするものである。
本発明の請求項3にかかるデータ再構成装置は、請求項1に記載のデータ再構成装置であって、前記フレームデータが1以上のサブフレーム単位から構成され、前記サブフレーム単位の先頭に前記サブフレームのサイズ情報が格納されている際には、前記サイズ情報を、前記サブフレームの開始を示す識別コードに変換する格納形式変換手段をさらに備えることを特徴とするものである。
A data reconstruction device according to a second aspect of the present invention is the data reconstruction device according to the first aspect, wherein the time information acquisition unit is configured to generate a time for each frame encoded in a specific encoding mode. It is characterized by determining whether or not the information acquisition method is switched.
A data reconstruction device according to
本発明の請求項4にかかるデータ再構成装置は、請求項1に記載のデータ再構成装置であって、前記フレームデータが1以上のサブフレーム単位から構成される際に、前記出力手段は、前記時間情報取得手段により取得された時間情報を前記サブフレームの格納単位に格納し、前記フレームデータに付加して出力することを特徴とするものである。
本発明の請求項5にかかるデータ再構成装置は、動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成方法であって、前記パケットのヘッダとペイロードを分離する分離ステップと、前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とするものである。
A data reconstruction device according to a fourth aspect of the present invention is the data reconstruction device according to the first aspect, wherein when the frame data is composed of one or more subframe units, the output means includes: The time information acquired by the time information acquisition means is stored in the storage unit of the subframe, added to the frame data, and output.
A data reconstruction device according to claim 5 of the present invention is a data reconstruction method for separating and outputting each media data from data obtained by packet-multiplexing encoded media data such as moving images and voices. A separation step of separating the header and payload of the packet; a detection separation step of detecting and separating a frame boundary of the media data from the payload data; and a decoding time of the frame of the separated media data; Alternatively, it includes a time information acquisition step for acquiring a display time, and an output step for outputting the separated frame data and the acquired time information. In the time information acquisition step, the identification information included in the media data Or the media data acquired separately from the media data Based on the associated parameter information, it is characterized in that for switching the method of obtaining the decoding time, or display time.
本発明の請求項6にかかるプログラムは、動画像、音声などの符号化メディアデータがパケット多重化されたデータから、前記各メディアデータを分離して出力するデータ再構成装置のためのプログラムであって、前記パケットのヘッダとペイロードを分離する分離ステップと、前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とする各ステップをコンピュータに実行させることを特徴とするものである。 A program according to a sixth aspect of the present invention is a program for a data reconstruction device that separates and outputs each media data from data obtained by packet-multiplexing encoded media data such as moving images and sounds. A separation step of separating the header and payload of the packet, a detection separation step of detecting and separating a frame boundary of the media data from the payload data, and a decoding time of the frame of the separated media data Or a time information obtaining step for obtaining a display time, and an output step for outputting the separated frame data and the obtained time information. In the time information obtaining step, the identification included in the media data Information or the media data acquired separately from the media data Iadeta based on the associated parameter information, it is characterized in that to execute the steps, characterized in that for switching the method of obtaining the decoding time, or the display time on the computer.
本発明の請求項1に記載のデータ再構成装置によれば、AUデータに含まれる識別情報、あるいは符号化データに関連するパラメータ情報に基づいて表示時間の取得方法を切り替えるため、PESパケットのヘッダにより表示時間が示されないAUについても、必ず表示時間を取得することができるという効果が得られる。
本発明の請求項2に記載のデータ再構成装置によれば、特定の符号化モードにより符号化されたAU毎に表示時間の取得方法を切り替えるかどうか判定するため、符号化データの途中のAUにおいて表示時間情報の設定方法、あるいは表示時間情報の取得に必要なパラメータ情報が変化する際にも、正しい表示時間を取得することができるという効果が得られる。
According to the data reconstruction device of the first aspect of the present invention, since the display time acquisition method is switched based on the identification information included in the AU data or the parameter information related to the encoded data, the header of the PES packet As a result, it is possible to obtain the display time even for the AU whose display time is not indicated.
According to the data reconstruction device of the second aspect of the present invention, in order to determine whether to switch the display time acquisition method for each AU encoded in the specific encoding mode, the AU in the middle of the encoded data is determined. Even when the setting method of the display time information or the parameter information necessary for obtaining the display time information changes, an effect that the correct display time can be obtained can be obtained.
本発明の請求項3に記載のデータ再構成装置によれば、AUデータのデータ格納形式を変換することにより、入力AUにおけるデータ格納形式に依らず、出力AUデータにおけるデータ格納形式を1通りに統一することができるため、特定のデータ格納形式であるAUデータの復号化にのみ対応した復号化装置においても常に出力データを復号化できるという効果が得られる。 According to the data reconstruction device of the third aspect of the present invention, by converting the data storage format of the AU data, the data storage format of the output AU data is changed to one regardless of the data storage format of the input AU. Since the data can be unified, an output data can always be decoded even in a decoding apparatus that only supports decoding of AU data that is a specific data storage format.
本発明の請求項4に記載のデータ再構成装置によれば、AUの表示時間をAUデータに付加して出力することにより、AUデータとAUの表示時間とを関連付けて管理するための手段が不要になるという効果が得られる。
本発明の請求項5に記載のデータ再構成方法によれば、特定のAUデータに含まれる識別情報、あるいは符号化データに関連するパラメータ情報に基づいて表示時間の取得方法を切り替えるため、PESパケットのヘッダにより表示時間が示されないAUについても、必ず表示時間を取得することができるという効果が得られる。
According to the data reconstruction device of the present invention, the means for associating and managing the AU data and the AU display time by adding the AU display time to the AU data and outputting it. The effect that it becomes unnecessary is acquired.
According to the data reconstruction method of the fifth aspect of the present invention, since the display time acquisition method is switched based on the identification information included in the specific AU data or the parameter information related to the encoded data, the PES packet Even for an AU whose display time is not indicated by the header, the effect that the display time can be obtained without fail is obtained.
本発明の請求項6に記載のプログラムによれば、特定のAUデータに含まれる識別情報、あるいは符号化データに関連するパラメータ情報に基づいて表示時間の取得方法を切り替える処理をコンピュータに行わせることができるため、PESパケットのヘッダにより表示時間が示されないAUについても、必ず表示時間を取得できるデータ再構成装置を実現できるという効果が得られる。
According to the program described in
以下、本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
まず、本発明の実施の形態1に係るデータ再構成装置について説明する。ここでは、MPEG−4 AVCの符号化ビデオデータが多重化されたPESパケットを入力して再構成処理を行うものとする。なお、多重化方式として、主にインターネット上でのストリーミングに用いられるRTP(Real Time Transport Protocol)のパケット、あるいはISO/IEC 14496−1にて定められたMP4などのファイルフォーマットを使用することとしてもよい。また、パケット多重化される符号化データは、MPEG−4 AVCに限定されるものではなく、MPEG−4 Visualなどのビデオ符号化データ、あるいはMPEG−4 AACやAMRなどのオーディオ符号化データであってもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
First, the data reconstruction device according to the first embodiment of the present invention will be described. Here, it is assumed that a PES packet multiplexed with MPEG-4 AVC encoded video data is input to perform reconstruction processing. As a multiplexing method, RTP (Real Time Transport Protocol) packets mainly used for streaming on the Internet, or a file format such as MP4 defined by ISO / IEC 14496-1 may be used. Good. Also, the encoded data to be packet-multiplexed is not limited to MPEG-4 AVC, but is video encoded data such as MPEG-4 Visual or audio encoded data such as MPEG-4 AAC or AMR. May be.
図1は、データ再構成装置の全体構成を示す図である。このデータ再構成装置は、PESパケットデータを入力してメモリ102に格納し、再構成処理終了後のAUデータ、およびその関連データを出力するデータI/O手段101と、メモリ102からPESパケットの再構成に必要な再構成処理入力データを取得してAU単位に再構成し、再構成処理の結果をメモリ102に出力する再構成手段103とから構成される。再構成処理入力データとは、データI/O手段101から入力されてメモリ102に保持されたPESパケットデータ、あるいはメモリ102により既に保持されている再構成手段103の再構成処理結果を指す。ここで、メモリ102には、入出力データの保存領域、および再構成結果やAUデータを一時的に格納するワーク領域が存在し、これら各領域のサイズは可変とできる。また、再構成手段103は、ここではCPUであるとするが、専用のハードウェアであってもよい。
FIG. 1 is a diagram showing the overall configuration of the data reconstruction device. This data reconstruction device inputs PES packet data, stores it in the
まず、MPEG−4 AVCにおけるAUデータの構造について説明する。MPEG−4 AVCでは、ピクチャの復号化に必須のデータに加えて、復号化には必須でないSEI(Supplemental Enhancement Information)と呼ばれる補助情報や、符号化データ内での境界情報を符号化データに含めることができ、これらのデータは全てNAL(Network Adaptation Layer)ユニットに格納される。NALユニットは、図2(a)に示すようにヘッダとペイロードから構成され、ヘッダにはペイロードに格納されるデータのタイプ(以降、NALユニットタイプと呼ぶ)を示すフィールドなどが含まれる。NALユニットタイプは、スライスやSEIなどデータの種類別に値が定義されており、NALユニットに格納されたデータの種類を取得する際にはNALユニットタイプを参照する。AUには、図2(b)および(c)に示すように、1ピクチャ分のスライスデータに加えて、ヘッダ情報やSEIなどのNALユニットが格納されるが、NALユニットにはNALユニットデータの境界を識別するための情報が存在しないため、AU格納時には、各NALユニットの先頭に境界情報が付加することができる。境界情報としては、図2(b)のように0x000001の3バイトで示されるスタートコードを付加する方法(以降、バイトストリームフォーマットと呼ぶ)と、図2(c)のようにNALユニットのサイズを付加する方法(以降、NALサイズフォーマットと呼ぶ)の2種類がある。なお、バイトストリームフォーマットでは、AUの先頭NALユニット、および特定のNALユニットタイプ値をもつNALユニットに対しては、スタートコードの前に、zero_byte(値が0x00である1バイト)を1つ以上付加することが規定されている。PESパケットにMPEG−4 AVCのAUデータを多重化する際には、バイトストリームフォーマットが使用される。なお、MP4ではNALサイズフォーマットが使用され、RTPパケットにAUデータを格納する際にはNALユニットの境界情報は付加されない。次に、スライス、およびヘッダ情報について詳しく説明する。スライスは、IDR(Instantaneous Decoder Refresh)スライスとそれ以外のスライスの2種類に分けられる。IDRスライスとは、画面内符号化されたスライスデータであり、後述するSPS(Sequence Parameter Set)などのヘッダ情報はIDRにおいてのみ切り替えることができる。ピクチャにIDRスライスが含まれる際には、同一ピクチャ内の他のスライスも全てIDRスライスである。ここで、IDRスライスを含むピクチャから、次のIDRスライスを含むピクチャの直前ピクチャまでをシーケンスと呼ぶ。次に、ヘッダ情報にはSPSとPPS(Picture Parameter Set)の2種類があり、SPSはシーケンス単位で固定のヘッダ情報であり、PPSはピクチャ単位で切り替えることのできるヘッダ情報である。SPSとPPSは、ともに複数もつことができ、個々のSPS、あるいはPPSはインデックス番号により区別される。また、1NALユニットには1つのSPS、あるいはPPSが格納される。各ピクチャが参照するSPS、およびPPSのインデックス番号は次のように取得される。まず、ピクチャが参照するPPSのインデックス番号は、スライスデータのヘッダ部に示される。次に、PPSには、PPSが参照するSPSのインデックス番号が示されるため、ピクチャが参照するPPSを解析することにより、ピクチャが参照するSPSのインデックス番号を取得する。図3は、PESパケットに格納されるAUデータ内のNALユニットを示す。AUの先頭には、必ずアクセスユニットデリミタ−(AUD)のNALユニットが配置される。以降のNALユニットの配置順は、SPS、PPS、SEI、スライスの順となるが、全てのAUに必ず含まれるのはスライスのNALユニット、およびアクセスユニットデリミタ−のNALユニットのみである。図3(a)は、IDRのスライスを含むAU(IDR AU)におけるNALユニットの格納例、図3(b)は、non−IDRスライスを含むAU(non−IDR AU))におけるNALユニットの格納例を示す。(a)では、復号時間、あるいは、表示時間情報を示すBuffering Period SEIとPicture Timing SEIのNALユニットが含まれる。Picture Timing SEIには、Buffering Period SEIを含む直近のAUとPicture Timing SEIが含まれるAUとの復号時間の差分値と、Picture Timing SEIが含まれるAUにおける復号時間と表示時間の差分値とが格納される。これら2つのSEIによりAUの復号時間、および表示時間を示す際には、Buffering Period SEIはIDR−AUに必ず格納され、Picture Timing SEIは全てのAUに必ず格納される。さらに、ここでは図示しないが、符号化データにおける最終AUの最後のNALユニットとして、符号化データの終端であることを示すエンドオブストリームと呼ばれるNALユニットを付加することができる。 First, the structure of AU data in MPEG-4 AVC will be described. In MPEG-4 AVC, in addition to data essential for picture decoding, auxiliary information called SEI (Supplemental Enhancement Information) that is not essential for decoding and boundary information in the encoded data are included in the encoded data. These data are all stored in a NAL (Network Adaptation Layer) unit. As shown in FIG. 2A, the NAL unit is composed of a header and a payload, and the header includes a field indicating the type of data stored in the payload (hereinafter referred to as a NAL unit type). The NAL unit type has a value defined for each type of data such as slice and SEI, and refers to the NAL unit type when acquiring the type of data stored in the NAL unit. As shown in FIGS. 2B and 2C, in addition to slice data for one picture, the AU stores NAL units such as header information and SEI. The NAL unit stores NAL unit data. Since there is no information for identifying the boundary, the boundary information can be added to the head of each NAL unit when storing the AU. As boundary information, a method of adding a start code indicated by 3 bytes of 0x000001 as shown in FIG. 2B (hereinafter referred to as a byte stream format) and the size of the NAL unit as shown in FIG. There are two types of methods (hereinafter referred to as NAL size format). In the byte stream format, one or more zero_bytes (1 byte whose value is 0x00) is added before the start code for the first NAL unit of the AU and the NAL unit having a specific NAL unit type value. It is prescribed. When multiplexing MPEG-4 AVC AU data in a PES packet, a byte stream format is used. Note that the NAL size format is used in MP4, and the boundary information of the NAL unit is not added when AU data is stored in the RTP packet. Next, the slice and header information will be described in detail. The slices are divided into two types: IDR (Instantaneous Decoder Refresh) slices and other slices. The IDR slice is slice data encoded in the screen, and header information such as SPS (Sequence Parameter Set) described later can be switched only in the IDR. When an IDR slice is included in a picture, all other slices in the same picture are also IDR slices. Here, a sequence from a picture including an IDR slice to a picture immediately before a picture including the next IDR slice is referred to as a sequence. Next, there are two types of header information, SPS and PPS (Picture Parameter Set), SPS is fixed header information in sequence units, and PPS is header information that can be switched in picture units. There can be a plurality of SPS and PPS, and each SPS or PPS is distinguished by an index number. Further, one SPS or PPS is stored in one NAL unit. The index numbers of the SPS and the PPS referred to by each picture are obtained as follows. First, the PPS index number referenced by the picture is indicated in the header portion of the slice data. Next, since the PPS indicates the index number of the SPS referred to by the PPS, the index number of the SPS referenced by the picture is obtained by analyzing the PPS referenced by the picture. FIG. 3 shows the NAL unit in the AU data stored in the PES packet. An access unit delimiter (AUD) NAL unit is always placed at the head of the AU. Subsequent NAL units are arranged in the order of SPS, PPS, SEI, and slice, but all AUs always include only the NAL unit of the slice and the NAL unit of the access unit delimiter. FIG. 3A illustrates an example of storage of NAL units in an AU (IDR AU) including an IDR slice, and FIG. 3B illustrates storage of NAL units in an AU including a non-IDR slice (non-IDR AU). An example is shown. In (a), NAL units of Buffering Period SEI and Picture Timing SEI indicating decoding time or display time information are included. The Picture Timing SEI stores a difference value between the decoding time and the display time difference between the nearest AU including the Buffering Period SEI and the AU including the Picture Timing SEI, and the AU including the Picture Timing SEI. Is done. When the AU decoding time and display time are indicated by these two SEIs, the Buffering Period SEI is always stored in the IDR-AU, and the Picture Timing SEI is always stored in all AUs. Furthermore, although not shown here, a NAL unit called an end-of-stream indicating the end of the encoded data can be added as the last NAL unit of the final AU in the encoded data.
再構成手段103の動作について、以下詳しく説明する。
図4は、再構成手段103の構成を示すブロック図である。再構成手段103は、PES分離手段201、AU分離手段202、およびPTS取得手段203を備える。PES分離手段201は、入力されたPESパケットデータからPESパケットのヘッダとペイロードとを分離し、AU分離手段202とPTS取得手段203に入力する。AU分離手段202は、PES分離手段により入力されたPESパケットのペイロードデータからNALユニットデータを分離し、PESパケットのヘッダ情報、NALユニットタイプ、あるいはNALユニットのペイロードデータを解析することによりAUの境界を検出した後に、AUデータを分離して出力する。さらに、PTS取得手段203は、PES分離手段により入力されたPESパケットヘッダにおける表示時間、AU分離手段202により分離されたAUデータを解析して得られる表示時間情報、およびメモリ102に保持された表示時間情報とからAUの表示時間を取得して出力する。再構成手段103の処理フローについて、図5を参照して説明する。まず、ステップ201においてPESパケットのヘッダとペイロードを分離する。ステップ202では、分離されたPESパケットのペイロードからAUを構成する各NALユニットを分離し、ステップ203では、ステップ202において分離されたNALユニットのNALユニットタイプ、あるいはNALユニットのペイロードデータを解析することによりAUの境界を検出する。次に、ステップ204において、AUがIDR AUであるかどうか判定する。IDR AUである際にはステップ205に進み、IDR AUでない場合にはステップ206に進む。なお、AUがIDR AUであるかどうかは、ステップ203におけるAU境界の検出時に取得しておく。ステップ205では、SPS内のパラメータ値などに基づいて、AUの表示時間(PTS、Presentation Time Stamp)の取得方法を決定する。AUデータにおいて表示時間情報を示す方法としては、前述したBuffering Period SEIおよびPicture Timing SEIを用いる方法と、AU毎に設定されるPOC(Picture Order Count)と呼ばれるパラメータを用いる方法の2通りがある。ここで、POCの値は、SPS内のフィールド値、およびスライスデータのヘッダ内のフィールド値とから計算される。通常、POCはAUの表示順序を表すものであるが、予め定められたの条件の下では、AU間におけるPOCの差分値がAU間の表示時間の差分値と一致するため、表示時間情報の取得に使用することができる。続いて、ステップ206では、ステップ205において決定された取得方法によりAUの表示時間を決定する。再構成手段103においては、エンドオブストリームのNALユニットを検出によりAUデータの入力が終了したと判定し、AUデータの再構成処理を終了することとするが、ユーザーからの終了指示、予め定められた条件などに基づいて再構成処理を終了することとしてもよい。なお、MPEG−4 AVCのAUデータを多重化したRTPパケットからAUデータを分離する際には、RTPパケットのヘッダ情報のみからAU境界を識別できるため、AUを構成するNALユニットのNALユニットタイプやNALユニットのペイロードデータを解析しないこととしてもよい。
The operation of the
FIG. 4 is a block diagram showing the configuration of the
以下に、ステップ205、およびステップ206の処理について詳しく説明する。図6は、ステップ205の処理を示すフローチャートである。ここで、poc_flagは、POCから表示時間情報が取得できるかどうかを示すフラグ、sei_flagは、SEIから表示時間情報が取得できるかどうかを示すフラグであるとし、両フラグともに初期値は0とする。まず、ステップ301において、AUデータ以外の情報により、表示時間情報の取得にPOCが使用できるかどうか判定する。MPEG−2システム規格においては、デスクリプタ(descriptor)と呼ばれるデータにより、符号化データに関する情報などをAUデータとは別途格納することができる。MPEG−4 AVC用にもデスクリプタが用意されており、そのうちの1つであるAVC−timing and HRD Descriptor内のtemporal_poc_flagと呼ばれるフラグ情報によって、POCから表示時間情報が取得できるかどうか示される。ここで、temporal_poc_flagが1にセットされている際には、poc_flagを1にセットする。符号化データが多重化されたPESパケットをTSパケットにより伝送する際には、デスクリプタはProgram Map Table(PMT)と呼ばれるデータ格納単位により格納され、PESパケットとは別にTSパケットに多重化される。このため、TSパケットにより多重化されたPESパケットを受信する際には、PESパケットの解析開始に先立ってPMTを解析し、PMT内にAVC−timing and HRD Descriptor内が含まれる際には、temporal_poc_flagの値を取得しておく。一方、MPEG−2システムにおけるプログラムストリームと呼ばれる格納形式のようにTSパケットを使用しない際には、デスクリプタはPESパケットのヘッダに格納される。そのため、PESパケットデータの解析時には、PESパケットのヘッダを解析してからPESパケットのペイロードに格納されるAUデータを解析することにより、PESパケット内のAUデータの解析に先立ってAVC−timing and HRD Descriptorを解析し、temporal_poc_flag値を取得する。ここで、PMT、あるいはPESパケットにより示されるAVC−timing and HRD Descriptorにおけるtemporal_poc_flag値が更新された際には、更新後の値を取得する。PMT、あるいはPESパケット内にAVC−timing and HRD Descriptorが存在しない際には、POCにより表示時間情報が取得できるかどうかは判定できないものとし、poc_flag値は0とする。なお、AVC−timing and HRD Descriptor以外のデスクリプタ、あるいは運用規定などによって、POCから表示時間情報が取得できるかどうかを示すこととして、poc_flagの値を設定することとしてもよい。上記の方法により、AUデータ以外の情報に基づいてpoc_flag値が1に設定された際にはステップ303に進み、poc_flag値が0である際にはステップ302に進む。ステップ302では、AUデータ内の情報を解析して表示時間の取得方法を決定し、解析結果に基づいてpoc_flag値、およびsei_flag値を決定する。続いて、ステップ303において、ステップ301、あるいはステップ302において取得したpoc_flag値を調べ、poc_flag値が1である際にはステップ305に進み、0である際にはステップ304に進む。ステップ304では、ステップ302において取得したsei_flag値を調べ、sei_flag値が1である際にはステップ306に進み、0である際にはステップ307に進む。ステップ305ではPOCからAUの表示時間を取得すると決定し、ステップ306ではSEIからAUの表示時間を取得すると決定する。poc_flagとsei_flagの値が共に0である際には、POCからもSEIからもAUの表示時間が取得できないため、ステップ307では、AUデータからはAUの表示時間を取得しないと決定し、表示時間は全てPESパケットのヘッダ情報から取得する。以上の処理により、AUの表示時間の取得方法を決定して処理を終了する。
Hereinafter, the processing of step 205 and step 206 will be described in detail. FIG. 6 is a flowchart showing the processing of step 205. Here, poc_flag is a flag indicating whether display time information can be acquired from POC, and sei_flag is a flag indicating whether display time information can be acquired from SEI. Both flags have an initial value of 0. First, in step 301, it is determined whether or not the POC can be used to acquire display time information based on information other than AU data. In the MPEG-2 system standard, information about encoded data and the like can be stored separately from AU data by data called a descriptor. A descriptor is also prepared for MPEG-4 AVC, and flag information called temporal_poc_flag in AVC-timing and HRD Descriptor, which is one of them, indicates whether or not display time information can be acquired from the POC. Here, when temporal_poc_flag is set to 1, poc_flag is set to 1. When a PES packet in which encoded data is multiplexed is transmitted as a TS packet, the descriptor is stored in a data storage unit called a Program Map Table (PMT), and is multiplexed into the TS packet separately from the PES packet. For this reason, when receiving a PES packet multiplexed with a TS packet, the PMT is analyzed prior to the start of analysis of the PES packet, and when the AVC-timing and HRD Descriptor is included in the PMT, temporal_poc_flag Get the value of. On the other hand, when a TS packet is not used as in a storage format called a program stream in the MPEG-2 system, the descriptor is stored in the header of the PES packet. Therefore, when analyzing the PES packet data, the AVC-timing and HRD is performed prior to the analysis of the AU data in the PES packet by analyzing the AU data stored in the payload of the PES packet after analyzing the header of the PES packet. The Descriptor is analyzed to obtain a temporal_poc_flag value. Here, when the temporal_poc_flag value in the AVC-timing and HRD Descriptor indicated by the PMT or PES packet is updated, the updated value is acquired. When there is no AVC-timing and HRD Descriptor in the PMT or PES packet, it cannot be determined whether the display time information can be acquired by the POC, and the poc_flag value is 0. Note that the value of poc_flag may be set to indicate whether display time information can be acquired from the POC according to a descriptor other than AVC-timing and HRD Descriptor, or an operation rule. When the poc_flag value is set to 1 based on information other than AU data by the above method, the process proceeds to step 303, and when the poc_flag value is 0, the process proceeds to step 302. In
次に、ステップ302において、AUデータ内の情報を解析して表示時間の取得方法を決定する方法について、図7のフローチャートを参照して説明する。ステップ302では、AU内の先頭NALユニットから順に、ステップ416において方法決定フラグが1にセットされるまで、ステップ401からステップ416までの処理を繰り返す。ここで、方法決定フラグとは、表示時間情報の取得方法が決定したかどうかを示すフラグであり、ステップ302の処理開始時の初期値は0であるとする。まず、ステップ401においてNALユニットにSEIが格納されるかどうか判定する。SEIを格納するNALユニットのNALユニットタイプ値は6であるため、入力されたNALユニットのNALユニットタイプが6であるかどうか判定し、6である際にはステップ402においてNALユニットのペイロードに格納されるSEIの種類を取得する。ステップ403において、ステップ402で解析したNALユニットにBuffering Period SEIが含まれるかどうか判定し、含まれる際にはステップ404に進み、含まれなければステップ406に進む。ステップ404では、Buffering Period SEIがAU内に存在することを示すフラグであるbp_flagを1にセットする。なお、ステップ302の処理開始時におけるbp_flagの初期値は0とする。Buffering Period SEIには、本SEIが格納されるAUにおけるピクチャが参照するSPSのインデックス番号が示されるため、そのインデックス番号をステップ405において取得し、target_sps_idにセットする。target_sps_idは、AU内のピクチャデータが参照するSPSのインデックス番号であるとする。ステップ406では、AUがIDR AUであるかどうか判定する。IDRスライスを格納するNALユニットのNALユニットタイプは5であるため、入力されたNALユニットのNALユニットタイプが5であるかどうか判定し、5である際にはステップ407に進み、5でない場合には解析中であるのNALユニットの解析を終了し、次NALユニットの解析を行う。ステップ407では、ステップ406において検出されたIDRスライスを解析して、AU内のピクチャが参照するSPSのインデックス番号を取得し、target_sps_idにセットする。次に、ステップ408にでは、インデックス番号がtarget_sps_idと同一であるSPSのVideo Usability Information(VUI)を取得する。VUIには、AUの表示が固定フレームレートであるかどうかを示すフラグであるfixed_frame_rate_flag含まれるため、本フラグ値を取得し、ステップ409においてfixed_frame_rate_flag値が1であるかどうか判定する。fixed_frame_rate_flag値が1である際には、ステップ410に進み、0である際にはステップ412に進む。ステップ410ではpoc_flagを1にセットする。ステップ411では、AU間のPOC値の増分と、表示時間の差分値との関係を示す値であるdelta_dpbを取得する。delta_dpbは、POCが1増加した際の表示時間の増分を示すものとし、タイムスケールはVUI内のフィールドにより示される値を使用する。例えば、連続する2つのAUであるau1とau2において、それぞれのPOC値をpoc1、およびpoc2とすると、au1とau2の表示時間の差分値は(poc2―poc1)*delta_dpbとなる。差分値が正である際には、au2はau1よりも後に表示され、負である際には、au2はau1よりも先に表示される。ここで、AU内のピクチャがフレーム構造である際には、POCの値としては、トップフィールド用とボトムフィールド用の2種類が定義される。AUの表示時間を算出する際には、トップフィールドとボトムフィールドのPOCを比較し、表示時間が早いフィールドのPOC値を使用する。次に、ステップ412では、poc_flagを0にセットし、ステップ413に進む。ステップ413では、SEIからAUの表示時間を取得できるかどうか判定する。VUIには、vcl_hrd_parameters_present_flag、nal_hrd_parameters_present_flagの2つのフラグが存在し、両フラグの少なくともどちらか一方が1にセットされていれば、SEIからAUの表示時間を取得できることを示す。そこで、ステップ413において、vcl_hrd_parameters_present_flag、nal_hrd_parameters_present_flagのいずれか一方が1であるかどうか判定する。いずれか一方が1である際には、ステップ414においてsei_flag1を1にセットし、どちらも0である際には、ステップ415においてsei_flag1を0にセットする。ここで、SEIにより表示時間の計算を行う際にも、タイムスケールはVUI内のフィールドを使用する。最後に、ステップ411、ステップ414、あるいはステップ415の処理が終了した後に、ステップ416において方法決定フラグを1にセットする。上記では、SPS内に必ずVUIが存在し、VUI内には必ずfixed_frame_rate_flagフィールドが存在するものとしたが、VUIの使用、あるいはVUIにおけるfixed_frame_rate_flagフィールドの使用は必須ではない。そのため、VUIが存在しない、あるいは、VUIが存在してもVUI内にfixed_frame_rate_flagフィールドが存在しない場合の処理について以下に示す。まず、MPEG−4 AVCでは、デスクリプタによってもfixed_frame_rate_flag値、およびタイムスケール値などVUI内の情報を示すことができるため、デスクリプタによりfixed_frame_rate_flag値が示される際には、その値に従いステップ409の処理を行うこととする。そうでない場合には、poc_flagとsei_flagを共に0にセットしてステップ416の処理を行う。また、運用規定などにより、POCあるいはSEIによりAUの表示時間が取得できることが示される際には、運用規定に従いpoc_flag値、およびsei_flag値を決定することとしてもよい。
Next, a method of determining the display time acquisition method by analyzing information in the AU data in
ここで、AUが参照するSPSはIDR AUにおいてのみ更新可能である。AUの表示時間の取得方法はSPSのVUI情報が更新された際にのみ更新されるため、図5のステップ205に示す表示時間の取得方法の決定処理は、IDR AUにおいてのみ行う。
なお、AUの表示時間の取得方法が固定であることが予め示される場合には、表示時間の取得方法決定処理は先頭のIDR AUにおいてのみ行うこととしてもよい。また、non−IDR AUにおいてもステップ205の処理を行うこととしてもよい。
Here, the SPS referred to by the AU can be updated only in the IDR AU. Since the acquisition method of the AU display time is updated only when the VPS information of the SPS is updated, the determination process of the display time acquisition method shown in step 205 of FIG. 5 is performed only in the IDR AU.
When it is indicated in advance that the acquisition method of the AU display time is fixed, the display time acquisition method determination process may be performed only in the first IDR AU. Further, the process of step 205 may be performed in the non-IDR AU.
なお、ステップ302の処理は、図5に示す再構成手段103の処理フローにおいて、ループA0内に含めることとしてもよい。この際は、ステップ202においてNALユニットを分離した際に、NALユニットデータを解析してAUの表示時間の取得方法を決定する。
Note that the processing of
次に、図5のステップ206においてAUの表示時間を決定する方法について、図8のフローチャートを参照しながら説明する。ここで、pts_flagは、AUの表示時間がPESパケットのヘッダにより示されるかどうかを示すフラグであり、pes_ptsは、PESパケットのヘッダにより示されるAUの表示時間を示す。また、curr_pts、prev_ptsは、それぞれ現在のAUの表示時間、および復号順で直前のAUの表示時間を示すものとし、delta_ptsは、POCあるいはSEIから計算される、現在のAUの表示時間と、復号順で直前のAUの表示時間との差分値を示すものとする。delta_ptsは正負の値をとり、pes_ptsと同一のタイムスケールを使用する。また、max_PTSは、復号順が現在のAUよりも早いAUの内、表示時間が最も遅いAUの表示時間を示すものとする。ここで、pts_flagの値については、ステップ501に先立って取得しているものとする。ステップ501において、pts_flagの値を調べ、フラグ値が1である際には、ステップ502において、curr_ptsにpes_ptsを代入して表示時間の取得処理を終了する。全AUの表示時間がPESパケットのヘッダから取得できる際には、常にステップ502により表示時間が決定される。次に、pes_flag値が0である際には、ステップ503に進む。ステップ503では、AUについてのpoc_flag値を調べ、フラグ値が1である際にはステップ504に進み、0である際にはステップ506に進む。ステップ504では、現AUがIDR AUであるかどうか判定し、IDR AUである際にはステップ507に進み、IDR AUでない際にはステップ505に進む。ステップ505では、AUについてのsei_flag値を調べ、フラグ値が1である際にはステップ506に進み、0である際にはステップ508に進む。ステップ506では、直前AUの表示時間に、現AUと直前AUの差分値を加算することによって現AUの表示時間を取得する。一方、ステップ507では、max_PTSにdelta_ptsを加算することによりAUの表示時間を決定する。このように、POCからAUの表示時間を算出する際に、AUがIDR AUであるか否かによって算出方法を切り替えるのは、POC値がIDR AU毎に0にリセットされるためである。IDR AUにおいてPOC値がリセットされると、直前AUとのPOCの差分値が取得できないため、フレームレートが固定であることを利用して、ステップ507の方法により表示時間を算出する。ステップ508では、POCおよびSEIからは表示時間情報は取得できないため、フレームレートが固定であると仮定して、pts_flagが0であるAUの表示時間を計算する。具体的には、pts_flagが1である、復号順で連続する2つのAUをau1、au2とし、au1、au2のpes_ptsをそれぞれpts1、pts2とすると、pts2からpts1を減算した値を、au1とau2の間に含まれるAUの数で割ることにより、フレームレートを算出する。なお、フレームレートには予め定められた値を使ってもよいし、IDR AUなど特定のAUにおいてのみフレームレートを計算することにしてもよい。この方法では双方向予測を用いたAUにおいては正しい表示時間が取得できないため、各AUの予測構造が予め既知である際には、予測構造を考慮してAUの表示時間を取得することとしてもよい。 Next, a method of determining the AU display time in step 206 of FIG. 5 will be described with reference to the flowchart of FIG. Here, pts_flag is a flag indicating whether or not the AU display time is indicated by the header of the PES packet, and pes_pts indicates the AU display time indicated by the header of the PES packet. Further, curr_pts and prev_pts respectively indicate the current AU display time and the display time of the immediately preceding AU in decoding order, and delta_pts indicates the current AU display time calculated from POC or SEI, and decoding. The difference value with the display time of the immediately preceding AU is shown in order. delta_pts takes a positive or negative value and uses the same time scale as pes_pts. Also, max_PTS indicates the display time of the AU with the latest display time among the AUs whose decoding order is earlier than the current AU. Here, it is assumed that the value of pts_flag is acquired prior to step 501. In step 501, the value of pts_flag is checked. When the flag value is 1, in step 502, pes_pts is substituted for curr_pts, and the display time acquisition process ends. When the display time of all AUs can be acquired from the header of the PES packet, the display time is always determined by step 502. Next, when the pes_flag value is 0, the process proceeds to step 503. In step 503, the poc_flag value for AU is checked. When the flag value is 1, the process proceeds to step 504, and when it is 0, the process proceeds to step 506. In step 504, it is determined whether the current AU is an IDR AU. If the current AU is an IDR AU, the process proceeds to step 507. If not, the process proceeds to step 505. In step 505, the sei_flag value for AU is checked. If the flag value is 1, the process proceeds to step 506, and if it is 0, the process proceeds to step 508. In step 506, the display time of the current AU is obtained by adding the difference value between the current AU and the previous AU to the display time of the previous AU. On the other hand, in step 507, the AU display time is determined by adding delta_pts to max_PTS. Thus, when calculating the AU display time from the POC, the calculation method is switched depending on whether or not the AU is an IDR AU because the POC value is reset to 0 for each IDR AU. When the POC value is reset in the IDR AU, since the difference value of the POC from the immediately previous AU cannot be acquired, the display time is calculated by the method of step 507 using the fact that the frame rate is fixed. In step 508, since the display time information cannot be acquired from the POC and SEI, the display time of the AU whose pts_flag is 0 is calculated on the assumption that the frame rate is fixed. Specifically, when two AUs consecutive in decoding order with pts_flag being 1 are au1 and au2, and pes_pts of au1 and au2 are pts1 and pts2, respectively, values obtained by subtracting pts1 from pts2 are au1 and au2 The frame rate is calculated by dividing by the number of AUs included in between. Note that a predetermined value may be used as the frame rate, or the frame rate may be calculated only in a specific AU such as an IDR AU. In this method, the correct display time cannot be acquired in the AU using bi-directional prediction. Therefore, when the prediction structure of each AU is known in advance, the display time of the AU may be acquired in consideration of the prediction structure. Good.
なお、PESパケットのヘッダにおける表示時間、POC、あるいはBuffering Period SEI、Picture Timing SEIにおいて、フィールド値が規格で定められた最大値に達して循環した際には、循環を考慮して表示時間、あるいは表示時間の差分値を算出することとする。
また、上記では再構成手段103は表示時間を出力することとしたが、復号時間も出力してもよい。復号時間についても、POCの使用方法を除いて、表示時間の算出と同様の手順により算出できる。POCは表示時間情報しか示すことができないが、poc_flagが1となるのは固定フレームレートの場合のみであるため、AUの復号時間は固定のフレームレートで単調増加する。このため、poc_flagが1の際の復号時間は、復号順で直前のAUの復号時間に一定値を加算することにより取得できる。
In the display time in the header of the PES packet, in POC, Buffering Period SEI, and Picture Timing SEI, when the field value reaches the maximum value defined by the standard and circulates, the display time in consideration of the circulation, or The display time difference value is calculated.
In the above description, the
なお、上記の方法は、表示時間の取得方法を切り替える必要がある符号化方式であれば、MPEG−4 AVC以外にも適用できる。また、MP4では、1つ以上のAUから構成される、サンプルと呼ばれる単位で符号化データが管理されるが、サンプルに複数のAUが含まれる際には、上記方法によりサンプル内のAUの表示時間を取得できる。 Note that the above method can be applied to other than MPEG-4 AVC as long as the encoding method needs to switch the display time acquisition method. In MP4, encoded data is managed in units called samples, which are composed of one or more AUs. When a sample includes a plurality of AUs, the AUs in the samples are displayed by the above method. You can get time.
(実施の形態2)
次に、本発明の実施の形態2に係るデータ再構成装置について説明する。本実施の形態2に係るデータ再構成装置は、主な構成要素において、上記実施の形態1に係るデータ再構成装置と共通するが、再構成手段103において特徴的な構成を備えており、この点において上記実施の形態1に係るデータ再構成装置と異なる。以下、この異なる点を中心に説明する。なお、上記実施の形態1と同一の構成要素については、同一の符号を用いることとし、説明を省略する。
(Embodiment 2)
Next, a data reconstruction device according to
図9は、本実施の形態2に係る再構成手段103の構成を示すブロック図である。再構成手段103は、入力されたAUにおけるNALユニットの格納形式を変換して出力する機能を有する。AU分離手段301は、PES分離手段により入力されたPESパケットのペイロードからNALユニットを分離し、分離後のNALユニットデータ、およびNALユニットのサイズを格納形式変換手段302に入力する。ここで、格納形式変換手段302に入力されるNALユニットデータでは、バイトストリームフォーマットにおいてNALユニットに付加されるzero_byte、およびスタートコードは除去されている。格納形式変換手段302は、入力されたNALユニットデータに対して変換を行い、変換後のデータをAU分離手段301に出力する。AU分離手段301は、格納形式変換手段302において変換された後の格納形式でNALユニットが格納されたAUデータを出力する。図10は、再構成手段103における処理を示すフローチャートであり、動作のフローは、図5に示す実施の形態1の動作フローにおけるループA0の処理に、NALユニットの格納形式を変換する処理であるステップ301が追加される。ステップ301では、NALユニットの格納形式をバイトストリームフォーマットからNALサイズフォーマットに変換する。この結果、再構成手段103から出力されるAUデータにおけるNALユニットの格納形式はNALサイズフォーマットとなる。格納形式変換手段302における変換処理について図11のフローチャートに示す。まず、ステップ401において、NALユニットデータとともに入力されたサイズに基づいて、NALサイズフォーマットにおいてNALユニットのサイズを示すフィールドを作成する。この際、NALユニットのサイズを示すフィールドのフィールド長には、予め定められた値を使用する。なお、フィールド長は、MPEG−4 AVCのプロファイルやレベル、あるいは符号化時のビットレートなどから見積もられるスライスのNALユニットの最大値に応じて設定することとしてもよいし、IDR AU毎に切り替えるなど、ビデオデータの途中のAUにおいて更新することとしてもよい。次に、ステップ402において、ステップ401で作成したNALユニットのサイズを示すフィールドをNALユニットデータに付加してNALユニットデータを出力する。なお、ここではzero_byte、およびスタートコードを予め除去してNALユニットデータのみを格納形式変換手段302に入力することとしたが、zero_byteとスタートコードが付加された状態で入力することとしてもよい。この際は、ステップ401に先立って、zero_byteとスタートコードを除去する。また、NALサイズフォーマットのAUデータが再構成手段103に入力される際には、格納形式変換手段302における変換処理を行わないこととする。さらに、RTPパケットに多重化されるAUのように、AUにNALユニットデータのみが格納される際にも、NALユニットのサイズを示すフィールドを付加して出力することとしてもよい。さらにまた、PESパケットやRTPパケットと異なる格納形式をもつAUデータが入力された際にも、NALサイズフォーマットに変換して出力することとしてもよい。
FIG. 9 is a block diagram showing a configuration of the
このように、バイトストリームフォーマットからNALサイズフォーマットに変換することにより、PESパケットのようにバイトストリームフォーマットでAUデータが多重化されたパケットデータが入力された際にも、NALサイズフォーマットにしか対応していない復号化手段において、再構成手段103から出力されたAUデータを復号化できる。
Thus, by converting from the byte stream format to the NAL size format, even when packet data in which AU data is multiplexed in the byte stream format, such as a PES packet, is input, only the NAL size format is supported. The AU data output from the
なお、上記ではバイトストリームフォーマットからNALサイズフォーマットに変換することとしたが、NALサイズフォーマットからバイトストリームフォーマットに変換することとしてもよい。例えば、MP4ではNALサイズフォーマットによりAUデータを格納するが、PESパケットにおける格納形式であるバイトストリームフォーマットに統一して出力することができる。図17は、NALサイズフォーマットからバイトストリームフォーマットに変換する処理を示すフローチャートである。ここで、入力されるのはNALユニットデータ、NALユニットのサイズ、およびNALユニットがAUにおける先頭NALユニットであるかどうかを示すフラグ情報であるとする。まず、ステップ601において、NALユニットがAUの先頭NALユニットであるかどうか判定し、先頭である際にはステップ603に進み、先頭でない際にはステップ602に進む。ステップ602では、NALユニットのNALユニットタイプを解析し、予め定められた特定種類のデータが含まれるかどうか判定する。具体的には、NALユニットがSPS、あるいはPPSを格納するかどうかを判定し、SPS、あるいはPPSを格納するNALユニットである際にはステップ603に進み、そうでなければステップ604に進む。ステップ603では、1つ以上のzero_byte作成し、AUデータの先頭に付加する。最後に、ステップ604において、スタートコードを付加してNALユニットデータを出力する。この際、ステップ603においてzero_byteが付加される際には、付加されたzero_byteの直後にスタートコードを付加し、zero_byteが付加されない際には、AUデータの先頭にスタートコートを付加する。 In the above description, the byte stream format is converted to the NAL size format, but the NAL size format may be converted to the byte stream format. For example, although MP4 stores AU data in the NAL size format, it can be output in a unified byte stream format that is a storage format in the PES packet. FIG. 17 is a flowchart showing a process of converting from the NAL size format to the byte stream format. Here, it is assumed that the NAL unit data, the size of the NAL unit, and flag information indicating whether the NAL unit is the head NAL unit in the AU are input. First, in step 601, it is determined whether the NAL unit is the head NAL unit of the AU. If it is the head, the process proceeds to step 603, and if it is not the head, the process proceeds to step 602. In step 602, the NAL unit type of the NAL unit is analyzed to determine whether or not a predetermined type of data is included. Specifically, it is determined whether or not the NAL unit stores SPS or PPS. If the NAL unit is a NAL unit storing SPS or PPS, the process proceeds to step 603, and if not, the process proceeds to step 604. In step 603, one or more zero_bytes are created and added to the head of the AU data. Finally, in step 604, a start code is added and NAL unit data is output. At this time, when zero_byte is added in step 603, a start code is added immediately after the added zero_byte, and when zero_byte is not added, a start code is added to the head of the AU data.
なお、ステップ601、あるいはステップ602においてzero_byteを付加すると決定されたNALユニット以外のNALユニットについても、zero_byteを付加することとしてもよい。例えば、スタッフィングのためにzero_byteを付加することができる。なお、NALユニットのサイズを示すフィールドが付加された状態でNALユニットのデータを入力することとしてもよい。この際は、予めNALユニットのサイズを示すフィールドのフィールド長を取得しておくことにより、NALユニットのサイズを示すフィールドを除去する。例えば、MP4においては、NALユニットのサイズを示すフィールドのフィールド長はMP4ファイルのヘッダ領域に格納されており、その値はチャンク単位で可変であるため、変換処理を行うAU毎にNALユニットのサイズを示すフィールドのフィールド長を取得する必要がある。ここで、チャンクとは1以上のサンプルをグループ化した単位を示す。さらに、RTPパケットに多重化されるAUのように、AUにはNALユニットデータのみが格納される際にも、バイトストリームフォーマットに変換することとしてもよい。 Note that zero_byte may be added to NAL units other than the NAL unit determined to add zero_byte in step 601 or step 602. For example, zero_byte can be added for stuffing. The NAL unit data may be input with a field indicating the size of the NAL unit added. In this case, the field indicating the size of the NAL unit is removed by acquiring the field length of the field indicating the size of the NAL unit in advance. For example, in MP4, the field length of the field indicating the size of the NAL unit is stored in the header area of the MP4 file, and the value is variable in units of chunks. Therefore, the size of the NAL unit for each AU to be converted. It is necessary to obtain the field length of the field indicating. Here, the chunk indicates a unit in which one or more samples are grouped. Further, when only the NAL unit data is stored in the AU, like the AU multiplexed in the RTP packet, it may be converted into the byte stream format.
(実施の形態3)
次に、本発明の実施の形態3に係るデータ再構成装置について説明する。本実施の形態3に係るデータ再構成装置は、主な構成要素において、上記実施の形態2に係るデータ再構成装置と共通するが、再構成手段103において特徴的な構成を備えており、この点において上記実施の形態2に係るデータ再構成装置と異なる。以下、この異なる点を中心に説明する。なお、上記実施の形態2と同一の構成要素については、同一の符号を用いることとし、説明を省略する。
(Embodiment 3)
Next, a data reconstruction device according to
図12は、本実施の形態3に係る再構成手段103の構成を示すブロック図である。再構成手段103は、AUの表示時間などの付加情報を含む特別なNALユニットを、入力されたAUにおけるNALユニットのデータに付加して出力する機能を有する。AUヘッダ追加手段401は、PTS取得手段203から入力されたAUの表示時間、およびAU分離手段301から出力されたAUデータに基づいて、AUの表示時間を格納した特別なNALユニットタイプをもつNALユニットを、入力されたAUデータに付加して出力する。図13は、再構成手段103における処理を示すフローチャートであり、動作のフローは、図10に示す実施の形態2の動作フローにおいてAUの表示時間を取得した(ステップ206)後に、ステップ501とステップ502とが追加される。ステップ501では、AUの表示時間を格納したNALユニット(以降、このNALユニットをAUヘッダNALユニットと呼ぶ)を作成する。ステップ502において、ステップ501で作成したAUヘッダNALユニットをAUの先頭に付加して出力する。
FIG. 12 is a block diagram showing a configuration of the
図14は、AUヘッダ追加手段401から出力されるAUデータ構造の一例を示す。AUの先頭にはAUヘッダNALユニットが配置される。AUヘッダNALユニットにおけるNALユニットタイプの値は24であり、NALユニットのペイロードにはAUの表示時間が格納される。MPEG−4 AVC規格においては、24−31までのNALユニットタイプはユーザー定義領域として使用方法を規定しておらず、アプリケーションによって使用方法を決定することができる。AUデータを復号化する復号化手段においては、解釈できないNALユニットタイプ値を持つNALユニットは読み飛ばす、あるいは破棄するため、AUヘッダNALユニットを解釈できない復号化手段においてAUヘッダNALユニットが付加されたAUデータが入力された際にも、AUヘッダNALユニットは復号化処理に支障をきたすことなく読み飛ばされる、あるいは破棄される。なお、AUヘッダNALユニットのNALユニットタイプ値は24に限定されるものではなく、ユーザー定義領域における他の値のなかで、アプリケーションにおいて未使用である値を選択することとしてもよい。AUヘッダNALユニットのペイロードには、AUの表示時間が格納される。表示時間のタイムスケールは、PESヘッダにおける表示時間のタイムスケールと一致させる。なお、再構成手段103のステップ203において、入力されたAUデータ内にNALユニットタイプ値が24であるNALユニットを検出したした際には、当該NALユニットのデータを破棄することとする。なお、ステップ203において、入力AUにおける全NALユニットのNALユニットタイプを解析しない際には、入力AUにおける全NALユニットのNALユニットタイプを解析する処理を別途追加し、NALユニットタイプ値が24であるNALユニットの検出を行い、検出された際には破棄することとしてもよい。また、ここではAUヘッダNALユニットによりAUの表示時間を示すこととしたが、PESパケットのヘッダを付加することにより表示時間を示すこととしてもよい。このときの再構成手段103は、ペイロードに1以上のAUのデータ、あるいはAUのデータを分割して格納したPESパケットを入力し、入力PESパケットデータを再構成して、ペイロードに1AU分のデータが格納されるPESパケットとして出力することになる。
FIG. 14 shows an example of the AU data structure output from the AU header adding means 401. An AU header NAL unit is arranged at the head of the AU. The value of the NAL unit type in the AU header NAL unit is 24, and the AU display time is stored in the payload of the NAL unit. In the MPEG-4 AVC standard, NAL unit types up to 24-31 do not define a usage method as a user-defined area, and the usage method can be determined by an application. In the decoding means for decoding the AU data, the NAL unit having the NAL unit type value that cannot be interpreted is skipped or discarded. Therefore, the AU in which the AU header NAL unit is added in the decoding means that cannot interpret the AU header NAL unit. Even when data is input, the AU header NAL unit is skipped or discarded without affecting the decoding process. Note that the NAL unit type value of the AU header NAL unit is not limited to 24, and a value that is unused in the application may be selected from other values in the user-defined area. The AU display time is stored in the payload of the AU header NAL unit. The time scale of the display time is matched with the time scale of the display time in the PES header. In
なお、AUヘッダNALユニットは、AUの最終NALユニット、あるいは途中のNALユニットとして格納することとしてもよい。さらに、AUヘッダNALユニットには、表示時間だけでなく復号時間も格納することとしてもよいし、復号時間を格納するためのNALユニットを新たに定義して格納することとしてもよい。さらに、AUデータを復号化する復号化手段においては、AUヘッダNALユニットをAUの先頭を示す識別情報として使用することもできる。なお、AUヘッダNALユニットのペイロードに格納される表示時間のタイムスケールとしては、予め設定された値を用いることとしてもよい。 Note that the AU header NAL unit may be stored as the last NAL unit of the AU or an NAL unit in the middle. Furthermore, not only the display time but also the decoding time may be stored in the AU header NAL unit, or a NAL unit for storing the decoding time may be newly defined and stored. Further, in the decoding means for decoding the AU data, the AU header NAL unit can be used as identification information indicating the head of the AU. Note that a preset value may be used as the time scale of the display time stored in the payload of the AU header NAL unit.
また、TSパケットによりPESパケットを伝送する際に、伝送路においてTSパケットがロスした際には、パケットロスの発生を通知するためのNALユニット(以降、エラー通知NALユニットと呼ぶ。)をAUデータ内に挿入することとしてもよい。ここで、エラー通知NALユニットは、パケットロス検出位置の直後に挿入することとする。図18は、エラー通知NALユニットの挿入方法の一例である。図18(a)は、再構成手段103に入力されるAUデータを示す。入力AUデータにおいては、TSパケットのロスにより、2番目のスライスNALユニットデータであるスライスNALU#2の後半部分が欠落している。図18(b)は、エラー通知NALユニットを挿入した後のAUデータを示す。TSパケットのロスが発生したかどうかはTSパケットのヘッダを解析することにより検出することができ、図18(a)に示すAUデータが入力された際には、スライスNALU#2の途中でパケットロスの発生が検出される。そのため、受信できたスライスNAL#2データの直後に、エラー通知NALユニットを挿入する。なお、エラー通知NALユニットの挿入後は、少なくともNALユニットデータの先頭部分が取得できたNALユニットから出力AUデータとして格納する。このため、図18(b)の例においてスライスNALU#3の先頭部分が取得できなかった際には、スライスNALU#3のデータは出力AUデータには格納せずに、次にNALユニットの先頭部分が取得できたNALユニットから格納を開始する。エラー通知NALユニットのNALユニットタイプは25であるとし、ペイロードにはエラー通知情報を格納する。エラー通知情報としては、(1)エラー通知NALユニットの直前NALユニットのデータは完全に揃っている、(2)エラー通知NALユニットの直前NALユニットのデータは不完全である、(3)エラー通知NALユニットの直前NALユニットのデータが完全に揃っているかどうかは不明である、の3種類の情報を含めることができる。TSパケットにおいては、例えば1NALユニットを1PESパケットに多重化することにすれば、エラー通知NALユニットの直前NALユニットは必ず完全に揃うことになる。また、RTPパケットによりMPEG−4 AVCのAUデータを伝送する際には、パケットロス発生時に欠落したのはNALユニットデータの全てのデータであるか一部のデータであるかを、RTPパケットのヘッダ情報から判定することができるため、判定結果に基づいてエラー通知情報の内容を切り替えることができる。なお、エラー通知NALユニットの直前NALユニットのデータが不完全であると判定された際には、直前NALユニットのデータを出力しないこととしてもよいし、さらに、エラー通知NALユニットの直前NALユニットのデータが不完全であるかどうかが不明である際にも、直前NALユニットのデータを出力しないこととしてもよい。なお、パケットロス検出後に挿入されたエラー通知NALユニットまでを現AUについての出力AUデータとすることとしてもよい。この際、AU内のNALユニットにおいてパケットロス検出後に取得したNALユニットデータは全て破棄される。また、パケットロス検出後は、次に検出したIDR AU、あるいはnon−IDR AUのデータから出力することとしてもよいし、次に検出したIDR AUのデータから出力してもよい。
Further, when transmitting a PES packet using a TS packet, if a TS packet is lost in the transmission path, a NAL unit (hereinafter referred to as an error notification NAL unit) for notifying the occurrence of a packet loss is used as AU data. It is good also as inserting in. Here, the error notification NAL unit is inserted immediately after the packet loss detection position. FIG. 18 shows an example of an error notification NAL unit insertion method. FIG. 18A shows AU data input to the
なお、エラー通知情報として、上記3つ以外の情報を付加することとしてもよい。また、パケットロスのためにAUデータが欠落していることを示す情報を、NALユニット単位ではなく、AU単位で付加することとしてもよい。また、エラー通知NALユニットのNALユニットタイプ値は25に限定されるものではなく、ユーザー定義領域における他の値のなかで、アプリケーションにおいて未使用である値を選択することとしてもよい。 Note that information other than the above three may be added as error notification information. Further, information indicating that AU data is missing due to packet loss may be added in units of AUs instead of units of NAL units. Further, the NAL unit type value of the error notification NAL unit is not limited to 25, and a value that is not used in the application may be selected from other values in the user-defined area.
なお、表示時間、復号時間、あるいはエラー通知情報以外のデータをNALユニットデータの形式でAUデータに付加することとしてもよい。
なお、上記各実施の形態において、再構成手段103におけるPTS取得手段203、格納形式変換手段302、あるいはAUヘッダ追加手段のいずれか1つのみを使用することとしてもよいし、複数手段を組み合わせて使用することとしてもよい。
Data other than the display time, decoding time, or error notification information may be added to the AU data in the NAL unit data format.
In each of the above embodiments, only one of the
本発明に係るデータ再構成方法は、パケット多重化されたMPEG−4 AVCの符号化データを再生する機器全般に適用することができ、特にデジタル放送の受信機や、ストリーミングデータの受信機などに有効である。 The data reconstruction method according to the present invention can be applied to all devices that reproduce packet-multiplexed MPEG-4 AVC encoded data, and particularly for digital broadcast receivers, streaming data receivers, and the like. It is valid.
101 データI/O手段
102 メモリ
103 再構成手段
201 PES分離手段
202、301 AU分離手段
203 PTS取得手段
302 格納形式変換手段
401 AUヘッダ追加手段
DESCRIPTION OF
Claims (6)
前記パケットのヘッダとペイロードを分離する分離手段と、
前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離手段と、
前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得手段と、
前記分離されたフレームデータ、および前記取得された時間情報を出力する出力手段とを備え、
前記時間情報取得手段は、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替える
ことを特徴とするデータ再構成装置。 A data reconstruction device that separates and outputs each media data from data obtained by packet-encoding encoded media data such as moving images and voices,
Separating means for separating the header and payload of the packet;
Detection separation means for detecting and separating frame boundaries of the media data from the payload data;
Time information acquisition means for acquiring a decoding time of a frame of the separated media data or a display time;
An output means for outputting the separated frame data and the acquired time information;
The time information acquisition means switches a method for acquiring a decoding time or a display time based on identification information included in the media data, or parameter information related to the media data acquired separately from the media data. A data reconstruction device.
ことを特徴とする請求項1に記載のデータ再構成装置。 The data reconstruction apparatus according to claim 1, wherein the time information acquisition unit determines whether to switch a time information acquisition method for each frame encoded in a specific encoding mode.
前記フレームデータが1以上のサブフレーム単位から構成され、前記サブフレーム単位の先頭に前記サブフレームのサイズ情報が格納されている際には、前記サイズ情報を、前記サブフレームの開始を示す識別コードに変換する格納形式変換手段をさらに備える
ことを特徴とするデータ再構成装置。 The data reconstruction device according to claim 1, wherein
When the frame data is composed of one or more subframe units, and the size information of the subframe is stored at the head of the subframe unit, the size information is an identification code indicating the start of the subframe. A data reconstruction device further comprising storage format conversion means for converting the data into a storage format.
前記出力手段は、前記時間情報取得手段により取得された時間情報を前記サブフレームの格納単位に格納し、前記フレームデータに付加して出力する
ことを特徴とする請求項1に記載のデータ再構成装置。 When the frame data is composed of one or more subframe units,
2. The data reconstruction according to claim 1, wherein the output unit stores the time information acquired by the time information acquisition unit in a storage unit of the subframe, adds the frame information to the frame data, and outputs the frame data. apparatus.
前記パケットのヘッダとペイロードを分離する分離ステップと、
前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、
前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、
前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、
前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替える
ことを特徴とするデータ再構成方法。 A data reconstruction method for separating and outputting each media data from data obtained by packet-encoding encoded media data such as moving images and voices,
A separation step of separating the header and payload of the packet;
A detection separation step of detecting and separating a frame boundary of the media data from the data of the payload;
A time information acquisition step of acquiring a decoding time of the frame of the separated media data or a display time;
Outputting the separated frame data and the acquired time information,
In the time information acquisition step, the acquisition method of the decoding time or the display time is switched based on the identification information included in the media data or the parameter information related to the media data acquired separately from the media data. A data reconstruction method characterized by the above.
前記パケットのヘッダとペイロードを分離する分離ステップと、
前記ペイロードのデータから、前記メディアデータのフレーム境界を検出して分離する検出分離ステップと、
前記分離された前記メディアデータのフレームの復号時間、あるいは表示時間を取得する時間情報取得ステップと、
前記分離されたフレームデータ、および前記取得された時間情報を出力する出力ステップとを含み、
前記時間情報取得ステップにおいて、前記メディアデータに含まれる識別情報、あるいは前記メディアデータとは別途取得される、前記メディアデータに関連するパラメータ情報に基づいて、復号時間、あるいは表示時間の取得方法を切り替えることを特徴とする各ステップをコンピュータに実行させる
ことを特徴とするプログラム。 A program for a data reconstruction device that separates and outputs each media data from data in which encoded media data such as moving images and audio are packet-multiplexed,
A separation step of separating the header and payload of the packet;
A detection separation step of detecting and separating a frame boundary of the media data from the data of the payload;
A time information acquisition step of acquiring a decoding time of the frame of the separated media data or a display time;
Outputting the separated frame data and the acquired time information,
In the time information acquisition step, the acquisition method of the decoding time or the display time is switched based on the identification information included in the media data or the parameter information related to the media data acquired separately from the media data. A program characterized by causing a computer to execute each step characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003356922A JP2005123907A (en) | 2003-10-16 | 2003-10-16 | Data reconstruction apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003356922A JP2005123907A (en) | 2003-10-16 | 2003-10-16 | Data reconstruction apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005123907A true JP2005123907A (en) | 2005-05-12 |
Family
ID=34613999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003356922A Pending JP2005123907A (en) | 2003-10-16 | 2003-10-16 | Data reconstruction apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005123907A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005229587A (en) * | 2004-01-15 | 2005-08-25 | Matsushita Electric Ind Co Ltd | Multiplex system conversion device |
JP2006211201A (en) * | 2005-01-27 | 2006-08-10 | Sanyo Electric Co Ltd | Digital broadcasting receiver |
WO2007119335A1 (en) * | 2006-03-17 | 2007-10-25 | Pioneer Corporation | Apparatus and method for processing digital image data |
JP2008067202A (en) * | 2006-09-08 | 2008-03-21 | Toshiba Corp | Moving image decoder |
WO2009001800A1 (en) * | 2007-06-22 | 2008-12-31 | Nec Corporation | Image quality evaluation device, image quality evaluation method and program |
JP2009010934A (en) * | 2007-06-27 | 2009-01-15 | Lianfa Science & Technology Co Ltd | Apparatus and method for processing bitstream |
JP2009118179A (en) * | 2007-11-06 | 2009-05-28 | Panasonic Corp | Electronic device |
WO2009093292A1 (en) * | 2008-01-24 | 2009-07-30 | Panasonic Corporation | Dynamic image transmission/reception system |
JP2011172252A (en) * | 2011-03-24 | 2011-09-01 | Toshiba Corp | Video processing apparatus and video processing method |
US8060651B2 (en) | 2006-08-17 | 2011-11-15 | Sharp Laboratories Of America, Inc. | Systems and methods for adaptively packetizing data partitions for transport over a network |
US8358918B2 (en) | 2009-06-24 | 2013-01-22 | Kabushiki Kaisha Toshiba | Video processing apparatus and video processing method |
CN104322071A (en) * | 2012-04-26 | 2015-01-28 | 高通股份有限公司 | Parameter set coding |
JP2018093497A (en) * | 2013-09-20 | 2018-06-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Transmission method, reception method, and transmitter device and receiver device |
JP2022003834A (en) * | 2013-09-20 | 2022-01-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Transmission method, reception method, transmitter and receiver |
-
2003
- 2003-10-16 JP JP2003356922A patent/JP2005123907A/en active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005229587A (en) * | 2004-01-15 | 2005-08-25 | Matsushita Electric Ind Co Ltd | Multiplex system conversion device |
JP4693427B2 (en) * | 2005-01-27 | 2011-06-01 | 京セラ株式会社 | Digital broadcast receiver |
JP2006211201A (en) * | 2005-01-27 | 2006-08-10 | Sanyo Electric Co Ltd | Digital broadcasting receiver |
WO2007119335A1 (en) * | 2006-03-17 | 2007-10-25 | Pioneer Corporation | Apparatus and method for processing digital image data |
JPWO2007119335A1 (en) * | 2006-03-17 | 2009-08-27 | パイオニア株式会社 | Digital image data processing apparatus and processing method |
JP4674918B2 (en) * | 2006-03-17 | 2011-04-20 | パイオニア株式会社 | Digital image data processing apparatus and processing method |
US8060651B2 (en) | 2006-08-17 | 2011-11-15 | Sharp Laboratories Of America, Inc. | Systems and methods for adaptively packetizing data partitions for transport over a network |
JP2008067202A (en) * | 2006-09-08 | 2008-03-21 | Toshiba Corp | Moving image decoder |
JP4703522B2 (en) * | 2006-09-08 | 2011-06-15 | 株式会社東芝 | Video decoding device |
WO2009001800A1 (en) * | 2007-06-22 | 2008-12-31 | Nec Corporation | Image quality evaluation device, image quality evaluation method and program |
JP2009010934A (en) * | 2007-06-27 | 2009-01-15 | Lianfa Science & Technology Co Ltd | Apparatus and method for processing bitstream |
JP2009118179A (en) * | 2007-11-06 | 2009-05-28 | Panasonic Corp | Electronic device |
JP2009177447A (en) * | 2008-01-24 | 2009-08-06 | Panasonic Corp | Moving image transmitting and receiving system |
WO2009093292A1 (en) * | 2008-01-24 | 2009-07-30 | Panasonic Corporation | Dynamic image transmission/reception system |
US8358918B2 (en) | 2009-06-24 | 2013-01-22 | Kabushiki Kaisha Toshiba | Video processing apparatus and video processing method |
JP2011172252A (en) * | 2011-03-24 | 2011-09-01 | Toshiba Corp | Video processing apparatus and video processing method |
US9813705B2 (en) | 2012-04-26 | 2017-11-07 | Qualcomm Incorporated | Parameter set coding |
JP2015518352A (en) * | 2012-04-26 | 2015-06-25 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Parameter set coding |
CN104322071A (en) * | 2012-04-26 | 2015-01-28 | 高通股份有限公司 | Parameter set coding |
CN104322071B (en) * | 2012-04-26 | 2018-09-28 | 高通股份有限公司 | Method and apparatus and computer-readable storage medium for handling video data |
JP2018093497A (en) * | 2013-09-20 | 2018-06-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Transmission method, reception method, and transmitter device and receiver device |
US10499113B2 (en) | 2013-09-20 | 2019-12-03 | Panasonic Intellectual Property Corporation Of America | Transmission method, reception method, transmitting apparatus, and receiving apparatus |
JP2021007258A (en) * | 2013-09-20 | 2021-01-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Transmission method, reception method, transmitter and receiver |
JP2022003834A (en) * | 2013-09-20 | 2022-01-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Transmission method, reception method, transmitter and receiver |
JP7238066B2 (en) | 2013-09-20 | 2023-03-13 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Transmission method, reception method, transmission device and reception device |
US12010395B2 (en) | 2013-09-20 | 2024-06-11 | Panasonic Intellectual Property Corporation Of America | Transmission method, reception method, transmitting apparatus, and receiving apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101073777B1 (en) | Converting apparatus of multiplexed system | |
KR101516325B1 (en) | Storage/playback method and apparatus for mpeg-2 transport stream based on iso base media file format | |
US7139470B2 (en) | Navigation for MPEG streams | |
JP4503858B2 (en) | Transition stream generation / processing method | |
US8437619B2 (en) | Method of processing a sequence of coded video frames | |
CN107634930B (en) | Method and device for acquiring media data | |
US20170085904A1 (en) | Personal Video Recorder | |
JP2005123907A (en) | Data reconstruction apparatus | |
EP3096533B1 (en) | Communication apparatus, communication data generation method, and communication data processing method | |
JP2005229587A (en) | Multiplex system conversion device | |
US10194182B2 (en) | Signal transmission and reception apparatus and signal transmission and reception method for providing trick play service | |
US20080037956A1 (en) | Systems and Methods of Generating Encapsulated MPEG Program Streams | |
JP4541962B2 (en) | Multiplexer, playback device | |
US11006173B2 (en) | Information processing device, information recording medium, and information processing method, and program | |
EP3096525A1 (en) | Communication apparatus, communication data generation method, and communication data processing method | |
US20160212435A1 (en) | Transmission device, transmission method, reception device, and reception method | |
US8457468B2 (en) | Method for embedding video annotation data into a coded video stream and video recording device | |
JP6641344B2 (en) | Encoding device | |
JP2007267144A (en) | Method for distributing information, server device and program | |
CN113315931B (en) | HLS stream-based data processing method and electronic equipment | |
CN106105241B (en) | The method and apparatus for sending and receiving the broadcast singal for providing HEVC stream trick play service | |
CN113261283B (en) | Video processing method, apparatus and computer readable storage medium | |
KR100710393B1 (en) | method for decording packetized streams | |
CN118354166A (en) | HLS information generation method | |
JP2001308879A (en) | Protocol-processing method and system |