JP2005102192A - Content receiving apparatus, video/audio output timing control method, and content providing system - Google Patents
Content receiving apparatus, video/audio output timing control method, and content providing system Download PDFInfo
- Publication number
- JP2005102192A JP2005102192A JP2004256203A JP2004256203A JP2005102192A JP 2005102192 A JP2005102192 A JP 2005102192A JP 2004256203 A JP2004256203 A JP 2004256203A JP 2004256203 A JP2004256203 A JP 2004256203A JP 2005102192 A JP2005102192 A JP 2005102192A
- Authority
- JP
- Japan
- Prior art keywords
- video
- audio
- time
- clock
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2368—Multiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムに関し、例えばコンテンツを受信するデコーダ側で映像と音声のリップシンクがずれることを解消する場合に適用して好適なものである。 The present invention relates to a content receiving apparatus, a video / audio output timing control method, and a content providing system, and is suitable for application to, for example, eliminating the lip sync between video and audio on the decoder side receiving content. .
従来、コンテンツ受信装置においては、エンコーダ側のサーバからコンテンツを受信してデコードする場合、当該コンテンツを構成する映像パケット及び音声パケットに分離し、それぞれデコードした後に映像パケットに付されたビデオタイムスタンプと音声パケットに付されたオーディオタイムスタンプを基にビデオフレームとオーディオフレームを出力することにより、映像と音声との出力タイミングを一致させる(すなわちリップシンクさせる)ようになされている(例えば、特許文献1、特許文献2参照)。
ところでかかる構成のコンテンツ受信装置においては、当該デコーダ側のシステムタイムクロックと、エンコーダ側の基準クロックとが互いに同期しているとは限らず、また当該デコーダ側のシステムタイムクロックにおけるクロックジッタ等によってエンコーダ側の基準クロックとの間でクロック周波数の微妙なずれが生じていることもある。 By the way, in the content receiving apparatus having such a configuration, the system time clock on the decoder side and the reference clock on the encoder side are not always synchronized with each other, and the encoder is based on the clock jitter in the system time clock on the decoder side. There may be a slight shift in the clock frequency with the reference clock on the side.
またコンテンツ受信装置は、ビデオフレームとオーディオフレームとではそのデータ長が異なるため、当該デコーダ側のシステムタイムクロックとエンコーダ側の基準クロックとが完全に同期していないときには、ビデオタイムスタンプ及びオーディオタイムスタンプを基にビデオフレーム及びオーディオフレームを出力したとしても、映像と音声との出力タイミングが一致せず、リップシンクがずれてしまうという問題があった。 In addition, since the data length of the content receiving device is different between the video frame and the audio frame, when the system time clock on the decoder side and the reference clock on the encoder side are not completely synchronized, the video time stamp and the audio time stamp Even if the video frame and the audio frame are output based on the above, there is a problem that the output timing of the video and the audio does not match and the lip sync is shifted.
本発明は以上の点を考慮してなされたもので、視聴者であるユーザに違和感を感じさせることなく映像及び音声間のリップシンクを当該デコーダ側で確実に調整し得るコンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムを提案しようとするものである。 The present invention has been made in consideration of the above points, and a content receiving apparatus, video audio and the like that can reliably adjust the lip sync between video and audio on the decoder side without causing the viewer user to feel uncomfortable. An output timing control method and a content providing system are proposed.
かかる課題を解決するため本発明においては、エンコーダ側の基準クロックに基づくビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、基準クロックに基づくオーディオタイムスタンプが順次付された複数の符号化オーディオフレームとをエンコーダ側のコンテンツ提供装置から受信して復号する復号手段と、復号手段によって符号化ビデオフレーム及び符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、時間差に応じ、複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整するタイミング調整手段とを設けるようにする。 In order to solve such a problem, in the present invention, a plurality of encoded video frames sequentially attached with video time stamps based on a reference clock on the encoder side, and a plurality of encodings sequentially attached with audio time stamps based on the reference clock. Decoding means for receiving and decoding an audio frame from a content providing apparatus on the encoder side, and storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame by the decoding means Storage means, calculation means for calculating a time difference caused by a difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side, and sequentially outputting a plurality of audio frames in units of frames according to the time difference When To be provided with a timing adjusting means for adjusting a video frame output timing when sequentially outputting a plurality of video frames in a frame unit based on the audio frame output timing.
エンコーダ側の基準クロックとデコーダ側のシステムタイムクロックとの間におけるクロック周波数のずれによって生じる時間差に応じ、複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整することにより、エンコーダ側とデコーダ側のクロック周波数の差を吸収し、オーディオフレーム出力タイミングにビデオフレーム出力タイミングを合わせてリップシンクさせることができる。 Multiple video frames based on the audio frame output timing when multiple audio frames are output sequentially in units of frames according to the time difference caused by the clock frequency difference between the reference clock on the encoder side and the system time clock on the decoder side By adjusting the video frame output timing when sequentially outputting video in frame units, the difference between the clock frequency on the encoder side and the decoder side can be absorbed, and the audio frame output timing can be synchronized with the video frame output timing to lip sync it can.
また本発明においては、復号手段に対して、エンコーダ側の基準クロックに基づくビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、基準クロックに基づくオーディオタイムスタンプが順次付された複数の符号化オーディオフレームとをエンコーダ側のコンテンツ提供装置から受信して復号させる復号ステップと、記憶手段に対して、復号ステップで符号化ビデオフレーム及び符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積させる記憶ステップと、算出手段に対して、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出させる差分算出ステップと、タイミング調整手段に対して、時間差に応じ、複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整させるタイミング調整ステップとを設けるようにする。 In the present invention, a plurality of encoded video frames sequentially attached with video time stamps based on the reference clock on the encoder side and a plurality of codes sequentially attached with audio time stamps based on the reference clock are provided to the decoding means. A decoding step for receiving and decoding the encoded audio frame from the content providing apparatus on the encoder side, and a plurality of video frames obtained as a result of decoding the encoded video frame and the encoded audio frame in the decoding step with respect to the storage unit; A storage step for accumulating a plurality of audio frames, a difference calculating step for causing the calculation means to calculate a time difference caused by a difference between a clock frequency of a reference clock on the encoder side and a clock frequency of a system time clock on the decoder side, and timing Adjusting hand On the other hand, the timing adjustment that adjusts the video frame output timing when sequentially outputting multiple video frames in units of frames based on the audio frame output timing when sequentially outputting multiple audio frames in units of frames according to the time difference Steps.
エンコーダ側の基準クロックとデコーダ側のシステムタイムクロックとの間におけるクロック周波数のずれによって生じる時間差に応じ、複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整することにより、エンコーダ側とデコーダ側のクロック周波数の差を吸収し、オーディオフレーム出力タイミングにビデオフレーム出力タイミングを合わせてリップシンクさせることができる。 Multiple video frames based on the audio frame output timing when multiple audio frames are output sequentially in units of frames according to the time difference caused by the clock frequency difference between the reference clock on the encoder side and the system time clock on the decoder side By adjusting the video frame output timing when sequentially outputting video in frame units, the difference between the clock frequency on the encoder side and the decoder side can be absorbed, and the audio frame output timing can be synchronized with the video frame output timing to lip sync it can.
さらに本発明においては、コンテンツ提供装置とコンテンツ受信装置を有するコンテンツ提供システムであって、コンテンツ提供装置は、エンコーダ側の基準クロックに基づくビデオタイムスタンプを付した複数の符号化ビデオフレームと、基準クロックに基づくオーディオタイムスタンプを付した複数の符号化オーディオフレームとを生成する符号化手段と、複数の符号化ビデオフレーム及び複数の符号化オーディオフレームをコンテンツ受信装置へ順次送信する送信手段とを具え、コンテンツ受信装置は、ビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、オーディオタイムスタンプが順次付された複数の符号化オーディオフレームとをエンコーダ側のコンテンツ提供装置から受信して復号する復号手段と、復号手段によって符号化ビデオフレーム及び符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、時間差に応じ、複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整するタイミング調整手段とを設けるようにする。 The present invention further provides a content providing system having a content providing apparatus and a content receiving apparatus, wherein the content providing apparatus includes a plurality of encoded video frames with video time stamps based on a reference clock on the encoder side, and a reference clock. Encoding means for generating a plurality of encoded audio frames with audio time stamps based on, and a transmission means for sequentially transmitting a plurality of encoded video frames and a plurality of encoded audio frames to a content receiving device, The content receiving device receives a plurality of encoded video frames sequentially attached with video time stamps and a plurality of encoded audio frames sequentially attached with audio time stamps from a content providing device on the encoder side and decodes them Means and decoding means Accordingly, storage means for storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame, the clock frequency of the reference clock on the encoder side, and the clock frequency of the system time clock on the decoder side Calculating means for calculating a time difference caused by the difference between the two and a plurality of video frames sequentially output in units of frames with reference to an audio frame output timing when a plurality of audio frames are sequentially output in units of frames according to the time difference. Timing adjusting means for adjusting the video frame output timing is provided.
エンコーダ側の基準クロックとデコーダ側のシステムタイムクロックとの間におけるクロック周波数のずれによって生じる時間差に応じ、複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整することにより、エンコーダ側とデコーダ側のクロック周波数の差を吸収し、オーディオフレーム出力タイミングにビデオフレーム出力タイミングを合わせてリップシンクさせることができる。 Multiple video frames based on the audio frame output timing when multiple audio frames are output sequentially in units of frames according to the time difference caused by the clock frequency difference between the reference clock on the encoder side and the system time clock on the decoder side By adjusting the video frame output timing when sequentially outputting video in frame units, the difference between the clock frequency on the encoder side and the decoder side can be absorbed, and the audio frame output timing can be synchronized with the video frame output timing to lip sync it can.
上述のように本発明によれば、エンコーダ側の基準クロックとデコーダ側のシステムタイムクロックとの間におけるクロック周波数のずれによって生じる時間差に応じ、複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整することにより、エンコーダ側とデコーダ側のクロック周波数の差を吸収し、オーディオフレーム出力タイミングにビデオフレーム出力タイミングを合わせてリップシンクさせることができ、かくして視聴者であるユーザに違和感を感じさせることなく映像及び音声間のリップシンクを当該デコーダ側で確実に調整し得るコンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムを実現することができる。 As described above, according to the present invention, audio is output when a plurality of audio frames are sequentially output in units of frames in accordance with a time difference caused by a difference in clock frequency between a reference clock on the encoder side and a system time clock on the decoder side. By adjusting the video frame output timing when sequentially outputting multiple video frames in units of frames based on the frame output timing, the difference in clock frequency between the encoder side and the decoder side is absorbed, and the video frame is used as the audio frame output timing. A content receiving apparatus and video audio which can lip-sync in accordance with the output timing, and thus can reliably adjust the lip-sync between video and audio on the decoder side without making the viewer user feel uncomfortable It is possible to realize a force timing control method and the content providing system.
以下、図面について、本発明の一実施の形態を詳述する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
(1)コンテンツ提供システムの全体構成
図1において、1は全体として本発明のコンテンツ提供システムを示し、大きく分けてコンテンツ配信側となるコンテンツ提供装置2と、コンテンツ受信側となる第1のコンテンツ受信装置3及び第2のコンテンツ受信装置4とによって構成されている。
(1) Overall Configuration of Content Providing System In FIG. 1,
コンテンツ提供システム1では、コンテンツ提供装置2及びWebサーバ14と第1のコンテンツ受信装置3とがインターネット5を介して相互に接続されており、当該Webサーバ14からインターネット5経由で取得したコンテンツ配信先であるURL(Uniform Resource Locator)や当該コンテンツに関するメタデータを第1のコンテンツ受信装置3におけるWebブラウザ15で解析し、そのメタデータやURLをストリーミングデコーダ9へ供給する。
In the
ストリーミングデコーダ9では、Webブラウザ15により解析したURLに基づいて当該コンテンツ提供装置2のストリーミングサーバ8へアクセスし、ユーザ所望のコンテンツに対する配信要求を行う。
The
コンテンツ提供装置2は、エンコーダ7でユーザ所望のコンテンツに対応したコンテンツデータを予めエンコードし、その結果得られるエレメンタリストリームをストリーミングサーバ8でパケット化し、これをインターネット5を介して第1のコンテンツ受信装置3へ配信するようになされている。
In the
これによりコンテンツ提供システム1では、第1のコンテンツ受信装置3からの要求に応じたユーザ所望のコンテンツをコンテンツ提供装置2から配信するビデオオンデマンド(VOD)のようなプリエンコーデッドストリーミングを実現し得るようになされている。
As a result, the
第1のコンテンツ受信装置3は、エレメンタリストリームをストリーミングデコーダ9でデコードすることにより元の映像及び音声を復元し、当該元の映像及び音声をモニタ10から出力するようになされている。
The first content receiving device 3 restores the original video and audio by decoding the elementary stream by the
またコンテンツ提供システム1では、第1のコンテンツ受信装置3と第2のコンテンツ受信装置4とが例えばIEEE(Institute of Electrical and Electronics Engineers)802.11a/b/g等の規格に準拠した無線LAN6で接続されており、当該第1のコンテンツ受信装置3が外部から供給された地上波ディジタル、BS(Broadcast Satellite)/CS(Communication Satellite)ディジタル又は地上波アナログ放送等のコンテンツあるいはDVD(Digital Versatile Disc)、VideoCDほか一般的なビデオカメラからのコンテンツをリアルタイムストリーミングエンコーダ11でリアルタイムにエンコードした後に中継する形で第2のコンテンツ受信装置4へ無線送信し得るようになされている。
In the
因みに、第1のコンテンツ受信装置3と第2のコンテンツ受信装置4とは必ずしも無線LAN6で接続されていなければならない訳ではなく、有線LANで接続されていても良い。
Incidentally, the 1st content receiver 3 and the
第2のコンテンツ受信装置4は、第1のコンテンツ受信装置3から受信したコンテンツをリアルタイムストリーミングデコーダ12でデコードすることによりストーミング再生を行い、その再生結果をモニタ13へ出力するようになされている。
The second
かくして第1のコンテンツ受信装置3及び第2のコンテンツ受信装置4の間では、外部から供給を受けたコンテンツを第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11でリアルタイムにエンコードして第2のコンテンツ受信装置4へ送信し、当該第2のコンテンツ受信装置4でストリーミング再生することにより、ライブストリーミングを実現し得るようになされている。
Thus, between the first content receiving device 3 and the second
(2)コンテンツ提供装置の構成
図2に示すようにコンテンツ提供装置2は、エンコーダ7及びストリーミングサーバ8によって構成されており、外部から取り込んだビデオ信号VS1をビデオ入力部21を介してディジタル変換した後にビデオデータVD1としてビデオエンコーダ22へ送出する。
(2) Configuration of Content Providing Device As shown in FIG. 2, the
ビデオエンコーダ22は、ビデオデータVD1を例えばMPEG1/2/4(Moving Picture Experts Group)の規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるビデオエレメンタリストリームVES1をリングバッファでなるビデオES蓄積部23へ送出する。
The
ビデオES蓄積部23は、ビデオエレメンタリストリームVES1を一旦蓄積した後に、当該ビデオエレメンタリストリームVES1をストリーミングサーバ8のパケット生成部27及びビデオフレームカウンタ28へ送出する。
The video
ビデオフレームカウンタ28では、ビデオエレメンタリストリームVES1をフレーム周波数単位(29.97[Hz]あるいは30[Hz]あるいは59.94[Hz]あるいは60[Hz])でカウントし、そのカウントアップ値を基準クロックに基づく90[KHz]単位の値に変換し、32ビット表現で各ビデオフレームに対するビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)としてパケット生成部27へ送出する。
The
また、コンテンツ提供装置2は外部から取り込んだオーディオ信号AS1をエンコーダ7のオーディオ入力部24を介してディジタル変換した後にオーディオデータAD1としてオーディオエンコーダ25へ送出する。
Further, the
オーディオエンコーダ25は、オーディオデータAD1をMPEG1/2/4オーディオの規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるオーディオエレメンタリストリームAES1をリングバッファでなるオーディオES蓄積部26へ送出する。
The
オーディオES蓄積部26は、オーディオエレメンタリストリームAES1を一旦蓄積した後に、当該オーディオエレメンタリストリームAES1をストリーミングサーバ8のパケット生成部27及びオーディオフレームカウンタ29へ送出する。
The audio
オーディオフレームカウンタ29はビデオフレームカウンタ28と同様、オーディオフレームのカウントアップ値をビデオと共通の基準クロックに基づく90[KHz]単位の値に変換し、各オーディオフレームに対するオーディオタイムスタンプATS(ATS1、ATS2、ATS3、……)として32ビット表現し、パケット生成部27へ送出する。
Similarly to the
パケット生成部27では、ビデオエレメンタリストリームVES1を所定データサイズのパケットに分割し、それぞれのパケットにビデオヘッダ情報を付加することによりビデオパケットを生成すると共に、オーディオエレメンタリストリームAES1を所定データサイズのパケットに分割し、それぞれのパケットにオーディオヘッダ情報を付加することによりオーディオパケットを生成する。
The
ここで図3に示すようにオーディオパケット及びビデオパケットは、インターネット層におけるホスト間通信用のIP(Internet Protocol)ヘッダ、トランスポート層における伝送制御用のTCP(Transmission Control Protocol)ヘッダ、リアルタイム・データ転送制御用のRTP(RealTime Transport Protocol)ヘッダ及びRTPペイロードからなり、RTPヘッダ内における4バイトのタイムスタンプ領域に上述のオーディオタイムスタンプATSやビデオタイムスタンプVTSが書き込まれるようになされている。 Here, as shown in FIG. 3, an audio packet and a video packet include an IP (Internet Protocol) header for communication between hosts in the Internet layer, a TCP (Transmission Control Protocol) header for transmission control in the transport layer, and real-time data transfer. The audio time stamp ATS and video time stamp VTS described above are written in a 4-byte time stamp area in the RTP header, which consists of a control RTP (Real Time Transport Protocol) header and an RTP payload.
そしてパケット生成部27(図2)では、ビデオパケット及びビデオタイムスタンプVTSを基に所定バイト数からなる映像パケットデータを生成すると共に、オーディオパケット及びオーディオタイムスタンプATSを基に所定バイト数からなる音声パケットデータを生成し、これらを多重化することにより多重化データMXD1を生成した後パケットデータ蓄積部30へ送出する。
The packet generation unit 27 (FIG. 2) generates video packet data having a predetermined number of bytes based on the video packet and the video time stamp VTS, and audio having a predetermined number of bytes based on the audio packet and the audio time stamp ATS. Packet data is generated and multiplexed data MXD1 is generated by multiplexing the packet data, and then transmitted to the packet
パケットデータ蓄積部30は、多重化データMXD1を所定量蓄積すると、当該多重化データMXD1をインターネット5を介してRTP/TCP(RealTime Transport Protocol/Transmission Control Protocol)で第1のコンテンツ受信装置3へ送信するようになされている。
When the packet
(3)第1のコンテンツ受信装置におけるストリーミングデコーダのモジュール構成
図4に示すように第1のコンテンツ受信装置3のストリーミングデコーダ9は、コンテンツ提供装置2からRTP/TCPで送信された多重化データMXD1を入力パケット蓄積部31に一旦蓄積した後、パケット分割部32へ送出する。
(3) Module Configuration of Streaming Decoder in First Content Receiving Device As shown in FIG. 4, the
ここで入力パケット蓄積部31は、インターネット5経由で送信されてくる多重化データMXD1が所定量のパケット分蓄積された時点で当該多重化データMXD1をパケット分割部32へ送出するようになされており、これにより後段のパケット分割部32で多重化データMXD1の処理が途切れることなく連続的に実行し得るようになされている。
Here, the input
パケット分割部32は、多重化データMXD1を映像パケットデータVP1と音声パケットデータAP1に分割し、当該音声パケットデータAP1をリングバッファでなる入力オーディオバッファ33を介してオーディオフレーム単位でオーディオデコーダ35へ送出すると共に、映像パケットデータVP1をリングバッファでなる入力ビデオバッファ34を介してフレーム単位でビデオデコーダ36へ送出するようになされている。
The
ここで入力オーディオバッファ33及び入力ビデオバッファ34においては、後段のオーディオデコーダ35及びビデオデコーダ36で1オーディオフレーム分の音声パケットデータAP1及び1ビデオフレーム分の映像パケットデータVP1を連続してデコードできるようになるまで蓄積するようになされており、そのため、いつの時点でも少なくとも1オーディオフレーム及び1ビデオフレーム分のデータをオーディオデコーダ35及びビデオデコーダ36へ瞬時に供給できるための容量を有する。
Here, in the
なおパケット分割部32は、映像パケットデータVP1のビデオヘッダ情報及び音声パケットデータAP1のオーディオヘッダ情報を解析することによりビデオタイムスタンプVTS及びオーディオタイムスタンプATSを認識し得るようになされており、当該ビデオタイムスタンプVTS及び当該オーディオタイムスタンプATSをレンダラー37のタイミングコントロール回路37Aへ送出する。
The
オーディオデコーダ35は、音声パケットデータAP1をオーディオフレーム単位でデコードすることにより圧縮符号化前のオーディオフレームAF1を復元し、順次レンダラー37へ送出する。
The
ビデオデコーダ36は、映像パケットデータVP1をビデオフレーム単位でデコードすることにより圧縮符号化前のビデオフレームVF1を復元し、順次レンダラー37へ送出する。
The
ところでストリーミングデコーダ9においては、Webブラウザ15からシステムコントローラ50に対してコンテンツのメタデータMDが供給されており、コンテンツ判別手段としての当該システムコントローラ50では当該メタデータMDに基づいて当該コンテンツの種類がオーディオ及びビデオからなるものであるか、ビデオだけからなるものであるか、或いはオーディオだけからなるものであるかを判別し、そのコンテンツ種類判別結果CHをレンダラー37へ送出する。
By the way, in the
レンダラー37は、オーディオフレームAF1をリングバッファでなる出力オーディオバッファ38へ一時的に格納し、また同様にビデオフレームVF1をリングバッファでなる出力ビデオバッファ39に一時的に格納する。
The
そしてレンダラー37は、タイミングコントロール回路37Aによってモニタ10へ出力すべきビデオフレームVF1の映像とオーディオフレームAF1の音声とをリップシンクさせるべく、システムコントローラ50からのコンテンツ種類判別結果CHと、オーディオタイムスタンプATSやビデオタイムスタンプVTSとに基づいて最終的な出力タイミングを調整した後、その出力タイミングで出力ビデオバッファ39、出力オーディオバッファ38からビデオフレームVF1、オーディオフレームAF1を順次出力するようになされている。
The
(4)プリエンコーデッドストリーミングにおけるデコーダ側でのリップシンク調整処理
(4−1)プリエンコーデッドストリーミングにおけるビデオフレーム及びオーディオフレームの出力タイミング調整方法
図5に示すようにレンダラー37のタイミングコントロール回路37Aでは、パケット分割部32から送られたビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……、VTSn)及びオーディオタイムスタンプATS(ATS1、ATS2、ATS3、……、ATSn)をバッファ42及び43にそれぞれ一時的に格納した後、コンパレータ回路46へ送出する。
(4) Lip sync adjustment processing at decoder side in pre-encoded streaming (4-1) Video frame and audio frame output timing adjustment method in pre-encoded streaming As shown in FIG. The video time stamp VTS (VTS1, VTS2, VTS3,..., VTSn) and audio time stamp ATS (ATS1, ATS2, ATS3,..., ATSn) sent from the
またタイミングコントロール回路37Aは、そのコンテンツにおける最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1だけをサブトラクタ回路44及び45にもそれぞれ送出する。
The
サブトラクタ回路44及び45は、当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻し、これらをプリセット用ビデオタイムスタンプVTSp及びプリセット用オーディオタイムスタンプATSpとしてSTC回路41へ送出する。
The
STC回路41では、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってプリセットする、すなわち当該システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番でアジャストする(置き換える)ようになされている。
The
ここでSTC回路41では、当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻したプリセット用ビデオタイムスタンプVTSp及びプリセット用オーディオタイムスタンプATSpを用いてシステムタイムクロックstcの値をプリセットするため、バッファ42及び43を介して当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1がコンパレータ回路46に到達したとき、STC回路41からコンパレータ回路46へ供給されるプリセット後のシステムタイムクロックstcの値が当該ビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1よりも前の時刻を示すようになされている。
Here, the
これによりタイミングコントロール回路37Aのコンパレータ回路46では、プリセット後のシステムタイムクロックstcの値が最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1に対して既に経過しているといったことが無くなるため、当該最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1に対応したビデオフレームVf1及びオーディオフレームAf1についても確実に出力し得るようになされている。
As a result, in the
実際上、図6(A)及び(B)に示すように、コンテンツの種類がオーディオ及びビデオからなるものである場合、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってプリセットすると、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットした後に必ずプリセット用オーディオタイムスタンプATSpで先程のプリセット値が更新されることを意味する。 In practice, as shown in FIGS. 6A and 6B, when the content type is composed of audio and video, the value of the system time clock stc is set to the preset video time stamp VTSp, and the preset audio time stamp. If presetting is performed according to a preset sequence determined in the order of ATSp, it means that the preset value is always updated with the audio time stamp ATSp for presetting after the value of the system time clock stc is preset with the video time stamp VTSp for presetting. .
このときコンパレータ回路46は、プリセット用オーディオタイムスタンプATSpでプリセット値が更新された後のシステムタイムクロックstcを基準にしてビデオタイムスタンプVTSと比較することにより、プリセット後のシステムタイムクロックstcの値とエンコーダ側のコンテンツ提供装置2で付けられたビデオタイムスタンプVTSとの時間差を算出するようになされている。
At this time, the
一方、コンテンツの種類がオーディオだけからなるものである場合にはプリセット用ビデオタイムスタンプVTSpがタイミングコントロール回路37Aに送られてくることはないので、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従えば、当然プリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcの値がプリセットされることを意味する。
On the other hand, if the content type is composed only of audio, the preset video time stamp VTSp is not sent to the
同様に、コンテンツの種類がビデオだけからなるものである場合にはプリセット用オーディオタイムスタンプATSpがタイミングコントロール回路37Aに送られてくることはないので、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従えば、当然プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値がプリセットされることを意味する。
Similarly, when the content type is composed only of video, the preset audio time stamp ATSp is not sent to the
これは、コンテンツの種類がオーディオだけでなる場合、若しくはビデオだけでなる場合だけであり、映像及び音声のリップシンクを調整する必要は特にないため、プリセット用オーディオタイムスタンプATSpでプリセットされた後のシステムタイムクロックstcの値とオーディオタイムスタンプATSとが一致したときにオーディオフレームAF1を出力すればよく、またプリセット用ビデオタイムスタンプVTSpでプリセットされた後のシステムタイムクロックstcの値とビデオタイムスタンプVTSとが一致したときにビデオフレームVF1を出力すればよい。 This is only when the content type is only audio, or only video, and there is no need to adjust the lip sync of video and audio. Therefore, after the preset with the preset audio time stamp ATSp The audio frame AF1 may be output when the value of the system time clock stc matches the audio time stamp ATS, and the value of the system time clock stc after being preset by the preset video time stamp VTSp and the video time stamp VTS. The video frame VF1 may be output when the two match.
実際上、レンダラー37のタイミングコントロール回路37Aでは、例えばコンテンツの種類がオーディオ及びビデオからなるものである場合、図7に示すように例えばオーディオデコーダ35でデコードした後のオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10へ順次出力する時点Ta1、Ta2、Ta3、……、のタイミングでは、クリスタルオシレータ回路40(図4)及びSTC回路41を介して供給されるシステムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番でプリセットすることにより、最終的にシステムタイムクロックstcの値をプリセット用オーディオタイムスタンプATSp1、ATSp2、ATSp3、……と一致させる。
Actually, in the
このことは、再生中に音声が途切たり音飛びがあるとユーザにとって非常に目立つので、レンダラー37のタイミングコントロール回路37AではオーディオフレームAF1(Af1、Af2、Af3、……)をリップシンク調整処理の基準として用い、当該オーディオフレームAF1(Af1、Af2、Af3、……)の出力に合わせてビデオフレームVF1(Vf1、Vf2、Vf3、……)の出力タイミングを調整する必要があるからである。
This is very noticeable to the user when the sound is interrupted or skipped during reproduction. Therefore, the
またレンダラー37のタイミングコントロール回路37Aは、オーディオフレームAF1(Af1、Af2、Af3、……)の出力タイミング(時点Ta1、Ta2、Ta3、……)が決まると、ビデオフレームVF1(Vf1、Vf2、Vf3、……)をシステムタイムクロックstcに基づく30[Hz]のフレーム周波数で出力する任意の時点Tv1、Tv2、Tv3、……において、プリセット後のシステムタイムクロックstcのカウント値と、ビデオフレームVF1(Vf1、Vf2、Vf3、……)に付されているビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とをコンパレータ回路46でそれぞれ比較する。
When the output timing (time points Ta1, Ta2, Ta3,...) Of the audio frame AF1 (Af1, Af2, Af3,...) Is determined, the
コンパレータ回路46では、プリセット後のシステムタイムクロックstcのカウント値と、ビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とが一致したときに出力ビデオバッファ39からビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10へ出力させるようになされている。
In the
ところでコンパレータ回路46は、プリセット後のシステムタイムクロックstcのカウント値と、バッファ42から送られるビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とを比較した結果、プリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)との差分値D1(時間差)が所定の時間を表す閾値TH以下であれば、ユーザにとっては映像と音声とが一致していないとは認識し得ないレベルなので、タイミングコントロール回路37Aはプリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)とが一致したときにビデオフレームVF1(Vf1、Vf2、Vf3、……)をそのままモニタ10に出力すればよい。
By the way, the
それ以外の場合、例えば時点Tv2のタイミングにおいて、プリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS2との差分値D1が所定の閾値THよりも大きく、かつ映像が音声よりも遅れている場合には、エンコーダ側のクロック周波数とデコーダ側のクロック周波数とのずれが原因で音声に映像が追いついていない状態であるため、レンダラー37のタイミングコントロール回路37AではGOP(Group Of Picture)を構成している例えばBピクチャに相当するビデオフレームVf3(図示せず)をデコードすることなくスキップし、次のビデオフレームVf4を出力するようになされている。
In other cases, for example, at the timing of time Tv2, the difference value D1 between the count value of the system time clock stc after the preset and the video time stamp VTS2 is larger than the predetermined threshold value TH, and the video is delayed from the sound. In this case, since the video does not catch up with the audio due to the difference between the clock frequency on the encoder side and the clock frequency on the decoder side, the
この場合、レンダラー37は出力ビデオバッファ39に格納されている「P」ピクチャについては、ビデオデコーダ36で次のピクチャをデコードする際の参照フレームとなるためスキップせず、次のピクチャを生成する際の参照フレームとならない非参照フレームである「B」ピクチャをスキップすることにより、画質劣化を未然に防ぎながらリップシンクさせるようになされている。
In this case, the
ところでレンダラー37では、仮にスキップするべき「B」ピクチャが出力ビデオバッファ39に存在せず、「I」ピクチャや「P」ピクチャばかりであった場合には、当該「B」ピクチャをスキップすることはできないため、音声に映像を追い付かせることができなくなってしまう。
By the way, in the
そこでレンダラー37では、スキップすべき「B」ピクチャが出力ビデオバッファ39に存在しないときには、図8に示すようにモニタ10のモニタ出力タイミングが例えば60[Hz]であり、出力ビデオバッファ39から出力すべきビデオフレームVF1のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングを短縮するようになされている。
Therefore, in the
具体的にはレンダラー37は、プリセット用オーディオタイムスタンプATSpでプリセットした後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSの差分値D1が16.666……[msec]を超えるとき、すなわち音声の出力タイミングに対してモニタ出力タイミングが1フレーム分以上遅れているときは、1フレーム分のビデオフレームVF1をスキップする代わりにピクチャリフレッシュタイミングを30[Hz]から60[Hz]に変更して次のN+1番目のピクチャを出力するようになされている。
Specifically, the
つまりレンダラー37は、当該スキップによる画質劣化の影響を受ける「I」ピクチャや「P」ピクチャについてはピクチャリフレッシュ間隔を1/30秒から1/60秒に短縮することにより、「I」ピクチャや「P」ピクチャをスキップすることによる画質劣化を生じさせることなく音声に映像を追い付かせることができるようになされている。
In other words, the
これに対してレンダラー37のタイミングコントロール回路37Aは、時点Tv2のタイミングにおいて、プリセット後のシステムタイムクロックstcのカウント値と例えばビデオタイムスタンプVTS2との差分値D1が所定の閾値THよりも大きく、かつ音声が映像よりも遅れている場合には、エンコーダ側のクロック周波数とデコーダ側のクロック周波数とのずれが原因で映像に音声が追いついていない状態であるため、現在出力中のビデオフレームVf2を繰り返しリピートして出力するようになされている。
On the other hand, the
一方、レンダラー37のタイミングコントロール回路37Aでは、例えばコンテンツの種類がビデオだけからなるものである場合、ビデオデコーダ36でデコードした後のビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10へ順次出力する時点Tv1、Tv2、Tv3、……、のタイミングでは、プリセット用ビデオタイムスタンプVTSpでプリセットされたシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSが一致したタイミングでビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10に出力すればよい。
On the other hand, in the
同様に、レンダラー37のタイミングコントロール回路37Aでは、例えばコンテンツの種類がオーディオだけからなるものである場合、オーディオデコーダ35でデコードした後のオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10へ順次出力する時点Ta1、Ta2、Ta3、……、のタイミングでは、プリセット用オーディオタイムスタンプATSpでプリセットされたシステムタイムクロックstcのカウント値とオーディオタイムスタンプATSが一致したタイミングでオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10のスピーカから出力すればよい。
Similarly, the
(4−2)プリエンコーデッドストリーミングにおけるリップシンク調整処理手順
上述のようにストリーミングデコーダ9におけるレンダラー37のタイミングコントロール回路37AがオーディオフレームAF1(Af1、Af2、Af3、……)を基準にしてビデオフレームVF1(Vf1、Vf2、Vf3、……)の出力タイミングを調整することにより、映像と音声とをリップシンクさせる出力タイミング調整方法についてまとめると、次の図9のフローチャートに示すように、レンダラー37のタイミングコントロール回路37Aは、ルーチンRT1の開始ステップから入って、次のステップSP1へ移る。
(4-2) Lip sync adjustment processing procedure in pre-encoded streaming As described above, the
ステップSP1においてレンダラー37は、システムタイムクロックstcの値をプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってプリセットし、次のステップSP2へ移る。
In step SP1, the
ここでレンダラー37は、コンテンツの種類がオーディオ及びビデオでなるものであるときにはプリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットした後に必ずプリセット用オーディオタイムスタンプATSpで先程のプリセット値を更新し、次のステップSP2へ移る。
Here, the
この場合、オーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10へ出力する時点Ta1、Ta2、Ta3、……のタイミングで(図7)、システムタイムクロックstcの値とプリセット用オーディオタイムスタンプATSp(ATSp1、ATSp2、ATSp3、……)とが一致することになる。 In this case, at the time points Ta1, Ta2, Ta3,... When the audio frame AF1 (Af1, Af2, Af3,...) Is output to the monitor 10 (FIG. 7), the value of the system time clock stc and the preset audio time. The stamp ATSp (ATSp1, ATSp2, ATSp3,...) Matches.
またレンダラー37は、コンテンツの種類がビデオだけからなるものである場合には、プリセット用オーディオタイムスタンプATSpは存在しないので、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットして所定時間経過したときに次のステップSP2へ移る。
The
さらにレンダラー37は、コンテンツの種類がオーディオだけからなるものである場合には、プリセット用ビデオタイムスタンプVTSpは存在しないので、プリセット用ビデオタイムスタンプVTSpを待つことなくプリセット用オーディオタイムスタンプATSpが到達した時点でシステムタイムクロックstcの値をプリセットした後に次のステップSP2へ移る。
Furthermore, when the content type is composed only of audio, the
ステップSP2においてレンダラー37は、システムコントローラ50から供給されるコンテンツ種類判別結果CHに基づいて当該コンテンツがビデオのみでなるものか否かを判定し、肯定結果が得られると次のステップSP3へ移る。
In step SP2, the
ステップSP3においてレンダラー37は、当該コンテンツがビデオのみでなるため、プリセット用ビデオタイムスタンプVTSpでプリセットしたシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSとが一致したときにビデオフレームVF1(Vf1、Vf2、Vf3、……)をモニタ10へ出力し、次のステップSP12へ移って処理を終了する。
In step SP3, the
これに対してステップSP2で否定結果が得られると、このことはコンテンツの種類がビデオのみでなるものではなく、オーディオ及びビデオでなるものか、オーディオのみでなるものかの何れかであることを表しており、このときレンダラー37は次のステップSP4へ移る。
On the other hand, if a negative result is obtained in step SP2, this means that the type of content is not only video, but is either audio and video or only audio. At this time, the
ステップSP4においてレンダラー37は、コンテンツ種類判別結果CHに基づいて当該コンテンツがオーディオのみでなるものか否かを判定し、肯定結果が得られると次のステップSP3へ移る。
In step SP4, the
ステップSP3においてレンダラー37は、当該コンテンツがオーディオのみでなるため、プリセット用オーディオタイムスタンプATSpでプリセットしたシステムタイムクロックstcのカウント値とオーディオタイムスタンプATSとが一致したときにオーディオフレームAF1(Af1、Af2、Af3、……)をモニタ10のスピーカから出力し、次のステップSP12へ移って処理を終了する。
In step SP3, the
これに対してステップSP4で否定結果が得られると、このことはコンテンツの種類がオーディオ及びビデオからなるものであることを表しており、このときレンダラー37は次のステップSP5へ移る。
On the other hand, if a negative result is obtained in step SP4, this indicates that the content type is composed of audio and video. At this time, the
ステップSP5においてレンダラー37は、コンテンツの種類がオーディオ及びビデオからなるものであるため、最終的にプリセット用オーディオタイムスタンプATSpでプリセットされたシステムタイムクロックstcのカウント値と、時点Tv1、Tv2、Tv3、……のタイミングで出力すべきビデオフレームVF1(Vf1、Vf2、Vf3、……)のタイムスタンプVTS(VTS1、VTS2、VTS3、……)との差分値D1(=stc−VTS)を算出し、次のステップSP6へ移る。
In step SP5, the
ステップSP6においてレンダラー37は、ステップSP7で算出した差分値D1(絶対値)が所定の閾値THよりも大きいか否かを判定する。ここで否定結果が得られると、このことは、差分値D1が、映像及び音声を見て聞いたユーザにとって当該映像と当該音声との間にずれが生じているとは判断し得ない程度の時間(例えば100[msec])以下であることを表しており、このときレンダラー37は次のステップSP3へ移る。
In step SP6, the
ステップSP3においてレンダラー37は、映像と音声がずれていると判断し得ない程度の時間差しかないので、この場合は当該ビデオフレームVF1をそのままモニタ10へ出力し、またオーディオフレームAF1についても原則的にそのままモニタ10へ出力し、次のステップSP12へ移って処理を終了する。
In step SP3, the
これに対してステップSP6で肯定結果が得られると、このことは差分値D1が所定の閾値THよりも大きい、すなわち映像及び音声を見て聞いたユーザにとって当該映像と当該音声との間にずれが生じていると判断し得る程度であることを表しており、このときレンダラー37は次のステップSP7へ移る。
On the other hand, if an affirmative result is obtained in step SP6, this means that the difference value D1 is larger than the predetermined threshold value TH, that is, the difference between the video and the audio for the user who has seen and listened to the video and the audio. In this case, the
ステップSP7においてレンダラー37は、映像が音声よりも遅れているか否かをオーディオタイムスタンプATS及びビデオタイムスタンプVTSに基づいて判定し、否定結果が得られると次のステップSP8へ移る。
In step SP7, the
ステップSP8においてレンダラー37は、映像の方が音声よりも進んでいるので、当該映像に音声が追いつくように現在出力中のピクチャを構成しているビデオフレームVF1を繰り返しリピート出力した後、次のステップSP12へ移って処理を終了する。
In step SP8, the
これに対してステップSP7で肯定結果が得られると、このことは映像が音声よりも遅れていることを表しており、このときレンダラー37は次のステップSP9へ移り、出力ビデオバッファ39にスキップ対象の「B」ピクチャが存在するか否かを判定し、肯定結果が得られると次のステップSP10へ移る。
On the other hand, if an affirmative result is obtained in step SP7, this indicates that the video is delayed from the audio. At this time, the
ステップSP10においてレンダラー37は、音声に対する映像の遅れを取り戻すべくBピクチャ(この場合、ビデオフレームVf3)をデコードせずにスキップして出力することにより、音声に対する映像の遅れを取り戻してリップシンクさせることができ、次のステップSP12へ移って処理を終了する。
In step SP10, the
一方、ステップSP9で否定結果が得られると、このことは出力ビデオバッファ39にスキップ対象の「B」ピクチャが存在せず、「B」ピクチャをスキップすることができないことを表しており、このときレンダラー37は次のステップSP11へ移る。
On the other hand, if a negative result is obtained in step SP9, this indicates that the “B” picture to be skipped does not exist in the
ステップSP11においてレンダラー37は、図8に示したように、モニタ10のモニタ出力タイミングが60[Hz]であるのに対し、ビデオフレームVF1のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングをモニタ10のモニタ出力タイミングに合わせて短縮することにより、ピクチャをスキップすることによる画質劣化を生じさせずに映像を音声に追い付かせ、次のステップSP12へ移って処理を終了する。
In step SP11, the
(5)第1のコンテンツ受信装置におけるリアルタイムストリーミングエンコーダの回路構成
第1のコンテンツ受信装置3(図1)は、外部から供給された地上波ディジタル、BS/CSディジタル又は地上波アナログ放送等のコンテンツあるいはDVD、VideoCDほか一般的なビデオカメラからのコンテンツをリアルタイムストリーミングエンコーダ11によってリアルタイムにエンコードした後に第2のコンテンツ受信装置4へ中継する形で無線送信することによりコンテンツ提供側にもなり得るようになされている。
(5) Circuit Configuration of Real-Time Streaming Encoder in First Content Receiving Device First content receiving device 3 (FIG. 1) is an externally supplied content such as terrestrial digital, BS / CS digital or terrestrial analog broadcast Alternatively, content from a general video camera such as a DVD, VideoCD, or the like is encoded in real time by the real-
その第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11の回路構成について図10を用いて説明する。リアルタイムストリーミングエンコーダ11は、外部から供給されたコンテンツを構成するビデオ信号VS2及びオーディオ信号AS2をビデオ入力部51及びオーディオ入力部53を介してディジタル変換し、これをビデオデータVD2及びオーディオデータAD2としてビデオエンコーダ52及びオーディオエンコーダ54へ送出する。
The circuit configuration of the real-
ビデオエンコーダ52は、ビデオデータVD2を例えばMPEG1/2/4の規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるビデオエレメンタリストリームVES2をパケット生成部56及びビデオフレームカウンタ57へ送出する。
The
ビデオフレームカウンタ57では、ビデオエレメンタリストリームVES2をフレーム周波数単位(29.97[Hz]あるいは30[Hz]あるいは59.94[Hz]あるいは60[Hz])でカウントし、そのカウントアップ値を基準クロックに基づく90[KHz]単位の値に変換し、32ビット表現で各ビデオフレームに対するビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)としてパケット生成部56へ送出する。
In the
オーディオエンコーダ54は、オーディオデータAD2をMPEG1/2/4オーディオの規格に準拠した所定の圧縮符号化方法あるいは種々の圧縮符号化方式で圧縮符号化し、その結果得られるオーディオエレメンタリストリームAES2をパケット生成部56及びオーディオフレームカウンタ58へ送出する。
The
オーディオフレームカウンタ58はビデオフレームカウンタ57と同様、オーディオフレームのカウントアップ値と共通の基準クロックに基づく90[KHz]単位の値に変換し、オーディオタイムスタンプATS(ATS1、ATS2、ATS3、……)として32ビット表現し、パケット生成部56へ送出する。
As with the
パケット生成部56では、ビデオエレメンタリストリームVES2を所定データサイズのパケットに分割し、それぞれのパケットにビデオヘッダ情報を付加することによりビデオパケットを生成すると共に、オーディオエレメンタリストリームAES2を所定データサイズのパケットに分割し、それぞれのパケットにオーディオヘッダ情報を付加することによりオーディオパケットを生成する。
The
ここで図11に示すようにRTCP(Real Time Control Protocol)packetの前段に付加されているコントロールパケットは、インターネット層におけるホスト間通信用のIP(Internet Protocol)ヘッダ、ユーザ・データグラム・データ転送用のUDP(User Datagram Protocol)ヘッダ、リアルタイム・データ転送制御用のRTCP(Real Time Control Protocol)パケットセンダリポート及びRTCPパケットからなり、RTCPパケットセンダリポート内のセンダ情報内にある4バイトのRTPタイムスタンプ領域にPCR(Program Clock Reference)値としてエンコーダ側におけるシステムタイムクロック値のスナップショット情報が書き込まれるようになされていて、デコーダ側のクロックリカバリ用にPCR回路61から送出される。
Here, as shown in FIG. 11, the control packet added to the front of the RTCP (Real Time Control Protocol) packet is an IP (Internet Protocol) header for host-to-host communication in the Internet layer, for user datagram data transfer. 4 bytes RTP timestamp area in the sender information in the RTCP packet sender port, which consists of the UDP (User Datagram Protocol) header, the RTCP packet sender report for the real time data transfer control, and the RTCP packet. The snapshot information of the system time clock value on the encoder side is written as a PCR (Program Clock Reference) value, and is sent from the
そしてパケット生成部56では、ビデオパケット及びビデオタイムスタンプVTSに基づいて所定バイト数からなる映像パケットデータを生成すると共に、オーディオパケット及びオーディオタイムスタンプATSに基づいて所定バイト数からなる音声パケットデータを生成し、これらを多重化することにより多重化データMXD2を生成した後パケットデータ蓄積部59へ送出する。
The
パケットデータ蓄積部59は、多重化データMXD2を所定量蓄積すると、当該多重化データMXD2を無線LAN6を介してRTP/TCPで第2のコンテンツ受信装置4へ送信するようになされている。
When the packet
ところでリアルタイムストリーミングエンコーダ11は、ビデオ入力部51でディジタル変換したビデオデータVD2をPLL(Phase-Locked Loop)回路55にも供給する。PLL回路55は、ビデオデータVD2に基づいて当該ビデオデータVD2のクロック周波数にSTC回路60を同期させると共に、ビデオエンコーダ52、オーディオ入力部53及びオーディオエンコーダ54についてもビデオデータVD2のクロック周波数と同期させるようになされている。
Incidentally, the real-
これによりリアルタイムストリーミングエンコーダ11は、PLL回路55を介してビデオデータVD2に対する圧縮符号化処理とオーディオデータAD2に対する圧縮符号化処理とをビデオデータVD2のクロック周波数と同期したタイミングで実行し得ると共に、PCR(Program Clock Reference)回路61を介してビデオデータVD2のクロック周波数に同期したクロックリファレンスpcrを第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12へ送信し得るようになされている。
As a result, the real-
このときPCR回路61は、クロックリファレンスpcrをRTPプロトコルの下位層に位置しリアルタイム性が要求されるUDP(User Datagram Protocol)で第2のコンテンツ受信装置4のリアルタイムストリーミングデコーダ12へ送信するようになされており、これにより高速性を確保してリアルタイム性の必要とされるライブストリーミングにも対応し得るようになされている。
At this time, the
(6)第2のコンテンツ受信装置におけるリアルタイムストリーミングデコーダの回路構成
図12に示すように第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12は、第1のコンテンツ受信装置3のリアルタイムストリーミングエンコーダ11から送信された多重化データMXD2を入力パケット蓄積部71に一旦蓄積した後、パケット分割部72へ送出する。
(6) Circuit Configuration of Real-Time Streaming Decoder in Second Content Receiving Device As shown in FIG. 12, the real-
パケット分割部72は、多重化データMXD2を映像パケットデータVP2と音声パケットデータAP2に分割し、当該音声パケットデータAP2をリングバッファでなる入力オーディオバッファ73を介してオーディオフレーム単位でオーディオデコーダ74へ送出すると共に、映像パケットデータVP2をリングバッファでなる入力ビデオバッファ75を介してフレーム単位でビデオデコーダ76へ送出するようになされている。
The
ここで入力オーディオバッファ73及び入力ビデオバッファ75においても、後段のオーディオデコーダ74及びビデオデコーダ76で1オーディオフレーム及び1ビデオフレーム分の音声パケットデータAP2及び映像パケットデータVP2を連続してデコードできるようになるまで蓄積するようになされており、そのため少なくとも1オーディオフレーム及び1ビデオフレーム分のデータ容量があればよい。
Here, also in the
なおパケット分割部72は、映像パケットデータVP2のビデオヘッダ情報及び音声パケットデータAP2のオーディオヘッダ情報を解析することによりオーディオタイムスタンプATS及びビデオタイムスタンプVTSを認識し得るようになされており、当該オーディオタイムスタンプATS及び当該ビデオタイムスタンプVTSをレンダラー77へ送出する。
The
オーディオデコーダ74は、音声パケットデータAP2をオーディオフレーム単位でデコードすることにより圧縮符号化前のオーディオフレームAF2を復元し、順次レンダラー77へ送出する。
The
ビデオデコーダ76は、映像パケットデータVP2をビデオフレーム単位でデコードすることにより圧縮符号化前のビデオフレームVF2を復元し、順次レンダラー77へ送出する。
The
レンダラー77は、オーディオフレームAF2をリングバッファでなる出力オーディオバッファ78へ一時的に格納し、また同様にビデオフレームVF2をリングバッファでなる出力ビデオバッファ79に一時的に格納する。
The renderer 77 temporarily stores the audio frame AF2 in the
そしてレンダラー77は、モニタ13へ出力するビデオフレームVF2の映像とオーディオフレームAF2の音声とをリップシンクさせるべくオーディオタイムスタンプATS及びビデオタイムスタンプVTSに基づいて最終的な出力タイミングを調整した後、その出力タイミングで出力オーディオバッファ78及び出力ビデオバッファ79からオーディオフレームAF2及びビデオフレームVF2をモニタ13へ順次出力するようになされている。
Then, the renderer 77 adjusts the final output timing based on the audio time stamp ATS and the video time stamp VTS so as to lip-sync the video of the video frame VF2 output to the
ところでリアルタイムストリーミングデコーダ12は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61からUDPで送信されるクロックリファレンスpcrを受信して減算回路81に入力する。
Incidentally, the real-
減算回路81は、クロックリファレンスpcrとSTC回路84から供給されるシステムタイムクロックstcとの差を算出し、これをフィルタ82、電圧制御型クリスタルオシレータ回路83及びSTC回路84を順次介して減算回路81にフィードバックすることによりPLL(Phase Locked Loop)を形成し、リアルタイムストリーミングエンコーダ11のクロックリファレンスpcrに次第に収束させ、最終的には当該クロックリファレンスpcrによりリアルタイムストリーミングエンコーダ11と同期したシステムタイムクロックstcをレンダラー77へ供給するようになされている。
The
これによりレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11でビデオデータVD2及びオーディオデータAD2を圧縮符号化したり、ビデオタイムスタンプVTS及びオーディオタイムスタンプATSをカウントするときのクロック周波数と同期したシステムタイムクロックstcを基準にして、ビデオフレームVF2及びオーディオフレームAF2の出力タイミングを調整し得るようになされている。
As a result, the renderer 77 compresses and encodes the video data VD2 and the audio data AD2 by the real-
実際上レンダラー77は、オーディオフレームAF2に関してはリングバッファでなる出力オーディオバッファ78へ一時的に格納すると共に、ビデオフレームVF2に関してはリングバッファでなる出力ビデオバッファ79に一時的に格納し、映像と音声とをリップシンクさせた状態で出力するべく、リアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrによりエンコーダ側と同期したシステムタイムクロックstc及びオーディオタイムスタンプATS、ビデオタイムスタンプVTSに基づいて出力タイミングを調整するようになされている。
In practice, the renderer 77 temporarily stores the audio frame AF2 in the
(7)ライブストリーミングにおけるデコーダ側でのリップシンク調整処理
(7−1)ライブストリーミングにおけるビデオフレーム及びオーディオフレームの出力タイミング調整方法
図13に示すように、この場合レンダラー77は、リアルタイムストリーミングエンコーダ11のPCR回路61から所定周期で供給されてくるクロックリファレンスpcrの値に、システムタイムクロックstcのクロック周波数をPLLでロックさせたうえで、当該システムタイムクロックstcの基で同期されたモニタ13を通してオーディオタイムスタンプATS及びビデオタイムスタンプVTSに従いオーディオフレームAF2及びビデオフレームVF2の出力をコントロールする。
(7) Lip sync adjustment processing on the decoder side in live streaming (7-1) Output timing adjustment method of video frame and audio frame in live streaming As shown in FIG. The clock time of the system time clock stc is locked by the PLL to the value of the clock reference pcr supplied from the
すなわちレンダラー77は、クロックリファレンスpcrの値にシステムタイムクロックstcのクロック周波数を同期した状態で、システムタイムクロックstc及びオーディオタイムスタンプATS(ATS1、ATS2、ATS3、……)に従ってオーディオフレームAF2(Af1、Af2、Af3、……)をモニタ13へ順次出力する。
That is, the renderer 77 synchronizes the clock frequency of the system time clock stc with the value of the clock reference pcr, and in accordance with the system time clock stc and the audio time stamp ATS (ATS1, ATS2, ATS3,...), The audio frame AF2 (Af1,. Af2, Af3,...) Are sequentially output to the
ここで、クロックリファレンスpcrの値とシステムタイムクロックstcのクロック周波数とは前述のように同期関係を維持しているので、システムタイムクロックstcのカウント値とビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)との間で、例えば時点Tv1においてシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS1との差分値D2Vが発生することはない。 Here, since the value of the clock reference pcr and the clock frequency of the system time clock stc maintain the synchronous relationship as described above, the count value of the system time clock stc and the video time stamp VTS (VTS1, VTS2, VTS3, )), For example, the difference value D2V between the count value of the system time clock stc and the video time stamp VTS1 does not occur at the time point Tv1.
しかしながら、リアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrはリアルタイム性が要求されるUDPで送信されてくるものであり、高速性を重視するあまり再送制御されないので当該クロックリファレンスpcrが第2のコンテンツ受信装置4のリアルタイムストリーミングデコーダ12へ到達しないか、あるいはエラーデータを含んで到達することもある。
However, since the clock reference pcr supplied from the
このような場合には、リアルタイムストリーミングエンコーダ11のPCR回路61から所定周期で供給されてくるクロックリファレンスpcrの値と、システムタイムクロックstcのクロック周波数との同期がPLLを介してずれることがあるが、このときも本発明におけるレンダラー77ではリップシンクを保障し得るようになされている。
In such a case, the synchronization between the value of the clock reference pcr supplied from the
本発明では、システムタイムクロックstcとオーディオタイムスタンプATSそしてビデオタイムスタンプVTSとの間にずれが生じた場合、やはりリップシンクを取る方法として、オーディオ出力の連続性を優先させるようになされている。 In the present invention, when a deviation occurs between the system time clock stc, the audio time stamp ATS, and the video time stamp VTS, the continuity of the audio output is given priority as a method of taking a lip sync.
レンダラー77は、オーディオフレームAF2の出力タイミングTa2でのシステムタイムクロックstcのカウント値とオーディオタイムスタンプATS2とを比較し、その差分値D2Aを記憶する。一方、レンダラー77はビデオフレームVF2の出力タイミングTv2でのシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS2とを比較し、その差分値D2Vを記憶する。 The renderer 77 compares the count value of the system time clock stc at the output timing Ta2 of the audio frame AF2 with the audio time stamp ATS2, and stores the difference value D2A. On the other hand, the renderer 77 compares the count value of the system time clock stc at the output timing Tv2 of the video frame VF2 with the video time stamp VTS2, and stores the difference value D2V.
このとき、クロックリファレンスpcrが第2のコンテンツ受信装置4のリアルタイムストリーミングデコーダ12へ確実に到達し、クロックリファレンスpcrの値と当該リアルタイムストリーミングデコーダ12のシステムタイムクロックstcのクロック周波数とがPLLを介して完全に一致し、モニタ13を含んでデコーダ側がシステムタイムクロックstcに同期していれば差分値D2V、D2Aは「0」となる。
At this time, the clock reference pcr surely reaches the real-
この差分D2Aが正値であればオーディオフレームAF2は早いと判断され、負値であればオーディオフレームAF2は遅れていると判断される。同様に、差分D2Vが正値であればビデオフレームVF2は早いと判断され、負値であればビデオフレームVF2は遅れていると判断される。 If the difference D2A is a positive value, the audio frame AF2 is determined to be early, and if the difference D2A is a negative value, the audio frame AF2 is determined to be delayed. Similarly, if the difference D2V is a positive value, it is determined that the video frame VF2 is early, and if the difference D2V is a negative value, it is determined that the video frame VF2 is delayed.
ここでレンダラー77は、オーディオフレームAF2が早くても遅れていても、オーディオ出力の連続性を維持させることを優先させ、オーディオフレームAF2に対するビデオフレームVF2の出力を相対的に次のように制御する。 Here, the renderer 77 gives priority to maintaining the continuity of the audio output regardless of whether the audio frame AF2 is early or late, and controls the output of the video frame VF2 relative to the audio frame AF2 as follows. .
例えば、時点Tv2のタイミングにおいて、D2V−D2Aが閾値THよりも大きい場合、差分値D2Vが差分値D2Aよりも大きければ音声に映像が追いついていない状態であるため、レンダラー77はGOPを構成している例えばBピクチャに相当するビデオフレームVf3(図示せず)をデコードすることなくスキップして次のビデオフレームVf4を出力するようになされている。 For example, when D2V-D2A is greater than the threshold value TH at the time Tv2, the renderer 77 forms a GOP because the video does not catch up with the audio if the difference value D2V is greater than the difference value D2A. For example, a video frame Vf3 (not shown) corresponding to a B picture is skipped without being decoded and the next video frame Vf4 is output.
この場合、レンダラー77は出力ビデオバッファ79に格納されている「P」ピクチャについては、ビデオデコーダ76で次のピクチャをデコードする際の参照フレームとなるためスキップせず、次のピクチャを生成する際の参照フレームとならない非参照フレームである「B」ピクチャをスキップすることにより、画質劣化を未然に防ぎながらリップシンクさせるようになされている。
In this case, the renderer 77 does not skip the “P” picture stored in the output video buffer 79 and generates the next picture without skipping since it becomes a reference frame when the
これに対してD2V−D2Aが閾値THよりも大きく、差分値D2Aの方が差分値D2Vよりも大きければ映像に音声が追いついていない状態であるため、レンダラー77は現在出力中のビデオフレームVf2を繰り返しリピート出力するようになされている。 On the other hand, if D2V-D2A is larger than the threshold value TH and the difference value D2A is larger than the difference value D2V, the audio has not caught up with the video, so the renderer 77 determines the video frame Vf2 currently being output. Repeated output is made.
また、D2V−D2Aが閾値THよりも小さい場合は、音声に対する映像のギャップは許容範囲内であると判断され、レンダラー77は当該ビデオフレームVF2をそのままモニタ13へ出力する。
When D2V-D2A is smaller than the threshold value TH, it is determined that the video gap with respect to the sound is within the allowable range, and the renderer 77 outputs the video frame VF2 to the
ところでレンダラー77では、仮にスキップするべき「B」ピクチャが出力ビデオバッファ79に存在せず、「I」ピクチャや「P」ピクチャばかりであった場合には、当該「B」ピクチャをスキップすることはできないため、音声に映像を追い付かせることができなくなってしまう。 By the way, in the renderer 77, if the “B” picture to be skipped does not exist in the output video buffer 79 and there are only “I” picture and “P” picture, the “B” picture cannot be skipped. Because it is not possible, it will not be able to catch up with the video.
そこでレンダラー77では、第1のコンテンツ受信装置3におけるストリーミングデコーダ9のレンダラー37と同様に、スキップすべき「B」ピクチャが存在しないときには、モニタ13のモニタ出力タイミングが例えば60[Hz]であり、出力ビデオバッファ79から出力すべきビデオフレームVF2のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングを短縮するようになされている。
Therefore, in the renderer 77, similarly to the
具体的にはレンダラー77は、クロックリファレンスpcrと同期したシステムタイムクロックstcとビデオタイムスタンプVTSの差分値が16.666……[msec]を超えるとき、すなわち音声の出力タイミングに対してモニタ出力タイミングが1フレーム分以上遅れているときは、1フレーム分のビデオフレームをスキップする代わりにピクチャリフレッシュタイミングを30[Hz]から60[Hz]に変更して表示間隔を短縮するようになされている。 Specifically, the renderer 77 monitors the monitor output timing when the difference value between the system time clock stc synchronized with the clock reference pcr and the video time stamp VTS exceeds 16.666... [Msec], that is, with respect to the audio output timing. Is delayed by one frame or more, the picture refresh timing is changed from 30 [Hz] to 60 [Hz] instead of skipping one video frame to shorten the display interval.
つまりレンダラー77は、当該スキップによる画質劣化の影響を受ける「I」ピクチャや「P」ピクチャについてはピクチャリフレッシュ間隔を1/30秒から1/60秒に短縮することにより、「I」ピクチャや「P」ピクチャをスキップすることによる画質劣化を生じさせることなく映像を音声に追い付かせることができるようになされている。 In other words, the renderer 77 shortens the picture refresh interval from 1/30 seconds to 1/60 seconds for the “I” picture and “P” picture that are affected by the image quality degradation due to the skip, so that the “I” picture and “ It is possible to make the video catch up with the audio without causing image quality degradation due to skipping the “P” picture.
(7−2)ライブストリーミングにおけるリップシンク調整処理手順
上述のようにリアルタイムストリーミングデコーダ12のレンダラー77がライブストリーミング再生を行う際に、オーディオフレームAF2を基準にしてビデオフレームVF2の出力タイミングを調整することにより映像と音声とをリップシンクさせる出力タイミング調整方法についてまとめると、次の図14のフローチャートに示すように、リアルタイムストリーミングデコーダ12のレンダラー77は、ルーチンRT2の開始ステップから入って、次のステップSP21へ移る。
(7-2) Lip Sync Adjustment Processing Procedure in Live Streaming As described above, when the renderer 77 of the real-
ステップSP21において、第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61からクロックリファレンスpcrを受信し、次のステップSP22へ移る。
In step SP21, the renderer 77 of the real-
ステップSP22においてレンダラー77は、減算回路81、フィルタ82、電圧制御型クリスタルオシレータ回路83及びSTC回路84を介して構成されるPLLによってクロックリファレンスpcrとシステムタイムクロックstcとを同期させることにより、これ以降、出力タイミングを調整する際の基準として当該クロックリファンレンスpcrに同期したシステムタイムクロックstcを用い、次のステップSP23へ移る。
In step SP22, the renderer 77 synchronizes the clock reference pcr and the system time clock stc with the PLL configured via the subtracting
ステップSP23においてレンダラー77は、時点Tv1、Tv2、Tv3、……のタイミイグにおけるシステムタイムクロックstcのカウント値とビデオタイムスタンプVTSとの差分値D2Vを算出し、また時点Ta1、Ta2、Ta3、……のタイミングにおけるシステムタイムクロックstcのカウント値とオーディオタイムスタンプATSとの差分値D2Aを算出し、次のステップSP24へ移る。 In step SP23, the renderer 77 calculates a difference value D2V between the count value of the system time clock stc and the video time stamp VTS at the timings Tv1, Tv2, Tv3,..., And the time points Ta1, Ta2, Ta3,. The difference value D2A between the count value of the system time clock stc and the audio time stamp ATS at the timing is calculated, and the process proceeds to the next step SP24.
ステップSP24においてレンダラー77は、ステップSP23で算出した差分値D2V、D2Aに基づいて算出したD2V−D2Aが閾値TH(例えば100[msec])よりも小さい場合、否定結果を得て次のステップSP25へ移る。 In step SP24, the renderer 77 obtains a negative result when D2V-D2A calculated based on the difference values D2V and D2A calculated in step SP23 is smaller than a threshold value TH (for example, 100 [msec]), and proceeds to the next step SP25. Move.
ステップSP25においてレンダラー77は、D2A−D2Vが閾値TH(例えば100[msec])よりも大きい場合、肯定結果を得て映像が音声に対して進んでいると判断し、次のステップSP26へ移る。 In step SP25, when D2A-D2V is larger than the threshold value TH (for example, 100 [msec]), the renderer 77 obtains a positive result and determines that the video is proceeding with respect to the sound, and proceeds to the next step SP26.
ステップSP26においてレンダラー77は、映像の方が音声よりも進んでいるので、音声が映像に追いつくように現在出力中のピクチャを構成するビデオフレームVF2をリピートして出力した後、次のステップSP31へ移って処理を終了する。 In step SP26, the renderer 77 repeats and outputs the video frame VF2 constituting the picture currently being output so that the audio catches up with the video because the video is ahead of the audio, and then proceeds to the next step SP31. The process is terminated.
これに対してステップSP25でD2A−D2Vが閾値THを越えていないのであれば、否定結果を得て、音声と映像との間にずれが生じているとは感じない程度であると判断し、次のステップSP27へ移る。 On the other hand, if D2A-D2V does not exceed the threshold value TH in step SP25, a negative result is obtained, and it is determined that there is no feeling that there is a deviation between the audio and the video, Control goes to the next step SP27.
ステップSP27においてレンダラー77は、映像と音声との間でずれが生じているとは感じない程度の時間差しかないので、この場合はクロックリファレンスpcrと同期したシステムタイムクロックstcを基に、ビデオフレームVF2をビデオタイムスタンプVTSに従ってそのままモニタ13へ出力し、次のステップSP31へ移って処理を終了する。
In step SP27, the renderer 77 does not have a time that does not feel that there is a difference between video and audio. In this case, the video frame VF2 is based on the system time clock stc synchronized with the clock reference pcr. Is output as it is to the
なおレンダラー77は、音声に関しては音の連続性を維持させるため、上記のいずれの場合においても、クロックリファレンスpcrと同期したシステムタイムクロックstcを基に、オーディオタイムスタンプATSに従ってそのままモニタ13へ出力するようになされている。
The renderer 77 outputs the sound to the
これに対してステップSP24で肯定結果が得られると、このことはD2V−D2Aが閾値TH(例えば100[msec])よりも大きいこと、すなわち音声に対して映像が遅れていることを表しており、このときレンダラー77は次のステップSP28へ移る。 On the other hand, if a positive result is obtained in step SP24, this indicates that D2V-D2A is larger than a threshold value TH (for example, 100 [msec]), that is, the video is delayed with respect to the sound. At this time, the renderer 77 proceeds to the next step SP28.
ステップSP28においてレンダラー77は、出力ビデオバッファ79に「B」ピクチャが存在するか否かを判定し、肯定結果が得られると次のステップSP29へ移り、否定結果が得られると次のステップSP30へ移る。 In step SP28, the renderer 77 determines whether or not a “B” picture exists in the output video buffer 79. If a positive result is obtained, the process proceeds to the next step SP29, and if a negative result is obtained, the process proceeds to the next step SP30. Move.
ステップSP29においてレンダラー77は、ビオデがオーディオに対して遅れていると判断し、かつ「B」ピクチャが出力ビデオバッファ79に存在することを確認したので、Bピクチャ(ビデオフレームVf3)をデコードせずにスキップして出力することにより、音声に対する映像の遅れを取り戻してリップシンクさせることができ、次のステップSP31へ移って処理を終了する。 In step SP29, the renderer 77 determines that the video is behind the audio and confirms that the “B” picture is present in the output video buffer 79, so the B picture (video frame Vf3) is not decoded. By skipping to the output, the delay of the video with respect to the audio can be recovered and the lip sync can be performed, and the process proceeds to the next step SP31 to end the process.
一方、ステップSP30においてレンダラー77は、モニタ13のモニタ出力タイミングが60[Hz]であるのに対し、ビデオフレームVF2のピクチャリフレッシュタイミングが30[Hz]であることを利用し、当該ピクチャリフレッシュタイミングをモニタ13のモニタ出力タイミングに合わせて短縮することにより、ピクチャをスキップすることによる画質劣化を生じさせることなく音声に映像を追い付かせ、次のステップSP31へ移って処理を終了する。
On the other hand, in step SP30, the renderer 77 uses the fact that the monitor refresh timing of the
このように第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のクロックリファレンスpcrと当該リアルタイムストリーミングデコーダ12のシステムタイムクロックstcとを同期させることによりライブストリーミング再生を実現すると共に、そのためのクロックリファレンスpcrがUDPでリアルタイム性を重要視するために再送制御されずに到達しないことがあった場合でも、システムタイムクロックstcに対するオーディオタイムスタンプATS、ビデオタイムスタンプVTSのずれに応じてリップシンク調整処理を実行することにより、ライブストリーミング再生を行いながらも確実にリップシンクし得るようになされている。
As described above, the renderer 77 of the real-
(8)動作及び効果
以上の構成において、第1のコンテンツ受信装置3のストリーミングデコーダ9は、コンテンツの種類がオーディオ及びビデオからなるものである場合、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcの値をプリセットした後に必ずプリセット用オーディオタイムスタンプATSpでプリセットし直すことにより、最終的には必ずシステムタイムクロックstcの値とプリセット用オーディオタイムスタンプATSp(ATSp1、ATSp2、ATSp3、……)とを一致させる。
(8) Operation and Effect In the above configuration, the streaming
ストリーミングデコーダ9のレンダラー37は、プリセット用オーディオタイムスタンプATSpでプリセットしたシステムタイムクロックstcのカウント値と、ビデオフレームVF1(Vf1、Vf2、Vf3、……)に付されたビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)との差分値D1を算出することにより、当該ビデオタイムスタンプVTSを付したエンコーダ側のクロック周波数とデコーダ側システムタイムクロックstcのクロック周波数とのずれによって生じる時間差を認識することができる。
The
ストリーミングデコーダ9のレンダラー37は、その差分値D1に応じてビデオフレームVF1の現ピクチャをリピートして出力したり、又は非参照フレームのBピクチャをデコードせずにスキップして出力したり、或いはピクチャリフレッシュタイミングを短縮して出力することにより、モニタ10へ出力する音声を途切れさせることなく当該音声の連続性を保ったまま、その音声に対する映像の出力タイミングを調整することができる。
The
もちろんレンダラー37は、差分値D1が閾値TH以下であって、ユーザがリップシンクのずれを認識し得ない程度である場合には、リピート出力やスキップ再生処理或いはピクチャリフレッシュ間隔を短縮することをせずにビデオタイムスタンプVTS(VTS1、VTS2、VTS3、……)の通りにモニタ10へ出力することもできるので、この場合にも当然映像の連続性を保つことができる。
Of course, if the difference value D1 is equal to or less than the threshold value TH and the user cannot recognize the lip sync deviation, the
さらに第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrとデコーダ側のシステムタイムクロックstcとを同期させた上で、オーディオタイムスタンプATS及びビデオタイムスタンプVTSに従ってオーディオフレームAF2及びビデオフレームVF2をモニタ13へ出力することができるので、リアルタイム性を保持したままライブストリーミング再生を実現することができる。
Furthermore, the renderer 77 of the real-
その上、第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、第1のコンテンツ受信装置3におけるリアルタイムストリーミングエンコーダ11のPCR回路61から供給されるクロックリファレンスpcrがUDPで再送制御されずに到達しないために、当該クロックリファレンスpcrとシステムタイムクロックstcとの同期が外れたとしても、システムタイムクロックstcとビデオタイムスタンプVTSとの差分値D2V、システムタイムクロックstcとオーディオタイムスタンプATSとの差分値D2Aを算出し、当該差分値D2VとD2Aとのギャップに応じてビデオフレームVF2の出力タイミングを調整することにより、モニタ13へ出力する音声を途切れさせることなく連続性を保ったまま、その音声に対する映像の出力タイミングを調整することができる。
In addition, the renderer 77 of the real-
また第1のコンテンツ受信装置3におけるストリーミングデコーダ9のレンダラー37は、プリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従い、当該プリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpを用いてシステムタイムクロックstcをプリセットするようにしたことにより、コンテンツの種類がオーディオだけからなるものであるときにはプリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcをプリセットすることができ、またコンテンツの種類がビデオのみでなるものであるときには、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcをプリセットすることができるので、コンテンツの種類がオーディオ及びビデオからなるもの、オーディオのみからなるもの又はビデオのみからなるものである場合にも対応することができる。
Also, the
すなわちストリーミングデコーダ9のレンダラー37は、コンテンツが必ずしもオーディオ及びビデオからなるものでなく、当該コンテンツがビデオのみからなるものであってプリセット用オーディオタイムスタンプATSpが存在しないときや、コンテンツがオーディオのみからなるものであってプリセット用ビデオタイムスタンプVTSpが存在しないときでも、ビデオフレームVF1やオーディオフレームAF1の出力に対応することができるので、コンテンツの種類に応じた最適なタイミングでモニタ10へ出力することができる。
That is, the
さらにストリーミングデコーダ9のレンダラー37では、プリセット後のシステムタイムクロックstcのカウント値とビデオタイムスタンプVTS2との差分値D1が所定の閾値THよりも大きく、かつ映像が音声よりも遅れている場合で、出力ビデオバッファ39にBピクチャが存在するときには画質劣化の影響のない当該Bピクチャをデコードすることなくスキップし、出力ビデオバッファ39にBピクチャが存在しないときにはモニタ10のモニタ出力タイミングに合わせてビデオフレームVF1のピクチャリフレッシュタイミングを短縮することによりピクチャスキップによる画質劣化を生じさせずに映像を音声に追い付かせることができる。
Further, in the
以上の構成によれば、第1のコンテンツ受信装置3におけるストリーミングデコーダ9のレンダラー37及び第2のコンテンツ受信装置4におけるリアルタイムストリーミングデコーダ12のレンダラー77は、オーディオフレームAF1、AF2の出力タイミングを基準としてビデオフレームVF1、VF2の出力タイミングを調整することができるので、音声の連続性を保ったまま視聴者であるユーザに違和感を感じさせることなくリップシンクさせることができる。
According to the above configuration, the
(9)他の実施の形態
なお上述の実施の形態においては、オーディオフレームAF1、AF2を基準とした差分値D1又はD2V、D2Aに応じてリップシンクを調整することによりエンコーダ側のクロック周波数とデコーダ側のクロック周波数とのずれを吸収するようにした場合について述べたが、本発明はこれに限らず、クロックジッタ、ネットワークジッタ等によって生じるエンコーダ側のクロック周波数とデコーダ側のクロック周波数との微妙なずれを吸収するようにしても良い。
(9) Other Embodiments In the above-described embodiment, the clock frequency on the encoder side and the decoder are adjusted by adjusting the lip sync according to the difference values D1 or D2V, D2A based on the audio frames AF1, AF2. However, the present invention is not limited to this, and the present invention is not limited to this, and the subtle difference between the clock frequency on the encoder side and the clock frequency on the decoder side caused by clock jitter, network jitter, etc. The shift may be absorbed.
また上述の実施の形態においては、コンテンツ提供装置2と第1のコンテンツ受信装置3との間でインターネット5を介して接続し、プリエンコーデッドストリーミングを実現するようにした場合について述べたが、本発明はこれに限らず、コンテンツ提供装置2と第2のコンテンツ受信装置4との間でインターネット5を介して接続し、プリエンコーデッドストリーミングを実現するようにしたり、コンテンツ提供装置2から第1のコンテンツ受信装置3を介して第2のコンテンツ受信装置4へコンテンツを提供することによりプリエンコーデッドストリーミングを実現するようにしても良い。
In the above-described embodiment, the case where the
さらに上述の実施の形態においては、第1のコンテンツ受信装置3と第2のコンテンツ受信装置4との間でライブストリーミングを行うようにした場合について述べたが、本発明はこれに限らず、コンテンツ提供装置2と第1のコンテンツ受信装置3との間や、コンテンツ提供装置2と第2のコンテンツ受信装置4との間でライブストリーミングを行うようにしても良い。
Furthermore, in the above-described embodiment, the case where live streaming is performed between the first content receiving device 3 and the second
この場合、コンテンツ提供装置2のストリーミングサーバ8からクロックリファレンスpcrを第1のコンテンツ受信装置3のストリーミングデコーダ9へ送信し、当該ストリーミングデコーダ9でクロックリファレンスpcrとシステムタイムクロックstcとを同期させることにより、ライブストリーミングを実現することができる。
In this case, the clock reference pcr is transmitted from the streaming
さらに上述の実施の形態においては、サブトラクタ回路44及び45によって最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻すようにした場合について述べたが、本発明はこれに限らず、バッファ42及び43を介して最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1がコンパレータ回路46に到達した時点で、バッファ42及び43による遅延等によりSTC回路41からコンパレータ回路46に供給されるプリセット後のシステムタイムクロックstcの値が当該ビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1を経過していることがなければ、必ずしもサブトラクタ回路44及び45によって最初のビデオタイムスタンプVTS1及びオーディオタイムスタンプATS1の値を所定時間分だけ引き戻さなくても良い。
Further, in the above-described embodiment, the case where the values of the first video time stamp VTS1 and the audio time stamp ATS1 are pulled back by a predetermined time by the
さらに上述の実施の形態においては、コンテンツの種類を判別する前に当該コンテンツの種類に拘らずプリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpの順番で決められたプリセットシーケンスに従ってシステムタイムクロックstcをプリセットするようにした場合について述べたが、本発明はこれに限らず、最初にコンテンツの種類を判別し、当該コンテンツがオーディオ及びビデオからなるものであるときには、プリセット用ビデオタイムスタンプVTSp、プリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcをプリセットし、当該コンテンツがビデオだけからなるものであるときには、プリセット用ビデオタイムスタンプVTSpでシステムタイムクロックstcをプリセットし、当該コンテンツがオーディオだけからなるものであるときには、プリセット用オーディオタイムスタンプATSpでシステムタイムクロックstcをプリセットするようにしても良い。 Furthermore, in the above-described embodiment, the system time clock stc is determined according to a preset sequence determined in the order of the preset video time stamp VTSp and the preset audio time stamp ATSp regardless of the content type before determining the content type. However, the present invention is not limited to this, and the type of content is first determined. When the content is composed of audio and video, the preset video time stamp VTSp, If the system time clock stc is preset with the audio time stamp ATSp and the content is composed only of video, the system time clock is set with the preset video time stamp VTSp. Presetting the stc, when the content is made of only the audio is preset audio time-stamp ATSp may be preset system time clock stc.
さらに上述の実施の形態においては、出力ビデオバッファ39、79にBピクチャが存在しない場合には、モニタ10及び13のモニタ出力レートに合わせてビデオフレームVF1及びVF2のピクチャリフレッシュレートを30[Hz]から60[Hz]に短縮するようにした場合について述べたが、本発明はこれに限らず、Bピクチャの有無に拘らずビデオフレームVF1及びVF2のピクチャリフレッシュレートを30[Hz]から60[Hz]に短縮するようにしても良い。この場合でも、レンダラー37及び77は、音声に対して映像の遅れを取り戻してリップシンクさせることができる。
Further, in the above-described embodiment, when no B picture exists in the output video buffers 39 and 79, the picture refresh rate of the video frames VF1 and VF2 is set to 30 [Hz] in accordance with the monitor output rate of the
さらに上述の実施の形態においては、Bピクチャをスキップして出力するようにした場合について述べたが、本発明はこれに限らず、Iピクチャの直前に位置するPピクチャをスキップして出力するようにしても良い。 Furthermore, in the above-described embodiment, the case where the B picture is skipped and output has been described. However, the present invention is not limited to this, and the P picture located immediately before the I picture is skipped and output. Anyway.
これは、Iピクチャの直前に位置するPピクチャであれば、次のIピクチャを生成する際に当該Pピクチャが参照されることはなく、スキップしたとしても次のIピクチャを生成する際に支障を来たすことがなく、画質劣化が生じることもないからである。 This is because if the P picture is located immediately before the I picture, the P picture is not referred to when the next I picture is generated, and even if it is skipped, there is a problem in generating the next I picture. This is because the image quality is not deteriorated.
さらに上述の実施の形態においては、ビデオフレームVf3をデコードせずにスキップしてモニタ10へ出力するようにした場合について述べたが、本発明はこれに限らず、ビデオフレームVf3をデコードした後に出力ビデオバッファ39から出力する段階でデコード後のビデオフレームVf3をスキップして出力するようにしても良い。
Further, in the above-described embodiment, the case where the video frame Vf3 is skipped without being decoded and output to the
さらに上述の実施の形態においては、オーディオフレームAF1、AF2についてはリップシンクの調整を行う際の基準として用いているために、全てのオーディオフレームについて欠けることなくモニタ10、13へ出力するようにした場合について述べたが、本発明はこれに限らず、例えば無音部分に相当するオーディオフレームがあった場合には、そのオーディオフレームをスキップして出力するようにしても良い。
Further, in the above-described embodiment, since the audio frames AF1 and AF2 are used as a reference when adjusting the lip sync, all the audio frames are output to the
さらに上述の実施の形態においては、本発明のコンテンツ受信装置を、復号手段としてのオーディオデコーダ35、74、ビデオデコーダ36、76と、記憶手段としての入力オーディオバッファ33、73、出力オーディオバッファ38、78、入力ビデオバッファ34、75、出力ビデオバッファ39、79と、算出手段及びタイミング調整手段としてのレンダラー37、77とによって構成するようにした場合について述べたが、本発明はこれに限らず、その他種々の回路構成でコンテンツ受信装置を形成するようにしても良い。
Furthermore, in the above-described embodiment, the content receiving apparatus of the present invention includes
本発明のコンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システムは、例えばサーバから音声付の動画コンテンツをダウンロードして表示する用途に適用することができる。 The content receiving apparatus, the video / audio output timing control method, and the content providing system according to the present invention can be applied, for example, to downloading and displaying moving image content with sound from a server.
1……コンテンツ提供システム、2……コンテンツ提供装置、3……第1のコンテンツ受信装置、4……第2のコンテンツ受信装置、5……インターネット、7……エンコーダ、8……ストリーミングサーバ、9……ストリーミングデコーダ、10、13……モニタ、11……リアルタイムストリーミングエンコーダ、12……リアルタイムストリーミングデコーダ、14……Webサーバ、15……Webブラウザ、21、51……ビデオ入力部、22、52……ビデオエンコーダ、23……ビデオES蓄積部、24、53……オーディオ入力部、25、54……オーディオエンコーダ、26……オーディオES蓄積部、28、57……ビデオフレームカウンタ、29、58……オーディオフレームカウンタ、27、56……パケット生成部、30、59……パケットデータ蓄積部、31、71……入力パケット蓄積部、32、72……パケット分割部、33、73……入力オーディオバッファ、34、75……入力ビデオバッファ、35、74……オーディオデコーダ、36、76……ビデオデコーダ、37、77……レンダラー、38、78……出力オーディオバッファ、39、79……出力ビデオバッファ、40……クリスタルオシレータ回路、81……減算回路、82……フィルタ、83……電圧制御型クリスタルオシレータ、41、60、84……STC回路、61……PCR回路。
DESCRIPTION OF
Claims (8)
上記復号手段によって上記符号化ビデオフレーム及び上記符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、
上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、
上記時間差に応じ、上記複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として上記複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整するタイミング調整手段と
を具えることを特徴とするコンテンツ受信装置。 Providing content on the encoder side with a plurality of encoded video frames sequentially attached with video time stamps based on a reference clock on the encoder side and a plurality of encoded audio frames sequentially attached with audio time stamps based on the reference clock Decoding means for receiving and decoding from the device;
Storage means for storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame by the decoding means;
Calculating means for calculating a time difference caused by a deviation between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side;
Timing adjustment means for adjusting a video frame output timing when sequentially outputting the plurality of video frames in units of frames with reference to an audio frame output timing when the plurality of audio frames are sequentially output in units of frames according to the time difference A content receiving apparatus comprising:
ことを特徴とする請求項1に記載のコンテンツ受信装置。 2. The content according to claim 1, wherein the timing adjustment unit outputs the video frame according to the video time stamp based on a system time clock on the decoder side when the time difference is shorter than a predetermined time. Receiver device.
を具え、
上記算出手段は、上記エンコーダ側の基準クロックと上記デコーダ側のシステムタイムクロックとを同期させた上で、上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する
ことを特徴とする請求項1に記載のコンテンツ受信装置。 Receiving means for receiving a reference clock on the encoder side transmitted by UDP (User Datagram Protocol), which requires real-time performance from the content providing device;
The calculation means synchronizes the reference clock on the encoder side with the system time clock on the decoder side, and then calculates the difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side. The content receiving apparatus according to claim 1, wherein a time difference that occurs is calculated.
上記ビデオタイムスタンプ、上記オーディオタイムスタンプの順番で決められたプリセットシーケンスに従い、当該ビデオタイムスタンプ又は当該オーディオタイムスタンプを用いて上記デコーダ側のシステムタイムクロックをプリセットするプリセット手段を具え、
上記算出手段は、上記エンコーダ側の基準クロックのクロック周波数と上記プリセット後のシステムタイムクロックのクロック周波数とのずれによって生じる上記時間差を算出する
ことを特徴とする請求項1に記載のコンテンツ受信装置。 The content receiving device is:
In accordance with a preset sequence determined by the order of the video time stamp and the audio time stamp, preset means for presetting the system time clock on the decoder side using the video time stamp or the audio time stamp,
The content receiving apparatus according to claim 1, wherein the calculating means calculates the time difference caused by a difference between a clock frequency of the reference clock on the encoder side and a clock frequency of the system time clock after the presetting.
上記ビデオタイムスタンプ、上記オーディオタイムスタンプの順番で決められたプリセットシーケンスに従うことにより、上記コンテンツの種類がオーディオのみでなるものの場合、上記オーディオタイムスタンプを用いて上記デコーダ側のシステムタイムクロックをプリセットするプリセット手段と、
上記プリセット後のシステムタイムクロック及び上記オーディオタイムスタンプに基づいて上記オーディオフレームの音声を出力するオーディオ出力手段と
を具えることを特徴とする請求項1に記載のコンテンツ受信装置。 The content receiving device is:
By following a preset sequence determined in the order of the video time stamp and the audio time stamp, if the content type is only audio, the system time clock on the decoder side is preset using the audio time stamp. Preset means;
The content receiving apparatus according to claim 1, further comprising: an audio output unit that outputs audio of the audio frame based on the system time clock after the preset and the audio time stamp.
上記ビデオタイムスタンプ、上記オーディオタイムスタンプの順番で決められたプリセットシーケンスに従うことにより、上記コンテンツの種類がビデオのみでなるものの場合、上記ビデオタイムスタンプを用いて上記デコーダ側のシステムタイムクロックをプリセットするプリセット手段と、
上記プリセット後のシステムタイムクロック及び上記ビデオタイムスタンプに基づいて上記ビデオフレームの映像を出力するビデオ出力手段と
を具えることを特徴とする請求項1に記載のコンテンツ受信装置。 The content receiving apparatus is
By following a preset sequence determined in the order of the video time stamp and the audio time stamp, the system time clock on the decoder side is preset using the video time stamp when the content type is only video. Preset means;
2. The content receiving apparatus according to claim 1, further comprising video output means for outputting the video frame based on the preset system time clock and the video time stamp.
記憶手段に対して、上記復号ステップで上記符号化ビデオフレーム及び上記符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積させる記憶ステップと、
算出手段に対して、上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出させる差分算出ステップと、
タイミング調整手段に対して、上記時間差に応じ、上記複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として上記複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整させるタイミング調整ステップと
を具えることを特徴とするビデオオーディオ出力タイミング制御方法。 A plurality of encoded video frames sequentially attached with video time stamps based on a reference clock on the encoder side and a plurality of encoded audio frames sequentially attached with audio time stamps based on the reference clock to the decoding means. A decoding step for receiving and decoding from the content providing apparatus on the encoder side;
A storage step of storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame in the decoding step;
A difference calculating step for causing the calculating means to calculate a time difference caused by a difference between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side;
Video frame output when sequentially outputting the plurality of video frames in units of frames with reference to the audio frame output timing when the plurality of audio frames are sequentially output in units of frames in response to the time difference. A video audio output timing control method comprising: a timing adjustment step for adjusting timing.
上記コンテンツ提供装置は、
エンコーダ側の基準クロックに基づくビデオタイムスタンプを付した複数の符号化ビデオフレームと、上記基準クロックに基づくオーディオタイムスタンプを付した複数の符号化オーディオフレームとを生成する符号化手段と、
上記複数の符号化ビデオフレーム及び上記複数の符号化オーディオフレームを上記コンテンツ受信装置へ順次送信する送信手段と
を具え、
上記コンテンツ受信装置は、
上記ビデオタイムスタンプが順次付された複数の符号化ビデオフレームと、上記オーディオタイムスタンプが順次付された複数の符号化オーディオフレームとを上記エンコーダ側のコンテンツ提供装置から受信して復号する復号手段と、
上記復号手段によって上記符号化ビデオフレーム及び上記符号化オーディオフレームを復号した結果得られる複数のビデオフレーム及び複数のオーディオフレームを蓄積する記憶手段と、
上記エンコーダ側の基準クロックのクロック周波数とデコーダ側のシステムタイムクロックのクロック周波数とのずれによって生じる時間差を算出する算出手段と、
上記時間差に応じ、上記複数のオーディオフレームをフレーム単位で順次出力するときのオーディオフレーム出力タイミングを基準として上記複数のビデオフレームをフレーム単位で順次出力するときのビデオフレーム出力タイミングを調整するタイミング調整手段と
を具えることを特徴とするコンテンツ提供システム。
A content providing system having a content providing device and a content receiving device,
The content providing apparatus includes:
Encoding means for generating a plurality of encoded video frames with video time stamps based on a reference clock on the encoder side, and a plurality of encoded audio frames with audio time stamps based on the reference clock;
Transmitting means for sequentially transmitting the plurality of encoded video frames and the plurality of encoded audio frames to the content receiving device;
The content receiving apparatus is
Decoding means for receiving and decoding a plurality of encoded video frames sequentially attached with the video time stamp and a plurality of encoded audio frames sequentially attached with the audio time stamp from the content providing apparatus on the encoder side; ,
Storage means for storing a plurality of video frames and a plurality of audio frames obtained as a result of decoding the encoded video frame and the encoded audio frame by the decoding means;
Calculating means for calculating a time difference caused by a deviation between the clock frequency of the reference clock on the encoder side and the clock frequency of the system time clock on the decoder side;
Timing adjustment means for adjusting a video frame output timing when sequentially outputting the plurality of video frames in units of frames with reference to an audio frame output timing when the plurality of audio frames are sequentially output in units of frames according to the time difference A content providing system characterized by comprising:
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004256203A JP4882213B2 (en) | 2003-09-02 | 2004-09-02 | Content receiving apparatus, video / audio output timing control method, and content providing system |
CN200580034341XA CN101036389B (en) | 2004-09-02 | 2005-08-31 | Content receiving apparatus, video/audio output timing control method, and content providing system |
PCT/JP2005/016358 WO2006025584A1 (en) | 2004-09-02 | 2005-08-31 | Content receiver, video-audio output timing control method, and content providing system |
US11/661,347 US8189679B2 (en) | 2004-09-02 | 2005-08-31 | Content receiving apparatus, method of controlling video-audio output timing and content providing system |
EP05778546.1A EP1786209B1 (en) | 2004-09-02 | 2005-08-31 | Content receiver, video-audio output timing control method, and content providing system |
KR1020077005130A KR101263522B1 (en) | 2004-09-02 | 2005-08-31 | Content receiver, video-audio output timing control method, and content providing system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003310639 | 2003-09-02 | ||
JP2003310639 | 2003-09-02 | ||
JP2004256203A JP4882213B2 (en) | 2003-09-02 | 2004-09-02 | Content receiving apparatus, video / audio output timing control method, and content providing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005102192A true JP2005102192A (en) | 2005-04-14 |
JP4882213B2 JP4882213B2 (en) | 2012-02-22 |
Family
ID=34467534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004256203A Expired - Fee Related JP4882213B2 (en) | 2003-09-02 | 2004-09-02 | Content receiving apparatus, video / audio output timing control method, and content providing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4882213B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100725260B1 (en) | 2005-12-07 | 2007-06-07 | 한국전자통신연구원 | Interface device with system board for image decoder verification |
JP2012060256A (en) * | 2010-09-06 | 2012-03-22 | Sharp Corp | Video content reproduction device, control method thereof, program, and recording medium |
CN114827679A (en) * | 2022-04-19 | 2022-07-29 | 海信视像科技股份有限公司 | Display device and sound picture synchronization method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1188856A (en) * | 1997-09-05 | 1999-03-30 | Hitachi Ltd | Transmission protocol converting system and catv network connecting system using protocol converting device |
JP2003179879A (en) * | 2001-08-31 | 2003-06-27 | Stmicroelectronics Inc | Apparatus and method for synchronizing video and audio MPEG streams in video playback device |
-
2004
- 2004-09-02 JP JP2004256203A patent/JP4882213B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1188856A (en) * | 1997-09-05 | 1999-03-30 | Hitachi Ltd | Transmission protocol converting system and catv network connecting system using protocol converting device |
JP2003179879A (en) * | 2001-08-31 | 2003-06-27 | Stmicroelectronics Inc | Apparatus and method for synchronizing video and audio MPEG streams in video playback device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100725260B1 (en) | 2005-12-07 | 2007-06-07 | 한국전자통신연구원 | Interface device with system board for image decoder verification |
JP2012060256A (en) * | 2010-09-06 | 2012-03-22 | Sharp Corp | Video content reproduction device, control method thereof, program, and recording medium |
CN114827679A (en) * | 2022-04-19 | 2022-07-29 | 海信视像科技股份有限公司 | Display device and sound picture synchronization method |
Also Published As
Publication number | Publication date |
---|---|
JP4882213B2 (en) | 2012-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101263522B1 (en) | Content receiver, video-audio output timing control method, and content providing system | |
WO2005025224A1 (en) | Content reception device, video/audio output timing control method, and content providing system | |
JP6317872B2 (en) | Decoder for synchronizing the rendering of content received over different networks and method therefor | |
JP7279767B2 (en) | Transmission method and transmission device | |
JP4182437B2 (en) | Audio video synchronization system and monitor device | |
JP4983923B2 (en) | Decoder device and decoding method | |
WO2011064909A1 (en) | Method and system for playing video information, and video information content | |
WO2013190789A1 (en) | Reception device, and synchronous processing method therefor | |
JP2009272945A (en) | Synchronous reproduction apparatus | |
US20150109411A1 (en) | Image playback apparatus for 3dtv and method performed by the apparatus | |
JP2003249922A (en) | Data receiver, method for processing received data and computer program | |
JP6051847B2 (en) | Video information reproduction method and system | |
US20060161676A1 (en) | Apparatus for IP streaming capable of smoothing multimedia stream | |
JP3906712B2 (en) | Data stream processing device | |
JP4882213B2 (en) | Content receiving apparatus, video / audio output timing control method, and content providing system | |
JP4735932B2 (en) | Content receiving apparatus, video / audio output timing control method, and content providing system | |
JP4192766B2 (en) | Receiving apparatus and method, recording medium, and program | |
JP2004015553A (en) | Synchronization control method and apparatus thereof, synchronization reproduction apparatus and tv receiving apparatus using the control method and apparatus | |
WO2011155099A1 (en) | Image display device | |
WO2021006137A1 (en) | Reception device, reception method, and transmission/reception system | |
JP4874272B2 (en) | Video signal processing apparatus and video signal processing method | |
JP4188402B2 (en) | Video receiver | |
JP2012016066A (en) | Video signal processor, and video signal processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111108 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141216 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4882213 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141216 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |