[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7251480B2 - 再生装置、再生方法、プログラム - Google Patents

再生装置、再生方法、プログラム Download PDF

Info

Publication number
JP7251480B2
JP7251480B2 JP2019551042A JP2019551042A JP7251480B2 JP 7251480 B2 JP7251480 B2 JP 7251480B2 JP 2019551042 A JP2019551042 A JP 2019551042A JP 2019551042 A JP2019551042 A JP 2019551042A JP 7251480 B2 JP7251480 B2 JP 7251480B2
Authority
JP
Japan
Prior art keywords
metadata
menu
display
stream
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019551042A
Other languages
English (en)
Other versions
JPWO2019087775A1 (ja
Inventor
幸一 内村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019087775A1 publication Critical patent/JPWO2019087775A1/ja
Application granted granted Critical
Publication of JP7251480B2 publication Critical patent/JP7251480B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/793Processing of colour television signals in connection with recording for controlling the level of the chrominance signal, e.g. by means of automatic chroma control circuits
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本技術は、再生装置、再生方法、プログラムに関し、特に、ビデオに重畳して他の情報を表示させる場合の不自然な輝度の変化を防ぐことができるようにした再生装置、再生方法、プログラムに関する。
Ultra HD Blu-ray(登録商標) Disc(UHD BD)は、ダイナミックレンジを拡張したビデオであるHDR(High Dynamic Range)ビデオの収録に対応したBD規格である。SDR(Standard Dynamic Range)ビデオの最高輝度が100nits(100cd/m2)であるのに対し、HDRビデオの最高輝度は、それを超える例えば10000nitsである。
HDRビデオストリームのメタデータとして、ピクチャ(フレーム)単位の輝度情報を含むメタデータであるDynamic metadataがSMPTE ST 2094で規定されている。Dynamic metadataを付加したHDRビデオストリームの再生時、プレーヤ側からTV側には、各ピクチャとともにDynamic metadataが伝送される。
TV側においては、ディスプレイの最高輝度がHDRビデオの輝度より低い場合、BDプレーヤから伝送されてきたDynamic metadataに基づいて、HDRビデオの輝度を圧縮するための処理が行われる。
特開2017-139052号公報
HDRビデオの再生中に、メニュー、字幕、OSD(On Screen Display)などの表示がユーザにより指示されることがある。例えばメニューの表示が指示された場合、BDプレーヤにおいては、HDRビデオの各ピクチャにメニューの画像が合成され、メニューの画像が合成されたHDRビデオがTVに対して出力される。
Dynamic metadataを用いた輝度圧縮をメニューの画像が合成されたHDRビデオに対して行った場合、HDRビデオの輝度とともに、メニューの画像の輝度も圧縮される。従って、例えば輝度の変化が激しいシーンでメニューの表示が指示された場合、メニューの輝度の変化も激しくなり、これにより、違和感をユーザに与えてしまうことがある。
本技術はこのような状況に鑑みてなされたものであり、ビデオに重畳して他の情報を表示させる場合の不自然な輝度の変化を防ぐことができるようにするものである。
本技術の一側面の再生装置は、ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームのファイルと、メニューを表示させる間の表示装置における輝度調整に用いるメタデータを表すフラグが記述された再生制御情報のファイルとを記録媒体から読み出す読み出し部と、前記ビデオストリームの再生に用いられる前記再生制御情報を解析し、前記フラグの値を特定する制御部と、前記ビデオストリームをデコードするデコード部と、前記メニューを表示させる場合、前記ビデオストリームをデコードすることによって得られた前記ピクチャに、前記フラグにより表される、前記動的メタデータとは異なる表示用メタデータを付加し、前記表示装置に出力する出力制御部とを備える。
本技術においては、ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームのファイルと、メニューを表示させる間の表示装置における輝度調整に用いるメタデータを表すフラグが記述された再生制御情報のファイルとが記録媒体から読み出され、前記ビデオストリームの再生に用いられる前記再生制御情報が解析され、前記フラグの値が特定され、前記ビデオストリームがデコードされる。前記メニューを表示させる場合、前記ビデオストリームをデコードすることによって得られた前記ピクチャに、前記フラグにより表される、前記動的メタデータとは異なる表示用メタデータが付加され、前記表示用メタデータが付加された前記ピクチャが前記表示装置に出力される。
本技術によれば、ビデオに重畳して他の情報を表示させる場合の不自然な輝度の変化を防ぐことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
HDRコンテンツの再生システムの構成例を示す図である。 HDRビデオの輝度圧縮に用いられるトーンカーブの例を示す図である。 SMPTE ST 2094-40で規定されるDynamic metadataを示す図である。 BDのファイル構造を示す図である。 AVストリームの構造の例を示す図である。 Dynamic metadataの伝送例を示す図である。 メニュー表示時の輝度圧縮の例を示す図である。 光ディスクに用意されるメタデータの例を示す図である。 輝度圧縮後の表示を示す図である。 本技術の一実施形態に係る再生装置を示す図である。 メタデータの伝送例を示す図である。 BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。 Main PathとSub Pathの構造を示す図である。 ファイルの管理構造の例を示す図である。 PlayListファイルのシンタクスを示す図である。 図15のPlayList()のシンタクスを示す図である。 図16のPlayItem()のシンタクスを示す図である。 図17のSTN_table()のシンタクスを示す図である。 IGストリームに関するstream_attributes()の記述の例を示す図である。 再生装置の構成例を示すブロック図である。 図20のコントローラの機能構成例を示すブロック図である。 図20の復号処理部の構成例を示すブロック図である。 再生装置の再生処理について説明するフローチャートである。 再生装置の再生処理について説明する、図23に続くフローチャートである。 ディスプレイセットの例を示す図である。 ICSのシンタクスを示す図である。 interactive_composition()のシンタクスを示す図である。 TVの構成例を示すブロック図である。 TVの表示処理について説明するフローチャートである。 記録装置の構成例を示すブロック図である。 図30のコントローラの機能構成例を示すブロック図である。 記録装置の記録処理について説明するフローチャートである。 HDRコンテンツの他の再生システムの構成例を示す図である。 再生装置の他の構成例を示す図である。 HDRコンテンツのさらに他の再生システムの構成例を示す図である。 コンピュータの構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.HDRビデオ用のメタデータ
2.メニュー表示時の輝度変化
3.メニュー表示用メタデータ
4.BDフォーマット
5.実施の形態1:PlayListにフラグを記述する例
6.実施の形態2:IGストリームにフラグを記述する例
7.他の装置の構成と動作
8.再生システムの他の構成例
9.その他の例
<<1.HDRビデオ用のメタデータ>>
図1は、HDRコンテンツの再生システムの構成例を示す図である。
図1の再生システムは、再生装置1とTV(テレビジョン受像機)2が、HDMI(登録商標)(High-Definition Multimedia Interface) 2.0a,HDMI 2.1などの所定の規格のケーブルで接続されることによって構成される。再生装置1とTV2が、無線のインタフェースを介して接続されるようにしてもよい。
再生装置1は、UHD BDプレーヤなどの、HDRコンテンツの再生に対応した装置である。再生装置1のドライブには、HDRコンテンツを記録したBDが装着される。再生装置1が再生するコンテンツには、HDRビデオのデータの他に、オーディオデータも含まれる。
TV2は、放送波やネットワークを伝送路として伝送されてきた番組を受信して表示する機能の他に、外部から入力されたビデオを表示する機能を有する。TV2が有する表示デバイスは、輝度が100nitsを超えるHDRビデオの表示に対応したディスプレイである。
HDRコンテンツの伝送を開始する前、再生装置1とTV2は、それぞれの性能に関する情報を送受信するなどして、HDMIの伝送設定(configuration)を行う。例えば、再生装置1からTV2に対しては、HDRビデオの伝送を行うことが通知される。また、TV2から再生装置1に対しては、TV2のディスプレイの最高輝度が通知される。
伝送設定の後、再生装置1は、BDから読み出したHDRビデオストリームをデコードし、HDRビデオの各ピクチャをTV2に出力する。TV2は、再生装置1から伝送されてきた各ピクチャを受信し、表示させる。
このとき、TV2においては、ディスプレイの性能に応じて、適宜、再生装置1から伝送されてきたHDRビデオの輝度を調整(圧縮)する処理が行われる。輝度圧縮は、再生装置1が出力するHDRビデオの輝度が、TV2のディスプレイの最高輝度より高い場合に行われる。
図1の例においては、再生装置1が出力するHDRビデオの輝度が1000nitsであり、TV2のディスプレイの最高輝度が500nitsであるものとされている。
図2は、HDRビデオの輝度圧縮に用いられるトーンカーブの例を示す図である。
図2の横軸は入力信号の輝度を表し、縦軸は出力(表示)の輝度を表す。例えば、SMPTE ST 2084で規定されるPQ(Perceptual Quantization)カーブを用いたEOTF(Electro-Optical Transfer Function)処理がTV2側で行われ、HDRビデオの輝度が、ディスプレイの最高輝度である500nitsの範囲に収まるように圧縮される。
なお、図2において矢印の先に示す、明暗の表現がリニアではなくなるポイントが、knee pointと呼ばれる。
このように、図1の再生システムにおいては、再生装置1が出力するHDRビデオの輝度に対してTV2のディスプレイが十分な輝度を有していない場合、TV2側で輝度圧縮が行われる。
再生装置1からTV2に対しては、輝度圧縮のための補助情報として、コンテンツの輝度情報を含むメタデータが伝送される。例えば、Dynamic metadataが再生装置1からTV2に対して伝送される。
Dynamic metadataは、コンテンツの輝度情報をピクチャ単位で動的に表現するメタデータであり、SMPTE ST 2094として標準化されている。
図3は、SMPTE ST 2094-40で規定されるDynamic metadataを示す図である。
図3の1行目に示すように、Dynamic metadataには、フレームに設定されたWindowの情報が記述される。Windowは、フレーム内に設定された矩形領域である。1フレーム内に最大3つのWindowを設定することが可能とされる。
2~14行目に示す各パラメータが、フレームに設定されたWindow毎に記述される。
Window size, Window locationは、Windowのサイズと位置を示す。
Internal Ellipse size, Internal Ellipse locationは、Window内に設定された2つの楕円のうちの内側の楕円のサイズと位置を示す。Window内に楕円を設定し、楕円内の輝度を指定することができるようになされている。
External Ellipse size, External Ellipse locationは、Window内に設定された2つの楕円のうちの外側の楕円のサイズと位置を示す。
Rotation angleは、Window内に設定された2つの楕円の傾きを示す。
Overlap process optionは、楕円内の画素の処理方法を示す。
maxsclは、Windowの中の最も明るいピクセルのRGB値を示す。
average max rgbは、Windowの中の各ピクセルのR,G,Bの中の最も大きい値の平均を示す。
Distribution max rgb percentagesは、Windowの中の明るい輝度のランキングをパーセンテージにより示す。
Distribution max rgb percentilesは、Windowの中の明るい輝度のランキングを順位(パーセンタイル)により示す。
Fraction bright pixelsは、シーン内の最大の輝度値が出画される程度を示す。
Knee pointは、上述したknee pointの輝度値を示す。
Bezier curve anchorsは、knee pointを超える明るさのサンプルx,yを示す。
Color saturation weightは、想定するディスプレイ(Target display)において輝度圧縮を行った際に変化したRGB値の補正に用いる値を示す。
Target System display max luminanceは、想定するディスプレイの輝度を示す。Target System display max luminanceにより、こういうディスプレイで表示されることを想定してコンテンツを作ったということが指定される。
Local display luminanceは、ディスプレイを縦横2×2から25×25までのエリアに分割した場合の、それぞれのエリアの最大の輝度値を示す。
Local mastering display luminanceは、mastering displayを縦横2×2から25×25までのエリアに分割した場合の、それぞれのエリアの最大の輝度値を示す。
このように、Dynamic metadataにおいては、1~15行目のパラメータによってフレーム(フレーム内のWindow)の属性が示される。また、16行目と17行目のパラメータによって、想定するディスプレイの属性が示され、18行目のパラメータによって、コンテンツの作成に用いられたディスプレイの属性が示される。
図4は、BDのファイル構造を示す図である。
詳細については後述するが、BDMVディレクトリの下に設定されるSTREAMディレクトリには、m2tsの拡張子が設定されたAVストリームファイルが格納される。
AVストリームファイルは、HDRビデオストリーム、オーディオストリーム、字幕ストリームなどをMPEG-2で多重化して得られたMPEG-2 TSのファイルである。図4の例においては、「01000.m2ts」、「02000.m2ts」、「03000.m2ts」のAVストリームファイルがSTREAMディレクトリに格納されている。
HDRビデオストリームは、例えばHEVC(High Efficiency Video Coding)の符号化ストリームである。Dynamic metadataは、HEVCのSEI(Supplemental Enhancement Information)メッセージとしてHDRビデオストリームに含まれる。
図5は、図4において枠F1で囲んで示す「03000.m2ts」のAVストリームの構造の例を示す図である。
図5の最上段に示すように、「03000.m2ts」のAVストリームは、ビデオ、オーディオ、字幕などのそれぞれのデータを格納するTS packetから構成される。ビデオのTS packetを集めてVideo Elementary streamが構成される。
Video Elementary streamはAccess Unitの並びから構成され、1つのAccess Unitが、HDRビデオの1ピクチャのデータとなる。それぞれのAccess Unitには、AU delimiterに続けて、SPS、PPSなどのパラメータが含まれるとともに、枠F11で囲んで示すように、SEIメッセージが含まれる。
SEIメッセージに、上述したDynamic metadataが含まれる。なお、SEIメッセージの次には、HDRビデオのデータがPicture dataとして含まれる。
このように、BDにおいては、Dynamic metadataは、各ピクチャに付加する形でHDRビデオストリームに含まれ、オーディオストリームなどとともに多重化される。
図6は、Dynamic metadataの伝送例を示す図である。
図6に示すように、Dynamic metadataは、HDRビデオストリームをデコードして得られた各ピクチャに関連付けて、再生装置1からTV2に伝送される。TV2においては、各ピクチャの輝度圧縮が、各ピクチャとともに伝送されてきたDynamic metadataに基づいて行われる。
<<2.メニュー表示時の輝度変化>>
図7は、メニュー表示時の輝度圧縮の例を示す図である。
なお、以下においては、HDRビデオにメニューを重畳して表示させる場合について説明するが、字幕、OSDなどの他の情報をHDRビデオに重畳して表示させる場合も同様である。
図7の横軸は時刻を表す。ピクチャ#1,#2,#3の順に再生装置1からTV2に伝送され、TV2において輝度圧縮が行われる。
ピクチャ#1,#2,#3のそれぞれには、例えばユーザによりメニューの表示が指示されることに応じて、メニューの画像が再生装置1において合成される。図7において、ピクチャ#1,#2,#3に重ねて示す、「ここにメニューが表示される」の文字と文字を囲む枠は、その領域に、ボタンなどの、メニューを構成する画像が合成されていることを表す。
例えば、ピクチャ#2が、ピクチャ#1,#3よりも高輝度のシーンを構成するピクチャであるものとする。
メニューの画像が合成されたピクチャ#1の輝度圧縮は、ピクチャ#1とともに伝送されたDynamic metadataにより表されるトーンカーブC1に基づいて行われる。メニューの画像が合成されたピクチャ#2の輝度圧縮は、ピクチャ#2とともに伝送されたDynamic metadataにより表されるトーンカーブC2に基づいて行われる。メニューの画像が合成されたピクチャ#3の輝度圧縮は、ピクチャ#3とともに伝送されたDynamic metadataにより表されるトーンカーブC3に基づいて行われる。
高輝度のシーンを構成するピクチャ#2の輝度圧縮に用いられるトーンカーブC2は、ピクチャ#1の輝度圧縮に用いられるトーンカーブC1、ピクチャ#3の輝度圧縮に用いられるトーンカーブC3と比べて、輝度を強く圧縮するものとなる。ピクチャ#2上のメニューの輝度も、ピクチャ#1,#3上のメニューの輝度より強く圧縮される。
従って、輝度圧縮後の各ピクチャのメニューの見え方を比べた場合、図7に示すように、ピクチャ#2上のメニューは、ピクチャ#1,#3上のメニューより輝度が低い状態で表示される。図7において、ピクチャ#2上のメニューを薄い色を付して示していることは、ピクチャ#1,#3上のメニューより輝度が低いことを表す。
ピクチャ#1乃至#3が順に表示された場合、ピクチャ#2の表示のタイミングで、メニューの輝度が一段階低くなり、輝度の圧縮の程度によっては不自然な見え方になる。例えば、輝度の変化が大きいシーンが連続する場合、メニューが点滅して見えてしまう。
図8は、光ディスクに用意されるメタデータの例を示す図である。
上述したような不自然な見え方を防ぐため、図8に示すように、メニューの表示時用のメタデータであるデフォルトメタデータを光ディスク11に用意しておくことが考えられる。光ディスク11はBDである。
デフォルトメタデータは、例えば図3を参照して説明したDynamic metadataのパラメータと同様のパラメータを含むメタデータである。各パラメータには固定値が設定される。Dynamic metadataに含まれるパラメータの値がビデオの見え方を優先させた値であるのに対して、デフォルトメタデータに含まれるパラメータの値は、例えば、メニューの見え方を優先させた値である。
再生装置1は、HDRコンテンツの再生を開始した場合、HDRビデオストリームをデコードして得られた各ピクチャにDynamic metadataを関連付けて出力する。
また、再生装置1は、メニューの表示が指示された場合、HDRビデオストリームをデコードして得られた各ピクチャにメニューの画像を合成し、メニューの画像を合成したピクチャにデフォルトメタデータを関連付けて出力する。
TV2においては、メニューの画像を合成したピクチャに対して、デフォルトメタデータを用いた輝度圧縮が行われ、輝度圧縮後のピクチャが表示される。メニューの輝度も、デフォルトメタデータにより表されるトーンカーブに従って圧縮される。
デフォルトメタデータに含まれるパラメータの値が固定値であるから、デフォルトメタデータが関連付けられたピクチャの輝度に関わらず、メニューの輝度は一定となる。
図9は、輝度圧縮後の表示を示す図である。
例えば、図9の左側に示すように高い輝度のシーンが表示されている状態でメニューの表示が指示された場合、Dynamic metadataではなくデフォルトメタデータを用いた輝度圧縮が行われ、矢印A2の先に示すようにHDRビデオの輝度が低くなる。すなわち、Dynamic metadataを用いた輝度圧縮後の輝度が矢印A1の先に示すHDRビデオの本来の輝度であるとすると、本来の輝度より暗いHDRビデオが表示される。
メニュー用の値が設定されたメタデータであるから、デフォルトメタデータを用いた輝度圧縮により、矢印A2の先に示すように、メニューの輝度は好適なものになる。
図7を参照して説明した処理の場合、ビデオに合わせた輝度圧縮がメニューに対して施されることにより、ビデオの輝度圧縮にいわば引きずられる形で、メニューが暗くなる。
これに対して、図8、図9を参照して説明したデフォルトメタデータを用いた処理の場合、メニューに合わせた輝度圧縮がビデオに対して施されることにより、メニューの輝度圧縮にいわば引きずられる形で、ビデオが暗くなる。メニューのサイズが小さいといったように、メニューに合わせた輝度圧縮によってビデオを暗くさせてしまうことより、ビデオに合わせた輝度圧縮によってビデオの輝度を維持した方が、見た目の不自然さを抑えられる場合もある。
本技術においては、メニューを表示させる場合に、Dynamic metadataを用いて輝度圧縮が行われるようにするのか、メニュー表示用のメタデータを用いて輝度圧縮が行われるようにするのかを、コンテンツの製作者が指定することが可能とされる。
<<3.メニュー表示用メタデータ>>
図10は、本技術の一実施形態に係る再生装置101と、再生装置101に装着される光ディスク111を示す図である。
再生装置101は、図1の再生装置1に対応するプレーヤである。再生装置101には、HDMIケーブルなどを介して、TV2に対応するTV102が接続される(図11)。上述した説明と重複する説明については適宜省略する。
図10の吹き出しに示すように、光ディスク111には、メニューを表示させる間のTV側における輝度調整に、Dynamic metadataとメニュー表示用メタデータのうちのいずれのメタデータを用いるのかを表すフラグが記録されている。
メニュー表示用メタデータは、図8のデフォルトメタデータに対応するメタデータであり、例えば、Dynamic metadataのパラメータと同様のパラメータを有する。メニュー表示用メタデータの各パラメータには固定値が設定される。メニュー表示用メタデータは、例えば、再生装置101内のメモリに記憶される形で、再生装置101に予め用意されている。
輝度調整に用いるメタデータを表すフラグが記録されている点を除いて、光ディスク111は、上述した光ディスク11と同様である。光ディスク111には、HDRビデオストリームを含む各データが例えばBD-ROMフォーマットで記録されている。
図10の再生装置101は、輝度調整に用いるメタデータを表すフラグの値を参照し、上述した再生装置1の処理と同様の処理を行う。
図11は、メタデータの伝送例を示す図である。
例えば、HDRビデオがTV102に表示されている状態でメニューの表示が指示された場合、再生装置101は、フラグの値を参照し、Dynamic metadataとメニュー表示用メタデータのうちのいずれのメタデータを用いるのかを特定する。
メニュー表示用メタデータを用いることがフラグにより表されている場合、再生装置101は、HDRビデオの各ピクチャにメニューの画像を合成し、図11に示すように、メニューの画像を合成したピクチャにメニュー表示用メタデータを関連付けて出力する。
TV102においては、各ピクチャの輝度圧縮が、各ピクチャとともに伝送されてきた表示用メタデータに基づいて行われ、輝度圧縮後のHDRビデオが表示される。ディスプレイには、HDRビデオに重ねてメニューが表示される。
表示用メタデータは各パラメータに固定値が設定されたメタデータであるから、表示用メタデータを用いた輝度圧縮後のHDRビデオに重畳されるメニューの輝度は一定になることになる。
一方、Dynamic metadataを用いることがフラグにより表されている場合、再生装置101は、HDRビデオの各ピクチャにメニューの画像を合成し、メニューの画像を合成したピクチャにDynamic metadataを関連付けて出力する。
TV102においては、各ピクチャの輝度圧縮が、各ピクチャとともに伝送されてきたDynamic metadataに基づいて行われ、輝度圧縮後のHDRビデオが表示される。ディスプレイには、HDRビデオに重ねてメニューが表示される。
なお、メニューの表示が指示されていない場合も同様に、図6を参照して説明したようにして、Dynamic metadataが関連付けられたピクチャが再生装置101からTV102に出力される。TV102においては、各ピクチャに関連付けて伝送されてきたDynamic metadataに基づいて、各ピクチャの輝度圧縮が行われる。
このように、コンテンツの製作者は、メニューを表示させる場合にDynamic metadataとメニュー表示用メタデータのうちのいずれのメタデータを用いて輝度圧縮が行われるようにするのかをフラグを用いて指定することができる。
以上のような再生装置101の一連の処理についてはフローチャートを参照して後述する。
<<4.BDフォーマット>>
ここで、BD-ROMフォーマットについて説明する。
<4-1.データの管理構造>
図12は、BD-ROMフォーマットにおけるAVストリームの管理構造の例を示す図である。
AVストリームの管理は、PlayListとClipの2つのレイヤを用いて行われる。AVストリームは、光ディスク111だけでなく、再生装置101のローカルストレージに記録されることもある。
1つのAVストリームと、それに付随する情報であるClip Informationのペアが1つのオブジェクトとして管理される。AVストリームとClip InformationのペアをClipという。
AVストリームは時間軸上に展開され、各Clipのアクセスポイントは、主に、タイムスタンプでPlayListにおいて指定される。Clip Informationは、AVストリーム中のデコードを開始すべきアドレスを見つけるためなどに使用される。
PlayListはAVストリームの再生区間の集まりである。AVストリーム中の1つの再生区間はPlayItemと呼ばれる。PlayItemは、時間軸上の再生区間のIN点とOUT点のペアで表される。図12に示すように、PlayListは1つまたは複数のPlayItemにより構成される。
図12の左から1番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームの前半部分と後半部分がそれぞれ参照される。
左から2番目のPlayListは1つのPlayItemから構成され、それにより、右側のClipに含まれるAVストリーム全体が参照される。
左から3番目のPlayListは2つのPlayItemから構成され、その2つのPlayItemにより、左側のClipに含まれるAVストリームのある部分と、右側のClipに含まれるAVストリームのある部分がそれぞれ参照される。
例えば、左から1番目のPlayListに含まれる左側のPlayItemが再生対象としてディスクナビゲーションプログラムにより指定された場合、そのPlayItemが参照する、左側のClipに含まれるAVストリームの前半部分の再生が行われる。
PlayListの中で、1つ以上のPlayItemの並びによって作られる再生パスをメインパス(Main Path)という。また、PlayListの中で、Main Pathに並行して、1つ以上のSubPlayItemの並びによって作られる再生パスをサブパス(Sub Path)という。
図13は、Main PathとSub Pathの構造を示す図である。
PlayListは、1つのMain Pathと1つ以上のSub Pathを持つ。図13のPlayListは、3つのPlayItemの並びにより作られる1つのMain Pathと3つのSub Pathを有する。
Main Pathを構成するPlayItemには、先頭から順番にそれぞれIDが設定される。Sub Pathにも、先頭から順番にSubpath_id=0、Subpath_id=1、およびSubpath_id=2のIDが設定される。
図13の例においては、Subpath_id=0のSub Pathには1つのSubPlayItemが含まれ、Subpath_id=1のSub Pathには2つのSubPlayItemが含まれる。また、Subpath_id=2のSub Pathには1つのSubPlayItemが含まれる。
1つのPlayItemが参照するAVストリームには、少なくともビデオストリームが含まれる。AVストリームには、AVストリームに含まれるビデオストリームと同じタイミングで(同期して)再生されるオーディオストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームに含まれるビデオストリームと同期して再生されるビットマップの字幕(PG(Presentation Graphic))のストリームが1つ以上含まれてもよいし、含まれなくてもよい。
AVストリームには、AVストリームファイルに含まれるビデオストリームと同期して再生されるIG(Interactive Graphic)のストリームが1つ以上含まれてもよいし、含まれなくてもよい。IGのストリームは、ユーザにより操作されるボタンなどのグラフィックを表示させるために用いられる。
1つのPlayItemが参照するAVストリームには、ビデオストリームと、それと同期して再生されるオーディオストリーム、PGストリーム、およびIGストリームが多重化される。
また、1つのSubPlayItemは、PlayItemが参照するAVストリームとは異なるストリームの、ビデオストリーム、オーディオストリーム、PGストリームなどを参照する。
上述したようにしてHDRビデオに重畳される情報のうち、メニューは、例えばIGストリームをデコードすることによって取得される。また、字幕は、例えばPGストリームをデコードすることによって取得される。
このように、AVストリームの再生はPlayListとClip Informationを用いて行われる。コンテンツとしてのAVストリームの再生を管理するために用いられる再生制御情報であるPlayListとClip Informationを、適宜、Data Base情報という。
<4-2.ディレクトリ構造>
図14は、光ディスク111に記録されるファイルの管理構造の例を示す図である。
光ディスク111に記録される各ファイルはディレクトリ構造により階層的に管理される。光ディスク111上には1つのrootディレクトリが作成される。
rootディレクトリの下にはBDMVディレクトリが置かれる。
BDMVディレクトリの下には、「Index.bdmv」の名前が設定されたファイルであるIndex tableファイルと、「MovieObject.bdmv」の名前が設定されたファイルであるMovieObjectファイルが格納される。Index tableファイルにはIndex tableが記述される。
BDMVディレクトリの下には、PLAYLISTディレクトリ、CLIPINFディレクトリ、STREAMディレクトリ等が設けられる。
PLAYLISTディレクトリには、PlayListを記述したPlayListファイルが格納される。各PlayListファイルには、5桁の数字と拡張子「.mpls」を組み合わせた名前が設定される。図14に示す3つのPlayListファイルには「00000.mpls」、「00001.mpls」、「00002.mpls」のファイル名が設定されている。
CLIPINFディレクトリにはClip Informationファイルが格納される。各Clip Informationファイルには、5桁の数字と拡張子「.clpi」を組み合わせた名前が設定される。図14の3つのClip Informationファイルには、それぞれ、「01000.clpi」、「02000.clpi」、「03000.clpi」のファイル名が設定されている。
STREAMディレクトリには、上述したAVストリームのファイルが格納される。各AVストリームファイルには、5桁の数字と拡張子「.m2ts」を組み合わせた名前が設定される。図14の3つのAVストリームファイルには、それぞれ、「01000.m2ts」、「02000.m2ts」、「03000.m2ts」のファイル名が設定されている。
同じ5桁の数字がファイル名に設定されているClip InformationファイルとAVストリームファイルが1つのClipを構成するファイルとなる。「01000.m2ts」のAVストリームファイルの再生時には「01000.clpi」のClip Informationファイルが用いられ、「02000.m2ts」のAVストリームファイルの再生時には「02000.clpi」のClip Informationファイルが用いられる。
<<5.実施の形態1:PlayListにフラグを記述する例>>
<5-1.PlayListの記述>
PlayListに含まれる記述のうちの主な記述について説明する。
図15は、PlayListファイルのシンタクスを示す図である。
PlayListファイルは、図14のPLAYLISTディレクトリに格納される、拡張子「.mpls」が設定されるファイルである。
AppInfoPlayList()には、再生制限などの、PlayListの再生コントロールに関するパラメータが格納される。
PlayList()には、Main PathやSub Pathに関するパラメータが格納される。
PlayListMark()には、PlayListのマーク情報、すなわち、チャプタジャンプなどを指令するユーザオペレーションまたはコマンドなどにおけるジャンプ先(ジャンプポイント)であるマークに関する情報が格納される。
図16は、図15のPlayList()のシンタクスを示す図である。
number_of_PlayItemsは、PlayListの中にあるPlayItemの数を示す。図13の例の場合、PlayItemの数は3となる。PlayItem_idの値は、PlayListの中でPlayItem()が現れる順番に0から割り振られる。
number_of_SubPathsは、PlayListの中にあるSub Pathの数を示す。図13の例の場合、Sub Pathの数は3である。SubPath_idの値は、PlayListの中でSubPath()が現れる順番に0から割り振られる。
図16に示すように、PlayList()には、PlayItemの数だけPlayItem()が記述され、Sub Pathの数だけSubPath()が記述される。
図17は、図16のPlayItem()のシンタクスを示す図である。
Clip_Information_file_name[0]は、PlayItemが参照するClipのClip Informationファイルの名前を表す。Clip_codec_identifier[0]はClipのコーデック方式を表す。
IN_timeはPlayItemの再生区間の開始位置を表し、OUT_timeは終了位置を表す。OUT_timeの後にはUO_mask_table()、PlayItem_random_access_mode、still_modeが含まれる。
STN_table()には、PlayItemが参照するAVストリームを構成するそれぞれのElementary streamの属性の情報が含まれる。PlayItemと関連付けて再生されるSub Pathがある場合、STN_table()には、そのSub Pathを構成するSubPlayItemが参照するAVストリームを構成するそれぞれのElementary streamの属性の情報も含まれる。
図18は、図17のSTN_table()のシンタクスを示す図である。
number_of_video_stream_entriesは、STN_table()にエントリーされる(登録される)ビデオストリームの数を表す。number_of_audio_stream_entriesは、STN_table()にエントリーされる1stオーディオストリームのストリームの数を表す。number_of_audio_stream2_entriesは、STN_table()にエントリーされる2ndオーディオストリームのストリームの数を表す。
number_of_PG_textST_stream_entriesは、STN_table()にエントリーされるPG_textSTストリームの数を表す。PG_textSTストリームは、ビットマップ字幕をランレングス符号化したPG(Presentation Graphics)ストリームとテキスト字幕ファイル(textST)である。number_of_IG_stream_entriesは、STN_table()にエントリーされるIG(Interactive Graphics)ストリームの数を表す。
STN_table()には、それぞれのビデオストリーム、1stオーディオストリーム、2ndオーディオストリーム、PG_textSTストリーム、IGストリームの情報であるstream_entry()とstream_attributes()が記述される。stream_entry()にはストリームのPIDが含まれ、stream_attributes()にはストリームの属性情報が含まれる。
図19は、IGストリームに関するstream_attributes()の記述の例を示す図である。上述したように、IGストリームはメニューデータの伝送に用いられるストリームである。
stream_coding_typeの値が0x91である場合、stream_attributes()にはIGストリームに関する情報が記述される。例えば、図19に示すように、IG_language_codeと、1ビットのフラグであるFixed_Dynamic_medatada_during_PopUp_flagが、stream_attributes()に記述される。
Fixed_Dynamic_medatada_during_PopUp_flagは、IGストリームに基づいてメニューを表示させる間の輝度調整に用いるメタデータを表すフラグ(図10のフラグ)である。
例えば、Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであることは、輝度調整にDynamic metadataを用いることを表す。また、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bであることは、輝度調整にメニュー表示用メタデータを用いることを表す。
Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであることが輝度調整にメニュー表示用メタデータを用いることを表し、1bであることが輝度調整にDynamic metadataを用いることを表すようにしてもよい。
このように、PlayListファイルのSTN_table()中のIGストリームに関するstream_attributes()には、メニューを表示させる間の輝度調整に用いるメタデータを表すフラグが記述される。
<5-2.再生装置の構成>
ここで、再生装置101の構成について説明する。
図20は、再生装置101の構成例を示すブロック図である。
再生装置101は、コントローラ151、ディスクドライブ152、メモリ153、ローカルストレージ154、通信部155、復号処理部156、操作入力部157、および外部出力部158から構成される。
コントローラ151は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。コントローラ151は、所定のプログラムを実行し、再生装置101の全体の動作を制御する。
ディスクドライブ152は、光ディスク111に記録されているデータを読み出し、コントローラ151、メモリ153、または復号処理部156に出力する。例えば、ディスクドライブ152は、光ディスク111から読み出したData Base情報をコントローラ151に出力し、AVストリームを復号処理部156に出力する。
メモリ153は、コントローラ151が実行するプログラムなどの、コントローラ151が各種の処理を実行する上で必要なデータを記憶する。メモリ153にはメニュー表示用メタデータ記憶部153Aが形成される。
メニュー表示用メタデータ記憶部153Aはメニュー表示用メタデータを記憶する。メニュー表示用メタデータ記憶部153Aに記憶されているメニュー表示用メタデータが、Fixed_Dynamic_medatada_during_PopUp_flagの値に応じて適宜用いられる。
ローカルストレージ154は、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの記録媒体により構成される。ローカルストレージ154には、サーバからダウンロードされたストリームなどが記録される。
通信部155は、無線LAN、有線LANなどのインタフェースである。例えば、通信部155は、インターネットなどのネットワークを介してサーバと通信を行い、サーバからダウンロードしたデータをローカルストレージ154に供給する。
復号処理部156は、ディスクドライブ152から供給されたAVストリームに多重化されているHDRビデオストリームを復号し、復号して得られたHDRビデオのデータを外部出力部158に出力する。
また、復号処理部156は、AVストリームに多重化されているオーディオストリームを復号し、復号して得られたオーディオデータを外部出力部158に出力する。ビデオの再生について主に説明しているが、このように、再生装置101が再生するHDRコンテンツにはオーディオデータも含まれる。
操作入力部157は、ボタン、タッチパネルなどの入力デバイスや、リモートコントローラから送信される赤外線などの信号を受信する受信部により構成される。操作入力部157はユーザの操作を検出し、検出した操作の内容を表す信号をコントローラ151に供給する。
外部出力部158は、HDMIなどの外部出力のインタフェースである。外部出力部158は、HDMIケーブルを介してTV102と通信を行い、TV102が有するディスプレイの性能に関する情報を取得してコントローラ151に出力する。また、外部出力部158は、復号処理部156から供給されたHDRビデオのデータを受信し、TV102に出力する。外部出力部158は、復号処理部156から供給されたHDRビデオのデータのストリームを受信する受信部として機能する。
図21は、コントローラ151の機能構成例を示すブロック図である。
コントローラ151においては、Data Base情報解析部171、出力制御部172、およびメニュー表示用メタデータ生成部173が実現される。図21に示す機能部のうちの少なくとも一部は、コントローラ151のCPUにより所定のプログラムが実行されることによって実現される。
Data Base情報解析部171は、ディスクドライブ152から供給されたData Base情報を解析する。
例えば、Data Base情報解析部171は、PlayListを解析し、PlayListの記述に従ってHDRコンテンツを再生する。また、Data Base情報解析部171は、PlayListに含まれるFixed_Dynamic_medatada_during_PopUp_flagの値を参照することによって、メニューを表示させる間の輝度調整に用いるメタデータを特定し、特定したメタデータの情報を出力制御部172に出力する。
出力制御部172は、復号処理部156と外部出力部158を制御することによって、HDRコンテンツの出力を制御する。
例えば、出力制御部172は、HDRビデオストリームを復号処理部156にデコードさせる。また、出力制御部172は、外部出力部158を制御し、HDRビデオストリームをデコードして得られた各ピクチャに、Dynamic metadataを付加して出力させる。
出力制御部172は、メニューの表示が指示された場合、HDRビデオストリームとIGストリームを復号処理部156にデコードさせ、HDRビデオの各ピクチャに、IGストリームをデコードすることによって得られたメニューの画像を合成させる。
出力制御部172は、外部出力部158を制御し、Fixed_Dynamic_medatada_during_PopUp_flagの値が0bである場合には、メニューの画像が合成された各ピクチャにDynamic metadataを付加して出力させる。また、出力制御部172は、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合には、メニューの画像が合成された各ピクチャにメニュー表示用メタデータを付加して出力させる。
メニュー表示用メタデータ生成部173は、例えば、PlayListにFixed_Dynamic_medatada_during_PopUp_flagが含まれる場合、各パラメータの値として固定値を設定することによりメニュー表示用メタデータを生成する。メニュー表示用メタデータ生成部173は、各パラメータに設定する固定値の情報を有している。メニュー表示用メタデータ生成部173は、生成したメニュー表示用メタデータをメモリ153に出力し、メニュー表示用メタデータ記憶部153Aに記憶させる。
このように、メニュー表示用メタデータが再生装置101内で生成されるようにしてもよい。また、メニュー表示用メタデータが、再生装置101の製造時などのタイミングでメニュー表示用メタデータ記憶部153Aに記憶され、再生装置101に予め用意されるようにしてもよい。
メニュー表示用メタデータの各パラメータに設定する値をユーザが指定することができるようにしてもよい。この場合、例えば再生装置101の設定画面を用いて、各パラメータの値の設定が行われる。また、TV102の設定画面を用いて、TV102側でメニュー表示用メタデータを参照するか無視するかをユーザが選択できるようにしても良い。
また、メニュー表示用メタデータの各パラメータに設定する値がサーバから取得されるようにしてもよい。
この場合、サーバには、例えば、光ディスク111に記録されているHDRコンテンツに対応付けて、メニュー表示用メタデータの各パラメータに設定する値の情報が用意される。メニュー表示用メタデータ生成部173は、サーバから取得された値を各パラメータの値として設定することによって、光ディスク111に記録されているHDRコンテンツ用のメニュー表示用メタデータを生成することになる。
また、メニュー表示用メタデータがサーバからダウンロードされるようにしてもよい。ダウンロードされ、通信部155により受信されたメニュー表示用メタデータは、メモリ153に出力され、メニュー表示用メタデータ記憶部153Aに記憶される。
図22は、復号処理部156の構成例を示すブロック図である。
復号処理部156は、ビデオデコーダ181、グラフィック用デコーダ182、および合成部183から構成される。ディスクドライブ152により読み出されたAVストリームに含まれるHDRビデオストリームはビデオデコーダ181に入力され、IGストリームはグラフィック用デコーダ182に入力される。
ビデオデコーダ181は、HDRビデオストリームをデコードし、HDRビデオの各ピクチャを合成部183に出力する。また、ビデオデコーダ181は、HDRビデオストリームをデコードすることによってDynamic metadataを取得し、コントローラ151に出力する。
グラフィック用デコーダ182は、メニューの表示がユーザにより指示された場合、IGストリームをデコードし、メニューの画像を合成部183に出力する。
合成部183は、メニューを表示させる場合、ビデオデコーダ181から供給されたHDRビデオの各ピクチャにグラフィック用デコーダ182から供給されたメニューの画像を合成し、HDRビデオの各ピクチャを外部出力部158に出力する。合成部183は、メニューを表示させない場合、ビデオデコーダ181から供給されたHDRビデオの各ピクチャをそのまま外部出力部158に出力する。
なお、上述したように、メニュー以外に、字幕やOSDなどもHDRビデオに重ねて表示される。
例えば字幕を表示させる場合、PGストリームのデコードがグラフィック用デコーダ182により行われる。PGストリームをデコードすることによって得られた字幕の情報は、合成部183に供給され、HDRビデオの各ピクチャに合成される。
また、OSDを表示させる場合、コントローラ151から合成部183に対して、OSDの表示に用いるデータであるOSDデータが供給される。コントローラ151には、ユーザの操作などに応じてOSDデータを生成する機能部も設けられる。合成部183においては、コントローラ151から供給されたOSDデータがHDRビデオの各ピクチャに合成される。
<5-3.再生装置の動作>
次に、図23、図24のフローチャートを参照して、HDRコンテンツを再生する再生装置101の処理について説明する。
図23、図24の処理は、例えば再生装置101のディスクドライブ152に光ディスク111が装着され、HDRコンテンツの再生が指示されたときに開始される。
ステップS1において、ディスクドライブ152は、PlayListファイルを含む、Data Base情報のファイルを光ディスク111から読み出す。
ステップS2において、コントローラ151のData Base情報解析部171は、PlayListファイルを解析し、再生対象となるAVストリームの特定などを行う。また、Data Base情報解析部171は、PlayListファイルのSTN_table()中の、IGストリームに関するstream_attributes()に記述されるFixed_Dynamic_medatada_during_PopUp_flagの値を特定する。
ステップS3において、ディスクドライブ152は、再生対象となるHDRビデオストリームを含むAVストリームのファイルを光ディスク111から読み出す。
ステップS4において、復号処理部156のビデオデコーダ181は、ディスクドライブ152から供給されたAVストリームに含まれるHDRビデオストリームをデコードし、各ピクチャのデータを、合成部183を介して外部出力部158に出力する。HDRビデオストリームに含まれるDynamic metadataはビデオデコーダ181からコントローラ151に供給される。
ステップS5において、外部出力部158は、復号処理部156から供給されたHDRビデオの各ピクチャに、コントローラ151から供給されたDynamic metadataを付加してTV102に出力する。
ステップS6において、コントローラ151の出力制御部172は、メニューの表示が指示されたか否かを判定する。メニューの表示が指示されていないとステップS6において判定された場合、ステップS5に戻り、HDRビデオの各ピクチャの出力が続けられる。
一方、ステップS6において、メニューの表示が指示されたと判定された場合、ステップS7において、グラフィック用デコーダ182は、IGストリームをデコードし、メニューの画像を合成部183に出力する。
ステップS8において、合成部183は、ビデオデコーダ181から供給されたHDRビデオの各ピクチャに、グラフィック用デコーダ182から供給されたメニューの画像を合成し、HDRビデオの各ピクチャを外部出力部158に出力する。
ステップS9において、出力制御部172は、Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであるか否かを判定する。
Fixed_Dynamic_medatada_during_PopUp_flagの値が0bであるとステップS9において判定した場合、ステップS10において、出力制御部172は、外部出力部158を制御し、メニューの画像が合成された各ピクチャにDynamic metadataを付加して出力させる。
TV102においては、メニューの画像が合成されたHDRビデオの各ピクチャの輝度圧縮がDynamic metadataに基づいて行われ、輝度圧縮後のHDRビデオが表示される。
一方、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bであるとステップS9において判定した場合、ステップS11において、出力制御部172は、メニュー表示用メタデータをメニュー表示用メタデータ記憶部153Aから読み出して取得する。出力制御部172は、取得したメニュー表示用メタデータを外部出力部158に出力する。
ステップS12において、出力制御部172は、外部出力部158を制御し、メニューの画像が合成された各ピクチャに、表示用メタデータを付加して出力させる。
TV102においては、メニューの画像が合成されたHDRビデオの各ピクチャの輝度圧縮がメニュー表示用メタデータに基づいて行われ、輝度圧縮後のHDRビデオが表示される。
ステップS10またはステップS12の処理は、メニューの表示を終了するまで続けられる。メニューの表示を終了する場合、ステップS5に戻り、それ以降の処理が繰り返される。
以上の処理により、再生装置101は、メニューを表示させる間、Fixed_Dynamic_medatada_during_PopUp_flagの値により指定されるメタデータをTV102に伝送し、輝度調整を行わせることができる。
コンテンツの製作者は、Dynamic metadataとメニュー表示用メタデータのうち、輝度調整後のHDRビデオやメニューの見え方が不自然にならない方のメタデータをFixed_Dynamic_medatada_during_PopUp_flagの値により指定することができる。
コンテンツの製作者は、例えば、メニューとして表示させるボタンなどの画像が小さいためHDRビデオの輝度を優先させる場合には、Dynamic metadataを用いた輝度調整が行われるようにFixed_Dynamic_medatada_during_PopUp_flagの値を設定する。
また、コンテンツの製作者は、輝度の変化が激しいシーンが多いためメニューの輝度を優先させる場合には、メニュー表示用メタデータを用いた輝度調整が行われるようにFixed_Dynamic_medatada_during_PopUp_flagの値を設定する。
このように適切なメタデータを指定することにより、コンテンツの製作者は、メニューなどの他の情報をHDRビデオに重畳して表示させる場合の不自然な輝度の変化を防ぐことが可能になる。
<<6.実施の形態2:IGストリームにフラグを記述する例>>
Fixed_Dynamic_medatada_during_PopUp_flagが、PlayList以外の領域に記述されるようにしてもよい。
ここでは、Fixed_Dynamic_medatada_during_PopUp_flagがIGストリーム中に記述される場合について説明する。
IGストリームを構成するPESパケットにはセグメントと呼ばれる単位のデータが格納される。メニューの表示は、メニューデータのセグメントを用いて行われる。
図25は、メニューデータのセグメントからなるディスプレイセットの例を示す図である。
図25に示すように、メニューデータのディスプレイセットは、1画面分のメニュー画像(ボタン)のセグメントであるICS,PDS1乃至PDSn,ODS1乃至ODSn,END Segmentにより構成される。
ICS(Interactive Composition Segment)は、ディスプレイセットの先頭を表し、メニューボタン毎のIDなどの、メニューに関する属性情報を含むセグメントである。
PDS(Palette Definition Segment)は、メニューの色として使用可能な色の情報を含むセグメントである。
ODS(Object Definition Segment)は、メニューの形状を示す情報を含むセグメントである。
END Segmentは、ディスプレイセットの終端を表すセグメントである。
図26は、ICSのシンタクスを示す図である。
ICSには、segment_descriptor(),video_descriptor(),composition_descriptor(),sequence_descriptor(),interactive_composition_data_fragment()が記述される。interactive_composition_data_fragment()にはinteractive_composition()が含まれる。
図27は、interactive_composition_data_fragment()に含まれるinteractive_composition()のシンタクスを示す図である。
図27に示すように、interactive_composition()には、stream_model,user_interface_modelが記述される。stream_modelは、ICSと関連情報の多重化方式を表す。user_interface_modelは、メニューがPop-Up形式で表示されるのか、Always-On形式で表示されるのかを表す。
また、interactive_composition()には、Fixed_Dynamic_medatada_during_PopUp_flagが記述される。
このように、Fixed_Dynamic_medatada_during_PopUp_flagが、IGストリームを構成するICSのinteractive_composition()に記述されるようにすることが可能である。
IGストリームに記述されるFixed_Dynamic_medatada_during_PopUp_flagを用いた処理も、基本的に、Fixed_Dynamic_medatada_during_PopUp_flagがPlayListに記述される場合の処理と同様である。
すなわち、グラフィック用デコーダ182は、IGストリームをデコードしたとき、Fixed_Dynamic_medatada_during_PopUp_flagの情報をコントローラ151に出力する。コントローラ151の出力制御部172は、上述したようにして、HDRビデオの各ピクチャとともに出力するメタデータを、Fixed_Dynamic_medatada_during_PopUp_flagの値に基づいて切り替える。
これによっても、再生装置101は、Fixed_Dynamic_medatada_during_PopUp_flagの値により指定されるメタデータをTV102に伝送し、輝度調整を行わせることができる。
字幕のストリームであるPGストリームもIGストリームと同様の構成を有する。Fixed_Dynamic_medatada_during_PopUp_flagがPGストリームに記述されるようにしてもよい。
このように、グラフィックストリーム(IGストリーム、PGストリーム)中にFixed_Dynamic_medatada_during_PopUp_flagが記述されるようにすることができる。
<<7.他の装置の構成と動作>>
<7-1.TV102の構成と動作>
図28は、TV102の構成例を示すブロック図である。
TV102は、コントローラ201、外部入力部202、信号処理部203、ディスプレイ204、放送受信部205、復号処理部206、および通信部207から構成される。
コントローラ201は、CPU、ROM、RAMなどにより構成される。コントローラ201は、所定のプログラムを実行し、TV102の全体の動作を制御する。
例えば、コントローラ201は、ディスプレイ204の性能を表す情報を管理する。コントローラ201は、HDMIの伝送設定時、ディスプレイ204の性能を表す情報を外部入力部202に出力し、再生装置101に送信する。
また、コントローラ201は、信号処理部203によるHDRビデオの処理を制御する。例えば、コントローラ201は、HDRコンテンツの再生時に再生装置101から伝送されてきたDynamic metadataまたはメニュー表示用メタデータに基づいて、HDRビデオの輝度圧縮を信号処理部203に行わせる。
外部入力部202は、HDMIなどの外部入力のインタフェースである。外部入力部202は、HDMIケーブルを介して再生装置101と通信を行い、再生装置101から伝送されてきたHDRビデオの各ピクチャのデータを受信して信号処理部203に出力する。また、外部入力部202は、HDRビデオの各ピクチャに付加して伝送されてきたDynamic metadataまたはメニュー表示用メタデータを受信し、コントローラ201に出力する。
信号処理部203は、外部入力部202から供給されたHDRビデオの処理を行い、映像をディスプレイ204に表示させる。信号処理部203は、コントローラ201による制御に従って、適宜、ディスプレイ204が表示可能な範囲に収まるように、HDRビデオの輝度圧縮を行う。
信号処理部203は、復号処理部206から供給されたデータに基づいて、番組の映像をディスプレイ204に表示させる処理なども行う。
ディスプレイ204は、有機EL(Electroluminescence)ディスプレイやLCD(Liquid Crystal Display)等の表示デバイスである。ディスプレイ204は、信号処理部203から供給されたビデオ信号に基づいて、HDRコンテンツの映像や番組の映像を表示する。
放送受信部205は、アンテナから供給された信号から所定のチャンネルの放送信号を抽出し、復号処理部206に出力する。放送受信部205による放送信号の抽出は、コントローラ201による制御に従って行われる。
復号処理部206は、放送受信部205から供給された放送信号に対して復号等の処理を施し、番組のビデオデータを信号処理部203に出力する。
通信部207は、無線LAN、有線LANなどのインタフェースである。通信部207は、インターネットを介してサーバと通信を行う。
図29のフローチャートを参照して、TV102の表示処理について説明する。
図29の処理は、HDRビデオストリームをデコードして得られたピクチャの伝送が開始されたときに行われる。再生装置101から伝送されてくるピクチャには、Dynamic metadataまたはメニュー表示用メタデータが付加されている。
ステップS21において、TV102の外部入力部202は、再生装置101から伝送されてきたHDRコンテンツの各ピクチャのデータと、それに付加して伝送されてきたDynamic metadataまたはメニュー表示用メタデータを受信する。
メニューの表示が指示されていない場合、または、メニューの表示が指示されているがFixed_Dynamic_medatada_during_PopUp_flagの値が0bである場合、ここでは、各ピクチャとDynamic metadataが受信される。
また、再生装置101においてメニューの表示が指示され、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合、ここでは、各ピクチャとメニュー表示用メタデータが受信される。
外部入力部202により受信された各ピクチャのデータは信号処理部203に供給され、メタデータ(Dynamic metadataまたは表示用メタデータ)はコントローラ201に供給される。
ステップS22において、信号処理部203は、コントローラ201による制御に従い、HDRビデオの各ピクチャの輝度圧縮を行う。各ピクチャとともに伝送されてきたメタデータがDynamic metadataである場合にはDynamic metadataに基づいて輝度圧縮が行われる。また、各ピクチャとともに伝送されてきたメタデータがメニュー表示用メタデータである場合にはメニュー表示用メタデータに基づいて輝度圧縮が行われる。
ステップS23において、信号処理部203は、輝度圧縮を行ったHDRビデオをディスプレイ204に表示させる。HDRビデオの表示は、HDRコンテンツの再生が終了するまで続けられる。
<7-2.記録装置の構成と動作>
図30は、記録装置251の構成例を示すブロック図である。
上述したようなBDである光ディスク111が、図30の記録装置251において作成される。
記録装置251は、コントローラ261、符号化処理部262、およびディスクドライブ263から構成される。マスターとなるビデオが符号化処理部262に入力される。
コントローラ261は、CPU、ROM、RAMなどにより構成される。コントローラ261は、所定のプログラムを実行し、記録装置251の全体の動作を制御する。
符号化処理部262は、マスターのビデオの符号化を行い、HDRビデオストリームを生成する。HDRビデオストリームの生成時に各ピクチャに付加され、SEIメッセージとして符号化されるDynamic metadataはコントローラ261から供給される。
また、符号化処理部262は、メニューの画像の符号化を行うことによってIGストリームを生成し、字幕データの符号化を行うことによってPGストリームを生成する。符号化処理部262に対しては、メニューの画像や字幕データなどの情報も入力される。
符号化処理部262は、符号化を行うことによって得られたHDRビデオストリーム、IGストリーム、PGストリームを、オーディオストリームなどとともに多重化することによって、Clipを構成するAVストリームを生成する。符号化処理部262は、生成したAVストリームをディスクドライブ263に出力する。
ディスクドライブ263は、コントローラ261から供給されたData Base情報の各ファイルと、符号化処理部262から供給されたAVストリームのファイルを図14のディレクトリ構造に従って光ディスク111に記録する。
図31は、コントローラ261の機能構成例を示すブロック図である。
コントローラ261においては、Dynamic metadata生成部271、符号化制御部272、Data Base情報生成部273、および記録制御部274が実現される。図31に示す機能部のうちの少なくとも一部は、コントローラ261のCPUにより所定のプログラムが実行されることによって実現される。
Dynamic metadata生成部271は、コンテンツの製作者による入力に従って各パラメータの値を設定し、Dynamic metadataを生成する。Dynamic metadata生成部271は、生成したDynamic metadataを符号化制御部272に出力する。
符号化制御部272は、Dynamic metadata生成部271により生成されたDynamic metadataを符号化処理部262に出力し、HDRビデオの各ピクチャの符号化を行わせる。また、符号化制御部272は、メニューデータ、字幕データの符号化を符号化処理部262に行わせる。
なお、Fixed_Dynamic_medatada_during_PopUp_flagがグラフィックストリームに記述される場合、符号化制御部272は、Fixed_Dynamic_medatada_during_PopUp_flagの情報を符号化処理部262に出力し、メニューデータ、字幕データの符号化を行わせる。
Data Base情報生成部273は、Index table、PlayList、Clip InformationなどのData Base情報を生成する。
例えば、Data Base情報生成部273は、Fixed_Dynamic_medatada_during_PopUp_flagの値をコンテンツの製作者による入力に応じて設定し、Fixed_Dynamic_medatada_during_PopUp_flagを含むPlayListを生成する。
Data Base情報生成部273は、生成したData Base情報のファイルを記録制御部274に出力する。
記録制御部274は、Data Base情報生成部273により生成されたData Base情報のファイルをディスクドライブ263に出力し、光ディスク111に記録させる。
図32のフローチャートを参照して、以上のような構成を有する記録装置251の記録処理について説明する。
図32の処理は、例えば、マスターとなるビデオデータが入力されたときに開始される。
ステップS31において、コントローラ261のDynamic metadata生成部271は、コンテンツの製作者による入力に従って各パラメータの値を設定し、Dynamic metadataを生成する。
ステップS32において、符号化処理部262は、マスターのビデオの符号化を行い、HDRビデオストリームを生成する。また、符号化処理部262は、メニューの画像や字幕データの符号化を行い、IGストリームとPGストリームを生成する。符号化処理部262は、生成したストリームを多重化することによってAVストリームを生成する。
ステップS33において、Data Base情報生成部273は、Fixed_Dynamic_medatada_during_PopUp_flagを含むPlayListなどのData Base情報を生成する。
ステップS34において、ディスクドライブ263は、コントローラ261から供給されたData Base情報のファイルと、符号化処理部262から供給されたAVストリームのファイルを記録させることによって光ディスク111を生成する。その後、処理は終了される。
以上の処理により、記録装置251は、Fixed_Dynamic_medatada_during_PopUp_flagを含むPlayListが記録された光ディスク111を生成することが可能になる。
<<8.再生システムの他の構成例>>
<8-1.第1の構成例>
HDRコンテンツが光ディスク111に記録されている場合について説明したが、ネットワークを介して配信されるHDRコンテンツを再生する場合にも、以上の処理を適用することが可能である。
図33は、HDRコンテンツの他の再生システムの構成例を示す図である。
図33の再生システムは、再生装置101とコンテンツ配信サーバ301が、インターネットなどのネットワーク302を介して接続されることによって構成される。再生装置101には、HDMIケーブルなどを介してTV102が接続される。再生装置101が再生するHDRコンテンツの映像はTV102に表示される。
コンテンツ配信サーバ301は、HDRコンテンツの配信サービスを提供する事業者が管理するサーバである。図33の吹き出しに示すように、コンテンツ配信サーバ301が配信するコンテンツはHDRコンテンツである。
それぞれのHDRコンテンツは、Dynamic metadataを含むHDRビデオストリームのファイルと、再生制御情報のファイルを対応付けることによって構成される。再生制御情報は例えばXMLによって記述される情報である。再生制御情報には、Fixed_Dynamic_medatada_during_PopUp_flagに対応する情報が含まれる。
例えば、ユーザが再生装置101を操作してコンテンツ配信サーバ301にアクセスした場合、TV102には、HDRコンテンツの選択画面が表示される。ユーザは、所定のHDRコンテンツを選択し、視聴の開始をコンテンツ配信サーバ301に要求することができる。
HDRコンテンツが選択された場合、コンテンツ配信サーバ301は、選択されたHDRコンテンツを再生装置101に送信する。
再生装置101は、コンテンツ配信サーバ301から送信されてきたHDRコンテンツを受信し、上述した再生処理と同様の処理を行うことによって、HDRコンテンツの再生を行う。
すなわち、再生装置101からTV102に対しては、HDRビデオストリームをデコードすることによって得られた各ピクチャとともにDynamic metadataが伝送され、Dynamic metadataに基づいて輝度圧縮が行われる。
また、メニューの表示が指示され、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合、HDRコンテンツの各ピクチャとともにメニュー表示用メタデータが伝送され、TV102において、メニュー表示用メタデータに基づいて輝度圧縮が行われる。再生装置101にはメニュー表示用メタデータが用意されている。
このように、コンテンツ配信サーバ301が配信するコンテンツを再生する場合にも、Fixed_Dynamic_medatada_during_PopUp_flagを用いた処理が行われるようにすることが可能である。
図34は、再生装置101の他の構成例を示す図である。
図34に示すように、再生装置101が、いわゆるスティック型の端末であってもよい。図34に示す再生装置101の筐体にはHDMI端子が設けられている。筐体に設けられているHDMI端子をTV102のHDMI端子に差し込むことによって、再生装置101とTV102が接続される。
この場合、図20に示す構成のうち、例えばディスクドライブ152以外の構成が再生装置101に設けられる。再生装置101は、上述した処理と同様の処理を行うことによって、コンテンツ配信サーバ301が配信するHDRコンテンツの再生を行う。
このように、再生装置101の形態として各種の形態を採用することが可能である。例えば、スマートフォンやタブレット端末などの携帯型の端末に再生装置101の機能が搭載されるようにしてもよいし、PCなどの端末に再生装置101の機能が搭載されるようにしてもよい。
<8-2.第2の構成例>
再生装置101の機能がTV102に搭載されるようにしてもよい。
図35は、HDRコンテンツのさらに他の再生システムの構成例を示す図である。
図35の再生システムは、再生装置101の機能を搭載したTV102とコンテンツ配信サーバ301がネットワーク302を介して接続されることによって構成される。重複する説明については適宜省略する。
TV102は、コンテンツ配信サーバ301から送信されてきた情報に基づいてHDRコンテンツの選択画面を表示させる。
ユーザにより所定のHDRコンテンツが選択された場合、コンテンツ配信サーバ301は、選択されたHDRコンテンツをTV102に送信する。
TV102は、コンテンツ配信サーバ301から送信されてきたHDRコンテンツを受信し、HDRコンテンツの再生を行う。
すなわち、TV102は、HDRビデオの各ピクチャの輝度圧縮をDynamic metadataに基づいて行う。
また、メニューの表示が指示され、Fixed_Dynamic_medatada_during_PopUp_flagの値が1bである場合、TV102は、HDRビデオの各ピクチャの輝度圧縮をメニュー表示用メタデータに基づいて行う。TV102にはメニュー表示用メタデータが用意されている。
このように、再生装置101の機能がTV102に設けられ、TV102において、上述したようなFixed_Dynamic_medatada_during_PopUp_flagを用いた処理が行われるようにしてもよい。
<<9.その他の例>>
HDRコンテンツが記録されている記録媒体が光ディスクであるものとしたが、フラッシュメモリなどの他の記録媒体であってもよい。
Fixed_Dynamic_medatada_during_PopUp_flagが、PlayList、またはグラフィックストリームに記述されるものとしたが、Clip Informationなどの他の情報に記述されるようにしてもよい。
Dynamic metadataまたはメニュー表示用メタデータに基づいてビデオに対して行われる処理が輝度圧縮であるものとしたが、輝度伸張がTV102において行われるようにしてもよい。この場合、Dynamic metadataまたはメニュー表示用メタデータには、輝度伸張に用いられるトーンカーブの情報が記述されることになる。
再生装置101に入力されるビデオストリームが所定の方式で符号化されたビデオストリームであるものとしたが、Dynamic metadataが付加されたピクチャから構成され、符号化されていないビデオストリームが再生装置101に入力されるようにしてもよい。
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図36は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、キーボード、マウスなどよりなる入力部1006、ディスプレイ、スピーカなどよりなる出力部1007が接続される。また、入出力インタフェース1005には、ハードディスクや不揮発性のメモリなどよりなる記憶部1008、ネットワークインタフェースなどよりなる通信部1009、リムーバブルメディア1011を駆動するドライブ1010が接続される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005及びバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信する受信部と、
前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、前記メタデータを付加した前記ピクチャを表示装置に出力する出力制御部と
を備える再生装置。
(2)
前記ビデオストリームをデコードするデコード部をさらに備え、
前記出力制御部は、前記ビデオストリームをデコードすることによって得られた前記ピクチャに前記メタデータを付加する
前記(1)に記載の再生装置。
(3)
前記ビデオストリームは、HDRビデオのストリームである
前記(1)に記載の再生装置。
(4)
前記フラグは、前記動的メタデータ、または、前記所定の情報の表示用の前記メタデータである表示用メタデータを表す
前記(1)乃至(3)のいずれかに記載の再生装置。
(5)
前記出力制御部は、前記動的メタデータを前記輝度調整に用いることが前記フラグにより表されている場合、それぞれの前記ピクチャに前記動的メタデータを付加する
前記(4)に記載の再生装置。
(6)
前記出力制御部は、前記表示用メタデータを前記輝度調整に用いることが前記フラグにより表されている場合、それぞれの前記ピクチャに、前記再生装置に用意された前記表示用メタデータを付加する
前記(5)に記載の再生装置。
(7)
予め用意された固定値を各パラメータの値に設定することによって前記表示用メタデータを生成するメタデータ生成部をさらに備える
前記(6)に記載の再生装置。
(8)
前記ビデオストリームの再生に用いられる再生制御情報を解析し、前記再生制御情報に記述される前記フラグの値を特定する制御部をさらに備える
前記(1)乃至(7)のいずれかに記載の再生装置。
(9)
前記再生制御情報のファイルと前記ビデオストリームのファイルを記録媒体から読み出す読み出し部をさらに備える
前記(8)に記載の再生装置。
(10)
前記所定の情報を伝送するグラフィックストリームを構成する属性情報を解析し、前記属性情報に記述される前記フラグの値を特定する制御部をさらに備える
前記(1)乃至(7)のいずれかに記載の再生装置。
(11)
前記グラフィックストリームをデコードするデコード部と、
前記グラフィックストリームをデコードすることによって得られた前記所定の情報を前記ピクチャに合成する合成部と
をさらに備える前記(10)に記載の再生装置。
(12)
前記グラフィックストリームのファイルと前記ビデオストリームのファイルを記録媒体から読み出す読み出し部をさらに備える
前記(11)に記載の再生装置。
(13)
再生装置が、
ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信し、
前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、
前記メタデータを付加した前記ピクチャを表示装置に出力する
再生方法。
(14)
コンピュータに、
ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームを受信し、
前記ピクチャに所定の情報を重畳して表示させる場合、受信された前記ビデオストリームを構成する前記ピクチャに、前記所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグにより表される前記メタデータを付加し、
前記メタデータを付加した前記ピクチャを表示装置に出力する
処理を実行させるためのプログラム。
(15)
ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームの第1のファイルと、
前記ピクチャに所定の情報を重畳して表示させる間の輝度調整に用いるメタデータを表すフラグが記述された第2のファイルと
が記録された記録媒体。
(16)
前記第2のファイルは、前記ビデオストリームの再生に用いられる再生制御情報のファイルである
前記(15)に記載の記録媒体。
(17)
前記第2のファイルは、前記フラグが記述された属性情報を含む、前記所定の情報を伝送するグラフィックストリームのファイルである
前記(15)に記載の記録媒体。
(18)
前記記録媒体は、BD-ROMのディスクである
前記(15)乃至(17)のいずれかに記載の記録媒体。
101 再生装置, 102 TV, 151 コントローラ, 152 ディスクドライブ, 153 メモリ, 154 ローカルストレージ, 155 通信部, 156 復号処理部, 157 操作入力部, 158 外部出力部, 171 Data Base情報解析部, 172 メニュー表示用メタデータ生成部, 173 出力制御部

Claims (9)

  1. ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームのファイルと、メニューを表示させる間の表示装置における輝度調整に用いるメタデータを表すフラグが記述された再生制御情報のファイルとを記録媒体から読み出す読み出し部と、
    前記ビデオストリームの再生に用いられる前記再生制御情報を解析し、前記フラグの値を特定する制御部と、
    前記ビデオストリームをデコードするデコード部と、
    前記メニューを表示させる場合、前記ビデオストリームをデコードすることによって得られた前記ピクチャに、前記フラグにより表される、前記動的メタデータとは異なる表示用メタデータを付加し、前記表示装置に出力する出力制御部と
    を備える再生装置。
  2. 前記ビデオストリームは、HDRビデオのストリームである
    請求項1に記載の再生装置。
  3. 前記出力制御部は、メタデータを構成する各パラメータの値として固定値が設定された前記表示用メタデータを付加する
    請求項1または2に記載の再生装置。
  4. 前記ビデオストリームとともに多重化されたグラフィックストリームをデコードする他のデコード部と、
    前記グラフィックストリームをデコードすることによって得られた前記メニューを前記ピクチャに合成する合成部と
    をさらに備える請求項1乃至3のいずれかに記載の再生装置。
  5. 前記出力制御部は、前記フラグの値が1である場合、前記メニューを表示させる間の前記ピクチャに前記表示用メタデータを付加する
    請求項1乃至4のいずれかに記載の再生装置。
  6. 前記出力制御部は、前記メニューの表示が終了した場合、前記ビデオストリームをデコードすることによって得られた前記ピクチャに前記動的メタデータを付加する
    請求項5に記載の再生装置。
  7. 前記出力制御部は、前記フラグの値が0である場合、前記メニューを表示させる間の前記ピクチャに前記動的メタデータを付加する
    請求項5または6に記載の再生装置。
  8. 再生装置が、
    ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームのファイルと、メニューを表示させる間の表示装置における輝度調整に用いるメタデータを表すフラグが記述された再生制御情報のファイルとを記録媒体から読み出し、
    前記ビデオストリームの再生に用いられる前記再生制御情報を解析し、前記フラグの値を特定し、
    前記ビデオストリームをデコードし、
    前記メニューを表示させる場合、前記ビデオストリームをデコードすることによって得られた前記ピクチャに、前記フラグにより表される、前記動的メタデータとは異なる表示用メタデータを付加し、
    前記表示用メタデータを付加した前記ピクチャを前記表示装置に出力する
    再生方法。
  9. コンピュータに、
    ピクチャの輝度情報を含む動的メタデータが付加されたビデオストリームのファイルと、メニューを表示させる間の表示装置における輝度調整に用いるメタデータを表すフラグが記述された再生制御情報のファイルとを記録媒体から読み出し、
    前記ビデオストリームの再生に用いられる前記再生制御情報を解析し、前記フラグの値を特定し、
    前記ビデオストリームをデコードし、
    前記メニューを表示させる場合、前記ビデオストリームをデコードすることによって得られた前記ピクチャに、前記フラグにより表される、前記動的メタデータとは異なる表示用メタデータを付加し、
    前記表示用メタデータを付加した前記ピクチャを前記表示装置に出力する
    処理を実行させるプログラム。
JP2019551042A 2017-10-31 2018-10-17 再生装置、再生方法、プログラム Active JP7251480B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017210411 2017-10-31
JP2017210411 2017-10-31
PCT/JP2018/038587 WO2019087775A1 (ja) 2017-10-31 2018-10-17 再生装置、再生方法、プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2019087775A1 JPWO2019087775A1 (ja) 2020-11-19
JP7251480B2 true JP7251480B2 (ja) 2023-04-04

Family

ID=66331742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551042A Active JP7251480B2 (ja) 2017-10-31 2018-10-17 再生装置、再生方法、プログラム

Country Status (6)

Country Link
US (1) US11153548B2 (ja)
EP (1) EP3706412B1 (ja)
JP (1) JP7251480B2 (ja)
KR (1) KR102558213B1 (ja)
CN (1) CN111345034B (ja)
WO (1) WO2019087775A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198552A1 (ja) 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
WO2016002154A1 (ja) 2014-06-30 2016-01-07 パナソニックIpマネジメント株式会社 データ再生方法及び再生装置
WO2016125691A1 (ja) 2015-02-03 2016-08-11 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2018235337A1 (ja) 2017-06-21 2018-12-27 パナソニックIpマネジメント株式会社 映像表示システム及び映像表示方法
WO2019038848A1 (ja) 2017-08-23 2019-02-28 三菱電機株式会社 映像コンテンツ媒体および映像再生装置
WO2019069482A1 (ja) 2017-10-06 2019-04-11 パナソニックIpマネジメント株式会社 映像表示システム及び映像表示方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5685969B2 (ja) * 2011-02-15 2015-03-18 ソニー株式会社 表示制御方法、表示制御装置
KR101993593B1 (ko) * 2013-02-21 2019-06-28 돌비 레버러토리즈 라이쎈싱 코오포레이션 오버레이 그래픽스를 합성하기 위한 어피어런스 매핑을 위한 시스템들 및 방법들
JP5906504B1 (ja) * 2014-06-26 2016-04-20 パナソニックIpマネジメント株式会社 データ出力装置、データ出力方法及びデータ生成方法
US20170221524A1 (en) 2014-09-08 2017-08-03 Sony Corporation Information processing apparatus, information recording medium, and information processing method, and program
JP6519329B2 (ja) * 2015-06-09 2019-05-29 ソニー株式会社 受信装置、受信方法、送信装置および送信方法
US10939158B2 (en) * 2017-06-23 2021-03-02 Samsung Electronics Co., Ltd. Electronic apparatus, display apparatus and control method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015198552A1 (ja) 2014-06-25 2015-12-30 パナソニックIpマネジメント株式会社 コンテンツデータ生成方法、映像ストリーム伝送方法及び映像表示方法
WO2016002154A1 (ja) 2014-06-30 2016-01-07 パナソニックIpマネジメント株式会社 データ再生方法及び再生装置
WO2016125691A1 (ja) 2015-02-03 2016-08-11 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2018235337A1 (ja) 2017-06-21 2018-12-27 パナソニックIpマネジメント株式会社 映像表示システム及び映像表示方法
WO2019038848A1 (ja) 2017-08-23 2019-02-28 三菱電機株式会社 映像コンテンツ媒体および映像再生装置
WO2019069482A1 (ja) 2017-10-06 2019-04-11 パナソニックIpマネジメント株式会社 映像表示システム及び映像表示方法

Also Published As

Publication number Publication date
WO2019087775A1 (ja) 2019-05-09
EP3706412A4 (en) 2020-11-04
KR20200077513A (ko) 2020-06-30
EP3706412A1 (en) 2020-09-09
KR102558213B1 (ko) 2023-07-24
US11153548B2 (en) 2021-10-19
CN111345034A (zh) 2020-06-26
US20200358995A1 (en) 2020-11-12
CN111345034B (zh) 2022-08-26
JPWO2019087775A1 (ja) 2020-11-19
EP3706412B1 (en) 2023-03-15

Similar Documents

Publication Publication Date Title
US11516428B2 (en) Reproduction device, reproduction method, and recording medium
US10951909B2 (en) Reproduction device reproduction method, and recording medium
US10880532B2 (en) Reproduction device, reproduction method, and recording medium
US9832440B2 (en) Reproduction device, reproduction method, and recording medium that display graphics based on tone mapping
US9706184B2 (en) Reproduction device, reproduction method, and recording medium
US20090115798A1 (en) Image processing apparatus, image processing method, and image processing program
JP2024045366A (ja) 情報処理装置、情報処理方法、記録媒体、再生装置、再生方法、およびプログラム
JP7207314B2 (ja) 再生装置、再生方法、プログラム
JP7251480B2 (ja) 再生装置、再生方法、プログラム
WO2016117383A1 (ja) 再生装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R151 Written notification of patent or utility model registration

Ref document number: 7251480

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151