JP5402715B2 - 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 - Google Patents
立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 Download PDFInfo
- Publication number
- JP5402715B2 JP5402715B2 JP2010036720A JP2010036720A JP5402715B2 JP 5402715 B2 JP5402715 B2 JP 5402715B2 JP 2010036720 A JP2010036720 A JP 2010036720A JP 2010036720 A JP2010036720 A JP 2010036720A JP 5402715 B2 JP5402715 B2 JP 5402715B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- data
- disparity
- image data
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/005—Aspects relating to the "3D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Description
この発明は、立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法に関し、特に、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報の表示を良好に行い得る立体画像データ送信装置等に関する。
例えば、特許文献1には、立体画像データのテレビ放送電波を用いた伝送方式について提案されている。この場合、左眼用画像データおよび右眼用画像データを含む立体画像データが送信され、テレビ受信機において、両眼視差を利用した立体画像表示が行われる。
図98は、両眼視差を利用した立体画像表示において、スクリーン上におけるオブジェクト(物体)の左右像の表示位置と、その立体像の再生位置との関係を示している。例えば、スクリーン上に図示のように左像Laが右側に右像Raが左側にずれて表示されているオブジェクトAに関しては、左右の視線がスクリーン面より手前で交差するため、その立体像の再生位置はスクリーン面より手前となる。DPaは、オブジェクトAに関する水平方向の視差ベクトルを表している。
また、例えば、スクリーン上に図示のように左像Lbおよび右像Rbが同一位置に表示されているオブジェクトBに関しては、左右の視線がスクリーン面で交差するため、その立体像の再生位置はスクリーン面上となる。DPbは、オブジェクトBに関する水平方向の視差ベクトルを表している。さらに、例えば、スクリーン上に図示のように左像Lcが左側に右像Rcが右側にずれて表示されているオブジェクトCに関しては、左右の視線がスクリーン面より奥で交差するため、その立体像の再生位置はスクリーン面より奥となる。
上述したように立体画像表示において、視聴者は、両眼視差を利用して、立体画像の遠近感を認知することが普通である。画像に重畳される重畳情報、例えば、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等に関しても、2次元空間的のみならず、3次元の奥行き感としても、立体画像表示と連動してレンダリングされることが期待される。
例えば、画像にクローズド・キャプション情報あるいはサブタイトル情報である字幕を重畳表示(オーバーレイ表示)する場合、遠近感でいうところの最も近い画像内の物体(オブジェクト)よりも手前に表示されないと、視聴者は、遠近感の矛盾を感じる場合がある。また、他のグラフィクス情報、あるいはテキスト情報を画像に重畳表示する場合にも、画像内の各物体の遠近感に応じて視差調整を施し、遠近感の整合性を維持することが期待される。
この発明の目的は、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報の表示において、画像内の各物体との間の遠近感の整合性の維持を図ることにある。
この発明の概念は、
所定組の視差情報セットを作成する視差情報作成部と、
左眼画像データおよび右眼画像データを含む立体画像データと共に、上記視差情報作成部で作成された上記所定組の視差情報セットを送信するデータ送信部とを備え、
上記各組の視差情報セットには、それぞれ、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報が含まれ、
上記各組の視差情報セットには、それぞれ、該視差情報セットに含まれる視差情報を使用すべき上記重畳情報の種類を示す識別情報が付加されている
立体画像データ送信装置にある。
所定組の視差情報セットを作成する視差情報作成部と、
左眼画像データおよび右眼画像データを含む立体画像データと共に、上記視差情報作成部で作成された上記所定組の視差情報セットを送信するデータ送信部とを備え、
上記各組の視差情報セットには、それぞれ、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報が含まれ、
上記各組の視差情報セットには、それぞれ、該視差情報セットに含まれる視差情報を使用すべき上記重畳情報の種類を示す識別情報が付加されている
立体画像データ送信装置にある。
この発明において、視差情報作成部により、所定組の視差情報セットが作成される。各組の視差情報セットには、左眼画像データおよび右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報が含まれている。データ送信部により、左眼画像データおよび右眼画像データを含む立体画像データと共に、視差情報作成部で作成された所定組の視差情報セットが送信される。この場合、例えば、視差情報セット作成部で作成された各組の視差情報セットは、立体画像データのデータストリームにおけるヘッダ部内のユーザデータ領域に含めて送信される。
各組の視差情報セットには、それぞれ、この視差情報セットに含まれる視差情報を使用すべき重畳情報の種類を示す識別情報が付加されている。この識別情報により、汎用目的の視差情報セットであるか、特定のサービス用途向けの視差情報セットであるかが分かる。特性のサービス用途向けとしては、例えば、クローズド・キャプション向け、サブタイトル向けなどがある。
このように、この発明においては、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データと共に、それぞれ視差情報を使用すべき重畳情報の種別を示す識別情報が付加されている、所定組の視差情報セットが送信される。そのため、受信側においては、左眼画像および右眼画像に重畳される同一の重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)に、この重畳情報の種類に合った視差情報セットを用いて、適切な視差を付与できる。したがって、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
この発明において、例えば、視差情報セットには、所定数の視差情報が属する画面領域を示す情報が付加される、ようにしてもよい。画面領域を示す情報は、例えば、画面の分割数を示す情報とされる。分割数は、例えば、0分割、4分割、9分割などである。また、画面領域を示す情報は、例えば、領域の大きさ(ブロックサイズ)を示す情報とされる。例えば、16×16、32×32、64×64などである。このように所定数の視差情報が属する画面領域を示す情報が付加されることで、視差情報セットに必要な空間密度をもって視差情報を含ませることができ、受信側では、視差情報セットに含まれる視差情報の空間密度と、各視差情報が属する画面領域を認識でき、必要な画面領域の視差情報を容易に抽出して使用できる。
また、この発明において、例えば、視差情報セットには、識別情報が示す種類の重畳情報を表示すべき領域と、この領域に表示される重畳情報に視差を付与するために使用する視差情報との対応関係を示すテーブル情報が付加される、ようにしてもよい。このようなテーブル情報が付加されることで、受信側では、所定の領域に表示すべき重畳情報に、その領域に応じた視差情報をもって適切な視差を付与できる。
また、この発明において、例えば、視差情報出力部で出力される各組の視差情報セットは、画像データの所定単位毎の視差情報セットであり、データ送信部は、画像データを一定期間毎に区切り、各一定期間の画像データに対応した所定単位毎の視差情報セットを、この各一定期間の画像データの送信に先立って送信し、各一定期間の画像データに対応した所定単位毎の視差情報セットには、この視差情報セットを用いるタイミングを示す時間情報が付加される、ようにしてもよい。
この場合、受信側においては、重畳情報の重畳期間において、画像データの所定単位毎に、重畳情報に、対応する視差情報セットによる視差を付与できる。つまり、重畳情報に付与する視差を、画像内容の変化に連動して動的に変化させることが可能となる。また、各一定期間の画像データに対応した所定単位毎の視差情報セットには、この視差情報セットを用いるタイミングを示す時間情報が付加されているので、受信側においては、所定単位毎の視差情報セットを、正しいタイミングで使用できる。
また、この発明の概念は、
左眼画像データおよび右眼画像データを含む立体画像データと、それぞれ上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報を含むと共に、上記視差情報を使用する上記重畳情報の種類を示す識別情報が付加されている、所定組の視差情報セットを受信するデータ受信部と、
上記データ受信部で受信された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に、上記データ受信部で受信された上記所定組の視差情報セットの中から、上記識別情報に基づき、該重畳情報の種類に対応した視差情報セットに含まれる視差情報を用いて視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部と
を備える立体画像データ受信装置にある。
左眼画像データおよび右眼画像データを含む立体画像データと、それぞれ上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報を含むと共に、上記視差情報を使用する上記重畳情報の種類を示す識別情報が付加されている、所定組の視差情報セットを受信するデータ受信部と、
上記データ受信部で受信された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に、上記データ受信部で受信された上記所定組の視差情報セットの中から、上記識別情報に基づき、該重畳情報の種類に対応した視差情報セットに含まれる視差情報を用いて視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部と
を備える立体画像データ受信装置にある。
この発明において、データ受信部により、左眼画像データおよび右眼画像データを含む立体画像データと共に、所定組の視差情報セットが受信される。各組の視差情報セットには、左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報が含まれている。
また、各組の視差情報セットには、それぞれ、この視差情報セットに含まれる視差情報を使用すべき重畳情報の種別を示す識別情報が付加されている。この識別情報により、汎用目的の視差情報セットであるか、特定のサービス用途向けの視差情報セットであるかが分かる。特性のサービス用途向けとしては、例えば、クローズド・キャプション向け、サブタイトル向けなどがある。
画像データ処理部により、左眼画像データおよび右眼画像データと、視差情報セットとが用いられ、左眼画像および右眼画像に重畳する同一の重畳情報に視差が付与され、重畳情報が重畳された左眼画像のデータおよび重畳情報が重畳された右眼画像のデータが得られる。この場合、所定組の視差情報セットの中から、識別情報に基づき、重畳情報の種類に対応した視差情報セットに含まれる視差情報が用いられて視差が付与される。
そのため、左眼画像および右眼画像に重畳される重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)に、この重畳情報に合った視差情報セットを用いて、適切な視差を付与できる。したがって、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
また、この発明において、例えば、所定数の視差情報が属する画面領域を示す情報が付加されている。画面領域を示す情報は、例えば、画面の分割数を示す情報とされる。分割数は、例えば、0分割、4分割、9分割などである。また、画面領域を示す情報は、例えば、領域の大きさ(ブロックサイズ)を示す情報とされる。例えば、16×16、32×32、64×64などである。このように所定数の視差情報が属する画面領域を示す情報が付加されていることで、視差情報セットに含まれる視差情報の空間密度と、各視差情報が属する画面領域を認識でき、必要な画面領域の視差情報を容易に抽出して使用できる。
また、この発明において、例えば、視差情報セットには、識別情報が示す種類の重畳情報を表示すべき領域と、この領域に表示される重畳情報に視差を付与するために使用する視差情報との対応関係を示すテーブル情報が付加されている。このようなテーブル情報が付加されていることで、所定の領域に表示すべき重畳情報に、その領域に応じた視差情報をもって適切な視差を付与できる。
また、この発明において、例えば、データ受信部で受信される視差情報セットは、画像データの所定単位毎の視差情報セットであり、データ受信部は、画像データを一定期間毎に区切り、各一定期間の画像データに対応した所定単位毎の視差情報セットを、この各一定期間の画像データの送信に先立って受信し、各一定期間の画像データに対応した所定単位毎の視差情報セットには、この視差情報セットを用いるタイミングを示す時間情報が付加されており、データ処理部は、重畳情報の重畳期間において、画像データの所定単位毎に、重畳情報に、対応する視差情報セットに含まれる視差情報による視差を付与する、ようにされる。
この場合、重畳情報の重畳期間において、画像データの所定単位毎に、重畳情報に、対応する視差情報セットによる視差を付与できる。つまり、重畳情報に付与する視差を、画像内容の変化に連動して動的に変化させることが可能となる。また、各一定期間の画像データに対応した所定単位毎の視差情報セットには、この視差情報セットを用いるタイミングを示す時間情報が付加されているので、所定単位毎の視差情報セットを、正しいタイミングで使用できる。
この発明によれば、左眼画像および右眼画像に重畳される重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)に、この重畳情報に合った視差情報セットを用いて、適切な視差を付与でき、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を最適な状態に維持できる。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
1.実施の形態
2.変形例
<1.実施の形態>
[立体画像送受信システムの構成例]
図1は、実施の形態としての立体画像送受信システム10の構成例を示している。この立体画像送受信システム10は、放送局100と、セットトップボックス(STB:Set Top Box)200と、テレビ受信機300を有している。
[立体画像送受信システムの構成例]
図1は、実施の形態としての立体画像送受信システム10の構成例を示している。この立体画像送受信システム10は、放送局100と、セットトップボックス(STB:Set Top Box)200と、テレビ受信機300を有している。
セットトップボックス200およびテレビ受信機300は、HDMI(High Definition Multimedia Interface)ケーブル400を介して接続されている。セットトップボックス200には、HDMI端子202が設けられている。テレビ受信機300には、HDMI端子302が設けられている。HDMIケーブル400の一端はセットトップボックス200のHDMI端子202に接続され、このHDMIケーブル400の他端はテレビ受信機300のHDMI端子302に接続されている。
[放送局の説明]
放送局100は、ビットストリームデータを、放送波にのせて送信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報データ、さらには視差情報(視差ベクトル)などが含まれる。ここで、重畳情報データは、クローズド・キャプションデータ、サブタイトルデータ、グラフィクスデータ、テキストデータなどである。
放送局100は、ビットストリームデータを、放送波にのせて送信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報データ、さらには視差情報(視差ベクトル)などが含まれる。ここで、重畳情報データは、クローズド・キャプションデータ、サブタイトルデータ、グラフィクスデータ、テキストデータなどである。
「送信データ生成部の構成例」
図2は、放送局100において、上述のビットストリームデータを生成する送信データ生成部110の構成例を示している。この構成例は、視差ベクトルを数値情報として送信する例である。この送信データ生成部110は、カメラ111L,111Rと、ビデオフレーミング部112と、ビデオエンコーダ113と、視差ベクトル検出部114と、視差ベクトルエンコーダ115を有している。
図2は、放送局100において、上述のビットストリームデータを生成する送信データ生成部110の構成例を示している。この構成例は、視差ベクトルを数値情報として送信する例である。この送信データ生成部110は、カメラ111L,111Rと、ビデオフレーミング部112と、ビデオエンコーダ113と、視差ベクトル検出部114と、視差ベクトルエンコーダ115を有している。
また、この送信データ生成部110は、マイクロホン116と、オーディオエンコーダ117と、サブタイトル・グラフィクス発生部118と、サブタイトル・グラフィクスエンコーダ119と、テキスト発生部120と、テキストエンコーダ121と、マルチプレクサ122を有している。なお、この実施の形態において、テキスト発生部120は、クローズド・キャプションデータの発生部を兼ねているものとする。このクローズド・キャプションデータは、クローズド・キャプションの字幕表示をするためのテキストデータである。
カメラ111Lは、左眼画像を撮影して立体画像表示のための左眼画像データを得る。カメラ111Rは、右眼画像を撮影して立体画像表示のための右眼画像データを得る。ビデオフレーミング部112は、カメラ111Lで得られる左眼画像データおよびカメラ111Rで得られる右眼画像データを、伝送方式に応じた状態に加工処理する。
[立体画像データの伝送方式例]
ここでは、立体画像データ(3D画像データ)の伝送方式として、以下の第1〜第3の方式を挙げるが、これら以外の伝送方式であってもよい。ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば 1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
ここでは、立体画像データ(3D画像データ)の伝送方式として、以下の第1〜第3の方式を挙げるが、これら以外の伝送方式であってもよい。ここでは、図3に示すように、左眼(L)および右眼(R)の画像データが、それぞれ、決められた解像度、例えば 1920×1080pのピクセルフォーマットの画像データである場合を例にとって説明する。
第1の伝送方式は、「Top & Bottom」方式で、図4(a)に示すように、垂直方向の前半では左眼画像データの各ラインのデータを伝送し、垂直方向の後半では左眼画像データの各ラインのデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データのラインが1/2に間引かれることから原信号に対して垂直解像度は半分となる。
第2の伝送方式は、「Side By Side」方式で、図4(b)に示すように、水平方向の前半では左眼画像データのピクセルデータを伝送し、水平方向の後半では右眼画像データのピクセルデータを伝送する方式である。この場合、左眼画像データおよび右眼画像データは、それぞれ、水平方向のピクセルデータが1/2に間引かれる。現信号に対して、水平解像度は半分となる。
第3の伝送方式は、「Frame Sequential」方式で、図4(c)に示すように、左眼画像データと右眼画像データとをフィールド毎に順次切換えて伝送する方式である。
図2に戻って、ビデオエンコーダ113は、ビデオフレーミング部112で加工処理された立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施して符号化ビデオデータを得る。また、ビデオエンコーダ113は、後段にストリームフォーマッタ113aを備える。このストリームフォーマッタ113aにより、ペイロード部に符号化ビデオデータを含むビデオのエレメンタリーストリームを生成する。
視差ベクトル検出部114は、左眼画像データおよび右眼画像データに基づき、画像内の所定位置において、左眼画像および右眼画像の一方に対する他方の視差情報である視差ベクトルを検出する。ここで、画像内の所定位置は、全ての画素位置、複数画素からなる各領域の代表位置、あるいは、重畳情報、ここではグラフィック情報やテキスト情報を重畳する領域の代表位置等である。
[視差ベクトルの検出]
視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
視差ベクトルの検出例について説明する。ここでは、左眼画像に対する右眼画像の視差ベクトルを検出する例について説明する。図5に示すように、左眼画像を検出画像とし、右眼画像を参照画像とする。この例では、(xi,yi)および(xj,yj)の位置における視差ベクトルが検出される。
(xi,yi)の位置における視差ベクトルを検出する場合を例にとって説明する。この場合、左眼画像に、(xi,yi)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロック(視差検出ブロック)Biが設定される。そして、右眼画像において、画素ブロックBiとマッチングする画素ブロックが探索される。
この場合、右眼画像に、(xi,yi)の位置を中心とする探索範囲が設定され、その探索範囲内の各画素を順次注目画素として、上述の画素ブロックBiと同様の例えば8×8あるいは16×16の比較ブロックが順次設定されていく。
画素ブロックBiと順次設定される比較ブロックとの間で、対応する画素毎の差分絶対値の総和が求められる。ここで、図6に示すように、画素ブロックBiの画素値をL(x,y)とし、比較ブロックの画素値をR(x,y)とするとき、画素ブロックBiと、ある比較ブロックとの間における差分絶対値の総和は、Σ|L(x,y)−R(x,y)|で表される。
右眼画像に設定される探索範囲にn個の画素が含まれているとき、最終的にn個の総和S1〜Snが求められ、その中で最小の総和Sminが選択される。そして、この総和Sminが得られた比較ブロックから左上の画素の位置が(xi′,yi′)が得られる。これにより、(xi,yi)の位置における視差ベクトルは、(xi′−xi,yi′−yi)のように検出される。詳細説明は省略するが、(xj,yj)の位置における視差ベクトルについても、左眼画像に、(xj,yj)の位置の画素を左上とする、例えば8×8あるいは16×16の画素ブロックBjが設定されて、同様の処理過程で検出される。
図7(a)は、視差ベクトル検出部114で検出される、画像内の所定位置おける視差ベクトルVVの一例を示している。この場合、図7(b)に示すように、この画像内の所定位置においては、左眼画像(検出画像)を視差ベクトルVVだけずらすと、右眼画像(参照画像)と重なることを意味する。
図2に戻って、視差ベクトルエンコーダ115は、視差ベクトル検出部114で検出された視差ベクトル等を含む視差ベクトルのエレメンタリーストリームを生成する。ここで、視差ベクトルのエレメンタリーストリームには、以下の内容が含まれる。すなわち、ID(ID_Block)、垂直位置情報(Vertical_Position)、水平位置情報(Horizontal_Position)、視差ベクトル(View_Vector)が1セットとされる。そして、この1セットが視差検出ブロックの数であるN個分だけ繰り返される。
図8は、視差ベクトルの伝送内容を示している。視差ベクトルには、垂直方向成分(View_Vector_Vertical)および水平方向成分(View_Vector_Horizontal)が含まれている。 なお、視差検出ブロックの垂直、水平の位置は、画像の左上の原点から、ブロックの左上の画素までの垂直方向、水平方向のオフセット値となる。各視差ベクトルの伝送に、視差検出ブロックのIDを付すのは、画像に重畳表示させるクローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報のパターンとのリンクがとれるようにするためである。
例えば、図9(a)に示すように、A〜Fまでの視差検出ブロックが存在するとき、伝送内容には、図9(b)に示すように、その視差検出ブロックA〜FのIDと、垂直、水平の位置情報と、視差ベクトルが含まれる。例えば、図9(b)において、視差検出ブロックAに関しては、ID2は視差検出ブロックAのIDを示し、(Ha,Va)は視差検出ブロックAの垂直、水平の位置情報を示し、視差ベクトルaは視差検出ブロックAの視差ベクトルを示している。
ここで、視差ベクトルを検出して伝送するタイミングについて説明する。このタイミングに関しては、例えば、以下の第1〜第4の例が考えられる。
第1の例においては、図10(a)に示すように、ピクチャの符号化に同期させる。この場合、視差ベクトルは、ピクチャ単位で伝送される。このピクチャ単位は、視差ベクトルを伝送する際のもっとも細かい単位である。第2の例においては、図10(b)に示すように、ビデオのシーンに同期させる。この場合、視差ベクトルは、シーン単位で伝送される。
第3の例においては、図10(c)に示すように、符号化ビデオのIピクチャ(Intra picture)、またはGOP(Group Of Pictures)に同期させる。第4の例においては、図11に示すように、画像に重畳表示されるサブタイトル情報、グラフィクス情報、テキスト情報等の表示開始タイミングに同期させる。
図2に戻って、マイクロホン116は、カメラ111L,111Rで撮影された画像に対応した音声を検出して、音声データを得る。オーディオエンコーダ117は、マイクロホン116で得られた音声データに対して、MPEG−2Audio AAC等の符号化を施し、オーディオのエレメンタリーストリームを生成する。
サブタイトル・グラフィクス発生部118は、画像に重畳するサブタイトル情報やグラフィクス情報のデータ(サブタイトルデータ、グラフィクスデータ)を発生する。サブタイトル情報は、例えば字幕である。また、グラフィクス情報は、例えばロゴなどである。このサブタイトルデータおよびグラフィクスデータは、ビットマップデータである。このサブタイトルデータおよびグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。
このアイドリングオフセット情報は、例えば、画像の左上の原点から、サブタイトル情報やグラフィクス情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、字幕データをビットマップデータとして伝送する規格は、ヨーロッパのデジタル放送規格であるDVBでDVB_Subtitlingとして規格化され、運用されている。
サブタイトル・グラフィクスエンコーダ119は、サブタイトル・グラフィクス発生部118で発生されたサブタイトル情報やグラフィクス情報のデータ(サブタイトルデータ、グラフィクスデータ)を入力する。そして、このサブタイトル・グラフィクスエンコーダ119は、これらのデータをペイロード部に含むエレメンタリーストリームを生成する。
テキスト発生部120は、画像に重畳するテキスト情報のデータ(テキストデータ)を発生する。テキスト情報は、例えば電子番組表、文字放送内容などである。このテキストデータには、上述のグラフィクスデータと同様に、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。このアイドリングオフセット情報は、例えば、画像の左上の原点から、テキスト情報の重畳位置の左上の画素までの垂直方向、水平方向のオフセット値を示す。なお、テキストデータを伝送する例としては、番組予約として運用されているEPG、アメリカのデジタル地上波規格ATSCのCC_data(Closed Caption)がある。
テキストエンコーダ121は、テキスト発生部120で発生されたテキストデータを入力する。そして、テキストエンコーダ121は、これらのデータをペイロード部に含むエレメンタリーストリームを生成する。
マルチプレクサ122は、エンコーダ113,115,117,119,121から出力されるパケット化されたエレメンタリーストリームを多重化する。そして、このマルチプレクサ122は、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDを出力する。
図2に示す送信データ生成部110の動作を簡単に説明する。カメラ111Lでは、左眼画像が撮影される。このカメラ111Lで得られる立体画像表示のための左眼画像データはビデオフレーミング部112に供給される。また、カメラ111Rでは、右眼画像が撮影される。このカメラ111Rで得られる立体画像表示のための右眼画像データはビデオフレーミング部112に供給される。ビデオフレーミング部112では、左眼画像データおよび右眼画像データが、伝送方式に応じた状態に加工処理されて、立体画像データが得られる(図4(a)〜(c)参照)。
ビデオフレーミング部112で得られる立体画像データはビデオエンコーダ113に供給される。このビデオエンコーダ113では、立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含むビデオエレメンタリーストリームが生成される。このビデオエレメンタリーストリームはマルチプレクサ122に供給される。
また、カメラ111L,111Rで得られた左眼画像データ、右眼画像データは、ビデオフレーミング部112を通じて、視差ベクトル検出部114に供給される。この視差ベクトル検出部114では、左眼画像データおよび右眼画像データに基づき、画像内の所定位置において、視差検出ブロックが設定され、左眼画像および右眼画像の一方に対する他方の視差情報である視差ベクトルが検出される。
視差ベクトル検出部114で検出された画像内の所定位置における視差ベクトルは、視差ベクトルエンコーダ115に供給される。この場合、視差検出ブロックのID、視差検出ブロックの垂直位置情報、視差検出ブロックの水平位置情報、視差ベクトルが1セットとして渡される。視差ベクトルエンコーダ115では、視差ベクトルの伝送内容(図8参照)を含む視差ベクトルエレメンタリーストリームが生成される。この視差ベクトルエレメンタリーストリームはマルチプレクサ122に供給される。
また、マイクロホン116では、カメラ111L,111Rで撮影された画像に対応した音声が検出される。このマイクロホン116で得られる音声データはオーディオエンコーダ117に供給される。このオーディオエンコーダ117では、音声データに対して、MPEG−2Audio AAC等の符号化が施され、符号化オーディオデータを含むオーディオエレメンタリーストリームが生成される。このオーディオエレメンタリーストリームはマルチプレクサ122に供給される。
また、サブタイトル・グラフィクス発生部118では、画像に重畳するサブタイトル情報やグラフィクス情報のデータ(サブタイトルデータ、グラフィクスデータ)が発生される。このデータ(ビットマップデータ)は、サブタイトル・グラフィクスエンコーダ119に供給される。このサブタイトル・グラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。サブタイトル・グラフィクスエンコーダ119では、このグラフィクスデータに対して所定の符号化が施され、符号化データを含むエレメンタリーストリームが生成される。このエレメンタリーストリームはマルチプレクサ122に供給される。
また、テキスト発生部120では、画像に重畳するテキスト情報のデータ(テキストデータ)が発生される。このテキストデータは、テキストエンコーダ121に供給される。このテキストデータには、上述のグラフィクスデータと同様に、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。テキストエンコーダ121では、このテキストデータに対して所定の符号化が施され、符号化データを含むエレメンタリーストリームが生成される。このエレメンタリーストリームはマルチプレクサ122に供給される。
マルチプレクサ122では、各エンコーダから供給されるエレメンタリーストリームのパケットが多重化され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
図12は、図2に示す送信データ生成部110において多重化される各データのストリーム例を示している。なお、この例は、視差ベクトルが、ビデオのシーン単位で検出されて伝送される場合(図10(b)参照)を示している。なお、各ストリームのパケットには、同期表示用のタイムスタンプが付され、受信側で、画像に対して、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳タイミングを制御することが可能となっている。
「送信データ生成部の他の構成例」
なお、上述の図2に示す送信データ生成部110は、視差ベクトルの伝送内容(図8参照)を独立したエレメンタリーストリームとして受信側に伝送する構成となっている。しかし、視差ベクトルの伝送内容を他のストリームの中に埋め込んで伝送することも考えられる。例えば、視差ベクトルの伝送内容は、ビデオのストリームにユーザデータとして埋め込まれて伝送される。また、例えば、視差ベクトルの伝送内容は、サブタイトル、グラフィクス、あるいはテキストのストリームに埋め込まれて伝送される。
なお、上述の図2に示す送信データ生成部110は、視差ベクトルの伝送内容(図8参照)を独立したエレメンタリーストリームとして受信側に伝送する構成となっている。しかし、視差ベクトルの伝送内容を他のストリームの中に埋め込んで伝送することも考えられる。例えば、視差ベクトルの伝送内容は、ビデオのストリームにユーザデータとして埋め込まれて伝送される。また、例えば、視差ベクトルの伝送内容は、サブタイトル、グラフィクス、あるいはテキストのストリームに埋め込まれて伝送される。
図13は、送信データ生成部110Aの構成例を示している。この例も、視差ベクトルを数値情報として送信する例である。この送信データ生成部110Aは、視差ベクトルの伝送内容を、ビデオのストリームにユーザデータとして埋め込んで伝送する構成となっている。この図13において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
この送信データ生成部110Aにおいて、視差ベクトル検出114で検出された画像内の所定位置における視差ベクトルは、ビデオエンコーダ113内のストリームフォーマッタ113aに供給される。この場合、視差検出ブロックのID、視差検出ブロックの垂直位置情報、視差検出ブロックの水平位置情報、視差ベクトルが1セットとして渡される。ストリームフォーマッタ113aでは、ビデオのストリームに、視差ベクトルの伝送内容(図8参照)が、ユーザデータとして埋め込まれる。
詳細説明は省略するが、この図13に示す送信データ生成部110Aのその他は、図2に示す送信データ生成部110と同様に構成されている。
図14は、図13に示す送信データ生成部110Aにおいて多重化される画像データストリームと、サブタイトルあるいはグラフィクスのデータストリームと、テキストデータストリームの一例を示している。視差ベクトル(視差情報)は、画像データストリームに埋め込まれて伝送される。
「送信データ生成部の他の構成例」
図15は、送信データ生成部110Bの構成例を示している。この例も、視差ベクトルを数値情報として送信する例である。この送信データ生成部110Bは、視差ベクトルの伝送内容を、サブタイトルあるいはグラフィクスのデータストリームに埋め込んで伝送する構成となっている。この図15において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
図15は、送信データ生成部110Bの構成例を示している。この例も、視差ベクトルを数値情報として送信する例である。この送信データ生成部110Bは、視差ベクトルの伝送内容を、サブタイトルあるいはグラフィクスのデータストリームに埋め込んで伝送する構成となっている。この図15において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
この送信データ生成部110Bにおいて、視差ベクトル検出114で検出された画像内の所定位置における視差ベクトルは、サブタイトル・グラフィクスエンコーダ119内のストリームフォーマッタ119aに供給される。この場合、視差検出ブロックのID、視差検出ブロックの垂直位置情報、視差検出ブロックの水平位置情報、視差ベクトルが1セットとして渡される。ストリームフォーマッタ119aでは、サブタイトルあるいはグラフィクスのデータストリームに、視差ベクトルの伝送内容(図8参照)が埋め込まれる。
詳細説明は省略するが、この図15に示す送信データ生成部110Bのその他は、図2に示す送信データ生成部110と同様に構成され、同様に動作する。
図16は、図15に示す送信データ生成部110Bにおいて多重化される、画像データストリームと、サブタイトルあるいはグラフィクスのデータストリームと、テキストデータストリームの一例を示している。視差ベクトル(視差情報)は、サブタイトルあるいはグラフィクスのデータストリームに埋め込まれて伝送される。
「送信データ生成部の他の構成例」
また、上述の図2、図13、図15に示す送信データ生成部110,110A,110Bは、視差ベクトルを数値情報として送信する(図8参照)。しかし、視差ベクトルを数値情報として伝送する代わりに、画像に重畳するための重畳情報(例えば、サブタイトル情報、グラフィクス情報、テキスト情報等)のデータに送信側で視差情報を予め反映させて送信することも考えられる。
また、上述の図2、図13、図15に示す送信データ生成部110,110A,110Bは、視差ベクトルを数値情報として送信する(図8参照)。しかし、視差ベクトルを数値情報として伝送する代わりに、画像に重畳するための重畳情報(例えば、サブタイトル情報、グラフィクス情報、テキスト情報等)のデータに送信側で視差情報を予め反映させて送信することも考えられる。
例えば、グラフィクス情報のデータに反映させる場合、送信側で、左眼画像に重畳すべき左眼グラフィクス情報と右眼画像に重畳すべき右眼グラフィクス情報の双方に対応したグラフィクスデータが生成される。この場合、左眼グラフィクス情報および右眼グラフィクス情報は同一のグラフィクス情報である。しかし、画像内の表示位置が、例えば、左眼グラフィクス情報に対して、右眼グラフィクス情報は、その表示位置に対応した視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、その重畳位置に対応したものが使用される。また、例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルが使用される。なお、詳細説明は省略するが、サブタイトル情報やグラフィクス情報のデータに視差情報を反映させる場合も同様である。
図17(a)は、伝送方式が上述の第1の伝送方式(「Top & Bottom」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。これら左眼グラフィクス情報および右眼グラフィクス情報は同一の情報である。ただし、左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。
各画像IL,IRに対して、図17(a)に示すように、各グラフィクス情報LGI,RGIが重畳されるように、グラフィクスデータが生成される。これにより、視聴者は、図17(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。
例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図18(a)に示すように、単一領域のデータとして生成される。この場合、各グラフィクス情報LGI,RGI以外の部分のデータは、透明データとして生成されればよい。また、例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図18(b)に示すように、別領域のデータとして生成される。
図19(a)は、伝送方式が上述の第2の伝送方式(「Side By Side」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。これら左眼グラフィクス情報および右眼グラフィクス情報は同一の情報である。ただし、左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。なお、ITは、アイドリングオフセット値である。
各画像IL,IRに対して、図19(a)に示すように、各グラフィクス情報LGI,RGIが重畳されるように、グラフィクスデータが生成される。これにより、視聴者は、図19(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。
例えば、各グラフィクス情報LGI,RGIのグラフィクスデータは、図20に示すように、単一領域のデータとして生成される。この場合、各グラフィクス情報LGI,RGI以外の部分のデータは、透明データとして生成されればよい。
図21は、送信データ生成部110Cの構成例を示している。この送信データ生成部110Cは、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報のデータに視差情報を反映させて送信する構成となっている。この図21において、図2と対応する部分には同一符号を付し、その詳細説明は省略する。
この送信データ生成部110Cでは、サブタイトル・グラフィクス発生部118とサブタイトル・グラフィクスエンコーダ119との間に、サブタイトル・グラフィクス処理部124が挿入されている。また、この送信データ生成部110Cでは、テキスト発生部120とテキストエンコーダ121との間に、テキスト処理部125が挿入されている。そして、視差ベクトル検出部114で検出された画像内の所定位置における視差ベクトルは、サブタイトル・グラフィクス処理部124およびテキスト処理部125に供給される。
サブタイトル・グラフィクス処理部124では、左眼画像IL、右眼画像IRに重畳される、左眼、右眼のサブタイトルやグラフィクスの情報LGI,RGIのデータが生成される。この場合、サブタイトル・グラフィクス発生部118で発生されるサブタイトルデータやグラフィクスデータに基づいて発生される。左眼および右眼のサブタイトル情報やグラフィクス情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼のサブタイトル情報やグラフィクス情報に対して、右眼のサブタイトル情報やグラフィクス情報は、視差ベクトルの水平方向成分VVTだけ、水平方向にずれるようにされる(図17(a)、図19(a)参照)。
このようにサブタイトル・グラフィクス処理部124で生成されたサブタイトルデータやグラフィクスデータは、サブタイトル・グラフィクスエンコーダ119に供給される。なお、このサブタイトルデータやグラフィクスデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。サブタイトル・グラフィクスエンコーダ119では、サブタイトル・グラフィクス処理部124で生成されたサブタイトルデータやグラフィクスデータのエレメンタリーストリームが生成される。
また、テキスト処理部125では、テキスト発生部120で発生されるテキストデータに基づいて、左眼画像上に重畳される左眼テキスト情報のデータおよび右眼画像上に重畳される右眼テキスト情報のデータが生成される。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分VVTだけ、水平方向にずれるようにされる。
このようにテキスト処理部125で生成されたテキストデータは、テキストエンコーダ121に供給される。なお、このテキストデータには、画像上の重畳位置を示すアイドリングオフセット情報が付加されている。テキストエンコーダ121では、テキスト処理部で生成されたテキストスデータのエレメンタリーストリームが生成される。
詳細説明は省略するが、この図21に示す送信データ生成部110Cのその他は、図2に示す送信データ生成部110と同様に構成されている。
「送信データ生成部の他の構成例」
図2、図13、図15に示す送信データ生成部110,110A,110Bにおいて、視差ベクトル検出部114では、左眼画像データおよび右眼画像データに基づき、画像内の所定位置における視差ベクトル(視差情報)が検出される。送信データ生成部110,110A,110Bでは、視差ベクトル検出部114で検出された画像内の所定位置における視差情報をそのまま受信側に送信する構成となっている。
図2、図13、図15に示す送信データ生成部110,110A,110Bにおいて、視差ベクトル検出部114では、左眼画像データおよび右眼画像データに基づき、画像内の所定位置における視差ベクトル(視差情報)が検出される。送信データ生成部110,110A,110Bでは、視差ベクトル検出部114で検出された画像内の所定位置における視差情報をそのまま受信側に送信する構成となっている。
しかし、例えば、データ記録媒体に画像データと関連付けて記録されているピクセル毎(画素毎)の視差ベクトルにダウンサイジング処理を施し、画面を所定の大きさに区切って得られる一つまたは複数の領域に属する視差情報を含む視差情報セットを作成することが考えられる。この場合、各領域の大きさは、例えば、受信側が要求する視差ベクトルの空間密度、あるいは伝送帯域などに基づいて選択される。
また、視差情報セットとしては、汎用目的の視差情報セットと、特定のサービス用途向けの視差情報セットが考えられる。特定サービス用途向けとしては、例えば、クローズド・キャプション向け、サブタイトル向けなどがある。そして、受信側に送信する視差情報セットとして、以下のようなケースが考えられる。
(1)汎用目的の視差情報セットのみを送る(特定サービスとの関連を持たない場合)
(2)汎用目的の視差情報セットのみを送る(特定サービスとの関連を持つ場合)
(3)汎用目的の視差情報セットと特定サービス用途向けの視差情報セットの双方を送る
(4)特定サービス用途向けの視差情報セットのみを送る
(1)汎用目的の視差情報セットのみを送る(特定サービスとの関連を持たない場合)
(2)汎用目的の視差情報セットのみを送る(特定サービスとの関連を持つ場合)
(3)汎用目的の視差情報セットと特定サービス用途向けの視差情報セットの双方を送る
(4)特定サービス用途向けの視差情報セットのみを送る
図22は、送信データ生成部110Dの構成例を示している。この送信データ生成部110Dは、上述のケース(1)〜(4)のいずれかに対応した所定組の視差情報セットを作成し、この所定組の視差情報セットを受信側に送信する構成となっている。この図22において、図2と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。
この送信データ生成部110Dは、データ取り出し部(アーカイブ部)130と、視差情報セット作成部131と、ビデオエンコーダ113と、オーディオエンコーダ117を有している。また、この送信データ生成部110Dは、サブタイトル・グラフィクス発生部118と、サブタイトル・グラフィクスエンコーダ119と、テキスト発生部120と、テキストエンコーダ121と、マルチプレクサ122を有している。
データ取り出し部130には、データ記録媒体130aが、例えば、着脱自在に装着される。このデータ記録媒体130aには、左眼画像データおよび右眼画像データを含む立体画像データと共に、音声データ、視差ベクトルが対応付けて記録されている。データ取り出し部130は、データ記録媒体130aから、立体画像データ、音声データ、視差ベクトル等を取り出して出力する。データ記録媒体130aは、ディスク状記録媒体、半導体メモリ等である。
ここで、データ記録媒体130aに記録されている立体画像データは、図2に示す送信データ生成部110のビデオフレーミング部112で得られる立体画像データに相当するものである。また、データ記録媒体130aに記録されている視差ベクトルは、例えば、画像を構成するピクセル(画素)毎の視差ベクトルである。
視差情報セット作成部131は、ビューワ機能を持っている。この視差情報セット作成部131は、データ取り出し部130から出力される視差ベクトル、すなわちピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施し、所定の領域に属する視差ベクトルを生成する。
図23は、各ピクセル(画素)の輝度値のようにして与えられる相対的な深さ方向のデータの例を示している。ここで、相対的な深さ方向のデータは所定の変換により画素ごとの視差ベクトルとして扱うことが可能となる。この例において、人物部分の輝度値は高くなっている。これは、人物部分の視差ベクトルの値が大きいことを意味し、従って、立体画像表示では、この人物部分が浮き出た状態に知覚されることを意味している。また、この例において、背景部分の輝度値は低くなっている。これは、背景部分の視差ベクトルの値が小さいことを意味し、従って、立体画像表示では、この背景部分が沈んだ状態に知覚されることを意味している。
図24は、ブロック(Block)毎の視差ベクトルの一例を示している。ブロックは、最下層に位置するピクセル(画素)の上位層に当たる。このブロックは、画像(ピクチャ)領域が、水平方向および垂直方向に所定の大きさで分割されることで構成される。各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。この例においては、各ブロックの視差ベクトルを矢印で示しており、矢印の長さが視差ベクトルの大きさに対応している。
図25は、視差情報セット作成部131で行われるダウンサイジング処理の一例を示している。まず、視差情報セット作成部134は、図25(a)に示すように、ピクセル(画素)毎の視差ベクトルを用いて、ブロック毎の視差ベクトルを求める。上述したように、ブロックは、最下層に位置するピクセル(画素)の上位層に当たり、画像(ピクチャ)領域が水平方向および垂直方向に所定の大きさで分割されることで構成される。そして、各ブロックの視差ベクトルは、例えば、そのブロック内に存在する全ピクセル(画素)の視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報セット作成部131は、図25(b)に示すように、ブロック毎の視差ベクトルを用いて、グループ(Group Of Block)毎の視差ベクトルを求める。グループは、ブロックの上位層に当たり、複数個の近接するブロックをまとめてグループ化することで得られる。図25(b)の例では、各グループは、破線枠で括られる4個のブロックにより構成されている。そして、各グループの視差ベクトルは、例えば、そのグループ内の全ブロックの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報セット作成部131は、図25(c)に示すように、グループ毎の視差ベクトルを用いて、パーティション(Partition)毎の視差ベクトルを求める。パーティションは、グループの上位層に当たり、複数個の近接するグループをまとめてグループ化することで得られる。図25(c)の例では、各パーティションは、破線枠で括られる2個のグループにより構成されている。そして、各パーティションの視差ベクトルは、例えば、そのパーティション内の全グループの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。
次に、視差情報セット作成部131は、図25(d)に示すように、パーティション毎の視差ベクトルを用いて、最上位層に位置するピクチャ全体(画像全体)の視差ベクトルを求める。図25(d)の例では、ピクチャ全体には、破線枠で括られる4個のリージョンが含まれている。そして、ピクチャ全体の視差ベクトルは、例えば、ピクチャ全体に含まれる全リージョンの視差ベクトルから、最も値の大きな視差ベクトルが選択されることで得られる。この場合、ピクチャ全体の視差ベクトルの他に、その視差ベクトルが得られた元々のピクセル(画素)の位置(「+」で図示)の情報を求めて、視差ベクトルの付加情報とすることもできる。これは、上述したブロック、グループ、パーティションの視差ベクトルを求める際も同様である。
このようにして、視差情報セット作成部131は、最下層に位置するピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施して、ブロック、グループ、パーティション、ピクチャ全体の各階層の各領域の視差ベクトルを求めることができる。なお、図25に示すダウンサイジング処理の一例では、最終的に、ピクセル(画素)の階層の他、ブロック、グループ、パーティション、ピクチャ全体の4階層の視差ベクトルを求めているが、階層数ならびに各階層の領域の切り方や領域の数はこれに限定されるものではない。
視差情報セット作成部131は、上述したダウンサイジング処理により、所定の大きさの領域毎の視差ベクトルを含む視差情報セットを作成する。この視差情報セットには、各視差情報が属する画面領域を示す情報が付加される。例えば画面領域を示す情報として、例えば、0分割、4分割、9分割、16分割などの画面の分割数を示す情報が付加される。また、画面領域を示す情報として、例えば、16×16、32×32、64×64などの領域の大きさ(ブロックサイズ)を示す情報が付加される。
視差情報セットにおいて、各視差情報がスキャン順に配置されていれば、画面の分割数を示す情報あるいは領域の大きさを示す情報により、各視差情報の属する画面領域を把握できる。この意味で、画面の分割数を示す情報および領域の大きさを示す情報は、各視差情報が属する画面領域を示す情報となる。
また、視差情報セット作成部131は、必要に応じて、特定のサービス用途向けの視差情報セットを作成する。例えば、クローズド・キャプション向け、サブタイトル向け、特定のアプリケーション(ウィジェット)のグラフィクス向け、などの視差情報セットが、必要に応じて、作成される。この場合、上述のダウンサイジング処理により、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報など)の1つまたは複数の表示領域のそれぞれに対応した、一つまたは複数の画面領域に属する視差ベクトルが作成される。
図26(a)は、画像上におけるサブタイトルおよびアプリケーショングラフィクスの表示例を示している。図26(b)は、画像、サブタイトル、アプリケーショングラフィクスの遠近感を示している。例えば、図示のように、サブタイトルは、画面の下半分の中央領域に表示されるが、画像の最も近い位置よりさらに手前に認識されるようにしたい。この場合、視差情報セット作成部131では、このサブタイトルの表示領域と、対応する画像領域の視差ベクトルとから、サブタイトルに視差を付与するための視差ベクトルが作成される。また、例えば、図示のように、アプリケーショングラフィクスは、画面の右下端領域に表示されるが、サブタイトルよりさらに手前に認識されるようにしたい。この場合、視差情報セット作成部131では、このアプリケーショングラフィクスの表示領域と、対応する画像領域の視差ベクトルとから、アプリケーショングラフィクスに視差を付与するための視差ベクトルが作成される。
ここで、視差情報セット作成部131は、上述したようにビューワ機能を持っている。この視差情報セット作成部131には、実際に、図26(a)に示すような立体画像が表示される。そのため、この視差情報セット作成部131には、データ取り出し部130から出力される立体画像データ(左眼画像データ、右眼画像データ)が供給される。また、この視差情報セット作成部131には、サブタイトル・グラフィクス発生部118で発生されるサブタイトルデータ、あるいはグラフィクスデータ、また、テキスト発生部120で発生されるテキストデータ(クローズド・キャプションデータを含む)が供給される。
視差情報セット作成部131で作成され、立体画像データと共に送信する各組の視差情報セットには、それぞれ、ディスパリティ・シーケンスID(Disparity_Sequence_id)が付加される。このディスパリティ・シーケンスIDは、視差情報セットに含まれる視差情報を使用すべき重畳情報の種類を示す識別情報である。このディスパリティ・シーケンスIDにより、視差情報セットが、汎用目的の視差情報セットであるか、特定サービス用途向けの視差情報セットであるかが識別される。また、この識別情報により、特定サービス用途向けの視差情報セットが、いかなるサービス用途向けの視差情報セットであるか識別される。
図27に示すように、Disparity_Sequence_id=0は、汎用目的の視差情報セットを示す。この視差情報セットは、予め記録されている視差情報に基づいて、作成される。この視差情報セットが特定サービスとの関連付けを持たない場合、例えば、ディスパリティ・リンケージ・デスクリプタ(Disparity_Linkage_Descriptor)等で特定サービスと関連付けする必要はない。また、Disparity_Sequence_id=1〜255は、例えば、ディスパリティ・リンケージ・デスクリプタ等で関連付けされた特定サービス用途向けの視差情報セットを示す。
[視差情報セット]
視差情報セット作成部131で作成される視差情報セットについて、上述したケース(1)〜(4)のそれぞれについてさらに説明する。
視差情報セット作成部131で作成される視差情報セットについて、上述したケース(1)〜(4)のそれぞれについてさらに説明する。
「ケース(1)」
ケース(1)は、上述したように、汎用目的の視差情報セットのみを送るケースである。このケース(1)では、汎用目的の視差情報セットのみが作成される。なお、このケース(1)では、視差情報セットに含まれる視差情報は、特定サービスと関連を持たない。
ケース(1)は、上述したように、汎用目的の視差情報セットのみを送るケースである。このケース(1)では、汎用目的の視差情報セットのみが作成される。なお、このケース(1)では、視差情報セットに含まれる視差情報は、特定サービスと関連を持たない。
図28は、このケース(1)で作成される視差情報セットの一例を示している。この例において、視差情報セットには、画面が9分割されて得られた各画面領域に属する視差ベクトル(水平方向の視差ベクトル)P0〜P8が含まれる。各視差ベクトルP0〜P8は、例えば、ピクセル(画素)毎の視差ベクトルを用いて、上述したダウンサイジング処理により求められる。図28において、矢印は、視差ベクトルを示しており、矢印の長さが視差ベクトルの大きさに対応している。
この視差情報セットは、汎用目的の視差情報セットである。そのため、この視差情報セットに付加される識別情報「Diparity_Sequence_id」は、図29に示すように、汎用目的の視差情報セットであることを示す「0」とされる。
ここで、この汎用目的の視差情報セットは、画像データの所定単位毎、例えば符号化ビデオのピクチャ毎の視差情報セットである。後述するように、画像データは一定期間毎に区切られ、各一定期間の画像データに対応した複数の視差情報セットの集合(Packed Disparity Set)が、この各一定期間の画像データの送信に先立って送信される。そのため、所定単位毎の視差情報セットには、図29に示すように、その視差情報セットを用いるタイミングを示す時間情報としてオフセット(Offset)が付加される。各視差情報セットに付加されるオフセットは、タイムスタンプ(TimeStamp)で示される最初の視差情報セットの使用時間からの時間を示す。
「ケース(2)」
ケース(2)は、上述したように、汎用目的の視差情報セットのみを送るケースである。このケース(2)では、汎用目的の視差情報セットのみが作成される。なお、このケース(2)では、視差情報セットに含まれる視差情報は特定サービスと関連を持つ。
ケース(2)は、上述したように、汎用目的の視差情報セットのみを送るケースである。このケース(2)では、汎用目的の視差情報セットのみが作成される。なお、このケース(2)では、視差情報セットに含まれる視差情報は特定サービスと関連を持つ。
図30は、このケース(2)で作成される視差情報セットの一例を示している。この例において、視差情報セットには、画面が9分割されて得られた各画面領域に属する視差ベクトル(水平方向の視差ベクトル)P0〜P8が含まれる。各視差ベクトルP0〜P8は、例えば、ピクセル(画素)毎の視差ベクトルを用いて、上述したダウンサイジング処理により求められる。図30において、矢印は、視差ベクトルを示しており、矢印の長さが視差ベクトルの大きさに対応している。
この視差情報セットは、汎用目的の視差情報セットである。そのため、この視差情報セットに付加される識別情報「Diparity_Sequence_id」は、図31に示すように、汎用目的の視差情報セットであることを示す「0」とされる。
ここで、この汎用目的の視差情報セットは、画像データの所定単位毎、例えば符号化ビデオのピクチャ毎の視差情報セットである。後述するように、画像データは一定期間毎に区切られ、各一定期間の画像データに対応した複数の視差情報セットの集合(Packed Disparity Set)が、この各一定期間の画像データの送信に先立って送信される。そのため、所定単位毎の視差情報セットには、図31に示すように、その視差情報セットを用いるタイミングを示す時間情報としてオフセット(Offset)が付加される。各視差情報セットに付加されるオフセットは、タイムスタンプ(TimeStamp)で示される最初の視差情報セットの使用時間からの時間を示す。
上述したように、ケース(2)では、視差情報セットに含まれる視差情報は、特定サービスと関連を持つ。図31には、視差ベクトルP7とクローズド・キャプションデータDF0とが関連付けされる例を示している。なお、このクローズド・キャプションデータDF0によるクローズド・キャプション情報は、図30に示すように、視差ベクトルP7が属する画面領域に表示される。この場合、このクローズド・キャプション情報を表示する画面領域を示すコンポーネント・エレメントID(Component_Element ID)と、視差ベクトルP7との関連付けがなされる。
図32は、その場合における、コンポーネント・エレメントIDと視差ベクトルとの関連付けテーブル(Component_Linked_Info)の一例を示している。この場合、視差ベクトルの対象位置は、パーティション・ポジションID(Partition_Position_ID)で特定される。このパーティション・ポジションIDは、分割数またはブロックサイズで特定される複数の画面領域のうちの何番目の画面領域であるかを示す。
なお、図31に示す例は、1つのクローズド・キャプションデータに、1つの視差情報が関連付けされる例を示している。しかし、1つのクローズド・キャプションデータに、複数の視差情報が関連付けされることも考えられる。このように、1つのクローズド・キャプションデータに、複数の視差情報が関連付けされる場合には、受信側では、そのクローズド・キャプションデータによるクローズド・キャプション情報に視差を付与するためにいずれかの視差情報を選択して使用できる。
図33には、視差ベクトルP6,P7とクローズド・キャプションデータDF1とが関連付けされ、さらに、視差ベクトルP7,P8とクローズド・キャプションデータDF2とが関連付けされる例を示している。この場合、クローズド・キャプションデータDF1によるクローズド・キャプション情報を表示する画面領域を示すコンポーネント・エレメントIDと、視差ベクトルP6,P7との関連付けがなされる。また、同様に、クローズド・キャプションデータDF2によるクローズド・キャプション情報を表示する画面領域を示すコンポーネント・エレメントIDと、視差ベクトルP7,P8との関連付けがなされる。
図34は、その場合における、コンポーネント・エレメントIDと視差ベクトルとの関連付けテーブル(Component_Linked_Info)を示している。この場合、視差ベクトルは、パーティション・ポジションID(Partition_Position_ID)で特定される。このパーティション・ポジションIDは、分割数またはブロックサイズで特定される複数の画面領域のうちの何番目の画面領域であるかを示す。
「ケース(3)」
ケース(3)は、上述したように、汎用目的の視差情報セットと、特定サービス用途向けの視差情報セットの双方を送るケースである。このケース(3)では、汎用目的の視差情報セットと特定サービス用途向けの視差情報セットの双方が作成される。この場合、汎用目的の視差情報セットに付加される識別情報(Disparity_Sequence_id)は「0」とされる。また、特定サービス用途向けの視差情報セットに付加される識別情報(Disparity_Sequence_id)は、「0」以外の値とされる。識別情報(Disparity_Sequence_id)のサービスとの関連付けは、例えば、上述したように、ユーザデータにその情報が挿入されることで行われる。あるいは、この関連付けは、例えば、上述したように、ディスパリティ・リンケージ・デスクリプタ(Disparity_Linkage_Descriptor)で行われる。
ケース(3)は、上述したように、汎用目的の視差情報セットと、特定サービス用途向けの視差情報セットの双方を送るケースである。このケース(3)では、汎用目的の視差情報セットと特定サービス用途向けの視差情報セットの双方が作成される。この場合、汎用目的の視差情報セットに付加される識別情報(Disparity_Sequence_id)は「0」とされる。また、特定サービス用途向けの視差情報セットに付加される識別情報(Disparity_Sequence_id)は、「0」以外の値とされる。識別情報(Disparity_Sequence_id)のサービスとの関連付けは、例えば、上述したように、ユーザデータにその情報が挿入されることで行われる。あるいは、この関連付けは、例えば、上述したように、ディスパリティ・リンケージ・デスクリプタ(Disparity_Linkage_Descriptor)で行われる。
図35は、このケース(3)で作成される視差情報セットの一例を示している。この例において、汎用目的の視差情報セットには、画面が9分割されて得られた各画面領域に属する視差ベクトル(水平方向の視差ベクトル)P0〜P8が含まれる。各視差ベクトルP0〜P8は、例えば、ピクセル(画素)毎の視差ベクトルを用いて、上述したダウンサイジング処理により求められる。図35において、矢印は、視差ベクトルを示しており、矢印の長さが視差ベクトルの大きさに対応している。
また、特定サービス用途向けの視差情報セットとして、クローズド・キャプション向けの視差情報セットが作成される。このクローズド・キャプション向けの視差情報セットには、クローズド・キャプション情報「Caption1」に対応する視差ベクトルCC1と、クローズド・キャプション情報「Caption2」に対応する視差ベクトルCC2が、含まれている。
ここで、視差情報セットは、画像データの所定単位毎、例えば符号化ビデオのピクチャ毎の視差情報セットである。後述するように、画像データは一定期間毎に区切られ、各一定期間の画像データに対応した複数の視差情報セットの集合(Packed Disparity Set)が、この各一定期間の画像データの送信に先立って送信される。そのため、所定単位毎の視差情報セットには、図36に示すように、その視差情報セットを用いるタイミングを示す時間情報としてオフセット(Offset)が付加される。各視差情報セットに付加されるオフセットは、タイムスタンプ(TimeStamp)で示される最初の視差情報セットの使用時間からの時間を示す。
上述したように、特定サービス用途向けの視差情報セットはクローズド・キャプション向けの視差情報セットである。図35には、視差ベクトルCC1とクローズド・キャプションデータDF1とが関連付けされ、また、視差ベクトルCC2とクローズド・キャプションデータDF2とが関連付けされる例を示している。この場合、このクローズド・キャプション情報を表示する画面領域を示すコンポーネント・エレメントID(Component_Element ID)と、視差ベクトルCC1,CC2との関連付けがなされる。
図37は、その場合における、コンポーネント・エレメントIDと視差ベクトルとの関連付けテーブル(Component_Linked_Info)を示している。この場合、視差ベクトルの対象位置はパーティション・ポジションID(Partition_Position ID)で特定される。このパーティション・ポジションIDは、分割数またはブロックサイズで特定される複数の画面領域のうちの何番目の画面領域であるかを示す。
「ケース(4)」
ケース(4)は、上述したように、特定サービス用途向けの視差情報セットのみを送るケースである。このケース(4)では、特定サービス用途向けの視差情報セットのみが作成される。この場合、特定サービス用途向けの視差情報セットに付加される識別情報(Disparity_Sequence_id)は、「0」以外の値とされる。例えば、識別情報(Disparity_Sequence_id)のサービスとの関連付けは、上述したように、ユーザデータにその情報が挿入されることで行われる。あるいは、この関連付けは、例えば、上述したように、ディスパリティ・リンケージ・デスクリプタ(Disparity_Linkage_Descriptor)で行われる。
ケース(4)は、上述したように、特定サービス用途向けの視差情報セットのみを送るケースである。このケース(4)では、特定サービス用途向けの視差情報セットのみが作成される。この場合、特定サービス用途向けの視差情報セットに付加される識別情報(Disparity_Sequence_id)は、「0」以外の値とされる。例えば、識別情報(Disparity_Sequence_id)のサービスとの関連付けは、上述したように、ユーザデータにその情報が挿入されることで行われる。あるいは、この関連付けは、例えば、上述したように、ディスパリティ・リンケージ・デスクリプタ(Disparity_Linkage_Descriptor)で行われる。
図38は、このケース(4)で作成される視差情報セットの一例を示している。この例において、特定サービス用途向けの視差情報セットとして、クローズド・キャプション向けの視差情報セットが作成される。このクローズド・キャプション向けの視差情報セットには、クローズド・キャプション情報「Caption1」に対応する視差ベクトルCC1と、クローズド・キャプション情報「Caption2」に対応する視差ベクトルCC2が、含まれている。
ここで、視差情報セットは、画像データの所定単位毎、例えば符号化ビデオのピクチャ毎の視差情報セットである。後述するように、画像データは一定期間毎に区切られ、各一定期間の画像データに対応した複数の視差情報セットの集合(Packed Disparity Set)が、この各一定期間の画像データの送信に先立って送信される。そのため、所定単位毎の視差情報セットには、図39に示すように、その視差情報セットを用いるタイミングを示す時間情報としてオフセット(Offset)が付加される。各視差情報セットに付加されるオフセットは、タイムスタンプ(TimeStamp)で示される最初の視差情報セットの使用時間からの時間を示す。
上述したように、特定サービス用途向けの視差情報セットはクローズド・キャプション向けの視差情報セットである。図39には、視差ベクトルCC1とクローズド・キャプションデータDF1とが関連付けされ、また、視差ベクトルCC2とクローズド・キャプションデータDF2とが関連付けされる例を示している。この場合、このクローズド・キャプション情報を表示する画面領域を示すコンポーネント・エレメントID(Component_Element ID)と、視差ベクトルCC1,CC2との関連付けがなされる(図37参照)。
なお、図32、図34、図37には、コンポーネント・エレメントIDと視差ベクトルとの関連付けテーブルとして、コンポーネント・エレメントIDがクローズド・キャプションのウインドウID(Window ID)である例を示している。例えば、DVBサブタイトルの場合、コンポーネント・エレメントIDはDVBサブタイトルのリージョンID(Region_id)である。
DVBサブタイトルの場合、例えば、図40に示すように、エレメンタリPID(Elementary PID)を用いて、サブタイトル・セグメント(SubtitleSegment)と、視差ベクトルデータ(Disparity Data)との関連付けが行われる。そして、サブタイトル・セグメント内のページID(Page_id)と視差ベクトルデータの識別情報(Disparity_Sequence_id)とが対応付けられる。さらに、リージョンIDRegion ID)と、視差ベクトル(Disparity_Vector_horizontal)とが対応付けられる。
ビデオエンコーダ113は、データ取り出し部130から供給される立体画像データに対して、MPEG4−AVC、MPEG2、VC−1等の符号化を施して符号化ビデオデータを得る。また、ビデオエンコーダ113は、後段に備えるストリームフォーマッタ113aにより、ペイロード部に符号化ビデオデータを含むビデオのエレメンタリーストリームを生成する。上述したように視差情報セット作成部131で作成された所定組の視差情報セットは、ビデオエンコーダ113内のストリームフォーマッタ113aに供給される。ストリームフォーマッタ113aは、ビデオのストリームに、所定組の視差情報セットを、ユーザデータとして埋め込む。
図41は、ビデオエレメンタリーストリーム(Video Elementary Stream)の構造例を概略的に示している。ビデオエレメンタリーストリームには、先頭に、シーケンス単位のパラメータを含むシーケンスヘッダ部が配置されている。このシーケンスヘッダ部に続いて、ピクチャ単位のパラメータおよびユーザデータを含むピクチャヘッダが配置されている。このピクチャヘッダ部に続いてピクチャーデータを含むペイロード部が配置される。以下、ピクチャヘッダ部およびペイロード部が繰り返し配置されている。
上述した視差情報セットは、例えば、ピクチャヘッダ部のユーザデータ領域に埋め込まれる。図42は、ユーザデータの構成例を示している。図42(a)は、符号化方式がMPEG2である場合のユーザデータの構成を示している。図42(b)は、符号化方式がH.264 AVC(MPEG4−AVC)である場合のユーザデータの構成を示している。さらに、図42(c)は、符号化方式がVC−1である場合のユーザデータの構成を示している。
詳細説明は省略するが、各方式のユーザデータの構成はほぼ同様の構成となっている。すなわち、最初に、ユーザデータの開始を示すコードが配置され、その後に、データの種類を示す識別子「user_identifier」が配置され、さらにその後に、データ本体「user_structure」が配置される。視差情報(Disparity_Information)を含むユーザデータの詳細構成については後述する。
オーディオエンコーダ117は、データ取り出し部130から供給される音声データに対して、MPEG−2Audio AAC等の符号化を施し、オーディオのエレメンタリーストリームを生成する。マルチプレクサ122は、エンコーダ113,117,119,121から出力されるパケット化されたエレメンタリーストリームを多重化する。そして、このマルチプレクサ122は、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDを出力する。
詳細説明は省略するが、この図22に示す送信データ生成部110Dのその他は、図2に示す送信データ生成部110と同様に構成されている。
図22に示す送信データ生成部110Dの動作を簡単に説明する。データ取り出し部130から出力される立体画像データは、ビデオエンコーダ113に供給される。このビデオエンコーダ113では、その立体画像データに対してMPEG4−AVC、MPEG2、VC−1等の符号化が施され、符号化ビデオデータを含むビデオエレメンタリーストリームが生成される。このビデオエレメンタリーストリームはマルチプレクサ122に供給される。
また、データ取り出し部130から出力されるピクセル(画素)毎の視差ベクトルは、視差情報セット作成部131に供給される。この視差情報セット作成部131では、この視差ベクトルにダウンサイジング処理等が施されて、送信すべき所定組の視差情報セットが作成される(ケース(1)〜(4))。この視差情報セット作成部131で作成された所定組の視差情報セットはビデオエンコーダ113内のストリームフォーマッタ113aに供給される。ストリームフォーマッタ113aでは、ビデオのストリームに、所定組の視差情報セットがユーザデータとして埋め込まれる。
また、データ取り出し部130から出力される音声データはオーディオエンコーダ117に供給される。このオーディオエンコーダ117では、音声データに対して、MPEG−2Audio AAC等の符号化が施され、符号化オーディオデータを含むオーディオエレメンタリーストリームが生成される。このオーディオエレメンタリーストリームはマルチプレクサ122に供給される。
また、マルチプレクサ122には、サブタイトル・グラフィクスエンコーダ119から、サブタイトルデータあるいはグラフィクスデータの符号化データを含むエレメンタリーストリームが供給される。さらに、このマルチプレクサ122には、テキストエンコーダ121から、テキストデータの符号化データを含むエレメンタリーストリームが供給される。そして、マルチプレクサ122では、各エンコーダから供給されるエレメンタリーストリームのパケットが多重化され、伝送データとしてのビットストリームデータ(トランスポートストリーム)BSDが得られる。
[ストリーム毎のサービス・コンポーネントと視差情報との関連付け、視差情報セット識別情報とサービスとの関連付け]
関連付けされている各ストリームにおけるサービス・コンポーネントと視差情報との関連付けは、ディスパリティ・リンケージ・ディスクリプタ(Disparity_Linkage_Descriptor)を用いて行われる。また、このディスパリティ・リンケージ・デスクリプタにより、各ストリームにおける視差情報セット識別情報(Disparity_Sequence_id)とサービスとの関連付けも行われる。このディスパリティ・リンケージ・デスクリプタは、多重化ストリームのヘッダ領域、あるいは、多重化ストリーム内のPMT等のデスクリプタ・テーブルに配置される。
関連付けされている各ストリームにおけるサービス・コンポーネントと視差情報との関連付けは、ディスパリティ・リンケージ・ディスクリプタ(Disparity_Linkage_Descriptor)を用いて行われる。また、このディスパリティ・リンケージ・デスクリプタにより、各ストリームにおける視差情報セット識別情報(Disparity_Sequence_id)とサービスとの関連付けも行われる。このディスパリティ・リンケージ・デスクリプタは、多重化ストリームのヘッダ領域、あるいは、多重化ストリーム内のPMT等のデスクリプタ・テーブルに配置される。
図43は、その場合におけるディスパリティ・リンケージ・デスクリプタの構成例を示している。図44は、図43に示す構成における各情報の内容を示している。「descriptor_tag」は、デスクリプタのタイプを示す8ビットのデータである。ここでは、「0xD0」とされ、ディスパリティ・リンケージ・デスクリプタであることが示される。「descriptor_length」は、この情報の長さ(サイズ)を示す8ビットのデータである。
「number_of_Linked_Streams」は、視差情報データ(Disparity Data)の見地から2つのストリームの関連が定義されて関連付けされたエレメンタリーストリームの数を示す5ビットのデータである。「ElementaryPID_of_disparity」は、視差情報データ(DisparityData)を含むエレメンタリーストリーム(PES)のPID(プログラムID)を示す13ビットのデータである。「ElementaryPID_of_Service_Component」は、サブタイトル、キャプション、テキストまたはグラフィクスのようなサービス・コンポーネントを含むエレメンタリーストリーム(PES)のPID(プログラムID)を示す13ビットのデータである。この2つのPIDにより、関連付けされたエレメンタリーストリーム毎に、視差情報とサービス・コンポーネントとの関連付けが行われる。
「number_of_linked_sequences」は、上述の関連付けされた各エレメンタリーストリームに対応して、関連付けされる視差情報セット(Disparity information)の数を示す5ビットのデータである。「Service_id」は、サービス識別のためのユニークワードを示す32ビットのデータである。例えば、“0x47413934”は、ATSCのために割り当てられる。「Data_Type」は、「Service_id」で識別されるサービスにおけるデータタイプを示す8ビットのデータである。例えば、“0x03”は、クローズド・キャプションデータを示す。
「number_of_linked_sequences」が示す数分だけ、ディスパリティ・シーケンスID「Disparity_Sequence_id」、サービスページID「Service_page_id」が配置される。「Disparity_Sequence_id」は、各サービスを識別するための識別情報である8ビットのデータである。「Service_page_id」は、サブタイトルページのようなサービスを特定する8ビットのデータである。これにより、所定の「Service_id(i)」および「Data_Type(i)」に対して、所定数のディスパリティ・シーケンスID、サービスページIDが関連付けされる。
図43に示すディスパリティ・リンケージ・デスクリプタの構成例における各項目の具体例について説明する。図45(a)は、図22の送信データ生成部110Dのように,視差情報セットを画像データストリームのユーザデータ領域に挿入して受信側に送る場合における、PIDの一例を示している。この例において、ディスパリティ・リンケージ・ディスクリプタ(Disparity_Linkage_Descriptor)は、多重化ストリーム(TS)内のPMTに配置されている。
そして、この例において、多重化ストリーム(TS)に含まれる視差情報データ(Disparity Data)を含むビデオ(画像データ)エレメンタリーストリーム(PES)のPIDは、「PID_0」とされている。また、この例において、多重化ストリーム(TS)に含まれるオーディオエレメンタリーストリーム(PES)のPIDは「PID_1」とされている。さらに、この例において、多重化ストリーム(TS)に含まれるサブタイトルエレメンタリーストリーム(PES)のPIDは「PID_2」とされている。
図45(b)は、後述する図62の送信データ生成部110Eのように、視差情報セットを含む視差ベクトルのエレメンタリーストリーム(PES)を生成し、この独立したストリームを、他のストリームと多重化して受信側に送信する場合における、PIDの一例を示している。この例において、ディスパリティ・リンケージ・ディスクリプタ(Disparity_Linkage_Descriptor)は、多重化ストリーム(TS)内のPMTに配置されている。
そして、この例において、多重化ストリーム(TS)に含まれるビデオ(画像データ)エレメンタリーストリーム(PES)のPIDは、「PID_0」とされている。また、この例において、多重化ストリーム(TS)に含まれるオーディオエレメンタリーストリーム(PES)のPIDは「PID_1」とされている。また、この例において、多重化ストリーム(TS)に含まれるサブタイトルエレメンタリーストリーム(PES)のPIDは「PID_2」とされている。また、この例において、多重化ストリーム(TS)に含まれる視差ベクトルのエレメンタリーストリーム(PES)のPIDは「PID_3」とされている。
図46(a)は、「Disparity_Sequence_id=1」が付加された視差情報セットが、サブタイトルと関連付け(リンク)される例を示している。この例において、視差情報セットには、サブタイトル情報「Subtitle1」対応する視差ベクトル「Region1」と、サブタイトル情報「Subtitle2」対応する視差ベクトル「Region2」に対応する視差ベクトルCC2が、含まれている。図46(b)は、「Disparity_Sequence_id=2」が付加された視差情報セットが、クローズド・キャプションと関連付け(リンク)される例を示している。この例において、視差情報セットには、クローズド・キャプション情報「Caption1」に対応する視差ベクトルCC1と、クローズド・キャプション情報「Caption2」に対応する視差ベクトルCC2が、含まれている。
図47は、上述の図45(a)の場合において、視差情報セットがサブタイトルと関連付けされる場合を示している。この場合、「ElementaryPID_of_Service_Component」は、サブタイトルエレメンタリーストリームのPID(Subtitle PID)に設定される。また、この場合、「ElementaryPID_of_disparity」は、ビデオエレメンタリーストリームのPID(Video PID)に設定される。
図48は、上述の図45(b)の場合において、視差情報セットがサブタイトルと関連付けされる場合を示している。この場合、「ElementaryPID_of_Service_Component」は、サブタイトルエレメンタリーストリームのPID(Subtitle PID)に設定される。また、この場合、「ElementaryPID_of_disparity」は、視差ベクトルエレメンタリーストリームのPID(Disparity PID)に設定される。
図49は、上述の図45(a)の場合(ただし、クローズド・キャプションデータが画像データストリームのユーザデータ領域に挿入して受信側に送られる)において、視差情報セットがクローズド・キャプションと関連付けされる場合を示している。ここで、「Service_id」はATSCを示し、「Data_Type」=クローズド・キャプション(CC)を示す。この場合、「ElementaryPID_of_Service_Component」は、ビデオエレメンタリーストリームのPID(Video PID)に設定される。また、この場合、「ElementaryPID_of_disparity」も、ビデオエレメンタリーストリームのPID(Video PID)に設定される。
なお、詳細説明は省略するが、IDの既存の運用番号は、例えば以下の通りである。すなわち、“Service_id =0x47413934”は「ATSC」を示し、そのうち、“Data_Type = 0x03” は「クローズド・キャプション」を示し、“Data_Type = 0x06” は、「Bar_data (letterbox or pillarbox areas)」を示す。また、“Service_id = 0x44544731”は、「AFD」を示す。
図50は、上述の図45(b)の場合(ただし、クローズド・キャプションデータが画像データストリームのユーザデータ領域に挿入して受信側に送られる)において、視差情報セットがクローズド・キャプションと関連付けされる場合を示している。ここで、「Service_id」はATSCを示し、「Data_Type」=クローズド・キャプション(CC)を示す。この場合、「ElementaryPID_of_Service_Component」は、ビデオエレメンタリーストリームのPID(Video PID)に設定される。また、この場合、「ElementaryPID_of_disparity」は、視差ベクトルエレメンタリーストリームのPID(Disparity PID)に設定される。
[視差情報(Disparity_Information)を含むユーザデータの詳細構成]
図51は、視差情報(Disparity_Information)を含むユーザデータの詳細構成の一例を示している。この例は、符号化方式がMPEG2である場合の例である。開始コード(user_data_start_code)の後のデータ識別子が、視差情報識別子(Disparity_Information_identifier)であるとき、その後のデータ本体として、視差情報(Disparity_Information)が配置される。
図51は、視差情報(Disparity_Information)を含むユーザデータの詳細構成の一例を示している。この例は、符号化方式がMPEG2である場合の例である。開始コード(user_data_start_code)の後のデータ識別子が、視差情報識別子(Disparity_Information_identifier)であるとき、その後のデータ本体として、視差情報(Disparity_Information)が配置される。
図52は、視差情報(Disparity_Information)の構成を示しており、その中には、視差情報データ(Disparity_Information_Data)が配置されている。この視差情報データには、上述の図43のディスパリティ・リンケージ・ディスクリプタ(Disparity_Linkage_Descriptor)と同様な情報を持つことができる。その場合、この視差情報データには、図53にその構成を示すDSL(Disparity_Information_Link_Information)が含まれる。また、この視差情報データには、図54、図55にその構成を示すDHI(Disparity_Header_Information)が含まれる。さらに、この視差情報データには、図56にその構成を示すDDS(Disparity Data Set)が含まれる。図57〜図60は、図53〜図56に示す構成における各情報の内容を示している。
図57を参照してDSLを説明する。このDSLは、ディスパリティ・シーケンスID(Disparity_Sequence_id)とサービスとを関連付けするための情報である。「Disparity_Info_Length」は、この情報の長さ(サイズ)を示す16ビットのデータである。「Disparity_Info_Type」は、この情報のタイプを示す2ビットのデータであり、ここでは「0x0」とされ、この情報が「DSL」であることが示される。
詳細説明は省略するが、「number_of_Linked_Streams」、「ElementaryPID_of_disparity」、「ElementaryPID_of_Service_Component」、「number_of_linked_sequences」、「Service_id」、「Data_Type」、「Disparity_Sequence_id」の各項目については、図43で説明した通りである。
図54、図55を参照してDHIを説明する。このDHIには、各サービスのコンポーネントと、そのコンポーネントに使用すべき視差ベクトルを特定するパーティション・ポジションID(Partition_Position_ID)とを関連付けする情報も含まれる。「Disparity_Info_Length」は、この情報の長さ(サイズ)を示す16ビットのデータである。「Disparity_Info_Type」は、この情報のタイプを示す2ビットのデータであり、ここでは「0x1」とされ、この情報が「DHI」であることが示される。
「Views_offset」は、オフセットの展開を「second view」、例えば右眼画像のみに適用するか、それとも「both views」、つまり左眼画像および右眼画像のそれぞれに適用するのかを示す1ビットのデータである。“1”である場合には、「both views」に適用することを示す。“0”である場合には、「secondview」に適用することを示す。「Disparity_precision」は、視差ベクトルに対して重畳情報をどの程度ずらすかを示す2ビットのデータである。“0”である場合には、視差ベクトルの1/2に相当する分だけずらすことを示す。“1”である場合には、視差ベクトルに相当する分だけずらすことを示す。
“2”である場合には、2ピクセルを1単位として、視差ベクトルに相当する単位数分だけずらすことを示す。例えば、視差ベクトルが「7」であるとき、2×7=14ピクセルだけずらすことになる。“3”である場合には、3ピクセルを1単位として、視差ベクトルに相当する単位数分だけずらすことを示す。例えば、視差ベクトルが「7」であるとき、3×7=21ピクセルだけずらすことになる。
「Disparity_Sequence_id」は、各サービスを識別するための識別情報である8ビットのデータである。「Service_Linked_flag」は、上述のDSL内のサービスに関連付けされている視差ベクトル(視差情報)があるか否かを示す1ビットのデータである。“1”である場合には、サービスに関連付けされている視差ベクトルがあることを示す。一方、“0”である場合には、サービスに関連付けされている視差ベクトルがないことを示す。
「Target_Resolution_Type」は、ターゲットビデオに対して符号化された視差情報セットの解像度を特定する2ビットのデータである。“0x0”である場合は、1920×1080の解像度であることを示す。“0x1”である場合は、1440×1080の解像度であることを示す。“0x2”である場合は、1280×720の解像度であることを示す。
「Block_Size」は、ブロックサイズを特定する2ビットのデータである。この「Block_Size」は、画面領域を示す情報を構成する領域の大きさを示す情報である。“0x0”である場合、16ピクセル×16ピクセルのブロックサイズであることを示す。“0x1”である場合、32ピクセル×32ピクセルのブロックサイズであることを示す。“0x2”である場合、64ピクセル×64ピクセルのブロックサイズであることを示す。さらに、“0x3”である場合、128ピクセル×128ピクセルのブロックサイズであることを示す。
「Link_source」は、視差情報セット(source)が、汎用目的の視差情報セットであるか、特定サービス用途向けの視差情報セットであるかを示す。“1”であるときは、視差情報セットが、画面を分割して得られた各画面領域の視差ベクトルを持つ汎用目的の視差情報セットであることを示す。“0”であるときは、視差情報セットが、サービスコンポーネントエレメントに対応した視差ベクトルを持つ特定サービス用途向けの視差情報セットであることを示す。
「Partition」は、画面分割パターンを示す。この「Partition」は、画面領域を示す情報を構成する画面の分割数を示す情報である。“0x0”である場合、図61(a)に示すように、画像(ピクチャ)領域は分割されておらず、この画像(ピクチャ)領域を代表する1つの視差ベクトル(視差情報)が送信されることを示す。“0x1”である場合、図61(b)に示すように、画像(ピクチャ)領域は4分割されており、この各分割領域を代表する4個の視差ベクトル(視差情報)が送信されることを示す。この場合、左上の領域の視差ベクトルが最初で、右下の領域の視差ベクトルが最後となるように配置される図61(b)の0〜3の順)。
“0x2”である場合、図61(c)に示すように、画像(ピクチャ)領域は9分割されており、この各分割領域を代表する9個の視差ベクトル(視差情報)が送信されることを示す。この場合、左上の領域の視差ベクトルが最初で、右下の領域の視差ベクトルが最後となるように配置される(図61(c)の0〜8の順)。“0x3”である場合、図61(d)に示すように、像(ピクチャ)領域は16分割されており、この各分割領域を代表する16個の視差ベクトル(視差情報)が送信されることを示す。この場合、左上の領域の視差ベクトルが最初で、右下の領域の視差ベクトルが最後となるように配置される(図61(d)の0〜15の順)。
“0x7”の場合、画像(ピクチャ)領域は複数のブロックに分割されており、この各分割領域を代表する複数の視差ベクトル(視差情報)が送信されることを示す。この場合、左上の領域の視差ベクトルが最初で、右下の領域の視差ベクトルが最後となるように配置される。
「Number_of_Component_Elements」は、上述の「Partition」、あるいは「Block_Size」で特定される画面領域の個数、あるいは関連付けされたサービス内のコンポーネント・エレメントの個数を示す13ビットのデータである。
そして、上述の「Service_Linked_flag」が“1”である場合、視差情報セット内の視差ベクトル(視差情報)に関連付けされているサービス数(number of service)分だけ、コンポーネント・リンケージ情報(Component_Linkage_Info)が配置される。このコンポーネント・リンケージ情報には、図55に示すように、コンポーネントのエレメント数だけ、そのコンポーネント・エレメントと視差ベクトルとの対応付け情報が配置される。
「Component_Element」は、コンポーネント・エレメントIDを示す8ビットのデータである。コンポーネント・エレメントIDは、例えば、クローズド・キャプションのウインドウID(Window ID)、あるいはDVBサブタイトルのリージョンID(region_idga)等である。「Element_Linkage_Length」は、情報の長さ(サイズ)を示す8ビットのデータである。「number_of_mutiple_link」は、コンポーネント・エレメントIDと関連付ける視差ベクトルの個数を示す。「Partition_Position_id」は、視差ベクトルを特定する13ビットの情報である。この「Partition_Position_id」は、上述の「Partition」、あるいは「Block_Size」で特定される複数の画面領域のうちの何番目の画面領域であるかを示す。
図56を参照してDDSを説明する。このDDSには、各視差情報セットに含まれる視差ベクトルの情報が含まれる。「Disparity_Info_Length」は、この情報の長さ(サイズ)を示す16ビットのデータである。「Disparity_Info_Type」は、この情報のタイプを示す2ビットのデータであり、ここでは「0x2」とされ、この情報が「DID」であることが示される。「Disparity_Sequence_id」は、汎用目的の視差情報セットであるか特定サービス用途向けの視差情報セットであるかを識別し、特定サービス用途向けである場合にはそのサービスを識別するための8ビットのデータである。
「Number_of_Component_Elements」は、上述の「Partition」、あるいは「Block_Size」で特定される画面領域の個数、あるいは関連付けされたサービス内のコンポーネント・エレメントの個数を示す13ビットのデータである。ビデオデータの一定期間、例えば、15フレーム期間内の各フレームで使用する視差情報セットに含まれるP個の視差ベクトルの値が配置される。「Disparity_sets_in_period」は、ビデオデータの一定期間に含まれるオフセットを与えるための視差ベクトル(視差情報)セットの個数を示す8ビットのデータである。
「Offset_Frame_In_disparity_set」は、各視差情報セットを用いるタイミングを示す時間情報である。この時間情報は、タイムスタンプ(Time Stamp)で示される最初の視差情報セットの使用時間からの時間(フレーム数)を示す。「Disparity_Vector_Horozontal(i)」は、i番目の視差ベクトルの値である、水平方向の視差ベクトルの値を示す。
なお、上述では、ディスパリティ・シーケンスID(Disparity_Sequence_id)とサービスとを関連付けるための情報を、ユーザデータとしての視差情報(Disparity_Information)にDSLとして配置する例を示した。しかし、ディスパリティ・シーケンスIDとサービスとの関連付けを、ディスパリティ・リンケージ・デスクリプタ(Disparity_Linkage_Descriptor)により行うことも考えられる。ディスパリティ・リンケージ・デスクリプタDLDは、例えば、多重化ストリーム(ビットストリームデータBSD)のPMTテーブル内に配置される。
図22に示す送信データ生成部110Dでは、立体画像を表示するための左眼画像データおよび右眼画像データを含む立体画像データと共に、それぞれ視差情報を使用すべき重畳情報の種類を示す識別情報が付加されている、所定組の視差情報セットが送信される。そのため、受信側においては、左眼画像および右眼画像に重畳される同一の重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)に、この重畳情報の種類に合った視差情報セットを用いて適切な視差を付与できる。
なお、図22に示す送信データ生成部110Dの上述の説明では、視差情報セット作成部131で、最下位層のピクセル(画素)毎の視差ベクトルにダウンサイジング処理を施して各階層の各領域の視差ベクトルを求める旨、説明した。しかし、データ記録媒体130aに各階層の各領域の視差ベクトルが記録されており、視差情報セット作成部131ではそれを利用するようにしてもよい。
「送信データ生成部の他の構成例」
「送信データ生成部の他の構成例」
また、図22に示す送信データ生成部110Dは、視差情報セット作成部131で作成された所定組の視差情報セットを画像データストリームに挿入して受信側に送る構成となっている。しかし、視差情報セット作成部131で作成された所定組の視差情報セットを、画像データストリーム以外の他のデータストリームに挿入して受信側に送る構成とすることもできる。
また、視差情報セット作成部131で作成された所定組の視差情報セットを含む視差ベクトルのエリメンタリーストリーム(視差ベクトルストリーム)を生成し、この視差ベクトルストリームを、他のストリームと多重化して受信側に送信する構成とすることもできる。図62は、その場合における、送信データ生成部110Eの構成例を示している。この図62において、図22と対応する部分には同一符号を付し、その詳細説明は省略する。
この送信データ生成部110Eでは、図2に示す送信データ生成部110と同様に、視差ベクトルエンコーダ115を有する構成とされる。視差情報セット作成部131で作成された所定組の視差情報セットは視差ベクトルエンコーダ115に送られる。そして、この視差ベクトルエンコーダ115において、所定組の視差情報セットを含む視差ベクトルのエリメンタリーストリーム(視差ベクトルストリーム)が生成される。そして、この視差ベクトルストリームがマルチプレクサ122に供給される。マルチプレクサ122では、他のデータストリームと共に視差ベクトルストリームも多重化されて、ビットストリームデータBSDが生成される。
詳細説明は省略するが、この送信データ生成部110Eにおいて、その他の構成および動作は、図22に示す送信データ生成部110Dと同様である。この送信データ生成部110Eにおいても、図22に示す送信データ生成部110Dと同様の効果を得ることができる。
[セットトップボックスの説明]
図1に戻って、セットトップボックス200は、放送局100から放送波にのせて送信されてくるビットストリームデータ(トランスポートストリーム)を受信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報データ、さらには視差情報(視差ベクトル)が含まれる。ここで、重畳情報データは、例えば、サブタイトルデータ、グラフィクスデータ、テキストデータ(クローズド・キャプションデータを含む)等である。
図1に戻って、セットトップボックス200は、放送局100から放送波にのせて送信されてくるビットストリームデータ(トランスポートストリーム)を受信する。このビットストリームデータには、左眼画像データおよび右眼画像データを含む立体画像データ、音声データ、重畳情報データ、さらには視差情報(視差ベクトル)が含まれる。ここで、重畳情報データは、例えば、サブタイトルデータ、グラフィクスデータ、テキストデータ(クローズド・キャプションデータを含む)等である。
セットトップボックス200は、ビットストリーム処理部201を有している。このビットストリーム処理部201は、ビットストリームデータから、立体画像データ、音声データ、重畳情報データ、視差ベクトル等を抽出する。このビットストリーム処理部201は、立体画像データ、重畳情報データ(サブタイトルデータ、グラフィクスデータ、テキストデータ)等を用いて、重畳情報が重畳された左眼画像および右眼画像のデータを生成する。
ここで、視差ベクトルが数値情報として送信されてくる場合には、視差ベクトルと重畳情報データに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼重畳情報、右眼重畳情報を生成する。この場合、左眼重畳情報および右眼重畳情報は同一の重畳情報である。しかし、画像内の重畳位置が、例えば、左眼重畳情報に対して、右眼重畳グ情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
図63(a)は、伝送方式が上述の第2の伝送方式(「Side By Side」方式)である場合における、左眼グラフィクス情報および右眼グラフィクス情報の重畳位置を示している。左眼画像IL上に重畳される左眼グラフィクス情報LGIに対して、右眼画像IR上に重畳される右眼グラフィクス情報RGIは、視差ベクトルの水平方向成分VVTだけ水平方向にずれた位置とされている。なお、ITは、アイドリングオフセット値である。
ビットストリーム処理部201では、各画像IL,IRに対して各グラフィクス情報LGI,RGIが図63(a)に示すように重畳されるように、グラフィクスデータが生成される。ビットストリーム処理部201は、ビットストリームデータから抽出された立体画像データ(左眼画像データ、右眼画像データ)に対して、生成された左眼グラフィクスデータ、右眼グラフィクスデータを合成して、処理後の立体画像データを取得する。この立体画像データによれば、視聴者は、図63(b)に示すように、各画像IL,IRと共に、各グラフィクス情報LGI,RGIを、視差をもって観察でき、グラフィクス情報にも、遠近感を認知可能となる。
なお、図64(a)は、各画像IL,IRに対して、ビットストリームデータから抽出されたグラフィクスデータによるグラフィクス画像をそのまま重畳した状態を示している。この場合、視聴者は、図64(b)に示すように、左眼画像ILと共にグラフィクス情報の左半分、右眼画像IRと共にグラフィクス情報の右半分を観察する。そのため、グラフィクス情報を正しく認識できなくなる。
図63は、グラフィクス情報の場合を示したが、その他の重畳情報(クローズド・キャプション情報、サブタイトル情報、テキスト情報など)に関しても同様である。すなわち、視差ベクトルが数値情報として送信されてくる場合には、視差ベクトルと重畳情報データデータに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼重畳情報、右眼重畳情報を生成する。この場合、左眼重畳情報および右眼重畳情報は同一の重畳情報である。しかし、画像内の重畳位置が、例えば、左眼重畳情報に対して、右眼重畳情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。
ここで、左眼重畳情報と右眼重畳情報との間に視差を与える視差ベクトルとしては、以下の視差ベクトルを用いることが考えられる。例えば、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルを使用することが考えられる。図65(a),(b),(c),(d)は、それぞれ時刻T0,T1,T2,T3における3つのオブジェクト位置の視差ベクトル(View Vector)を示している。
時刻T0では、オブジェクト1に対応した位置(H0,V0)における視差ベクトルVV0-1が最大の視差ベクトルMaxVV(T0)となっている。時刻T1では、オブジェクト1に対応した位置(H1,V1)における視差ベクトルVV1-1が最大の視差ベクトルMaxVV(T1)となっている。時刻T2では、オブジェクト2に対応した位置(H2,V2)における視差ベクトルVV2-2が最大の視差ベクトルMaxVV(T2)となっている。時刻T3では、オブジェクト1に対応した位置(H3,V3)における視差ベクトルVV3-0が最大の視差ベクトルMaxVV(T3)となっている。
このように、視差ベクトルとして、画像内の複数位置で検出された視差ベクトルのうち、遠近感でいうところの最も近く認識される位置の視差ベクトルを使用することで、遠近感でいうところの最も近い画像内の物体よりも手前に、重畳情報を表示できる。
図66(a)は、画像上における字幕(例えば、クローズド・キャプション情報、サブタイトル情報)の表示例を示している。この表示例では、背景と近景オブジェクトとからなる画像上に、字幕が重畳された例である。図66(b)は、背景、近景オブジェクト、字幕の遠近感を示し、字幕が最も近くにあるように認識されることを示している。
図67(a)は、図66(a)と同じ、画像上における字幕(例えば、クローズド・キャプション情報、サブタイトル情報)の表示例を示している。図67(b)は、字幕を表示するための左眼サブタイトル情報LGIと、右眼サブタイトル情報RGIを示している。図67(c)は、字幕が最も近くにあるように認識されるために、各サブタイトル情報LGI,RGIに視差が与えられることを示している。
また、視差ベクトルとしては、画像内の複数位置で検出された視差ベクトル(視差情報セットに含まれる各階層の各領域の視差ベクトルを含む)のうち、その重畳位置に対応したものを使用することが考えられる。図68(a)は、ビットストリームデータから抽出されるグラフィックデータによるグラフィック情報と、ビットストリームデータから抽出されるテキストデータによるテキスト情報を示している。
図68(b)は、左眼画像に、左眼グラフィクス情報LGIおよび左眼テキスト情報LTIが重畳された状態を示している。この場合、左眼グラフィクス情報LGIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-0)で規制されている。また、左眼テキスト情報LTIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-1)で規制されている。
図68(c)は、右眼画像に、右眼グラフィクス情報RGIおよび右眼テキスト情報RTIが重畳された状態を示している。この場合、右眼グラフィクス情報RGIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-0)で規制され、さらにこの重畳位置に対応した視差ベクトルの水平方向成分VVT-0だけ、左眼グラフィクス情報LGIの重畳位置よりずらされている。また、右眼テキスト情報RTIは、その重畳位置が水平方向にはアイドリングオフセット値(IT-1)で規制され、さらにこの重畳位置に対応した視差ベクトルの水平方向成分VVT-1だけ、左眼テキスト情報LTIの重畳位置よりずらされている。
なお、図68の例では、右眼画像に重畳されるグラフィクス情報およびテキスト情報の重畳位置を、左眼画像に重畳される同一のグラフィクス情報およびテキスト情報の重畳位置を基準として、ずらすものを示している。すなわち、図68の例では、右眼画像に重畳されるグラフィクス情報およびテキスト情報の重畳位置のみをずらす処理を行っている。しかし、左眼画像および右眼画像の双方の重畳位置をずらすように処理を行うことも考えられる。
図69(a)は、ビットストリームデータから抽出されるグラフィックデータによるグラフィック情報と、ビットストリームデータから抽出されるテキストデータによるテキスト情報を示している。図69(b)は、2次元表示におけるグラフィクス情報GIおよびテキスト情報TIの重畳位置を示している。この場合、テキスト情報の重畳位置は(x1,y1)であり、グラフィクス情報の重畳位置は(x2,y2)である。
図69(c)は、左眼画像に、左眼グラフィクス情報LGIおよび左眼テキスト情報LTIが重畳された状態を示している。この場合、左眼グラフィクス情報LGIは、2次元表示におけるグラフィクス情報GIの重畳位置に対して、このグラフィクス情報に対応した視差ベクトルD1の1/2に相当する分だけ右方向にずらされている。また、左眼テキスト情報LTIは、2次元表示におけるテキスト情報LTの重畳位置に対して、このテキスト情報に対応した視差ベクトルD0の1/2に相当する分だけ右方向にずらされている。
図69(d)は、右眼画像に、右眼グラフィクス情報RGIおよび右眼テキスト情報RTIが重畳された状態を示している。この場合、右眼グラフィクス情報RGIは、2次元表示におけるグラフィクス情報GIの重畳位置に対して、このグラフィクス情報に対応した視差ベクトルD1の1/2に相当する分だけ左方向にずらされている。また、右眼テキスト情報RTIは、2次元表示におけるテキスト情報LTの重畳位置に対して、このテキスト情報に対応した視差ベクトルD0の1/2に相当する分だけ左方向にずらされている。
なお、図69(c),(d)の例では、オフセットの展開を左眼画像および右眼画像のそれぞれに適用し、しかも、視差ベクトルの1/2に相当する分だけずらすように設定した場合の例である。実際には、上述したように、オフセットの展開は「Views_offset」で示され、視差ベクトルに対して重畳情報をどの程度ずらすかは「Disparity_precision」で示される。
上述では、左眼画像および右眼画像に、ビットストリームデータから抽出されたグラフィクスデータによるグラフィクス情報、あるいはビットストリームデータから抽出されたテキストデータによるテキスト情報を重畳する場合を説明した。この他に、セットトップボックス200内でグラフィクスデータあるいはテキストデータが発生され、それらによる情報を、左眼画像および右眼画像に、重畳する場合も考えられる。
その場合にあっても、ビットストリームデータから抽出された画像内の所定位置の視差ベクトルを利用して、左眼グラフィクス情報と右眼グラフィクス情報との間、あるいは左眼テキスト情報と右眼テキスト情報との間に、視差を持たせることができる。これにより、グラフィクス情報、テキスト情報の表示において、画像内の各物体(オブジェクト)の遠近感との間で遠近感の整合性の維持を図った適切な遠近感を付与できる。
図70(a)は、画像内にA,B,Cの各オブジェクトが存在し、例えば、これら各オブジェクトの近傍位置に、各オブジェクトの注釈を示すテキスト情報を重畳することを示している。図70(b)は、A,B,Cの各オブジェクトの位置と、その位置における視差ベクトルの対応を示す視差ベクトルリストと、それぞれの視差ベクトルを、A,B,Cの各オブジェクの注釈を示すテキスト情報に視差を与える場合に利用することを示している。例えば、Aのオブジェクトの近傍には「Text」のテキスト情報が重畳されるが、その左眼テキスト情報と右眼テキスト情報との間には、Aのオブジェクトの位置(Ha,Va)における視差ベクトルVV-aに対応した視差が与えられる。なお、B,Cのオブジェクトの近傍に重畳されるテキスト情報に関しても同様である。
なお、図68、図69は、重畳情報がグラフィクス情報およびテキスト情報である場合を示している。また、図70は、重畳情報がテキスト情報である場合を示している。詳細説明は省略するが、その他の重畳情報(クローズド・キャプション情報、サブタイトル情報など)の場合も同様である。
次に、視差ベクトルが、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)のデータに予め反映されて送信されてくる場合について説明する。この場合、ビットストリームデータから抽出された重畳情報データには、視差ベクトルにより視差が与えられた、左眼重畳情報および右眼重畳情報のデータが含まれている。
そのため、ビットストリーム処理部201は、ビットストリームデータから抽出された立体画像データ(左眼画像データ、右眼画像データ)に対して、ビットストリームデータから抽出された重畳情報データを単に合成して、処理後の立体画像データを取得する。なお、テキストデータ(クローズド・キャプションデータを含む)に関しては、キャラクタコードをビットマップデータに変換する等の処理は必要である。
[セットトップボックスの構成例]
セットトップボックス200の構成例を説明する。図71は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像信号処理回路205と、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
セットトップボックス200の構成例を説明する。図71は、セットトップボックス200の構成例を示している。このセットトップボックス200は、ビットストリーム処理部201と、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像信号処理回路205と、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200は、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216を有している。
アンテナ端子203は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ204は、アンテナ端子203に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。
ビットストリーム処理部201は、上述したように、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、重畳情報データ、視差情報(視差ベクトル)等を抽出する。重畳情報データは、サブタイトルデータ、グラフィクスデータ、テキストデータ(クローズド・キャプションデータを含む)等である。このビットストリーム処理部201は、上述したように、立体画像データに対し、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)のデータを合成し、表示用立体画像データを取得する。また、ビットストリーム処理部201は、音声データを出力する。ビットストリーム処理部201の詳細構成は後述する。
映像信号処理回路205は、ビットストリーム処理部201から出力された立体画像データに対して必要に応じて画質調整処理などを行い、処理後の立体画像データをHDMI送信部206に供給する。音声信号処理回路207は、ビットストリーム処理部201から出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。
HDMI送信部206は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子202から送出する。この場合、HDMIのTMDSチャネルで送信するため、画像および音声のデータがパッキングされて、HDMI送信部206からHDMI端子202に出力される。このHDMI送信部206の詳細は後述する。
CPU211は、セットトップボックス200の各部の動作を制御する。フラッシュROM212は、制御ソフトウェアの格納およびデータの保管を行う。DRAM213は、CPU211のワークエリアを構成する。CPU211は、フラッシュROM212から読み出したソフトウェアやデータをDRAM213上に展開してソフトウェアを起動させ、セットトップボックス200の各部を制御する。
リモコン受信部215は、リモコン送信機216から送信されたリモーコントロール信号(リモコンコード)を受信し、CPU211に供給する。CPU211は、このリモコンコードに基づいて、セットトップボックス200の各部を制御する。CPU211、フラッシュROM212およびDRAM213は内部バス214に接続されている。
セットトップボックス200の動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。
デジタルチューナ204から出力されるビットストリームデータは、ビットストリーム処理部201に供給される。このビットストリーム処理部201では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、グラフィクスデータ、テキストデータ、視差ベクトル等が抽出される。また、このビットストリーム処理部201では、立体画像データに対し、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)のデータが合成され、表示用立体画像データが生成される。
ビットストリーム処理部201で生成される表示用立体画像データは、映像信号処理回路205で必要に応じて画質調整処理等が行われた後に、HDMI送信部206に供給される。また、ビットストリーム処理部201で得られる音声データは、音声信号処理回路207で必要に応じて音質調整処理等が行われた後に、HDMI送信部206に供給される。HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
[ビットストリーム処理部の構成例]
図72は、ビットストリーム処理部201の構成例を示している。このビットストリーム処理部201は、上述の図2、図62に示す送信データ生成部110,110Eに対応させた構成となっている。このビットストリーム処理部201は、デマルチプレクサ220と、ビデオデコーダ221と、サブタイトル・グラフィクスデコーダ222と、テキストデコーダ223と、オーディオデコーダ224と、視差ベクトルデコーダ225を有している。また、このビットストリーム処理部201は、立体画像用サブタイトル・グラフィクス発生部226と、立体画像用テキスト発生部227と、ビデオ重畳部228と、マルチチャネルスピーカコントロール部229を有している。
図72は、ビットストリーム処理部201の構成例を示している。このビットストリーム処理部201は、上述の図2、図62に示す送信データ生成部110,110Eに対応させた構成となっている。このビットストリーム処理部201は、デマルチプレクサ220と、ビデオデコーダ221と、サブタイトル・グラフィクスデコーダ222と、テキストデコーダ223と、オーディオデコーダ224と、視差ベクトルデコーダ225を有している。また、このビットストリーム処理部201は、立体画像用サブタイトル・グラフィクス発生部226と、立体画像用テキスト発生部227と、ビデオ重畳部228と、マルチチャネルスピーカコントロール部229を有している。
デマルチプレクサ220は、ビットストリームデータBSDから、ビデオ、オーディオ、視差ベクトル、サブタイトルやグラフィクスおよびテキストのパケットを抽出し、各デコーダに送る。
ビデオデコーダ221は、上述の送信データ生成部110のビデオエンコーダ113とは逆の処理を行う。すなわち、このビデオデコーダ221は、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。この立体画像データの伝送方式は、例えば、上述の第1の伝送方式(「Top & Bottom」方式)、第2の伝送方式は(「Side By Side」方式)、第3の伝送方式(「Frame Sequential」方式)などである(図4(a)〜(c)参照)。
サブタイトル・グラフィクスデコーダ222は、上述の送信データ生成部110のサブタイトル・グラフィクスエンコーダ119とは逆の処理を行う。すなわち、このサブタイトル・グラフィクスデコーダ222は、デマルチプレクサ220で抽出されたサブタイトルやグラフィクスのパケットからサブタイトルやグラフィクスのエレメンタリーストリームを再構成する。そして、このサブタイトル・グラフィクスデコーダ222は、さらに復号化処理を行って、サブタイトルデータやグラフィクスデータを得る。
テキストデコーダ223は、上述の送信データ生成部110のテキストエンコーダ121とは逆の処理を行う。すなわち、このテキストデコーダ223は、デマルチプレクサ220で抽出されたテキストのパケットからテキストのエレメンタリーストリームを再構成し、復号化処理を行って、テキストデータ(クローズド・キャプションデータを含む)を得る。
オーディオデコーダ224は、上述の送信データ生成部110のオーディオエンコーダ117とは逆の処理を行う。すなわち、このオーディオデコーダ224は、デマルチプレクサ220で抽出されたオーディオのパケットからオーディオのエレメンタリーストリームを再構成し、復号化処理を行って、音声データを得る。
視差ベクトルデコーダ225は、上述の送信データ生成部110の視差ベクトルエンコーダ115とは逆の処理を行う。すなわち、この視差ベクトルデコーダ225は、デマルチプレクサ220で抽出された視差ベクトルのパケットから視差ベクトルのエレメンタリーストリームを再構成し、復号化処理を行って、画像内の所定位置の視差ベクトルを得る。
立体画像用サブタイトル・グラフィクス発生部226は、左眼画像および右眼画像にそれぞれ重畳する左眼および右眼のサブタイトル情報やグラフィクス情報を生成する。この生成処理は、デコーダ222で得られたサブタイトルデータやグラフィクスデータと、デコーダ225で得られた視差ベクトルに基づいて行われる。この場合、左眼および左眼のサブタイトル情報やグラフィクス情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼のサブタイトル情報やグラフィクス情報に対して、右眼のブタイトル情報やグラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。そして、この立体画像用サブタイトル・グラフィクス発生部226は、生成された左眼および左眼のサブタイトル情報やグラフィクス情報のデータ(ビットマップデータ)を出力する。
立体画像用テキスト発生部227は、デコーダ223で得られたテキストスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼テキスト情報、右眼テキスト情報を生成する。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。そして、この立体画像用テキスト発生部227は、生成された左眼テキスト情報および右眼テキスト情報のデータ(ビットマップデータ)を出力する。
ビデオ重畳部228は、ビデオデコーダ221で得られた立体画像データ(左眼画像データ、右眼画像データ)に対して、発生部226,227で発生されたデータを重畳し、表示用立体画像データVoutを得る。なお、立体画像データ(左眼画像データ、右眼画像データ)への重畳情報データの重畳はシステムレイヤのタイムスタンプにより開始される。
マルチチャネルスピーカコントロール部229は、オーディオデコーダ224で得られる音声データに対して、例えば5.1chサラウンド等を実現するためのマルチチャネルスピーカの音声データを生成する処理、所定の音場特性を付与する処理等を施す。また、このマルチチャネルスピーカコントロール部229は、デコーダ225で得られた視差ベクトルに基づいて、マルチチャネルスピーカの出力を制御する。
視差ベクトルの大きさが大きくなる程、立体感が際だつ効果がある。立体の度合いに合わせて、マルチチャネルのスピーカ出力を制御することで、更なる立体体験の提供を実現できる。
図73は、視差ベクトルVV1が、テレビディスプレイに向かって、左側のビデオオブジェクトの方が大きい場合のスピーカ出力制御例を示している。この制御例では、マルチチャネルスピーカのRear Leftのスピーカ音量は大きくされ、Front Leftのスピーカ音量は中程度とされ、さらに、Front Right,Rear Rightのスピーカ音量が小さくされる。このように、ビデオコンテンツ(立体画像データ)の視差ベクトルを、音声データ等の他のメディアデータへ受信側で適用することで、視聴者に、立体感を総合的に体感させることが可能になる。
図72に示すビットストリーム処理部201の動作を簡単に説明する。デジタルチューナ204(図71参照)から出力されるビットストリームデータBSDは、デマルチプレクサ220に供給される。このデマルチプレクサ220では、ビットストリームデータBSDから、ビデオ、オーディオ、視差ベクトル、サブタイトルやグラフィクス、およびテキストのTSパケットが抽出され、各デコーダに供給される。
ビデオデコーダ221では、デマルチプレクサ220で抽出されたビデオのパケットからビデオのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、左眼画像データおよび右眼画像データを含む立体画像データが得られる。この立体画像データは、ビデオ重畳部228に供給される。また、視差ベクトルデコーダ225では、デマルチプレクサ220で抽出された視差ベクトルのパケットから視差ベクトルのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、画像内の所定位置の視差ベクトルが得られる(図8、図29等参照)。
サブタイトル・グラフィクスデコーダ222では、デマルチプレクサ220で抽出されたサブタイトルやグラフィクスのパケットからサブタイトルやグラフィクスのエレメンタリーストリームが再構成される。サブタイトル・グラフィクスデコーダ222では、さらに、サブタイトルやグラフィクスのエレメンタリーストリームに対して復号化処理が行われて、サブタイトルデータやグラフィクスデータが得られる。このサブタイトルデータやグラフィクスデータは、立体画像用サブタイトル・グラフィクス発生部226に供給される。この立体画像用サブタイトル・グラフィクス発生部226には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。
この立体画像用サブタイトル・グラフィクス発生部226では、左眼画像、右眼画像にそれぞれ重畳する左眼および右眼のサブタイトル情報やグラフィクス情報のデータが生成される。この生成処理は、デコーダ222で得られたサブタイトルデータやグラフィクスデータと、デコーダ225で得られた視差ベクトルに基づいて行われる。
この場合、画像内の重畳位置が、例えば、左眼のサブタイトル情報や左眼グラフィクス情報に対して、右眼のサブタイトル情報やグラフィクス情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。この立体画像用サブタイトル・グラフィクス発生部226からは、生成された左眼および右眼のサブタイトル情報やグラフィクス情報のデータ(ビットマップデータ)が出力される。
また、テキストデコーダ223では、デマルチプレクサ220で抽出されたテキストのTSパケットからテキストのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、テキストデータが得られる。このテキストデータは立体画像用テキスト発生部227に供給される。この立体画像用テキスト発生部227には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。
この立体画像用テキスト発生部227では、デコーダ223で得られたテキストスデータと、デコーダ225で得られた視差ベクトルに基づいて、左眼画像、右眼画像にそれぞれ重畳する左眼テキスト情報、右眼テキスト情報が生成される。この場合、左眼テキスト情報および右眼テキスト情報は同一のテキスト情報であるが、画像内の重畳位置が、例えば、左眼テキスト情報に対して、右眼テキスト情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。この立体画像用テキスト発生部227からは、生成された左眼テキスト情報および右眼テキスト情報のデータ(ビットマップデータ)が出力される。
なお、視差ベクトルデコーダ225で得られた視差ベクトルが所定組の視差情報セットである場合、各視差情報セットに付加されている識別情報(Disparity_Sequence_id)に基づいて、重畳情報に合った視差情報セットを用いることができる。すなわち、クローズド・キャプション情報、サブタイトル情報等の重畳情報に関して、関連付けされている視差ベクトルを用いて、適切な視差を付与できる。
ビデオ重畳部228には、上述したビデオデコーダ221からの立体画像データ(左眼画像データ、右眼画像データ)の他に、サブタイトル・グラフィクス発生部226およびテキスト発生部227から出力されるデータが供給される。このビデオ重畳部228では、立体画像データ(左眼画像データ、右眼画像データ)に対して、サブタイトル・グラフィクス発生部226およびテキスト発生部227で発生されたデータが重畳され、表示用立体画像データVoutが得られる。この表示用立体画像データVoutは、映像信号処理回路205を介して、HDMI送信部206(図71参照)に、送信画像データとして供給される。
また、オーディオデコーダ224では、デマルチプレクサ220で抽出されたオーディオのTSパケットからオーディオのエレメンタリーストリームが再構成され、さらに復号化処理が行われて、音声データが得られる。この音声データは、マルチチャネルスピーカコントロール部229に供給される。このマルチチャネルスピーカコントロール部229では、音声データに対して、例えば5.1chサラウンド等を実現するためのマルチチャネルスピーカの音声データを生成する処理、所定の音場特性を付与する処理等が施される。
このマルチチャネルスピーカコントロール部229には、視差ベクトルデコーダ225で得られた視差ベクトルも供給される。そして、このマルチチャネルスピーカコントロール部229では、視差ベクトルに基づいて、マルチチャネルスピーカの出力が制御される。このマルチチャネルスピーカコントロール部229で得られるマルチチャネル音声データは、音声信号処理回路207を介してHDMI送信部206(図71参照)に、送信音声データとして供給される。
[重畳情報への視差の付与]
ここで、図72に示すビットストリーム処理部201の立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227における重畳情報への視差の付与について、さらに説明する。
ここで、図72に示すビットストリーム処理部201の立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227における重畳情報への視差の付与について、さらに説明する。
放送局100(図1参照)からは、例えば、図74、図75に示すように、画像データストリームと、サブタイトルあるいはグラフィクスのデータストリームと、テキストデータストリームと共に、視差ベクトル(図8、図29等参照)を含む視差ベクトルストリームが送られてくる。この場合、符号化ビデオのGOP(Group Of Pictures)、あるいはI(Intra picture)ピクチャ、またはシーン等の各一定期間の開始タイミングに合わせて、各一定期間に対応した所定単位毎の視差ベクトルがまとめて送られてくる。所定単位としては、例えば、ピクチャ(フレーム)単位、あるいはピクチャの整数倍の単位等が考えられる。
例えば、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227では、重畳情報の重畳期間において、所定単位毎に、重畳情報に、対応する視差ベクトル(情報情報)による視差が付与される。図74のサブタイトル(グラフィクス)データストリームおよびテキストデータストリームの部分に付されている矢印は、重畳情報に所定単位毎に視差が付与されるタイミングを表している。このように重畳情報に視差が付与される構成とすることで、重畳情報に付与する視差を、画像内容の変化に連動して動的に変化させることが可能となる。
また、例えば、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227では、重畳情報の重畳期間において、所定単位毎に、重畳情報に、重畳期間分の視差ベクトルから選択された所定の視差ベクトル(視差情報)による視差が付与される。所定の視差ベクトルは、例えば、重畳期間分の視差情報のうち最大の視差を示す視差情報とされる。
図75のサブタイトル(グラフィクス)データストリームおよびテキストデータストリームの部分に付されている矢印は、重畳情報に視差が付与されるタイミングを表している。この場合、重畳期間の最初に重畳情報に対して視差が付与され、以降はその視差が付与された重畳情報が、左眼画像および右眼画像に重畳すべき重畳情報として使用される。このように重畳情報に視差が付与される構成とすることで、画像内容の変化によらずに、重畳情報に、例えば、重畳情報の重畳期間中の最大視差を付与することが可能となる。
また、放送局100(図1参照)からは、例えば、図76に示すように、画像データと、クローズド・キャプションデータおよびグラフィックスデータが送られてくる。視差情報セット(図29、図31、図33、図36参照)は、視差ベクトルストリームとして送られてくる。この場合、符号化ビデオのGOP、あるいはIピクチャ、またはシーン等の各一定期間の開始タイミングに合わせて、各一定期間に対応した所定単位毎の視差情報セットがまとめて送られてくる。所定単位としては、例えば、ピクチャ(フレーム)単位、あるいはピクチャの整数倍の単位等が考えられる。
例えば、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227では、重畳情報の重畳期間において、所定単位毎に、重畳情報に、対応する視差ベクトル(情報情報)による視差が付与される。図76のクローズド・キャプションデータ、グラフィックスデータの部分に付されている矢印は、重畳情報に所定単位毎に視差が付与されるタイミングを表している。このように重畳情報に視差が付与される構成とすることで、重畳情報に付与する視差を、画像内容の変化に連動して動的に変化させることが可能となる。
「ビットストリーム処理部の他の構成例」
図77に示すビットストリーム処理部201Aは、上述の図13、図22に示す送信データ生成部110A,110Dに対応させた構成となっている。この図77において、図72と対応する部分には同一符号を付し、その詳細説明は省略する。
図77に示すビットストリーム処理部201Aは、上述の図13、図22に示す送信データ生成部110A,110Dに対応させた構成となっている。この図77において、図72と対応する部分には同一符号を付し、その詳細説明は省略する。
このビットストリーム処理部201Aは、図72に示すビットストリーム処理部201の視差ベクトルデコーダ225の代わりに、視差ベクトル取り出し部231が設けられる。この視差ベクトル取り出し部231は、ビデオデコーダ221を通じて得られるビデオのストリームから、そのユーザデータ領域に埋め込まれている視差ベクトルを取り出す。そして、この視差ベクトル取り出し部231は、取り出した視差ベクトルを、立体画像用サブタイトル・グラフィクス発生部226、立体画像用テキスト発生部227およびマルチチャネルスピーカコントロール部229に供給する。
詳細説明は省略するが、この図77に示すビットストリーム処理部201Aのその他は、図72に示すビットストリーム処理部201と同様に構成され、同様に動作する。
[重畳情報への視差の付与]
ここで、図77に示すビットストリーム処理部201Aの立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227における重畳情報への視差の付与について、さらに説明する。
ここで、図77に示すビットストリーム処理部201Aの立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227における重畳情報への視差の付与について、さらに説明する。
放送局100(図1参照)からは、例えば、図78に示すように、画像データストリームと、サブタイトルあるいはグラフィクスのデータストリームと、テキストデータストリームが送られてくる。そして、視差ベクトル(図8、図29等参照)は、画像データストリームに埋め込まれて送られてくる。この場合、画像データの所定単位毎、例えば符号化ビデオのピクチャ毎に、その所定単位に対応した視差ベクトルが、画像データストリームに埋め込まれて送られてくる。
立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227では、重畳情報の重畳期間において、所定単位毎に、重畳情報に、対応する視差ベクトル(情報情報)による視差が付与される。図78のサブタイトル(グラフィクス)データストリームおよびテキストデータストリームの部分に付されている矢印は、重畳情報に所定単位毎に視差が付与されるタイミングを表している。このように重畳情報に視差が付与される構成とすることで、重畳情報に付与する視差を、画像内容の変化に連動して動的に変化させることが可能となる。
また、放送局100(図1参照)からは、例えば、図79、図80に示すように、画像データストリームと、サブタイトルあるいはグラフィクスのデータストリームと、テキストデータストリームが送られてくる。そして、視差ベクトル(図8、図29等参照)は、画像データストリームに埋め込まれて送られてくる。この場合、符号化ビデオのGOP、あるいはIピクチャ、またはシーン等の各一定期間の開始タイミングに合わせて、各一定期間に対応した所定単位毎の視差ベクトルがまとめて送られてくる。所定単位としては、例えば、ピクチャ(フレーム)単位、あるいはピクチャの整数倍の単位等が考えられる。
例えば、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227では、重畳情報の重畳期間において、所定単位毎に、重畳情報に、対応する視差ベクトル(情報情報)による視差が付与される。図79のサブタイトル(グラフィクス)データストリームおよびテキストデータストリームの部分に付されている矢印は、重畳情報に所定単位毎に視差が付与されるタイミングを表している。このように重畳情報に視差が付与される構成とすることで、重畳情報に付与する視差を、画像内容の変化に連動して動的に変化させることが可能となる。
また、例えば、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227では、重畳情報の重畳期間において、所定単位毎に、重畳情報に、重畳期間分の視差ベクトルから選択された所定の視差ベクトル(視差情報)による視差が付与される。所定の視差ベクトルは、例えば、所定の視差情報は、重畳期間分の視差情報のうち最大の視差を示す視差情報とされる。
図80のサブタイトル(グラフィクス)データストリームおよびテキストデータストリームの部分に付されている矢印は、重畳情報に視差が付与されるタイミングを表している。この場合、重畳期間の最初に重畳情報に対して視差が付与され、以降はその視差が付与された重畳情報が、左眼画像および右眼画像に重畳すべき重畳情報として使用される。このように重畳情報に視差が付与される構成とすることで、画像内容の変化によらずに、重畳情報に、例えば、重畳情報の重畳期間中の最大視差を付与することが可能となる。
また、放送局100(図1参照)からは、例えば、図81に示すように、画像データと、クローズド・キャプションデータおよびグラフィックスデータが送られてくる。視差情報セットは(図29、図31、図33、図36参照)は、画像データストリームに埋め込まれて送られてくる。この場合、符号化ビデオのGOP、あるいはIピクチャ、またはシーン等の各一定期間の開始タイミングに合わせて、各一定期間に対応した所定単位毎の視差情報セットがまとめて送られてくる。所定単位としては、例えば、ピクチャ(フレーム)単位、あるいはピクチャの整数倍の単位等が考えられる。
例えば、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227では、重畳情報の重畳期間において、所定単位毎に、重畳情報に、対応する視差ベクトル(情報情報)による視差が付与される。図81のクローズド・キャプションデータ、グラフィックスデータの部分に付されている矢印は、重畳情報に所定単位毎に視差が付与されるタイミングを表している。このように重畳情報に視差が付与される構成とすることで、重畳情報に付与する視差を、画像内容の変化に連動して動的に変化させることが可能となる。
「ビットストリーム処理部の他の構成例」
図82に示すビットストリーム処理部201Bは、上述の図15に示す送信データ生成部110Bに対応させた構成となっている。この図82において、図72と対応する部分には同一符号を付し、その詳細説明は省略する。
図82に示すビットストリーム処理部201Bは、上述の図15に示す送信データ生成部110Bに対応させた構成となっている。この図82において、図72と対応する部分には同一符号を付し、その詳細説明は省略する。
このビットストリーム処理部201Bは、図72に示すビットストリーム処理部201の視差ベクトルデコーダ225の代わりに、視差ベクトル取り出し部232が設けられる。この視差ベクトル取り出し部232は、サブタイトル・グラフィクスデコーダ222を通じて得られるサブタイトルあるいはグラフィクスのストリームから、それに埋め込まれている視差ベクトルを取り出す。そして、この視差ベクトル取り出し部232は、取り出した視差ベクトルを、立体画像用サブタイトル・グラフィクス発生部226、立体画像用テキスト発生部227およびマルチチャネルスピーカコントロール部229に供給する。
詳細説明は省略するが、この図72に示すビットストリーム処理部201Bのその他は、図72に示すビットストリーム処理部201と同様に構成され、同様に動作する。なお、この図82のビットストリーム処理部201Bおける重畳情報への視差の付与については、上述した図77のビットストリーム処理部201Aおける重畳情報への視差の付与と同様である(図78〜図81参照)。
「ビットストリーム処理部の他の構成例」
図83に示すビットストリーム処理部201Cは、上述の図21に示す送信データ生成部110Cに対応させた構成となっている。この図83において、図72と対応する部分には同一符号を付し、その詳細説明は省略する。
図83に示すビットストリーム処理部201Cは、上述の図21に示す送信データ生成部110Cに対応させた構成となっている。この図83において、図72と対応する部分には同一符号を付し、その詳細説明は省略する。
このビットストリーム処理部201Cは、図72に示すビットストリーム処理部201から、視差ベクトルデコーダ225、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227が除かれたものである。この場合、視差ベクトルは、サブタイトル情報、グラフィクス情報、テキスト情報のデータに予め反映されている。
送信されてくるサブタイトルデータやグラフィクスデータには、上述したように、左眼画像に重畳される左眼のサブタイトル情報やグラフィクス情報のデータ、および右眼画像に重畳される右眼のサブタイトル情報やグラフィクス情報のデータが含まれている。同様に、送信されてくるテキストデータには、上述したように、左眼画像に重畳される左眼テキスト情報のデータおよび右眼画像に重畳される右眼テキスト情報のデータが含まれている。したがって、視差ベクトルデコーダ225、立体画像用サブタイトル・グラフィクス発生部226および立体画像用テキスト発生部227は不要となる。
なお、テキストデコーダ223で得られるテキストデータはコードデータ(キャラクタコード)であるので、これをビットマップデータに変換する処理は必要である。この処理は、例えば、テキストデコーダ223の最終段で行われるか、あるいはビデオ重畳部228の入力段で行われる。
[セットトップボックスの他の構成例]
図84は、セットトップボックス200Aの他の構成例を示している。この図84において、図71、図77と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。このセットトップボックス200Aは、ビットストリーム処理部201Dと、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像・グラフィック処理回路205Aと、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200Aは、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216と、ネットワーク端子217と、イーサネットインタフェース218を有している。なお、「イーサネット」は登録商標である。
図84は、セットトップボックス200Aの他の構成例を示している。この図84において、図71、図77と対応する部分には同一符号を付し、適宜、その詳細説明は省略する。このセットトップボックス200Aは、ビットストリーム処理部201Dと、HDMI端子202と、アンテナ端子203と、デジタルチューナ204と、映像・グラフィック処理回路205Aと、HDMI送信部206と、音声信号処理回路207を有している。また、このセットトップボックス200Aは、CPU211と、フラッシュROM212と、DRAM213と、内部バス214と、リモコン受信部215と、リモコン送信機216と、ネットワーク端子217と、イーサネットインタフェース218を有している。なお、「イーサネット」は登録商標である。
ビットストリーム処理部201Dは、デジタルチューナ204で得られるビットストリームデータBSDから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、重畳情報データ、視差情報(視差ベクトル)等を抽出する。この例において、重畳情報データはサブタイトルデータである。このビットストリーム処理部201Dは、図77に示すビットストリーム処理部201Aとほぼ同様に構成されている。
このビットストリーム処理部201Dは、デマルチプレクサ220Aと、ビデオデコーダ221と、サブタイトルデコーダ222Aと、オーディオデコーダ224を有している。また、このビットストリーム処理部201Dは、立体画像用サブタイトル発生部226Aと、ビデオ重畳部228と、視差ベクトル取り出し部231を有している。デマルチプレクサ220Aは、ビットストリームデータBSDから、ビデオ、オーディオおよびサブタイトルのパケットを抽出し、各デコーダに送る。
ビデオデコーダ221は、デマルチプレクサ220Aで抽出されたビデオのパケットからビデオのエレメンタリーストリームを再構成し、復号化処理を行って、左眼画像データおよび右眼画像データを含む立体画像データを得る。サブタイトルデコーダ222Aは、デマルチプレクサ220Aで抽出されたサブタイトルのパケットからサブタイトルのエレメンタリーストリームを再構成する。そして、このサブタイトルデコーダ222Aは、さらに復号化処理を行って、サブタイトルデータを得る。オーディオデコーダ224は、デマルチプレクサ220Aで抽出されたオーディオのパケットからオーディオのエレメンタリーストリームを再構成し、復号化処理を行って、音声データを得て、ビットストリーム処理部201の外部に出力する。
視差ベクトル取り出し部231は、ビデオデコーダ221を通じて得られるビデオのストリームから、そのユーザデータ領域に埋め込まれている視差ベクトル(視差情報セット)を取り出す。そして、この視差ベクトル取り出し部231は、取り出した視差ベクトルを、立体画像用サブタイトル発生部226に供給する他に、ビットストリーム処理部201Dの外部に出力する。
立体画像用サブタイトル発生部226Aは、左眼画像および右眼画像にそれぞれ重畳する左眼および右眼のサブタイトル情報を生成する。この生成処理は、サブタイトルデコーダ222Aで得られたサブタイトルデータと、視差ベクトル取り出し部231から供給される視差ベクトル(視差情報セット)に基づいて行われる。この場合、左眼および左眼のサブタイトル情報は同一の情報である。しかし、画像内の重畳位置が、例えば、左眼のサブタイトル情報に対して、右眼のブタイトル情報は、視差ベクトルの水平方向成分だけ、水平方向にずれるようにされる。そして、この立体画像用サブタイトル発生部226Aは、左眼および左眼のサブタイトル情報のデータ(ビットマップデータ)を出力する。
ビデオ重畳部228は、ビデオデコーダ221で得られた立体画像データ(左眼画像データ、右眼画像データ)に対し、サブタイトル発生部226Aで発生された左眼および左眼のサブタイトル情報のデータを重畳し、表示用立体画像データを得る。なお、立体画像データ(左眼画像データ、右眼画像データ)への重畳情報データの重畳はシステムレイヤのタイムスタンプにより開始される。そして、このビデオ重畳部228は、表示用立体画像データを、ビットストリーム処理部201Dの外部に出力する。
イーサネットインタフェース228は、ネットワーク端子227を介して、インターネット等の図示しないネットワークに接続される。イーサネットインタフェース228は、ユーザ操作に応じて、ネットワークを通じて種々の情報、例えばウィジェット(Widget)でグラフィクス表示する天気予報、株価等の情報も取得できる。このイーサネットインタフェース228は、内部バス214に接続されている。
映像・グラフィック処理回路205Aは、ビットストリーム処理部201Dから出力された表示用立体画像データに対して、必要に応じて、画質調整処理を行う。また、この映像・グラフィック処理回路205Aは、ビットストリーム処理部201Dから出力された表示用立体画像データに対して、例えば、ウィジェット(Widget)によるグラフィクス情報のデータを重畳する。
この映像・グラフィック処理回路205Aには、上述したビットストリーム処理部201Dから出力される視差ベクトル(視差情報セット)が供給される。映像・グラフィック処理回路205Aは、この視差ベクトル(視差情報セット)に基づいて、左眼画像および右眼画像に重畳する同一のグラフィクス情報に、視差を付与する。これにより、左眼画像および右眼画像に重畳される同一のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、このグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持するようにされる。
映像・グラフィック処理回路205Aは、処理後の表示用立体画像データをHDMI送信部206に供給する。音声信号処理回路207は、ビットストリーム処理部201Dから出力された音声データに対して必要に応じて音質調整処理等を行い、処理後の音声データをHDMI送信部206に供給する。HDMI送信部206は、HDMIに準拠した通信により、ベースバンドの画像(映像)と音声のデータを、HDMI端子202から送出する。この場合、HDMI送信部206は、HDMIのTMDSチャネルで送信するため、画像および音声のデータをパッキングしてHDMI端子202に出力する。
図84に示すセットトップボックス200Aのその他は、詳細説明は省略するが、図71に示すセットトップボックス200と同様に構成される。
図84に示すセットトップボックス200Aの動作を簡単に説明する。アンテナ端子203に入力されたテレビ放送信号はデジタルチューナ204に供給される。このデジタルチューナ204では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータBSDが得られる。このビットストリームデータBSDは、ビットストリーム処理部201Dに供給される。
このビットストリーム処理部201Dでは、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、サブタイトルデータおよび視差ベクトル(視差情報セット)等が抽出される。また、このビットストリーム処理部201Dでは、立体画像データに対し、サブタイトル情報のデータが合成され、表示用立体画像データが生成される。
この場合、ビットストリーム処理部201Dでは、視差ベクトルに基づいて、左眼画像および右眼画像に重畳する同一のサブタイトル情報に、視差が付与される。これにより、左眼画像および右眼画像に重畳される同一のサブタイトル情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、このサブタイトル情報の表示において、画像内の各物体との間の遠近感の整合性を維持するようにされる。
ビットストリーム処理部201Dで生成される表示用立体画像データは、映像・グラフィック処理回路205Aで必要に応じて画質調整処理が行われる。また、この映像・グラフィック処理回路205Aでは、必要に応じて、ビットストリーム処理部201Dで生成される表示用立体画像データに、ウィジェット(Widget)によるグラフィクス情報のデータを合成することが行われる。
この場合、映像・グラフィック処理回路205Aでは、ビットストリーム処理部201Dから供給される視差ベクトル(視差情報セット)に基づいて、左眼画像および右眼画像に重畳する同一のグラフィクス情報に、視差が付与される。これにより、左眼画像および右眼画像に重畳される同一のグラフィクス情報として、画像内の各物体の遠近感に応じて視差調整が施されたものを用いることができ、このグラフィクス情報の表示において、画像内の各物体との間の遠近感の整合性を維持するようにされる。
映像・グラフィック処理回路205Aから得られる処理後の表示用立体画像データは、HDMI送信部206に供給される。また、ビットストリーム処理部201Dで得られる音声データは、音声信号処理回路207で必要に応じて音質調整処理等が行われた後に、HDMI送信部206に供給される。HDMI送信部206に供給された立体画像データおよび音声データは、HDMIのTMDSチャネルにより、HDMI端子202からHDMIケーブル400に送出される。
図84に示すセットトップボックス200Aにおいては、ビットストリーム処理部201Dの視差ベクトル取り出し部231で取り出された視差ベクトル(視差情報セット)に基づいて、ビットストリーム処理部201D内で、左眼画像および右眼画像に重畳される同一のサブタイトル情報に視差が付与される。また、映像・グラフィック処理回路205Aで、その視差ベクトル(視差情報セット)に基づいて、左眼画像および右眼画像に重畳される同一のグラフィクス情報に視差が付与される。したがって、放送局から送られてくるサブタイトル情報だけでなく、このセットトップボックス200A内で発生されるグラフィクス情報に関しても、その表示において、画像内の各物体との間の遠近感の整合性を維持するようにできる。
図85は、図84に示すセットトップボックス200Aにおいて左眼画像および右眼画像へのサブタイトル情報およびグラフィクス情報の重畳例を示している。図85(a)は、左眼画像を示している。ビットストリーム処理部201Dにおいて、サブタイトル情報「Subtitle 1」は(x1,y1)の位置に重畳され、サブタイトル情報「Subtitle 1」は(x2,y2)の位置に重畳される。また、映像・グラフィック処理回路205Aにおいて、グラフィクス情報「Graphics 1」は(x3,y3)の位置に重畳される。
図85(b)は、右眼画像を示している。ビットストリーム処理部201Dにおいて、サブタイトル情報「Subtitle 1」は、左眼画像への重畳位置に対して、対応する視差ベクトルに基づいて、オフセット1(Offset 1)だけずれた位置に重畳される。同様に、このビットストリーム処理部201Dにおいて、サブタイトル情報「Subtitle 2」は、左眼画像への重畳位置に対して、対応する視差ベクトルに基づいて、オフセット2(Offset 2)だけずれた位置に重畳される。また、映像・グラフィック処理回路205Aにおいて、グラフィクス情報「Graphics 1」は、左眼画像への重畳位置に対して、オフセット3(Offset 3)だけずれた位置に重畳される。
なお、図84に示すセットトップボックス200Aでは、ビットストリーム処理部201Dでサブタイトル情報を取り扱うと共に、映像・グラフィック処理部205Aでグラフィック情報を取り扱っているが、他の重畳情報を取り扱うものも同様に構成できる。
[テレビ受信機の説明]
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。すなわち、この3D信号処理部301は、図2、図13、図15、図21、図22、図62に示す送信データ生成部110,110A,110B,110C,110D、110Eにおけるビデオフレーミング部112とは逆の処理を行う。そして、この3D信号処理部301は、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。
図1に戻って、テレビ受信機300は、セットトップボックス200からHDMIケーブル400を介して送られてくる立体画像データを受信する。このテレビ受信機300は、3D信号処理部301を有している。この3D信号処理部301は、立体画像データに対して、伝送方式に対応した処理(デコード処理)を行って、左眼画像データおよび右眼画像データを生成する。すなわち、この3D信号処理部301は、図2、図13、図15、図21、図22、図62に示す送信データ生成部110,110A,110B,110C,110D、110Eにおけるビデオフレーミング部112とは逆の処理を行う。そして、この3D信号処理部301は、立体画像データを構成する左眼画像データおよび右眼画像データを取得する。
[テレビ受信機の構成例]
テレビ受信機300の構成例を説明する。図86は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。
テレビ受信機300の構成例を説明する。図86は、テレビ受信機300の構成例を示している。このテレビ受信機300は、3D信号処理部301と、HDMI端子302と、HDMI受信部303と、アンテナ端子304と、デジタルチューナ305と、ビットストリーム処理部306を有している。
また、このテレビ受信機300は、映像・グラフィック処理回路307と、パネル駆動回路308と、表示パネル309と、音声信号処理回路310と、音声増幅回路311と、スピーカ312を有している。また、このテレビ受信機300は、CPU321と、フラッシュROM322と、DRAM323と、内部バス324と、リモコン受信部325と、リモコン送信機326を有している。
アンテナ端子304は、受信アンテナ(図示せず)で受信されたテレビ放送信号を入力する端子である。デジタルチューナ305は、アンテナ端子304に入力されたテレビ放送信号を処理して、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)を出力する。
ビットストリーム処理部306は、図71に示すセットトップボックス200のビットストリーム処理部201と同様の構成とされている。このビットストリーム処理部306は、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、重畳情報データ、視差ベクトル(視差情報)等を抽出する。重畳情報データは、サブタイトルデータ、グラフィクスデータ、テキストデータ(クローズド・キャプションデータを含む)等である。このビットストリーム処理部306は、立体画像データに対し、重畳情報データを合成し、表示用立体画像データを取得する。また、ビットストリーム処理部306は、音声データを出力する。
HDMI受信部303は、HDMIに準拠した通信により、HDMIケーブル400を介してHDMI端子302に供給される非圧縮の画像データおよび音声データを受信する。このHDMI受信部303は、そのバージョンが例えばHDMI1.4とされており、立体画像データの取り扱いが可能な状態にある。このHDMI受信部303の詳細は後述する。
3D信号処理部301は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対して、デコード処理を行って、左眼画像データおよび右眼画像データを生成する。この場合、3D信号処理部301は、ビットストリーム処理部306で得られた立体画像データに対しては、その伝送方式(図4参照)に対応したデコード処理を行う。また、3D信号処理部301は、HDMI受信部303で受信された立体画像データに対しては、後述するTMDS伝送データ構造に対応したデコード処理を行う。
映像・グラフィック処理回路307は、3D信号処理部301で生成された左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データを生成する。また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、画質調整処理を行う。また、映像・グラフィック処理回路307は、画像データに対して、必要に応じて、メニュー、番組表などの重畳情報のデータを合成する。パネル駆動回路308は、映像・グラフィック処理回路307から出力される画像データに基づいて、表示パネル309を駆動する。表示パネル309は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma DisplayPanel)等で構成されている。
音声信号処理回路310は、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理を行う。音声増幅回路311は、音声信号処理回路310から出力される音声信号を増幅してスピーカ312に供給する。
CPU321は、テレビ受信機300の各部の動作を制御する。フラッシュROM322は、制御ソフトウェアの格納およびデータの保管を行う。DRAM323は、CPU321のワークエリアを構成する。CPU321は、フラッシュROM322から読み出したソフトウェアやデータをDRAM323上に展開してソフトウェアを起動させ、テレビ受信機300の各部を制御する。
リモコン受信部325は、リモコン送信機326から送信されたリモートコントロール信号(リモコンコード)を受信し、CPU321に供給する。CPU321は、このリモコンコードに基づいて、テレビ受信機300の各部を制御する。CPU321、フラッシュROM322およびDRAM323は、内部バス324に接続されている。
図86に示すテレビ受信機300の動作を簡単に説明する。HDMI受信部303では、HDMI端子302にHDMIケーブル400を介して接続されているセットトップボックス200から送信されてくる、立体画像データおよび音声データが受信される。このHDMI受信部303で受信された立体画像データは、3D信号処理部301に供給される。また、このHDMI受信部303で受信された音声データは音声信号処理回路310に供給される。
アンテナ端子304に入力されたテレビ放送信号はデジタルチューナ305に供給される。このデジタルチューナ305では、テレビ放送信号が処理されて、ユーザの選択チャネルに対応した所定のビットストリームデータ(トランスポートストリーム)が出力される。
デジタルチューナ305から出力されるビットストリームデータは、ビットストリーム処理部306に供給される。このビットストリーム処理部306では、ビットストリームデータから立体画像データ(左眼画像データ、右眼画像データ)、音声データ、重畳情報データ、視差ベクトル(視差情報)等が抽出される。また、このビットストリーム処理部306では、立体画像データに対し、重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報)のデータが合成され、表示用立体画像データが生成される。
ビットストリーム処理部306で生成される表示用立体画像データは、3D信号処理部301に供給される。また、このビットストリーム処理部306で得られる音声データは、音声信号処理回路310に供給される。
3D信号処理部301では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた立体画像データに対してデコード処理が行われて、左眼画像データおよび右眼画像データが生成される。この左眼画像データおよび右眼画像データは、映像・グラフィック処理回路307に供給される。この映像・グラフィック処理回路307では、左眼画像データおよび右眼画像データに基づいて、立体画像を表示するための画像データが生成され、必要に応じて、画質調整処理、重畳情報データの合成処理も行われる。
この映像・グラフィック処理回路307で得られる画像データはパネル駆動回路308に供給される。そのため、表示パネル309により立体画像が表示される。例えば、表示パネル309に、左眼画像データによる左眼画像および右眼画像データによる右眼画像が交互に時分割的に表示される。視聴者は、表示パネル309の表示に同期して左眼シャッタおよび右眼シャッタが交互に開くシャッタメガネを装着することで、左眼では左眼画像のみを見ることができ、右眼では右眼画像のみを見ることができ、立体画像を知覚できる。
また、音声信号処理回路310では、HDMI受信部303で受信された、あるいはビットストリーム処理部306で得られた音声データに対してD/A変換等の必要な処理が施される。この音声データは、音声増幅回路311で増幅された後に、スピーカ312に供給される。そのため、スピーカ312から表示パネル309の表示画像に対応した音声が出力される。
[HDMI送信部、HDMI受信部の構成例]
図87は、図1の立体画像表示システム10における、セットトップボックス200のHDMI送信部(HDMIソース)206と、テレビ受信機300のHDMI受信部(HDMIシンク)303の構成例を示している。
図87は、図1の立体画像表示システム10における、セットトップボックス200のHDMI送信部(HDMIソース)206と、テレビ受信機300のHDMI受信部(HDMIシンク)303の構成例を示している。
HDMI送信部206は、有効画像区間(以下、適宜、アクティブビデオ区間ともいう)において、非圧縮の1画面分の画像の画素データに対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。ここで、有効画像区間は、一の垂直同期信号から次の垂直同期信号までの区間から、水平帰線区間及び垂直帰線区間を除いた区間である。また、HDMI送信部206は、水平帰線区間または垂直帰線区間において、少なくとも画像に付随する音声データや制御データ、その他の補助データ等に対応する差動信号を、複数のチャネルで、HDMI受信部303に一方向に送信する。
HDMI送信部206とHDMI受信部303とからなるHDMIシステムの伝送チャネルには、以下の伝送チャネルがある。すなわち、HDMI送信部206からHDMI受信部303に対して、画素データおよび音声データを、ピクセルクロックに同期して、一方向にシリアル伝送するための伝送チャネルとしての、3つのTMDSチャネル#0乃至#2がある。また、ピクセルクロックを伝送する伝送チャネルとしての、TMDSクロックチャネルがある。
HDMI送信部206は、HDMIトランスミッタ81を有する。トランスミッタ81は、例えば、非圧縮の画像の画素データを対応する差動信号に変換し、複数のチャネルである3つのTMDSチャネル#0,#1,#2で、HDMIケーブル400を介して接続されているHDMI受信部303に、一方向にシリアル伝送する。
また、トランスミッタ81は、非圧縮の画像に付随する音声データ、さらには、必要な制御データその他の補助データ等を、対応する差動信号に変換し、3つのTMDSチャネル#0,#1,#2でHDMI受信部303に、一方向にシリアル伝送する。
さらに、トランスミッタ81は、3つのTMDSチャネル#0,#1,#2で送信する画素データに同期したピクセルクロックを、TMDSクロックチャネルで、HDMIケーブル400を介して接続されているHDMI受信部303に送信する。ここで、1つのTMDSチャネル#i(i=0,1,2)では、ピクセルクロックの1クロックの間に、10ビットの画素データが送信される。
HDMI受信部303は、アクティブビデオ区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号を受信する。また、このHDMI受信部303は、水平帰線区間または垂直帰線区間において、複数のチャネルで、HDMI送信部206から一方向に送信されてくる、音声データや制御データに対応する差動信号を受信する。
すなわち、HDMI受信部303は、HDMIレシーバ82を有する。このHDMIレシーバ82は、TMDSチャネル#0,#1,#2で、HDMI送信部206から一方向に送信されてくる、画素データに対応する差動信号と、音声データや制御データに対応する差動信号を受信する。この場合、HDMI送信部206からTMDSクロックチャネルで送信されてくるピクセルクロックに同期して受信する。
HDMIシステムの伝送チャネルには、上述のTMDSチャネル#0乃至#2およびTMDSクロックチャネルの他に、DDC(Display Data Channel)83やCECライン84と呼ばれる伝送チャネルがある。DDC83は、HDMIケーブル400に含まれる図示しない2本の信号線からなる。DDC83は、HDMI送信部206が、HDMI受信部303から、E−EDID(Enhanced Extended Display Identification Data)を読み出すために使用される。
すなわち、HDMI受信部303は、HDMIレシーバ81の他に、自身の性能(Configuration/capability)に関する性能情報であるE−EDIDを記憶している、EDID ROM(Read Only Memory)85を有している。HDMI送信部206は、例えば、CPU211(図71参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E−EDIDを、DDC83を介して読み出す。
HDMI送信部206は、読み出したE−EDIDをCPU211に送る。CPU211は、このE−EDIDを、フラッシュROM212あるいはDRAM213に格納する。CPU211は、E−EDIDに基づき、HDMI受信部303の性能の設定を認識できる。例えば、CPU211は、HDMI受信部303を有するテレビ受信機300が立体画像データの取り扱いが可能か否か、可能である場合はさらにいかなるTMDS伝送データ構造に対応可能であるか等を認識する。
CECライン84は、HDMIケーブル400に含まれる図示しない1本の信号線からなり、HDMI送信部206とHDMI受信部303との間で、制御用のデータの双方向通信を行うために用いられる。このCECライン84は、制御データラインを構成している。
また、HDMIケーブル400には、HPD(Hot Plug Detect)と呼ばれるピンに接続されるライン(HPDライン)86が含まれている。ソース機器は、当該ライン86を利用して、シンク機器の接続を検出することができる。なお、このHPDライン86は双方向通信路を構成するHEAC−ラインとしても使用される。また、HDMIケーブル400には、ソース機器からシンク機器に電源を供給するために用いられるライン(電源ライン)87が含まれている。さらに、HDMIケーブル400には、ユーティリティライン88が含まれている。このユーティリティライン88は双方向通信路を構成するHEAC+ラインとしても使用される。
図88は、図87のHDMIトランスミッタ81とHDMIレシーバ82の構成例を示している。HDMIトランスミッタ81は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのエンコーダ/シリアライザ81A,81B,81Cを有する。そして、エンコーダ/シリアライザ81A,81B,81Cのそれぞれは、そこに供給される画像データ、補助データ、制御データをエンコードし、パラレルデータからシリアルデータに変換して、差動信号により送信する。ここで、画像データが、例えばR,G,Bの3成分を有する場合、B成分はエンコーダ/シリアライザ81Aに供給され、G成分はエンコーダ/シリアライザ81Bに供給され、R成分はエンコーダ/シリアライザ81Cに供給される。
また、補助データとしては、例えば、音声データや制御パケットがあり、制御パケットは、例えば、エンコーダ/シリアライザ81Aに供給され、音声データは、エンコーダ/シリアライザ81B,81Cに供給される。さらに、制御データとしては、1ビットの垂直同期信号(VSYNC)、1ビットの水平同期信号(HSYNC)、および、それぞれ1ビットの制御ビットCTL0,CTL1,CTL2,CTL3がある。垂直同期信号および水平同期信号は、エンコーダ/シリアライザ81Aに供給される。制御ビットCTL0,CTL1はエンコーダ/シリアライザ81Bに供給され、制御ビットCTL2,CTL3はエンコーダ/シリアライザ81Cに供給される。
エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分、垂直同期信号および水平同期信号、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Aは、そこに供給される画像データのB成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
また、エンコーダ/シリアライザ81Aは、そこに供給される垂直同期信号および水平同期信号の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。さらに、エンコーダ/シリアライザ81Aは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Aは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#0で送信する。
エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分、制御ビットCTL0,CTL1、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Bは、そこに供給される画像データのG成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
また、エンコーダ/シリアライザ81Bは、そこに供給される制御ビットCTL0,CTL1の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。さらに、エンコーダ/シリアライザ81Bは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Bは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#1で送信する。
エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分、制御ビットCTL2,CTL3、並びに補助データを、時分割で送信する。すなわち、エンコーダ/シリアライザ81Cは、そこに供給される画像データのR成分を、固定のビット数である8ビット単位のパラレルデータとする。さらに、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
また、エンコーダ/シリアライザ81Cは、そこに供給される制御ビットCTL2,CTL3の2ビットのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。さらに、エンコーダ/シリアライザ81Cは、そこに供給される補助データを4ビット単位のパラレルデータとする。そして、エンコーダ/シリアライザ81Cは、そのパラレルデータをエンコードし、シリアルデータに変換して、TMDSチャネル#2で送信する。
HDMIレシーバ82は、3つのTMDSチャネル#0,#1,#2にそれぞれ対応する3つのリカバリ/デコーダ82A,82B,82Cを有する。そして、リカバリ/デコーダ82A,82B,82Cのそれぞれは、TMDSチャネル#0,#1,#2で差動信号により送信されてくる画像データ、補助データ、制御データを受信する。さらに、リカバリ/デコーダ82A,82B,82Cのそれぞれは、画像データ、補助データ、制御データを、シリアルデータからパラレルデータに変換し、さらにデコードして出力する。
すなわち、リカバリ/デコーダ82Aは、TMDSチャネル#0で差動信号により送信されてくる画像データのB成分、垂直同期信号および水平同期信号、補助データを受信する。そして、リカバリ/デコーダ82Aは、その画像データのB成分、垂直同期信号および水平同期信号、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ82Bは、TMDSチャネル#1で差動信号により送信されてくる画像データのG成分、制御ビットCTL0,CTL1、補助データを受信する。そして、リカバリ/デコーダ82Bは、その画像データのG成分、制御ビットCTL0,CTL1、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
リカバリ/デコーダ82Cは、TMDSチャネル#2で差動信号により送信されてくる画像データのR成分、制御ビットCTL2,CTL3、補助データを受信する。そして、リカバリ/デコーダ82Cは、その画像データのR成分、制御ビットCTL2,CTL3、補助データを、シリアルデータからパラレルデータに変換し、デコードして出力する。
図89は、TMDS伝送データの構造例を示している。この図89は、TMDSチャネル#0,#1,#2において、横×縦が1920ピクセル×1080ラインの画像データが伝送される場合の、各種の伝送データの区間を示している。
HDMIの3つのTMDSチャネル#0,#1,#2で伝送データが伝送されるビデオフィールド(Video Field)には、伝送データの種類に応じて、3種類の区間が存在する。この3種類の区間は、ビデオデータ区間(Video Data period)、データアイランド区間(Data Islandperiod)、およびコントロール区間(Control period)である。
ここで、ビデオフィールド区間は、ある垂直同期信号の立ち上がりエッジ(active edge)から次の垂直同期信号の立ち上がりエッジまでの区間である。このビデオフィールド区間は、水平ブランキング期間(horizontal blanking)、垂直ブランキング期間(verticalblanking)、並びに、アクティブビデオ区間(Active Video)に分けられる。このアクティブビデオ区間は、ビデオフィールド区間から、水平ブランキング期間および垂直ブランキング期間を除いた区間である
ビデオデータ区間は、アクティブビデオ区間に割り当てられる。このビデオデータ区間では、非圧縮の1画面分の画像データを構成する1920ピクセル(画素)×1080ライン分の有効画素(Active pixel)のデータが伝送される。
データアイランド区間およびコントロール区間は、水平ブランキング期間および垂直ブランキング期間に割り当てられる。このデータアイランド区間およびコントロール区間では、補助データ(Auxiliary data)が伝送される。すなわち、データアイランド区間は、水平ブランキング期間と垂直ブランキング期間の一部分に割り当てられている。このデータアイランド区間では、補助データのうち、制御に関係しないデータである、例えば、音声データのパケット等が伝送される。
コントロール区間は、水平ブランキング期間と垂直ブランキング期間の他の部分に割り当てられている。このコントロール区間では、補助データのうちの、制御に関係するデータである、例えば、垂直同期信号および水平同期信号、制御パケット等が伝送される。
図90は、HDMI端子のピン配列の一例を示している。図90に示すピン配列はタイプA(type-A)と呼ばれている。TMDSチャネル#iの差動信号であるTMDS Data#i+とTMDS Data#i−は差動線である2本のラインにより伝送される。この2本のラインは、TMDS Data#i+が割り当てられているピン(ピン番号が1,4,7のピン)と、TMDS Data#i−が割り当てられているピン(ピン番号が3,6,9のピン)に接続される。
また、制御用のデータであるCEC信号が伝送されるCECライン84は、ピン番号が13であるピンに接続される。また、E−EDID等のSDA(Serial Data)信号が伝送されるラインは、ピン番号が16であるピンに接続される。SDA信号の送受信時の同期に用いられるクロック信号であるSCL(Serial Clock)信号が伝送されるラインは、ピン番号が15であるピンに接続される。上述のDDC83は、SDA信号が伝送されるラインおよびSCL信号が伝送されるラインにより構成される。
また、上述したようにソース機器がシンク機器の接続を検出するためのHPDライン(HEAC−ライン)86は、ピン番号が19であるピンに接続される。また、ユーティリティライン(HEAC+ライン)88は、ピン番号が14であるピンに接続される。また、上述したように電源を供給するためのライン87は、ピン番号が18であるピンに接続される。
[E−EDID構造]
上述したように、HDMI送信部206は、例えば、CPU211(図71参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E−EDIDを、DDC83を介して読み出す。そして、CPU211は、このE−EDIDに基づき、HDMI受信部303の性能の設定、例えば立体画像データの取り扱いが可能か否か等を認識する。
上述したように、HDMI送信部206は、例えば、CPU211(図71参照)からの要求に応じて、HDMIケーブル400を介して接続されているHDMI受信部303から、E−EDIDを、DDC83を介して読み出す。そして、CPU211は、このE−EDIDに基づき、HDMI受信部303の性能の設定、例えば立体画像データの取り扱いが可能か否か等を認識する。
図91は、E−EDIDのデータ構造例を示している。このE−EDIDは、基本ブロックと拡張ブロックとからなっている。基本ブロックには、先頭に、“E-EDID1.3 Basic Structure”で表されるE−EDID1.3の規格で定められたデータが配置されている。基本ブロックには、続いて“Preferred timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。また、基本ブロックには、続いて、“2nd timing”で表される従来のEDIDとの互換性を保つための、“Preferredtiming”とは異なるタイミング情報が配置されている。
また、基本ブロックには、“2nd timing”に続いて、“Monitor NAME”で表される表示装置の名前を示す情報が配置されている。基本ブロックには、続いて、“Monitor Range Limits”で表される、アスペクト比が4:3および16:9である場合についての表示可能な画素数を示す情報が配置されている。
拡張ブロックの先頭には、“Short Video Descriptor”が配置されている。これは、表示可能な画像サイズ(解像度)、フレームレート、インターレースであるかプログレッシブであるかを示す情報である。続いて、“Short Audio Descriptor”が配置されている。これは、再生可能な音声コーデック方式、サンプリング周波数、カットオフ帯域、コーデックビット数などの情報である。続いて、“Speaker Allocation”で表される左右のスピーカに関する情報が配置されている。
また、拡張ブロックには、“Speaker Allocation”に続いて、“Vender Specific”で表されるメーカごとに固有に定義されたデータが配置されている。拡張ブロックには、続いて、“3rd timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。拡張ブロックには、さらに続いて、“4th timing”で表される従来のEDIDとの互換性を保つためのタイミング情報が配置されている。
図92は、Vender Specific領域(HDMI Vendor Specific DataBlock)のデータ構造例を示している。このVender Specific領域には、1バイトのブロックである第0ブロック乃至第Nブロックが設けられている。
第0ブロックには、“Vendor-Specific tag code(=3)”で表されるデータ“VenderSpecific”のデータ領域を示すヘッダが配置される。また、この第0ブロックには、“Length(=N)”で表されるデータ“Vender Specific”の長さを示す情報が配置される。また、第1ブロック乃至第3ブロックには、“24bit IEEE Registration Identifier(0x000C03)LSB first”で表されるHDMI(R)用として登録された番号“0x000C03“を示す情報が配置される。さらに、第4ブロックおよび第5ブロックには、”A“、”B“、”C“、および”D“のそれぞれにより表される、24bitのシンク機器の物理アドレスを示す情報が配置される。
第6ブロックには、“Supports-AI”で表される、シンク機器が対応している機能を示すフラグが配置されている。また、この第6ブロックには、“DC-48bit”、“DC-36bit”、および“DC-30bit”のそれぞれで表される、1ピクセル当たりのビット数を指定する情報のそれぞれが配置されている。また、この第6ブロックには、“DC-Y444”で表される、シンク機器がYCbCr4:4:4の画像の伝送に対応しているかを示すフラグが配置されている。さらに、この第6ブロックには、“DVI-Dual”で表される、シンク機器がデュアルDVI(Digital VisualInterface)に対応しているかを示すフラグが配置されている。
また、第7ブロックには、“Max-TMDS-Clock”で表されるTMDSのピクセルクロックの最大の周波数を示す情報が配置される。また、第8ブロックの第6ビット、第7ビットには、“Latency”で表される映像と音声の遅延情報の有無を示すフラグが配置されている。また、第8ブロックの第5ビットには、“HDMI_Video_present”で表される追加のHDMIビデオフォーマット(3D、4k×2k)の取り扱いが可能か否かを示すフラグが配置されている。
また、第9ブロックには、“Video Latency”で表される、プログレッシブの映像の遅延時間データが配置され、第10ブロックには、“Audio Latency”で表される、プログレッシブの映像に付随する音声の遅延時間データが配置される。また、第11ブロックには、“Interlaced Video Latency”で表されるインターレースの映像の遅延時間データが配置されている。さらに、第12ブロックには、“Interlaced Audio Latency”で表される、インターレースの映像に付随する音声の遅延時間データが配置されている。
また、第13ブロックの第7ビットには、“3D_present”で表される3D画像データの取り扱いが可能か否かを示すフラグが配置されている。また、第14ブロックの第7ビットから第5ビットには、“HDMI_VIC_LEN”で表される、図示しない第15ブロック以降に配置される必須(mandatory)な3Dデータ構造の他に取り扱い可能なデータ構造を示すブロックのサイズ情報が配置されている。また、第14ブロックの第4ビットから第0ビットには、“HDMI_3D_LEN”で表される、図示しない第15ブロック以降に配置される取り扱い可能な4k×2kのビデオフォーマットを示すブロックのサイズ情報が配置されている。
[立体画像データのTMDS伝送データ構造]
図93は、立体画像データのTMDS伝送データ構造の一つであるフレームパッキング(Frame packing)方式の3Dビデオフォーマット(3D Video Format)を示している。この3Dビデオフォーマットは、立体画像データとして、プログレッシブ方式の左眼(L)および右眼(R)の画像データを伝送するためのフォーマットである。
図93は、立体画像データのTMDS伝送データ構造の一つであるフレームパッキング(Frame packing)方式の3Dビデオフォーマット(3D Video Format)を示している。この3Dビデオフォーマットは、立体画像データとして、プログレッシブ方式の左眼(L)および右眼(R)の画像データを伝送するためのフォーマットである。
この3Dビデオフォーマットでは、左眼(L)および右眼(R)の画像データとして、1920×1080p、1080×720pのピクセルフォーマットの画像データの伝送が行われる。なお、図93には、左眼(L)画像データおよび右眼(R)画像データが、それぞれ、1920ライン×1080ピクセルである例を示している。
この3Dビデオフォーマットにより、垂直同期信号により区切られる、水平ブランキング期間(Hblank)、垂直ブランキング期間(Vblank)およびアクティブビデオ区間(Hactive×Vactive)を含むビデオフィールド区間を単位とする伝送データが生成される。この3Dビデオフォーマットにおいて、アクティブビデオ区間は、2つのアクティブビデオ領域(Active video)と、それらの間に1つのアクティブスペース領域(Activespace)を有している。第1のアクティブビデオ領域に左眼(L)画像データが配され、第2のアクティブビデオ領域に右眼(R)画像データが配される。
図94は、立体画像データのTMDS伝送データ構造の一つであるラインオルタネイティブ(Line alternative)方式の3Dビデオフォーマット(3D VideoFormat)を示している。この3Dビデオフォーマットは、立体画像データとして、プログレッシブ方式の左眼(L)および右眼(R)の画像データを伝送するためのフォーマットである。この3Dビデオフォーマットでは、左眼(L)および右眼(R)の画像データとして、1920×1080pのピクセルフォーマットの画像データの伝送が行われる。
この3Dビデオフォーマットにより、垂直同期信号により区切られる、水平ブランキング期間(Hblank)、垂直ブランキング期間(2×Vblank)およびアクティブビデオ区間((Hactive×2Vactive)を含むビデオフィールド区間を単位とする伝送データが生成される。この3Dビデオフォーマットにおいて、アクティブビデオ区間には、左眼画像データの1ライン分と右眼画像データの1ライン分とが交互に配置される。
図95は、立体画像データのTMDS伝送データ構造の一つであるサイド・バイ・サイド(side-bay-side)(Full)方式の3Dビデオフォーマット(3D VideoFormat)を示している。この3Dビデオフォーマットは、立体画像データとして、プログレッシブ方式の左眼(L)および右眼(R)の画像データを伝送するためのフォーマットである。この3Dビデオフォーマットでは、左眼(L)および右眼(R)の画像データとして、1920×1080pのピクセルフォーマットの画像データの伝送が行われる。
この3Dビデオフォーマットにより、垂直同期信号により区切られる、水平ブランキング期間(2×Hblank)、垂直ブランキング期間(Vblank)およびアクティブビデオ区間((2Hactive×Vactive)を含むビデオフィールド区間を単位とする伝送データが生成される。この3Dビデオフォーマットにおいて、アクティブビデオ区間には、水平方向の前半に左眼(L)画像データが配され、水平方向の後半に右眼(R)画像データが配される。
なお、詳細説明は省略するが、HDMI1.4では、上述の図93〜図95に示す3Dビデオフォーマットの他にも、立体画像データのTMDS伝送データ構造としての3Dビデオフォーマットが定義されている。例えば、フレームパッキング(Frame packing for interlaced format)方式、フィールドオルタネイティブ(Field alternative)方式、サイド・バイ・サイド(side-bay-side)(Half)方式等である。
上述したように、図1に示す立体画像表示システム10においては、左眼画像および右眼画像の一方に対する他方の視差情報に基づいて、左眼画像および右眼画像に重畳する同一の重畳情報(クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報など)に視差が付与される。そのため、左眼画像および右眼画像に重畳される同一の重畳情報として、画像内の各物体(オブジェクト)の遠近感に応じて視差調整が施されたものを用いることができ、重畳情報の表示において、画像内の各物体との間の遠近感の整合性を維持することが可能となる。
<2.変形例>
なお、上述実施の形態おいては、1つのコンポーネント・エレメントIDに複数の視差ベクトルを関連付けるために、DHI(図54、図55)内に「number_of_mutiple_link」の情報を配置している。この「number_of_mutiple_link」により、コンポーネント・エレメントIDと関連付けされる視差ベクトルの個数が予め指定される。しかし、例えば、パーティション・ポジションID(Partition_position_id)に、コネクト・フラグ(Connect_flag)を付加して、1つのコンポーネント・エレメントIDに複数の視差ベクトルを関連付けする方法も考えられる。
なお、上述実施の形態おいては、1つのコンポーネント・エレメントIDに複数の視差ベクトルを関連付けるために、DHI(図54、図55)内に「number_of_mutiple_link」の情報を配置している。この「number_of_mutiple_link」により、コンポーネント・エレメントIDと関連付けされる視差ベクトルの個数が予め指定される。しかし、例えば、パーティション・ポジションID(Partition_position_id)に、コネクト・フラグ(Connect_flag)を付加して、1つのコンポーネント・エレメントIDに複数の視差ベクトルを関連付けする方法も考えられる。
図96は、コンポーネント・エレメントIDに、視差ベクトルを関連付けする方法の一例を示している。ここで、クローズド・キャプション情報のコンポーネント・エレメントIDは、ウインドウID(window_id)である。また、サブタイトル情報のコンポーネント・エレメントIDは、リージョンID(region_id)である。コンポーネント・エレメントIDに視差ベクトルを関連付けするために、コンポーネント・エレメントIDに対して、視差ベクトルが属する画面領域を示す、例えば最大13ビットのパーティション・ポジションIDが対応付けされる。
このパーティション・ポジションIDには、1ビットのコネクト・フラグ(Connect_flag)が付加されている。1つのコンポーネント・エレメントIDに1つの視差ベクトルを関連付けする場合、図96に示すように、このコンポーネント・エレメントIDに、1つのパーティション・ポジションIDが対応付けされる。この場合、この1つのパーティション・ポジションIDに付加されているコネクト・フラグは「0」とされ、この後に、対応付けされているパーティション・ポジションIDはないことが示される。
また、1つのコンポーネント・エレメントIDに2つの視差ベクトルを関連付けする場合、図96に示すように、このコンポーネント・エレメントIDに、2つのパーティション・ポジションIDが対応付けされる。この場合、1番目のパーティション・ポジションIDに付加されているコネクト・フラグは「1」とされ、この後に、対応付けされているパーティション・ポジションIDがさらにあることが示される。そして、2番目のパーティション・ポジションIDに付加されているコネクト・フラグは「0」とされ、この後に、対応付けされているパーティション・ポジションIDはないことが示される。
なお、図96には示していないが、1つのコンポーネント・エレメントIDに3つ以上の視差ベクトルを関連付けする場合は、上述した1つのコンポーネント・エレメントIDに2つの視差ベクトルを関連付けする場合と同様である。最後の1つ前までのパーティション・ポジションIDに付加されているコネクト・フラグは「1」とされ、最後のパーティション・ポジションIDに付加されているコネクト・フラグのみが「0」とされる。」
また、上述実施の形態においては、立体画像表示システム10が、放送局100、セットトップボックス200およびテレビ受信機300で構成されているものを示した。しかし、テレビ受信機300は、図86に示すように、セットトップボックス200内のビットストリーム処理部201と同等に機能するビットストリーム処理部201を備えている。したがって、図97に示すように、放送局100およびテレビ受信機300で構成される立体画像表示システム10Aも考えられる。
また、上述実施の形態においては、立体画像データを含むデータストリーム(ビットストリームデータ)が放送局100から放送される例を示した。しかし、この発明は、このデータストリームがインターネット等のネットワークを利用して受信端末に配信される構成のシステムにも同様に適用できることは勿論である。
また、上述実施の形態においては、セットトップボックス200と、テレビ受信機300とが、HDMIのデジタルインタフェースで接続されるものを示している。しかし、これらが、HDMIのデジタルインタフェースと同様のデジタルインタフェース(有線の他に無線も含む)で接続される場合においても、この発明を適用できることは勿論である。
この発明は、クローズド・キャプション情報、サブタイトル情報、グラフィクス情報、テキスト情報等の重畳情報を画像に重畳して表示する立体画像表示システム等に適用できる。
10,10A・・・立体画像表示システム、100・・・放送局、110,110A〜110E・・・送信データ生成部、111L,111R・・・カメラ、112・・・ビデオフレーミング部、113・・・ビデオエンコーダ、113a・・・ストリームフォーマッタ、114・・・視差ベクトル検出部、115・・・視差ベクトルエンコーダ、116・・・マイクロホン、117・・・オーディオエンコーダ、118・・・サブタイトル・グラフィクス発生部、119・・・サブタイトル・グラフィクスエンコーダ、119a・・・ストリームフォーマッタ、120・・・テキスト発生部、121・・・テキストエンコーダ、122・・・マルチプレクサ、124・・・サブタイトル・グラフィクス処理部、125・・・テキスト処理部、130・・・データ取り出し部、130a・・・データ記録媒体、131・・・視差情報セット作成部、200,200A・・・セットトップボックス、201,201A,201B,201C,201D・・・ビットストリーム処理部、202・・・HDMI端子、203・・・アンテナ端子、204・・・デジタルチューナ、205・・・映像信号処理回路、205A・・・映像・グラフィック処理部、206・・・HDMI送信部、207・・・音声信号処理回路、211・・・CPU、212・・・フラッシュROM、213・・・DRAM、214・・・内部バス、215・・・リモコン受信部、216・・・リモコン送信機、220,220A・・・デマルチプレクサ、221・・・ビデオデコーダ、222・・・サブタイトル・グラフィクスデコーダ、222A・・・223・・・テキストデコーダ、224・・・オーディオデコーダ、225・・・サブタイトルデコーダ、視差ベクトルデコーダ、226・・・立体画像用サブタイトル・グラフィクス発生部、226A・・・立体画像用サブタイトル発生部、227・・・立体画像用テキスト発生部、228・・・ビデオ重畳部、229・・・マルチチャネルスピーカコントロール部、231・・・視差ベクトル抽出部、232・・・視差ベクトル取り出し部、300・・・テレビ受信機、301・・・3D信号処理部、302・・・HDMI端子、303・・・HDMI受信部、304・・・アンテナ端子、305・・・デジタルチューナ、306・・・ビットストリーム処理部、307・・・映像・グラフィック処理回路、308・・・パネル駆動回路、309・・・表示パネル、310・・・音声信号処理回路、311・・・音声増幅回路、312・・・スピーカ、321・・・CPU、322・・・フラッシュROM、323・・・DRAM、324・・・内部バス、325・・・リモコン受信部、326・・・リモコン送信機、400・・・HDMIケーブル
Claims (15)
- 所定組の視差情報セットを作成する視差情報作成部と、
左眼画像データおよび右眼画像データを含む立体画像データと共に、上記視差情報作成部で作成された上記所定組の視差情報セットを送信するデータ送信部とを備え、
上記各組の視差情報セットには、それぞれ、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報が含まれ、
上記各組の視差情報セットには、それぞれ、該視差情報セットに含まれる視差情報を使用すべき上記重畳情報の種類を示す識別情報が付加されている
立体画像データ送信装置。 - 上記視差情報セットには、
上記識別情報が示す種類の上記重畳情報を表示すべき領域と、該領域に表示される上記重畳情報に視差を付与するために使用する視差情報との対応関係を示すテーブル情報が付加されている
請求項1に記載の立体画像データ送信装置。 - 上記視差情報セットには、
上記所定数の視差情報が属する画面領域を示す情報が付加されている
請求項1に記載の立体画像データ送信装置。 - 上記画面領域を示す情報は、画面の分割数を示す情報である
請求項3に記載の立体画像データ送信装置。 - 上記画面領域を示す情報は、領域の大きさを示す情報である
請求項3に記載の立体画像データ送信装置。 - 上記視差情報作成部で作成される上記各組の視差情報セットは、上記画像データの所定単位毎の視差情報セットであり、
上記データ送信部は、上記画像データを一定期間毎に区切り、各一定期間の画像データに対応した上記所定単位毎の視差情報セットを、該各一定期間の画像データの送信に先立って送信し、
各一定期間の画像データに対応した上記所定単位毎の視差情報セットには、該視差情報セットを用いるタイミングを示す時間情報が付加されている
請求項1に記載の立体画像データ送信装置。 - 上記データ送信部は、
上記視差情報セット作成部で作成された上記各組の視差情報セットを、上記立体画像データのデータストリームにおけるヘッダ部内のユーザデータ領域に含めて送信する
請求項1に記載の立体画像データ送信装置。 - 所定組の視差情報セットを作成する視差情報作成ステップと、
左眼画像データおよび右眼画像データを含む立体画像データと共に、上記視差情報作成ステップで作成された上記所定組の視差情報セットを送信するデータ送信ステップとを備え、
上記各組の視差情報セットには、それぞれ、上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報が含まれ、
上記各組の視差情報セットには、それぞれ、該視差情報セットに含まれる視差情報を使用する上記重畳情報の種類を示す識別情報が付加されている
立体画像データ送信方法。 - 左眼画像データおよび右眼画像データを含む立体画像データと、それぞれ上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報を含むと共に、上記視差情報を使用する上記重畳情報の種類を示す識別情報が付加されている、所定組の視差情報セットを受信するデータ受信部と、
上記データ受信部で受信された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に、上記データ受信部で受信された上記所定組の視差情報セットの中から、上記識別情報に基づき、該重畳情報の種類に対応した視差情報セットに含まれる視差情報を用いて視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理部と
を備える立体画像データ受信装置。 - 上記視差情報セットには、
上記識別情報が示す種類の上記重畳情報を表示すべき領域と、該領域に表示される上記重畳情報に視差を付与するために使用する視差情報との対応関係を示すテーブル情報が付加されている
請求項9に記載の立体画像データ受信装置。 - 上記視差情報セットには、
上記所定数の視差情報が属する画面領域を示す情報が付加されている
請求項9に記載の立体画像データ受信装置。 - 上記画面領域を示す情報は、画面の分割数を示す情報である
請求項11に記載の立体画像データ送信装置。 - 上記画面領域を示す情報は、領域の大きさを示す情報である
請求項11に記載の立体画像データ送信装置。 - 上記データ受信部で受信される上記視差情報セットは、上記画像データの所定単位毎の視差情報セットであり、
上記データ受信部は、上記画像データを一定期間毎に区切り、各一定期間の画像データに対応した上記所定単位毎の視差情報セットを、該各一定期間の画像データの送信に先立って受信し、
各一定期間の画像データに対応した上記所定単位毎の視差情報セットには、該視差情報セットを用いるタイミングを示す時間情報が付加されており、
上記データ処理部は、上記重畳情報の重畳期間において、上記画像データの所定単位毎に、上記重畳情報に、対応する視差情報セットに含まれる視差情報による視差を付与する
請求項9に記載の立体画像データ受信装置。 - 左眼画像データおよび右眼画像データを含む立体画像データと、それぞれ上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に視差を付与するための所定数の画面領域に属する視差情報を含むと共に、上記視差情報を使用する上記重畳情報の種類を示す識別情報が付加されている、所定組の視差情報セットを受信するデータ受信ステップと、
上記データ受信ステップで受信された上記立体画像データに含まれる上記左眼画像データおよび上記右眼画像データによる画像に重畳する重畳情報に、上記データ受信ステップで受信された上記所定組の視差情報セットの中から、上記識別情報に基づき、該重畳情報の種類に対応した視差情報セットに含まれる視差情報を用いて視差を付与し、上記重畳情報が重畳された左眼画像のデータおよび上記重畳情報が重畳された右眼画像のデータを得る画像データ処理ステップと
を備える立体画像データ受信方法。
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010036720A JP5402715B2 (ja) | 2009-06-29 | 2010-02-22 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
TW99119279A TW201130286A (en) | 2009-06-29 | 2010-06-14 | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method |
KR20117003581A KR20120111909A (ko) | 2009-06-29 | 2010-06-22 | 입체화상 데이터 송신 장치, 입체화상 데이터 송신 방법, 입체화상 데이터 수신 장치 및 입체화상 데이터 수신 방법 |
PCT/JP2010/060588 WO2011001860A1 (ja) | 2009-06-29 | 2010-06-22 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
EP10794030A EP2451173A4 (en) | 2009-06-29 | 2010-06-22 | STEREOSCOPIC IMAGE DATA TRANSMITTER, STEREOSCOPIC IMAGE DATA TRANSMISSION METHOD, STEREOSCOPIC IMAGE DATA RECEIVER AND METHOD FOR RECEIVING STEREOSCOPIC IMAGE DATA |
US12/737,779 US8848036B2 (en) | 2009-06-29 | 2010-06-22 | Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device and stereoscopic image data reception method |
CN201080002869.XA CN102177724B (zh) | 2009-06-29 | 2010-06-22 | 立体图像数据传输装置、立体图像数据发送方法、立体图像数据接收装置和立体图像数据接收方法 |
BRPI1004289A BRPI1004289A2 (pt) | 2009-06-29 | 2010-06-22 | dispositivos e métodos de transmissão e de recepção de dados de imagem estereoscópica |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009153686 | 2009-06-29 | ||
JP2009153686 | 2009-06-29 | ||
JP2010036720A JP5402715B2 (ja) | 2009-06-29 | 2010-02-22 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011030186A JP2011030186A (ja) | 2011-02-10 |
JP5402715B2 true JP5402715B2 (ja) | 2014-01-29 |
Family
ID=43410937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010036720A Expired - Fee Related JP5402715B2 (ja) | 2009-06-29 | 2010-02-22 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US8848036B2 (ja) |
EP (1) | EP2451173A4 (ja) |
JP (1) | JP5402715B2 (ja) |
KR (1) | KR20120111909A (ja) |
CN (1) | CN102177724B (ja) |
BR (1) | BRPI1004289A2 (ja) |
TW (1) | TW201130286A (ja) |
WO (1) | WO2011001860A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5407957B2 (ja) * | 2009-06-29 | 2014-02-05 | ソニー株式会社 | 立体画像データ送信装置および立体画像データ受信装置 |
TW201116041A (en) * | 2009-06-29 | 2011-05-01 | Sony Corp | Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception |
JP5402715B2 (ja) * | 2009-06-29 | 2014-01-29 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
WO2011115142A1 (ja) * | 2010-03-19 | 2011-09-22 | Okiセミコンダクタ株式会社 | 画像処理装置、方法、プログラム及び記録媒体 |
KR20120004203A (ko) * | 2010-07-06 | 2012-01-12 | 삼성전자주식회사 | 디스플레이 방법 및 장치 |
EP2991347B1 (en) * | 2010-07-15 | 2019-10-23 | GE Video Compression, LLC | Hybrid video coding supporting intermediate view synthesis |
KR101723235B1 (ko) * | 2010-10-04 | 2017-04-04 | 삼성전자주식회사 | 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법 |
JP5049416B2 (ja) * | 2011-01-17 | 2012-10-17 | パナソニック株式会社 | 画像ファイル生成装置、画像ファイル再生装置及び画像ファイル生成方法 |
WO2012121567A2 (ko) * | 2011-03-10 | 2012-09-13 | 한국전자통신연구원 | 실시간 방송 프로그램의 기준 영상과 부가 영상간의 동기화 방법 및 장치 |
KR20120108639A (ko) * | 2011-03-25 | 2012-10-05 | 삼성디스플레이 주식회사 | 셔터 안경 제어 방법 및 이를 수행하기 위한 표시 시스템 |
US9013631B2 (en) * | 2011-06-22 | 2015-04-21 | Google Technology Holdings LLC | Method and apparatus for processing and displaying multiple captions superimposed on video images |
WO2013046281A1 (ja) | 2011-09-30 | 2013-04-04 | パナソニック株式会社 | 映像処理装置及び映像処理方法 |
CN103988518B (zh) * | 2011-11-25 | 2018-05-15 | 日立麦克赛尔株式会社 | 图像传输装置 |
US20140078248A1 (en) * | 2012-01-13 | 2014-03-20 | Sony Corporation | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method |
CN103959769B (zh) | 2012-02-02 | 2016-12-14 | 太阳专利托管公司 | 用于使用视差信息的3d媒体数据产生、编码、解码和显示的方法和装置 |
BR112013026086A2 (pt) * | 2012-02-16 | 2020-08-11 | Sony Corporation | aparelho de transmissão, método de transmissão e aparelho de recepção |
KR101998892B1 (ko) | 2012-03-01 | 2019-07-10 | 소니 주식회사 | 송신 장치, 송신 방법 및 수신 장치 |
WO2014101150A1 (en) * | 2012-12-29 | 2014-07-03 | Thomson Licensing | Method and apparatus for viewing an image |
CN103634597B (zh) * | 2013-11-15 | 2015-09-30 | 四川长虹电器股份有限公司 | 一种在4k2k电视机上解码图片的方法 |
KR102111436B1 (ko) * | 2014-01-06 | 2020-05-18 | 에스케이 텔레콤주식회사 | 다중 영상의 단일 비트 스트림 생성방법 및 생성장치 |
CN107078158B (zh) | 2014-11-06 | 2020-08-28 | 三菱电机株式会社 | 碳化硅半导体装置及其制造方法 |
US9948913B2 (en) | 2014-12-24 | 2018-04-17 | Samsung Electronics Co., Ltd. | Image processing method and apparatus for processing an image pair |
CN106385577A (zh) * | 2016-09-27 | 2017-02-08 | 北京小鸟看看科技有限公司 | 一种在恢复模式下的分屏显示方法、装置及虚拟现实设备 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11289555A (ja) * | 1998-04-02 | 1999-10-19 | Toshiba Corp | 立体映像表示装置 |
CN100339875C (zh) | 2002-08-27 | 2007-09-26 | 夏普株式会社 | 可用最佳的重放模式重放内容的内容重放装置和内容识别方法 |
JP2004274125A (ja) * | 2003-03-05 | 2004-09-30 | Sony Corp | 画像処理装置および方法 |
JP4190357B2 (ja) * | 2003-06-12 | 2008-12-03 | シャープ株式会社 | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
JP4535954B2 (ja) | 2005-04-18 | 2010-09-01 | 日本電信電話株式会社 | 2眼式立体表示装置およびプログラム |
ATE416443T1 (de) * | 2005-04-19 | 2008-12-15 | Koninkl Philips Electronics Nv | Tiefenwahrnehmung |
JP2006325165A (ja) | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | テロップ発生装置、テロップ発生プログラム、及びテロップ発生方法 |
US20090284584A1 (en) | 2006-04-07 | 2009-11-19 | Sharp Kabushiki Kaisha | Image processing device |
WO2008044191A2 (en) * | 2006-10-11 | 2008-04-17 | Koninklijke Philips Electronics N.V. | Creating three dimensional graphics data |
JP2008164367A (ja) | 2006-12-27 | 2008-07-17 | Matsushita Electric Ind Co Ltd | 固体撮像装置、カメラ、車両及び監視装置 |
JP4942106B2 (ja) | 2007-06-27 | 2012-05-30 | 独立行政法人情報通信研究機構 | 奥行データ出力装置及び奥行データ受信装置 |
JP2009017198A (ja) | 2007-07-04 | 2009-01-22 | Panasonic Corp | データ処理装置およびデータ処理方法 |
SE531899C2 (sv) | 2007-07-10 | 2009-09-01 | Agency 9 Ab | System för grafikhantering |
JP2009101822A (ja) | 2007-10-23 | 2009-05-14 | Mazda Motor Corp | 車両の追従走行制御装置 |
JP2009135686A (ja) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置 |
JP2009153686A (ja) | 2007-12-26 | 2009-07-16 | Lion Corp | 床用清掃シート |
RU2546546C2 (ru) * | 2008-12-01 | 2015-04-10 | Аймакс Корпорейшн | Способы и системы для представления трехмерных изображений движения с адаптивной к содержимому информацией |
WO2010095074A1 (en) * | 2009-02-17 | 2010-08-26 | Koninklijke Philips Electronics N.V. | Combining 3d image and graphical data |
JP5402715B2 (ja) * | 2009-06-29 | 2014-01-29 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP2011216937A (ja) * | 2010-03-31 | 2011-10-27 | Hitachi Consumer Electronics Co Ltd | 立体画像表示装置 |
-
2010
- 2010-02-22 JP JP2010036720A patent/JP5402715B2/ja not_active Expired - Fee Related
- 2010-06-14 TW TW99119279A patent/TW201130286A/zh unknown
- 2010-06-22 CN CN201080002869.XA patent/CN102177724B/zh not_active Expired - Fee Related
- 2010-06-22 US US12/737,779 patent/US8848036B2/en not_active Expired - Fee Related
- 2010-06-22 KR KR20117003581A patent/KR20120111909A/ko not_active Application Discontinuation
- 2010-06-22 EP EP10794030A patent/EP2451173A4/en not_active Withdrawn
- 2010-06-22 BR BRPI1004289A patent/BRPI1004289A2/pt not_active IP Right Cessation
- 2010-06-22 WO PCT/JP2010/060588 patent/WO2011001860A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
KR20120111909A (ko) | 2012-10-11 |
US8848036B2 (en) | 2014-09-30 |
CN102177724B (zh) | 2014-07-16 |
TW201130286A (en) | 2011-09-01 |
BRPI1004289A2 (pt) | 2016-03-15 |
WO2011001860A1 (ja) | 2011-01-06 |
EP2451173A4 (en) | 2013-01-02 |
EP2451173A1 (en) | 2012-05-09 |
CN102177724A (zh) | 2011-09-07 |
US20110134213A1 (en) | 2011-06-09 |
JP2011030186A (ja) | 2011-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5402715B2 (ja) | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 | |
JP5407957B2 (ja) | 立体画像データ送信装置および立体画像データ受信装置 | |
JP5407968B2 (ja) | 立体画像データ送信装置および立体画像データ受信装置 | |
JP5446913B2 (ja) | 立体画像データ送信装置および立体画像データ送信方法 | |
JP5531972B2 (ja) | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 | |
TWI452892B (zh) | Image data transmission device, control method and program | |
JP5521486B2 (ja) | 立体画像データ送信装置および立体画像データ送信方法 | |
TWI437873B (zh) | Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data receiving device and three-dimensional image data receiving method | |
WO2011001854A1 (ja) | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 | |
JP2011166757A (ja) | 送信装置、送信方法および受信装置 | |
JP2011010255A (ja) | 立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 | |
JP2013176141A (ja) | 立体画像データ受信装置および立体画像データ受信方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130128 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131001 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131014 |
|
LAPS | Cancellation because of no payment of annual fees |