JP5025768B2 - Electronic apparatus and image processing method - Google Patents
Electronic apparatus and image processing method Download PDFInfo
- Publication number
- JP5025768B2 JP5025768B2 JP2010160976A JP2010160976A JP5025768B2 JP 5025768 B2 JP5025768 B2 JP 5025768B2 JP 2010160976 A JP2010160976 A JP 2010160976A JP 2010160976 A JP2010160976 A JP 2010160976A JP 5025768 B2 JP5025768 B2 JP 5025768B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- image data
- depth position
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000006243 chemical reaction Methods 0.000 description 46
- 238000000034 method Methods 0.000 description 32
- 239000000203 mixture Substances 0.000 description 20
- 238000013075 data extraction Methods 0.000 description 13
- 230000015572 biosynthetic process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000003786 synthesis reaction Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 239000011521 glass Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Description
本発明の実施形態は、三次元映像コンテンツを再生する電子機器及び該機器に適用される画像処理方法に関する。 Embodiments described herein relate generally to an electronic device that plays back 3D video content and an image processing method applied to the device.
従来から、三次元映像を観賞可能にする様々な映像表示装置が提供されている。このような映像表示装置では、例えば、両眼視差に基づく左眼用映像と右眼用映像とを用いて、ユーザに三次元映像(立体映像)を知覚させる。 2. Description of the Related Art Conventionally, various video display devices that allow 3D video to be viewed have been provided. In such a video display device, for example, the user perceives a 3D video (stereoscopic video) using a video for the left eye and a video for the right eye based on binocular parallax.
一般に、放送やネットワークを介して受信される映像コンテンツのほとんどは、二次元映像を含む映像コンテンツデータである。そのような映像コンテンツデータを用いて三次元映像を視聴するために、二次元映像を三次元映像に変換する種々の技術が提案されている。 In general, most of video content received via broadcast or network is video content data including 2D video. In order to view 3D video using such video content data, various techniques for converting 2D video to 3D video have been proposed.
しかし、映像コンテンツデータには、地上デジタル放送信号に含まれるデータ放送信号のように、映像データ以外の追加データ、例えば静止画像やテキストのように三次元化に適さないデータも含まれている。したがって、二次元映像を三次元映像に変換する技術を用いて、静止画像やテキストに対して三次元化処理を施しても、その静止画像やテキストに適切な立体感を持たせることは困難である。そのため、映像データと、映像データ以外の追加データ(静止画像やテキスト)とに三次元化処理を施して生成された三次元映像では、ユーザは、例えば、映像が立体化された領域に、静止画像やテキストが立体化された領域がめり込むような違和感を覚える可能性がある。 However, the video content data includes additional data other than the video data, such as a data broadcast signal included in the terrestrial digital broadcast signal, for example, data that is not suitable for three-dimensionalization such as a still image or text. Therefore, even if 3D processing is performed on a still image or text using a technology that converts 2D video to 3D video, it is difficult to give the still image or text an appropriate stereoscopic effect. is there. Therefore, in 3D video generated by performing 3D processing on video data and additional data other than video data (still images and text), the user can, for example, There is a possibility that a sense of incongruity may be felt as if a three-dimensional area of an image or text is embedded.
本発明は、ビデオデータとビデオデータ以外のデータとを適切な三次元映像として表示することができる電子機器及び画像処理方法を提供することを目的とする。 An object of the present invention is to provide an electronic device and an image processing method capable of displaying video data and data other than video data as appropriate three-dimensional images.
実施形態によれば、電子機器は、ビデオデータと副画像データとを含むコンテンツデータを再生する電子機器であって、第1生成手段、配置制御手段、第2生成手段、及び表示制御手段を具備する。第1生成手段は、前記ビデオデータの画像フレームに含まれる複数の画素に関連する複数の奥行き位置を推定し、前記推定された複数の画素に関連する複数の奥行き位置に基づいた第1視差に関連し、且つ前記画像フレームに対応する第1の左眼用画像データと第1の右眼用画像データとを生成する。配置制御手段は、前記画像フレーム内の複数の画素に関連する複数の奥行き位置の内で最も手前の第1奥行き位置が、前記ディスプレイの画面に対応する第2奥行き位置よりも手前である場合、前記副画像が表示される奥行き位置を前記第2奥行き位置に設定し、前記第1奥行き位置が前記第2奥行き位置よりも手前でない場合、前記副画像が表示される奥行き位置を前記第1奥行き位置に設定する。第2生成手段は、前記設定された副画像が表示される奥行き位置に関連する第2視差に関連し、且つ前記副画像データに対応する第2の左眼用画像データと第2の右眼用画像データとを生成する。表示制御手段は、前記第1の左眼用画像データ、前記第1の右眼用画像データ、前記第2の左眼用画像データ、及び前記第2の右眼用画像データに基づいて生成された画像フレームをディスプレイの画面に表示する。 According to the embodiment, the electronic device is an electronic device that reproduces content data including video data and sub-image data, and includes first generation means, arrangement control means, second generation means, and display control means. To do. The first generation means estimates a plurality of depth positions related to a plurality of pixels included in an image frame of the video data, and calculates a first parallax based on the plurality of depth positions related to the estimated plurality of pixels. The first left-eye image data and the first right-eye image data corresponding to the image frame are generated. The arrangement control means, when a first depth position closest to the plurality of depth positions related to a plurality of pixels in the image frame is in front of a second depth position corresponding to the screen of the display, When the depth position at which the sub-image is displayed is set to the second depth position, and the first depth position is not in front of the second depth position, the depth position at which the sub-image is displayed is the first depth. Set to position . The second generation means relates to second left-eye image data and second right-eye related to the second parallax related to the depth position where the set sub-image is displayed and corresponding to the sub-image data. Image data. The display control means is generated based on the first left-eye image data, the first right-eye image data, the second left-eye image data, and the second right-eye image data. Display the selected image frame on the display screen.
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ1として実現される。図1に示すように、本コンピュータ1は、コンピュータ本体2と、ディスプレイユニット3とから構成される。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a perspective view illustrating an external appearance of an electronic apparatus according to an embodiment. This electronic apparatus is realized as, for example, a notebook type personal computer 1. As shown in FIG. 1, the computer 1 includes a computer
ディスプレイユニット3には、LCD(liquid crystal display)15が組み込まれている。ディスプレイユニット3は、コンピュータ本体2の上面が露出される開放位置とコンピュータ本体2の上面を覆う閉塞位置との間を回動自在にコンピュータ本体2に取り付けられている。
The
コンピュータ本体2は、薄い箱形の筐体を有しており、その上面には、キーボード26、本コンピュータ1を電源オン/電源オフするためのパワーボタン28、入力操作パネル29、タッチパッド27、スピーカ18A,18Bなどが配置されている。入力操作パネル29上には、各種操作ボタンが設けられている。これらボタン群には、TV機能(視聴、録画、録画された放送番組データ/ビデオデータの再生)を制御するための操作ボタン群も含まれている。また、コンピュータ本体2の正面には、本コンピュータ1のTV機能をリモート制御するリモコンユニットとの通信を実行するためのリモコンユニットインタフェース部30が設けられている。リモコンユニットインタフェース部30は、例えば赤外線信号受信部などから構成されている。
The computer
コンピュータ本体2の例えば右側面には、TV放送用のアンテナ端子32が設けられている。また、コンピュータ本体2の例えば背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子が設けられている。この外部ディスプレイ接続端子は、放送番組データのような映像コンテンツデータに含まれる映像データ(動画像データ)を外部ディスプレイに出力するために用いられる。
On the right side of the computer
図2は、本コンピュータ1のシステム構成を示す図である。
本コンピュータ1は、図2に示すように、CPU11、ノースブリッジ12、主メモリ13、表示コントローラ14、ビデオメモリ(VRAM)14A、LCD(Liquid Crystal Display)15、サウスブリッジ16、サウンドコントローラ17、スピーカ18A,18B、BIOS−ROM19、LANコントローラ20、ハードディスクドライブ(HDD)21、光ディスクドライブ(ODD)22、無線LANコントローラ23、USBコントローラ24、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)25、キーボード(KB)26、ポインティングデバイス27、リモコンユニットインタフェース部30、TVチューナ31等を備えている。
FIG. 2 is a diagram showing a system configuration of the computer 1.
As shown in FIG. 2, the computer 1 includes a CPU 11, a
CPU11は、本コンピュータ1の動作を制御するプロセッサである。CPU11は、HDD21から主メモリ13にロードされる、オペレーティングシステム(OS)13A、及び映像コンテンツ再生アプリケーションプログラム13B等のようなアプリケーションプログラムを実行する。映像コンテンツ再生アプリケーションプログラム13Bは、映像コンテンツデータを視聴するための機能を有するソフトウェアである。この映像コンテンツ再生アプリケーション13Bは、TVチューナ31によって受信された放送番組データを視聴するためのライブ再生処理、受信された放送番組データをHDD21に記録する録画処理、HDD21に記録された放送番組データ/ビデオデータを再生する再生処理、ネットワークを介して受信された映像コンテンツデータを再生する再生処理等を実行する。さらに、映像コンテンツ再生アプリケーション13Bは、三次元映像を視聴するための機能も有する。映像コンテンツ再生アプリケーション13Bは、映像コンテンツデータに含まれる二次元映像を三次元映像にリアルタイムで変換してLCD15の画面上に表示する。
The CPU 11 is a processor that controls the operation of the computer 1. The CPU 11 executes application programs such as an operating system (OS) 13A and a video content
三次元映像の表示には、例えば、シャッター方式(時分割方式とも云う)を用いてもよい。シャッター方式の三次元映像表示では、左眼用ビデオデータと右眼用ビデオデータとを含むステレオペア映像が用いられる。LCD15は、例えば、通常のリフレッシュレート(例えば60Hz)の2倍のリフレッシュレート(例えば120Hz)で駆動される。左眼用ビデオデータ内の左眼用フレームデータと右眼用ビデオデータ内の右眼用フレームデータは例えば120Hzのリフレッシュレートで交互にLCD15上に表示される。ユーザは、例えば、液晶シャッターメガネのような3Dグラス(図示せず)を用いることで、左眼用フレームに対応する画像を左眼で、右眼用フレームに対応する画像を右眼で見ることができる。3Dグラスは、左眼用フレームデータ及び右眼用フレームデータそれぞれの表示タイミングを示す同期信号をコンピュータ1から赤外線などを用いて受信するように構成してもよい。3Dグラス内の左眼用シャッター及び右眼用シャッターは、LCD15への左眼用及び右眼用フレームデータそれぞれの表示タイミングに同期して開閉される。
For example, a shutter method (also referred to as a time division method) may be used for displaying the 3D video. In shutter-
代わりに、三次元映像の表示には、例えば、Xpol(登録商標)方式等の偏光方式を用いてもよい。この場合、例えば、左眼用画像と右眼用画像とが例えば走査線単位でインタリーブされたインタリーブフレーム群が生成され、これらインタリーブフレーム群がLCD15に表示される。LCD15の画面を覆う偏向フィルタは、LCD15の画面上の例えば奇数番目のライン群に表示される左眼用画像と偶数番目のライン群に表示される右眼用画像とを異なる方向に偏光する。ユーザは、偏向メガネを用いることにより、左眼用画像を左眼で、右眼用画像を右眼で見ることができる。
Instead, for example, a polarization method such as an Xpol (registered trademark) method may be used to display a three-dimensional image. In this case, for example, an interleaved frame group in which the left-eye image and the right-eye image are interleaved in units of scanning lines, for example, is generated, and these interleaved frame groups are displayed on the
また、CPU11は、BIOS−ROM19に格納されたBIOS(Basic Input/Output System)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
The CPU 11 also executes a basic input / output system (BIOS) stored in the BIOS-
ノースブリッジ12は、CPU11のローカルバスとサウスブリッジ16との間を接続するブリッジデバイスである。ノースブリッジ12には、主メモリ13をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ12は、表示コントローラ14との通信を実行する機能も有している。
The
表示コントローラ14は、本コンピュータ1のディスプレイとして使用されるLCD15を制御するデバイスである。この表示コントローラ14によって生成される表示信号はLCD15に送られる。LCD15は、表示信号に基づいて映像を表示する。
The
サウスブリッジ16は、PCI(Peripheral Component Interconnect)バス上及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ16は、HDD21及びODD22を制御するためのIDE(Integrated Drive Electronics)コントローラ、及びBIOS−ROM19をアクセス制御するメモリコントローラが内蔵されている。さらに、サウスブリッジ16は、サウンドコントローラ17及びLANコントローラ20との通信を実行する機能も有している。
The
サウンドコントローラ17は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18Bに出力する。LANコントローラ20は、例えばEthernet(登録商標)規格の有線通信を実行する有線通信デバイスであり、無線LANコントローラ23は、例えばIEEE 802.11規格の無線通信を実行する無線通信デバイスである。また、USBコントローラ24は、例えばUSB2.0規格のケーブルを介して外部機器との通信を実行する。
The
EC/KBC25は、電力管理を行うためのエンベデッドコントローラと、キーボード(KB)26、及びポインティングデバイス27を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。このEC/KBC25は、ユーザの操作に応じて本コンピュータ1をパワーオン/パワーオフする機能を有している。さらに、EC/KBC25は、リモコンユニットインタフェース部30との通信を実行する機能を有している。
The EC /
TVチューナ31はテレビジョン(TV)放送信号によって放送される放送番組データを受信する受信装置であり、アンテナ端子32に接続されている。このTVチューナ31は、例えば、地上波デジタルTV放送のようなデジタル放送番組データを受信可能なデジタルTVチューナとして実現されている。また、TVチューナ31は、外部機器から入力されるビデオデータをキャプチャする機能も有している。
The
次に、図3を参照して、本実施形態の映像コンテンツ再生機能について説明する。再生対象のソースデータ(映像コンテンツデータ)51は、例えば、映像(動画像)を表示するためのビデオデータと副画像を表示するための追加データとを含む。この追加データは、例えば、BML(Broadcast Markup Language)を用いて記述されたBMLデータを含む。また、この追加データは、例えばユーザからの操作入力を受け付けるための画像についてのデータを含む。すなわちユーザは、追加データに基づいて生成された副画像に含まれるオブジェクト(例えば、ボタン、リンクを示すテキスト等)を指示することによって、オブジェクトに対応する処理を要求する操作を入力することができる。 Next, the video content playback function of this embodiment will be described with reference to FIG. The source data (video content data) 51 to be reproduced includes, for example, video data for displaying a video (moving image) and additional data for displaying a sub-image. This additional data includes, for example, BML data described using BML (Broadcast Markup Language). The additional data includes, for example, data about an image for accepting an operation input from the user. That is, the user can input an operation for requesting processing corresponding to an object by indicating an object (for example, a button, text indicating a link, etc.) included in the sub-image generated based on the additional data. .
ソースデータ51内のビデオデータは、デコーダ102に出力される。このビデオデータは一般に符号化(圧縮符号化)されている。デコーダ102は符号化されたビデオデータを復号する。そして、復号したビデオデータを2Dto3D変換部104に出力する。
Video data in the
2Dto3D変換部104は、復号されたビデオデータを用いて、ビデオデータに含まれる画像フレームそれぞれを解析することによって、各画像フレームに含まれる画素毎の深さ(depth)を推定する。なお以下では、「深さ」と「奥行き」とを同様の意味で用いるものとする。2Dto3D変換部104は、推定した画素毎の深さを用いて、ビデオデータを三次元ビデオデータに変換する。この三次元ビデオデータは、例えば、画像フレーム内の画素毎の深さに基づいた視差の、第1の左眼用画像データと第1の右眼用画像データとを含む。2Dto3D変換部104は、三次元ビデオデータを三次元画像合成部109に出力する。
The 2D to
また、ソースデータ51内のBMLデータ(追加データ)では、表示する静止画像やテキスト等が指定され、その静止画像やテキストの配置や大きさ等が指定される。したがって、BMLデータに基づいて、LCD15の画面上に表示する副画像が生成される。なお、この副画像を表示する深さ方向の位置は、2Dto3D変換部104によって推定された、画像フレーム内の画素毎の深さに基づいて決定される。より具体的には、画像フレーム内の画素毎の深さの内で最も手前の深さに基づいて、副画像を表示する深さが決定される。そして、決定された副画像の深さに基づいた視差の、BMLデータに対応する第2の左眼用画像データと第2の右眼用画像データとが生成される。生成された第2の左眼用画像データと第2の右眼用画像データとは、三次元画像合成部109に出力される。なお、以下では、BMLデータに基づいて生成された画像をBML画像とも云う。また、副画像を表示する深さの決定にかかる処理については図4を参照して後述する。
Further, in the BML data (additional data) in the
また、アプリケーション13Cは、映像コンテンツデータ51(画面に表示される映像及び副画像等)を操作するためのメニュー等のユーザインタフェース画像データ(UI画像データ)を生成する。そして、生成したUI画像データを三次元画像合成部109に出力する。
Further, the
三次元画像合成部109は、UI画像、副画像及び三次元映像を合成する。具体的には、三次元画像合成部109は、第1の左眼用画像データ、第2の左眼用画像データ及びUI画像データを用いて、左眼用画像フレームを生成する。また、三次元画像合成部109は、第1の右眼用画像データ、第2の右眼用画像データ及びUI画像データを用いて、右眼用画像フレームを生成する。なお、上述の各画像データは、それぞれ画像レイヤとして生成されたものであってもよい。三次元画像合成部109は、例えばアルファブレンディングによってそれら画像レイヤを重ね合わせて、画像フレームを生成する。そして、三次元画像合成部109は、生成した左眼用及び右眼用画像フレームを表示部110に出力する。
The 3D
表示部110は、三次元画像合成部109によって出力された左眼用画像フレームと右眼用画像フレームとを画面(LCD15)に交互に表示させる。ユーザは、上述のように、例えば液晶シャッターメガネを用いて画面を見ることによって、三次元画像を知覚することができる。また、表示部110は、左眼用画像フレームと右眼用画像フレームとを走査線単位でインタリーブしたインタリーブ画像を画面に表示してもよい。その場合、ユーザは、例えば偏光メガネを用いて画面を見ることによって、三次元画像を知覚することができる。
The
図4に示すフローチャートは、副画像を表示する深さ(奥行き)方向の位置を決定するための処理の手順を表す。
まず、副画像を表示する深さ方向の最適な位置が決定されているか否かが判定される(ブロックB11)。最適な表示位置が決定されている場合(ブロックB11のYES)、副画像は決定された最適な表示位置に表示される。なお最適な表示位置が決定されている場合とは、副画像を表示する深さ方向の位置が、例えば予めユーザにより設定されている場合等を指す。
The flowchart shown in FIG. 4 represents a procedure of processing for determining a position in the depth (depth) direction for displaying a sub-image.
First, it is determined whether or not the optimum position in the depth direction for displaying the sub-image has been determined (block B11). If the optimal display position has been determined (YES in block B11), the sub-image is displayed at the determined optimal display position. Note that the case where the optimal display position is determined refers to the case where the position in the depth direction for displaying the sub-image is set in advance by the user, for example.
最適な表示位置が決定されていない場合(ブロックB11のNO)、ビデオデータ部分(動画部分)の深さが算出される(ブロックB12)。なお、この深さには、上述の2Dto3D変換部104によって推定された、画像フレーム内の画素毎の深さが用いられてもよい。
If the optimal display position has not been determined (NO in block B11), the depth of the video data portion (moving image portion) is calculated (block B12). Note that the depth for each pixel in the image frame estimated by the 2D to
次いで、動画部分の深さがディスプレイ面(LCD15の画面)よりも飛び出しているか否かを判定する(ブロックB13)。具体的には、例えば、画像フレーム内の画素毎の深さに基づいて、ディスプレイ面よりも飛び出している画素が存在するか否かが判定される。動画部分の深さがディスプレイ面よりも飛び出していない場合(ブロックB13のNO)、画像フレーム内の画素毎の深さに基づいて、最も飛び出している画素に対応する位置(すなわち、映像コンテンツ(動画部分)内においてユーザに最も近い位置)が、副画像を表示する深さ方向の位置に決定される(ブロックB14)。 Next, it is determined whether or not the depth of the moving image portion protrudes from the display surface (screen of the LCD 15) (block B13). Specifically, for example, based on the depth of each pixel in the image frame, it is determined whether there is a pixel protruding from the display surface. When the depth of the moving image portion does not protrude beyond the display surface (NO in block B13), based on the depth of each pixel in the image frame, the position corresponding to the most protruding pixel (ie, video content (moving image The position closest to the user in the portion) is determined as the position in the depth direction for displaying the sub-image (block B14).
動画部分の深さがディスプレイ面よりも飛び出している場合(ブロックB13のYES)、ディスプレイ面が、副画像を表示する深さ方向の位置に決定される(ブロックB15)。そして、ブロックB14又はブロックB15において決定された位置に、副画像が表示される(ブロックB16)。 When the depth of the moving image portion protrudes from the display surface (YES in block B13), the display surface is determined as a position in the depth direction for displaying the sub-image (block B15). Then, the sub-image is displayed at the position determined in block B14 or block B15 (block B16).
以上の処理により、副画像を表示するための深さ方向の位置が決定される。次いで、決定された深さ方向の表示位置に対応する視差が算出される。そして、BMLデータを用いて、算出された視差を有する第2の左眼用画像データと第2の右眼用画像データとが生成される。第2の左眼用画像データと第2の右眼用画像データとは、三次元画像合成部109に出力される。
Through the above processing, the position in the depth direction for displaying the sub-image is determined. Next, the parallax corresponding to the determined display position in the depth direction is calculated. Then, using the BML data, second left-eye image data and second right-eye image data having the calculated parallax are generated. The second left-eye image data and the second right-eye image data are output to the three-dimensional
図5は、本実施形態の映像コンテンツ再生アプリケーションプログラム13Bの一構成例を示す。映像コンテンツ再生アプリケーション13Bは映像コンテンツデータ51を再生する機能を有する。映像コンテンツデータ51は、例えばビデオデータとBMLデータとを含む。ビデオデータは、映像(二次元映像)を表示するためのデータである。BMLデータは、BML(Broadcast Markup Language)を用いて記述された、ビデオデータに関連する静止画像やテキスト等を含む画像(以下、BML画像と呼ぶ)を表示するためのデータである。なお映像コンテンツ再生アプリケーションプログラム13Bの構成の詳細については、図6及び図7の説明の後に述べる。
FIG. 5 shows a configuration example of the video content
図6は、映像とBML画像とが表示された画面の例を示す。図6に示す画面71は、映像が表示された領域71AとBML画像が表示された領域71Bとを含む。
ここで当該領域71Bには、BML画像として、静止画像、動画像、文字情報、映像71Aに対する操作を行うためのボタン(画像)等が表示されうる。そして領域71Bに表示されるこれらのBML画像は、選択操作可能な画像であってもよい。即ち、マウス等のポインティングデバイス27から当該BML画像に対する操作入力が入力された場合、コンピュータ1は、操作を受けた画像に応じた処理を実行し、当該処理に基づいた画面をLCD15に表示させる。
FIG. 6 shows an example of a screen on which a video and a BML image are displayed. The
Here, in the region 71B, a still image, a moving image, character information, a button (image) for performing an operation on the
なお画面71において、BML画像の領域71Bは、映像が表示される領域71Aの右(横)及び下の両方の位置に表示されている。しかし当該領域71Bの表示位置はこれに限るものではなく、例えば領域71Aの下のみ、あるいは領域71Aの横のみであっても良い。
In the
二次元映像を三次元映像に変換する技術を用いて、画面71に示すような映像領域71AとBML画像領域71Bとに三次元化処理を施して生成された三次元映像では、ユーザは、例えば、映像が立体化された領域に、BML画像が立体化された領域がめり込むような違和感を覚える可能性がある。また、マウス等のポインティングデバイス27の操作位置を示すカーソルに対応する奥行き位置と、BML画像が表示された奥行き位置とが異なる際には、カーソルを移動して、BML画像上のボタン等の操作対象を指示することが困難である可能性がある。つまり、マウスカーソルが表示される平面に対応する奥行き位置と、BML画像が表示される平面に対応する奥行き位置とが異なるために、ユーザがポインティングデバイス27を直感的に操作できない可能性がある。
In the 3D video generated by performing the 3D processing on the
また、図7は映像とユーザインタフェース画像とが表示された画面の例を示す。図7に示す画面72は、映像が表示された領域72A、映像の再生を制御するメニューが表示された領域72B、及び映像に関する情報が表示された領域72Cを含む。画面72に三次元化処理を施した際にも、画面71に三次元化処理を施した場合と同様のことが云える。
FIG. 7 shows an example of a screen on which a video and a user interface image are displayed. The
本実施形態のコンテンツ再生アプリケーション13Bは、映像と副画像(例えば、BML画像やUI画像)とを適切な三次元画像としてユーザに知覚させるように、映像と副画像に対して別々に処理を施す。つまり、コンテンツ再生アプリケーション13Bは、映像内の画像フレームと副画像とを含む画像に対して三次元化処理を施すのではなく、映像内の画像フレームと副画像とをそれぞれ三次元化する。したがって、コンテンツ再生アプリケーション13Bは、映像内の画像フレームに対応する第1の左眼用画像データ及び第1の右眼用画像データと、副画像に対応する第2の左眼用画像データ及び第2の右眼用画像データとを生成する。具体的には、コンテンツ再生アプリケーション13Bは、二次元映像を三次元映像に変換する技術を用いて、ビデオデータに三次元化処理を施す、すなわち、映像内の画像フレームそれぞれに対応する第1の左眼用画像データと第1の右眼用画像データとを生成する。そして、コンテンツ再生アプリケーション13Bは、ビデオデータを三次元化した際に推定された、画像フレーム内の画素毎の奥行き位置を用いて、副画像を表示する奥行き方向の位置を決定し、副画像に対応する第2の左眼用画像データと第2の右眼用画像データとを生成する。
The
以下では、再度図5を参照して映像コンテンツ再生アプリケーション13Bの詳細な構成について説明する。映像コンテンツ再生アプリケーション13Bは、データ抽出部101、デコーダ102、BML画像生成部103、2D−3D変換部104、奥行き決定部105、視差決定部106、BML画像変換部107、UI画像生成部108、三次元画像合成部109、及び表示部110を備える。
Hereinafter, the detailed configuration of the video
データ抽出部101は、入力された映像コンテンツデータ51からビデオデータとBMLデータとを抽出する。データ抽出部101は、抽出したビデオデータをデコーダ102に出力する。また、データ抽出部101は、抽出したBMLデータをBML画像生成部103に出力する。
The
BML画像生成部103は、データ抽出部101によって出力されたBMLデータに基づいてBML画像データを生成する。BMLデータは、上述のように、ビデオデータに関連する静止画像やテキスト等を含む画像を表示するためのデータである。BML画像生成部103は、BMLデータに基づいて、例えば、指定された位置に指定された大きさで配置された静止画像やテキスト等を含むBML画像データを生成する。BML画像生成部103は、生成したBML画像データをBML画像変換部107に出力する。
The BML
デコーダ102は、データ抽出部101によって出力されたビデオデータを復号する。ビデオデータは、一般に符号化(圧縮符号化)されている。デコーダ102は符号化されたビデオデータを復号する。そして、デコーダ102は、復号されたビデオデータを2D−3D変換部104に出力する。
The
2D−3D変換部104は、デコーダによって出力された、復号されたビデオデータを2D−3D変換する。具体的には、2D−3D変換部104は、復号されたビデオデータを用いて、該ビデオデータの画像フレームそれぞれを解析することによって、各画像フレームに含まれる画素毎の奥行き位置(depth)を推定する。2D−3D変換部104は、例えば、画像フレーム間の動きや画像フレーム内の画素値の差分等を用いて、画素毎の奥行き位置を推定する。そして、2D−3D変換部104は、推定した画素毎の奥行き位置に基づいて、その画像フレームに対応する第1の左眼用画像データと第1の右眼用画像データとを生成する。2D−3D変換部104は、生成した第1の左眼用画像データと第1の右眼用画像データとを三次元画像合成部109に出力する。また、2D−3D変換部104は、推定した画像フレーム内の画素毎の奥行き位置を奥行き決定部105に出力する。
The 2D-
奥行き決定部105は、2D−3D変換部104によって推定された、画像フレーム内の画素毎の奥行き位置を用いて、BML画像生成部103によって生成されたBML画像を表示する奥行き位置を決定する。奥行き決定部105は、例えば、画像フレーム内の画素毎の奥行き位置の内で最も手前の奥行き位置に基づいて、BML画像を表示する奥行き位置を決定する。具体的には、奥行き決定部105は、まず、画像フレーム内の画素毎の奥行き位置に基づいて、奥行き方向に対して最も手前にある画素(最も飛び出している画素)を検出する。そして、奥行き決定部105は、検出した画素がディスプレイ(LCD)15の画面に対応する奥行き位置よりも手前にあるか否かを判定する。検出した画素が画面に対応する奥行き位置よりも手前にある場合、奥行き決定部105は、BML画像を表示する奥行き位置を、画面(ディスプレイ面)に対応する奥行き位置に決定する。一方、検出した画素が画面に対応する奥行き位置よりも手前にない場合、奥行き決定部105は、BML画像を表示する奥行き位置を、検出した最も手前にある画素に対応する奥行き位置に決定する。
The
ここで図8及び図9を参照して、奥行き決定部105による奥行き位置の決定処理例について説明する。図8及び図9は、BML画像(副画像)が表示される奥行き位置を決定する方法を説明するための概念図を示す。図8及び図9に示す例では、LCD15の画面に対応する奥行き位置を表すディスプレイ面81、画像フレーム内の画素毎の奥行き位置のうち、奥行き方向に対して最も手前にある画素に対応する奥行き位置を表す最大飛び出し面82、及び画像フレーム内の画素毎の奥行き位置のうち、奥行き方向に対して最も奥にある画素に対応する奥行き位置を表す最背面83がそれぞれ示されている。
Here, with reference to FIG. 8 and FIG. 9, an example of the depth position determination processing by the
図8に示す例では、最大飛び出し面82がディスプレイ面81よりも奥行き方向に対して手前に存在する。そのため、奥行き決定部105は、BML画像を表示する奥行き位置を、ディスプレイ面81に対応する奥行き位置に決定する。
In the example shown in FIG. 8, the maximum pop-
図9に示す例では、最大飛び出し面82がディスプレイ面81よりも奥行き方向に対して奥に存在する。そのため、奥行き決定部105は、BML画像を表示する奥行き位置を、最大飛び出し面82に対応する奥行き位置に決定する。
In the example shown in FIG. 9, the maximum pop-
なお、BML画像を表示する奥行き位置は、ユーザインタフェース等を用いてユーザによって指定されてもよい。その場合、ユーザは、BML画像を表示する奥行き位置として、最背面83に対応する奥行き位置、ディスプレイ面81に対応する奥行き位置、最大飛び出し面82に対応する奥行き位置、任意の奥行き位置等を指定することができる。更にコンピュータ1は、BML画像を表示する奥行き位置を、ポインティングデバイス27が操作入力を受けているか否かにより異なる位置としても良い。つまり、ポインティングデバイス27が操作入力を受けていない場合にはBML画像を例えば最背面83に表示させ、操作入力を受けた場合には当該BML画像をディスプレイ面81又は最大飛び出し面82に表示させてもよい。
The depth position for displaying the BML image may be designated by the user using a user interface or the like. In this case, the user designates a depth position corresponding to the
再度図5を参照して映像コンテンツ再生アプリケーション13Bの構成を説明する。奥行き決定部105は、BML画像を表示する奥行き位置を決定すると、当該決定した奥行き位置を視差決定部106に出力する。
With reference to FIG. 5 again, the configuration of the video
視差決定部106は、奥行き決定部105によって出力された奥行き位置に基づいて、該奥行き位置に対応する視差(両眼視差)を算出する。すなわち、視差決定部106は、奥行き決定部105によって決定された奥行き位置にBML画像を表示するための、第2の左眼用画像と第2の右眼用画像との視差を算出する。視差決定部106は、算出した視差をBML画像変換部107に出力する。
The
BML画像変換部107は、BML画像生成部103によって出力されたBML画像データを用いて、視差決定部106によって出力された視差を有する第2の左眼用画像データと第2の右眼用画像データとを生成する。換言すると、視差決定部106は、奥行き決定部105によって決定された奥行き位置にBML画像が表示されているようにユーザに知覚させるために、該奥行き位置に対応する視差を有する第2の左眼用画像データと第2の右眼用画像データとを生成する。BML画像変換部107は、生成した第2の左眼用画像データと第2の右眼用画像データとを三次元画像合成部109に出力する。
The BML
また、UI画像生成部108は、映像の再生を制御するためのメニュー等を含むユーザインタフェース画像データ(UI画像データ)を生成する。UI画像生成部108は、生成したユーザインタフェース画像を三次元画像合成部109に出力する。
In addition, the UI
三次元画像合成部109は、2D−3D変換部104によって出力された第1の左眼用画像データ及び第1の右眼用画像データ、BML画像変換部107によって出力された第2の左眼用画像データ及び第2の右眼用画像データ、並びにUI画像生成部108によって出力されたUI画像データを用いて、LCD15の画面に表示する画像フレームを生成する。具体的には、三次元画像合成部109は、第1の左眼用画像データ、第2の左眼用画像データ及びUI画像データを重ね合わせて(所定の位置に配置して)、画面に表示する左眼用画像フレームを生成する。また、三次元画像合成部109は、第1の右眼用画像データ、第2の右眼用画像データ及びUI画像データを重ね合わせて、画面に表示する右眼用画像フレームを生成する。そして、三次元画像合成部109は、生成した左眼用画像フレームと右眼用画像フレームとを表示部110に出力する。
The three-dimensional
表示部110は、2D−3D変換部104によって出力された第1の左眼用画像データ及び第1の右眼用画像データと、BML画像変換部107によって出力された第2の左眼用画像データ及び第2の右眼用画像データとを用いて生成された画像フレームをLCD15の画面に表示する。具体的には、表示部110は、三次元画像合成部109によって出力された左眼用画像フレームと右眼用画像フレームの各々を所定のタイミングで画面(LCD)15に表示する。シャッター方式の三次元映像表示では、表示部110は、所定のリフレッシュレート(例えば、120Hz)で、左眼用画像フレームと右眼用画像フレームとをLCD15上に交互に表示する。ユーザは、例えば、液晶シャッターメガネを用いることで、左眼用画像フレームを左眼で、右眼用画像フレームを右眼で見ることができる。これによりユーザは、三次元画像(立体画像)を知覚することができる。
The
また、偏光方式の三次元映像表示では、表示部110は、例えば、左眼用画像フレームと右眼用画像フレームとが走査線単位でインタリーブされたインタリーブ画像フレームを生成する。表示部110は、生成したインタリーブ画像フレームをLCD15上に、所定のリフレッシュレート(例えば、60Hz)で表示する。表示されたインタリーブ画像フレームは、LCD15の画面を覆う偏光フィルタによって偏光される。具体的には、偏光フィルタは、例えば、画面上の奇数番目の走査線群に表示される左眼用画像と、偶数番目の走査線群に表示される右眼用画像とを異なる方向に偏光する。ユーザは、偏光メガネを用いることにより、左眼用画像を左眼で、右眼用画像を右眼で見ることができる。これによりユーザは、三次元画像(立体画像)を知覚することができる。
In the
以上の構成により、ユーザが、画面に表示されるBML画像に対応する領域が、映像に対応する領域にめり込むような違和感を覚えることを回避することができる。また、ユーザは、ポインティングデバイス27を用いて、BML画像上のボタン等を直感的に操作することができる。なお、上述の構成では、奥行き決定部105によってBML画像を表示する奥行き位置を決定したが、映像コンテンツデータに含まれないデータに基づいて生成された画像についても同様に、その画像を表示する奥行き位置を決定してもよい。映像コンテンツデータに含まれないデータに基づいて生成された画像は、例えば、OS13Aや各種のアプリケーションプログラムによって生成されるUI画像である。例えば、奥行き決定部105によってUI画像を表示する奥行き位置が決定された際には、その奥行き位置に対応する視差が算出され、算出された視差を有する左眼用UI画像データと右眼用UI画像データとが生成される。そして、三次元画像合成部109は、第1の左眼用画像データ、第2の左眼用画像データ及び左眼用UI画像データを用いて、画面に表示する左眼用画像フレームを生成する。また、三次元画像合成部109は、第1の右眼用画像データ、第2の右眼用画像データ及び右眼用UI画像データを用いて、画面に表示する右眼用画像フレームを生成する。また、BML画像とUI画像とを含む画像を副画像と見なし、その副画像を表示する奥行き位置を上述の方法によって決定してもよい。
With the above configuration, it is possible to prevent the user from feeling uncomfortable that the area corresponding to the BML image displayed on the screen is embedded in the area corresponding to the video. Further, the user can intuitively operate buttons on the BML image using the
次いで、図10のフローチャートを参照して、映像再生処理の手順の例を説明する。
まず、データ抽出部101に映像コンテンツデータ51が入力される(ブロックB101)。そして、データ抽出部101は、映像コンテンツデータ51からビデオデータとBMLデータとを抽出する(ブロックB102)。データ抽出部101は、デコーダ102にビデオデータを出力する。また、データ抽出部101は、BML画像生成部103にBMLデータを出力する。
Next, an example of the procedure of the video reproduction process will be described with reference to the flowchart of FIG.
First, the
次いで、デコーダ102は、データ抽出部101によって出力されたビデオデータを復号する(ブロックB103)。デコーダ102は、2D−3D変換部104に復号したビデオデータを出力する。BML画像生成部103は、データ抽出部101によって出力されたBMLデータに基づいてBML画像データを生成する(ブロックB104)。BML画像生成部103は、BML画像変換部107に生成したBML画像データを出力する。また、UI画像生成部108は、映像の再生を制御するためのメニュー等を含むユーザインタフェース画像データ(UI画像データ)を生成する(ブロックB105)。UI画像生成部108は、三次元画像合成部109に生成したUI画像データを出力する。
Next, the
2D−3D変換部104は、デコーダ102によって出力された、復号されたビデオデータを用いて、該ビデオデータの画像フレームそれぞれを解析して、各画像フレーム内の画素毎の奥行き位置を推定する(ブロックB106)。そして、2D−3D変換部104は、推定した画像フレーム内の画素毎の奥行き位置に基づいて、第1の左眼用画像データと第1の右眼用画像データとを生成する(ブロックB107)。2D−3D変換部104は、推定した画像フレーム内の画素毎の奥行き位置に基づいた視差の、当該画像フレームに対応する第1の左眼用画像データと第1の右眼用画像データとを生成する。2D−3D変換部104は、生成した第1の左眼用画像データと第1の右眼用画像データとを三次元画像合成部109に出力する。また、2D−3D変換部104は、推定した画像フレーム内の画素毎の奥行き位置を奥行き決定部105に出力する。
The 2D-
奥行き決定部105は、2D−3D変換部104によって出力された、画像フレーム内の画素毎の奥行き位置を用いて、BML画像を表示する奥行き位置を決定する(ブロックB108)。奥行き決定部105は、画像フレーム内の画素毎の奥行き位置の内で最も手前の奥行き位置に基づいて、BML画像を表示する奥行き位置を決定する。奥行き決定部105は、決定した奥行き位置を視差決定部106に出力する。BML画像を表示する奥行き位置を決定する奥行き決定処理の手順の詳細は、図11を参照して後述する。
The
視差決定部106は、奥行き決定部105によって出力された奥行き位置に基づいて、該奥行き位置に対応する視差(両眼視差)を算出する(ブロックB109)。そして、視差決定部106は、算出した視差をBML画像変換部107に出力する。
The
BML画像変換部107は、視差決定部106によって出力された視差とBML画像生成部103によって出力されたBML画像データとを用いて、当該視差を有する第2の左眼用画像データと第2の右眼用画像データとを生成する(ブロックB110)。すなわち、決定されたBML画像(副画像)の奥行き位置に基づいた視差の、BMLデータ(追加データ)に対応する第2の左眼用画像データと第2の右眼用画像データとを生成する。BML画像変換部107は、三次元画像合成部109に生成した第2の左眼用画像データと第2の右眼用画像データとを出力する。
The BML
次いで、三次元画像合成部109は、2D−3D変換部104によって出力された第1の左眼用画像データ、BML画像変換部107によって出力された第2の左眼用画像データ、及びUI画像生成部108によって出力されたUI画像データを用いて左眼用画像フレームを生成する(ブロックB111)。三次元画像合成部109は、表示部110に生成した左眼用画像フレームを出力する。表示部110は、三次元画像合成部109によって出力された左眼用画像フレームをLCD15の画面に表示させる(ブロックB112)。
Next, the 3D
そして、三次元画像合成部109は、2D−3D変換部104によって出力された第1の右眼用画像データ、BML画像変換部107によって出力された第2の右眼用画像データ、及びUI画像データを用いて右眼用画像フレームを生成する(ブロックB113)。三次元画像合成部109は、表示部110に生成した右眼用画像フレームを出力する。表示部110は、三次元画像合成部109によって出力された右眼用画像フレームをLCD15の画面に表示させる(ブロックB114)。
Then, the 3D
次いで、2D−3D変換部104は、映像データにおいて、表示対象の画像フレームに後続する画像フレームがあるか否かを判定する(ブロックB115)。後続する画像フレームがある場合(ブロックB115のYES)、後続する画像フレームを新たな表示対象の画像フレームに設定し、この画像フレームについてブロックB106以降の処理を実行する。また、後続する画像フレームがない場合(ブロックB115のNO)、映像再生処理を終了する。
Next, the 2D-
図11のフローチャートは、図10のブロックB108に示す奥行き決定処理の詳細な手順の例を示す。
まず、奥行き決定部105は、BML画像(副画像)を表示する奥行き位置が指定されているか否かを判定する(ブロックB21)。BML画像を表示する奥行き位置は、例えばユーザによって指定される。奥行き位置が指定されている場合(ブロックB21のYES)、奥行き決定部105は、BML画像が表示される奥行き位置を指定された奥行き位置に決定する(ブロックB22)。
The flowchart of FIG. 11 shows an example of a detailed procedure of the depth determination process shown in block B108 of FIG.
First, the
奥行き位置が指定されていない場合(ブロックB21のNO)、奥行き決定部105は、2D−3D変換部104によって推定された、画像フレーム内の画素毎の奥行き値に基づいて、奥行き方向に対して最も手前にある画素(最も飛び出している画素)を検出する(ブロックB23)。そして、奥行き決定部105は、検出した画素に対応する奥行き位置がディスプレイ(LCD)15の画面に対応する奥行き位置よりも手前にあるか否かを判定する(ブロックB24)。
When the depth position is not specified (NO in block B21), the
検出した画素の奥行き位置がディスプレイ15の画面に対応する奥行き位置よりも手前にある場合(ブロックB24のYES)、奥行き決定部105は、BML画像の奥行き位置をディスプレイ15の画面に対応する奥行き位置に決定する(ブロックB25)。
When the depth position of the detected pixel is in front of the depth position corresponding to the screen of the display 15 (YES in block B24), the
検出した画素の奥行き位置がディスプレイ15の画面に対応する奥行き位置よりも手前にない場合(ブロックB24のNO)、奥行き決定部105は、BML画像の奥行き位置を検出した画素に対応する奥行き位置に決定する(ブロックB26)。
When the depth position of the detected pixel is not in front of the depth position corresponding to the screen of the display 15 (NO in block B24), the
以上、図10及び図11のフローチャートに示す処理により、映像コンテンツ再生アプリケーション13Bは、ビデオデータとBMLデータ(追加データ)とを含む映像コンテンツデータを適切な三次元映像として表示することができる。なお、図11のフローチャートに示す奥行き決定処理を用いて、BML画像と同様に、UI画像に対応する奥行き位置を決定してもよい。また、BML画像、UI画像に限らず、画面に表示されるあらゆる画像に対して、奥行き決定処理によって、当該画像を表示する奥行き位置を決定してもよい。
10 and 11, the video
なお、上述の説明では、奥行き決定部105は、画像フレームに対応する画素毎の奥行き位置が推定される毎に、BML画像を表示する奥行き位置を決定したが、例えば一定期間毎に奥行き位置を決定してもよい。さらに、現在から所定の時刻までに表示されるビデオデータ内の複数の画像フレームに対して、最適なBML画像の奥行き位置を決定してもよい。上述のように決定された奥行き位置に対応する視差を有する第2の左眼用画像と第2の右眼用画像とが画面に表示されることにより、ユーザは、決定された奥行き位置に表示されたBML画像を知覚することができる。
In the above description, the
以上説明したように、本実施形態によれば、ビデオデータとビデオデータ以外のデータとを適切な三次元映像として表示することができる。例えば、ビデオデータと副画像を表示するための追加データとを含むコンテンツデータを適切な三次元映像としてユーザに知覚させることができる。ビデオデータと追加データとを含む映像コンテンツデータに三次元化処理を施した際には、副画像に対応する領域が映像に対応する領域にめり込むような違和感を覚える可能性がある。本実施形態の2D−3D変換部104は、ビデオデータに対して2D−3D変換処理を施して、ビデオデータの画像フレーム内の各画素の奥行き値を推定する。次いで、奥行き決定部105は、推定された各画素の奥行き値に基づいて、副画像を表示する奥行き位置を決定する。そのため、再生されるビデオデータに応じた適切な奥行き位置に、副画像を表示することができる。これにより、ビデオデータと追加データとを含む映像コンテンツデータを用いて、適切な三次元映像を表示することができる。
As described above, according to the present embodiment, video data and data other than video data can be displayed as appropriate 3D video. For example, it is possible to make the user perceive content data including video data and additional data for displaying a sub-image as appropriate 3D video. When the video content data including the video data and the additional data is subjected to the three-dimensional process, there is a possibility that the area corresponding to the sub-image may be felt uncomfortable as being embedded in the area corresponding to the video. The 2D-
なお、本実施形態の映像再生処理の手順は全てソフトウェアによって実行することができる。このため、映像再生処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。 Note that all the procedures of the video reproduction process of the present embodiment can be executed by software. For this reason, it is possible to easily realize the same effect as that of the present embodiment simply by installing and executing this program on a normal computer through a computer-readable storage medium storing a program for executing the video reproduction processing procedure. Can do.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
13B…映像コンテンツ再生アプリケーションプログラム、101…データ抽出部、102…デコーダ、103…BML画像生成部、104…2D−3D変換部、105…奥行き決定部、106…視差決定部、107…BML画像変換部、108…UI生成部、109…三次元画像合成部、110…表示部、51…映像コンテンツデータ。
13B ... Video content playback application program, 101 ... Data extraction unit, 102 ... Decoder, 103 ... BML image generation unit, 104 ... 2D-3D conversion unit, 105 ... Depth determination unit, 106 ... Parallax determination unit, 107 ...
Claims (9)
前記ビデオデータの画像フレームに含まれる複数の画素に関連する複数の奥行き位置を推定し、前記推定された複数の画素に関連する複数の奥行き位置に基づいた第1視差に関連し、且つ前記画像フレームに対応する第1の左眼用画像データと第1の右眼用画像データとを生成する第1生成手段と、
前記画像フレーム内の複数の画素に関連する複数の奥行き位置の内で最も手前の第1奥行き位置が、前記ディスプレイの画面に対応する第2奥行き位置よりも手前である場合、前記副画像が表示される奥行き位置を前記第2奥行き位置に設定し、前記第1奥行き位置が前記第2奥行き位置よりも手前でない場合、前記副画像が表示される奥行き位置を前記第1奥行き位置に設定する配置制御手段と、
前記設定された副画像が表示される奥行き位置に関連する第2視差に関連し、且つ前記副画像データに対応する第2の左眼用画像データと第2の右眼用画像データとを生成する第2生成手段と、
前記第1の左眼用画像データ、前記第1の右眼用画像データ、前記第2の左眼用画像データ、及び前記第2の右眼用画像データに基づいて生成された画像フレームをディスプレイの画面に表示する表示制御手段とを具備する電子機器。 An electronic device that reproduces content data including video data and sub-image data,
Estimating a plurality of depth positions associated with a plurality of pixels included in an image frame of the video data, relating to a first parallax based on a plurality of depth positions associated with the estimated plurality of pixels, and the image First generation means for generating first left-eye image data and first right-eye image data corresponding to a frame;
The sub-image is displayed when the foremost first depth position among the plurality of depth positions related to the plurality of pixels in the image frame is in front of the second depth position corresponding to the screen of the display. The depth position to be displayed is set to the second depth position, and the depth position at which the sub-image is displayed is set to the first depth position when the first depth position is not in front of the second depth position. Control means;
Generates second left-eye image data and second right-eye image data related to the second parallax related to the depth position at which the set sub-image is displayed and corresponding to the sub-image data. Second generating means for
An image frame generated based on the first left-eye image data, the first right-eye image data, the second left-eye image data, and the second right-eye image data is displayed. An electronic device comprising display control means for displaying on the screen.
前記ビデオデータの画像フレームを解析することによって画像フレームに含まれる複数の画素に関連する複数の奥行き位置を推定し、
前記推定された複数の画素に関連する複数の奥行き位置に基づいた第1視差に関連し、且つ前記画像フレームに対応する第1の左眼用画像データと第1の右眼用画像データとを生成し、
前記画像フレーム内の複数の画素に関連する複数の奥行き位置の内で最も手前の第1奥行き位置が、前記ディスプレイの画面に対応する第2奥行き位置よりも手前である場合、前記副画像が表示される奥行き位置を前記第2奥行き位置に設定し、前記第1奥行き位置が前記第2奥行き位置よりも手前でない場合、前記副画像が表示される奥行き位置を前記第1奥行き位置に設定し、
前記設定された副画像が表示される奥行き位置に関連する第2視差に関連し、且つ前記副画像データに対応する第2の左眼用画像データと第2の右眼用画像データとを生成し、
前記第1の左眼用画像データ、前記第1の右眼用画像データ、前記第2の左眼用画像データ、及び前記第2の右眼用画像データに基づいて生成された画像フレームをディスプレイの画面に表示する画像処理方法。 An image processing method for reproducing content data including video data and sub-image data,
Estimating a plurality of depth positions associated with a plurality of pixels included in the image frame by analyzing an image frame of the video data;
First left-eye image data and first right-eye image data associated with a first parallax based on a plurality of depth positions associated with the estimated plurality of pixels and corresponding to the image frame. Generate
The sub-image is displayed when the foremost first depth position among the plurality of depth positions related to the plurality of pixels in the image frame is in front of the second depth position corresponding to the screen of the display. The depth position to be displayed is set to the second depth position, and when the first depth position is not in front of the second depth position, the depth position at which the sub-image is displayed is set to the first depth position ,
Generates second left-eye image data and second right-eye image data related to the second parallax related to the depth position at which the set sub-image is displayed and corresponding to the sub-image data. And
An image frame generated based on the first left-eye image data, the first right-eye image data, the second left-eye image data, and the second right-eye image data is displayed. Image processing method to display on the screen.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010160976A JP5025768B2 (en) | 2010-07-15 | 2010-07-15 | Electronic apparatus and image processing method |
US13/079,687 US8416288B2 (en) | 2010-07-15 | 2011-04-04 | Electronic apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010160976A JP5025768B2 (en) | 2010-07-15 | 2010-07-15 | Electronic apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012023635A JP2012023635A (en) | 2012-02-02 |
JP5025768B2 true JP5025768B2 (en) | 2012-09-12 |
Family
ID=45466649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010160976A Active JP5025768B2 (en) | 2010-07-15 | 2010-07-15 | Electronic apparatus and image processing method |
Country Status (2)
Country | Link |
---|---|
US (1) | US8416288B2 (en) |
JP (1) | JP5025768B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI482484B (en) * | 2011-06-17 | 2015-04-21 | Wistron Corp | 3d display system and method thereof |
JP5337218B2 (en) * | 2011-09-22 | 2013-11-06 | 株式会社東芝 | Stereo image conversion device, stereo image output device, and stereo image conversion method |
US10249018B2 (en) * | 2013-04-25 | 2019-04-02 | Nvidia Corporation | Graphics processor and method of scaling user interface elements for smaller displays |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3423189B2 (en) | 1997-05-27 | 2003-07-07 | 三洋電機株式会社 | Telop display device by digital 3D broadcasting |
JPH11289555A (en) * | 1998-04-02 | 1999-10-19 | Toshiba Corp | Stereoscopic video display device |
JP2000078611A (en) * | 1998-08-31 | 2000-03-14 | Toshiba Corp | Stereoscopic video image receiver and stereoscopic video image system |
JP2000261828A (en) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | Stereoscopic video image generating method |
JP2004274125A (en) * | 2003-03-05 | 2004-09-30 | Sony Corp | Image processing apparatus and method |
JP2006325165A (en) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | Device, program and method for generating telop |
JP2010088092A (en) | 2008-09-02 | 2010-04-15 | Panasonic Corp | Three-dimensional video transmission system, video display device and video output device |
JP5368463B2 (en) * | 2008-09-18 | 2013-12-18 | パナソニック株式会社 | Stereoscopic video playback device and stereoscopic video display device |
-
2010
- 2010-07-15 JP JP2010160976A patent/JP5025768B2/en active Active
-
2011
- 2011-04-04 US US13/079,687 patent/US8416288B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US8416288B2 (en) | 2013-04-09 |
JP2012023635A (en) | 2012-02-02 |
US20120013718A1 (en) | 2012-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5389139B2 (en) | Electronic device and display control method | |
WO2011135857A1 (en) | Image conversion device | |
KR20110096494A (en) | Electronic device and method for displaying stereo-view or multiview sequence image | |
JP5092033B2 (en) | Electronic device, display control method, and display control program | |
US8687950B2 (en) | Electronic apparatus and display control method | |
US8619123B2 (en) | Video processing apparatus and method for scaling three-dimensional video | |
JP5025768B2 (en) | Electronic apparatus and image processing method | |
US20120224035A1 (en) | Electronic apparatus and image processing method | |
JP5289538B2 (en) | Electronic device, display control method and program | |
JP5166567B2 (en) | Electronic device, video data display control method, and program | |
JP2011085705A (en) | Video display device and video display method | |
JP5058354B1 (en) | Electronic device, display control method and program | |
JP5058316B2 (en) | Electronic device, image processing method, and image processing program | |
JP5161999B2 (en) | Electronic device, display control method, and display control program | |
JP5238849B2 (en) | Electronic device, electronic device control method, and electronic device control program | |
JP5550603B2 (en) | Video processing apparatus, video processing method, and program | |
JP5362082B2 (en) | Electronic device, image processing method, and image processing program | |
JP5492269B2 (en) | Electronic device, display control method, and display control program | |
JP5641953B2 (en) | Electronic device, video data generation method, and program | |
JP5433774B2 (en) | Electronic device, display control method, and display control program | |
KR101804912B1 (en) | An apparatus for displaying a 3-dimensional image and a method for displaying subtitles of a 3-dimensional image | |
JP2013085275A (en) | Electronic apparatus, display control method and display control program | |
JP2012231533A (en) | Electronic apparatus, display control method and program | |
JP2011193498A (en) | Video display device, video display method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120529 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120619 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150629 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5025768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 Free format text: JAPANESE INTERMEDIATE CODE: R313121 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |