[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012089931A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2012089931A
JP2012089931A JP2010232804A JP2010232804A JP2012089931A JP 2012089931 A JP2012089931 A JP 2012089931A JP 2010232804 A JP2010232804 A JP 2010232804A JP 2010232804 A JP2010232804 A JP 2010232804A JP 2012089931 A JP2012089931 A JP 2012089931A
Authority
JP
Japan
Prior art keywords
image
stereoscopic image
stereoscopic
eye viewing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010232804A
Other languages
English (en)
Inventor
Ryuji Tokunaga
竜二 徳永
Hiroyuki Fukuchi
弘行 福地
Shuri Shida
修利 志田
Toshiyuki Yamauchi
敏之 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010232804A priority Critical patent/JP2012089931A/ja
Priority to US13/137,676 priority patent/US9001188B2/en
Priority to EP11180921A priority patent/EP2442577A3/en
Priority to CN2011102943389A priority patent/CN102457742A/zh
Publication of JP2012089931A publication Critical patent/JP2012089931A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】ユーザの好みに応じた立体視画像を表示するためのパラメータを適切に生成する。
【解決手段】放送受信部110は、放送波を受信して映像信号を復調し、映像復号部120は、その映像信号を復号処理して映像データ(立体視画像を表示させるための映像データ)を復元する。相関値算出部140は、左眼視用画像および右眼視用画像における2つの比較対象ブロックを比較して相関値を算出する。立体視画像パラメータ生成部150は、探索範囲内の各比較対象ブロックの比較により算出された相関値のうち、最も大きい相関値を抽出し、この抽出された相関値に対応する比較対象ブロックのズラシ量を決定する。そして、立体視画像パラメータ生成部150は、その決定されたズラシ量を、算出対象となった比較対象ブロックに関連付けてズラシ量保持テーブルに保持して立体視画像パラメータを生成する。
【選択図】図1

Description

本発明は、情報処理装置に関し、特に、立体視画像を表示するための情報を扱う情報処理装置および情報処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
従来、左右眼の視差を利用して立体的な視覚を得ることができる立体視画像(3D映像(例えば、左眼視用画像および右眼視用画像からなる2視点画像))を表示するための立体視画像表示方法が多数提案されている。また、近年では、コンピュータを利用した立体視画像コンテンツ(3Dコンテンツ)の質の向上により、劇場等において立体視画像が表示されることが多くなり、視聴者の関心が高まりつつある。
また、テレビ放送のデジタル化に伴い、従来のアナログ放送では伝送できなかった容量のデジタルデータを伝送することができるようになる。このため、今後は、デジタル放送により、立体視画像を表示するためのデジタルデータを家庭用テレビに伝送し、家庭用テレビにおいて立体視画像が表示されることが多くなると想定される。このため、立体視画像に対する関心はさらに高まるものと考えられる。
例えば、立体視画像を表示するものとして、ユーザがシャッター眼鏡をかけて見ると、立体効果のある映像を見ることができる立体映像表示用テレビ装置が提案されている(例えば、特許文献1(図2)参照。)。
特開平09−322198号公報
上述の従来技術によれば、立体視画像を適切に表示することができる。
しかしながら、立体視画像を見る場合において、予め設定されている物体の奥行量とは無関係に、ユーザの好みに応じて立体視画像を表示させたい場合がある。例えば、比較的高齢のユーザにとっては、物体の飛出具合が激しくないほうが好ましいと考えることが想定される。一方、比較的若いユーザは、比較的激しい動きを楽しみたいと考えることも想定される。
このように、同一の立体視画像を見る場合でも、その立体視画像を見るユーザの好みが多種多様であるため、各ユーザの好みに応じた立体視画像を表示することが重要である。このため、ユーザの好みに応じた立体視画像を表示する際に用いられるパラメータを、その立体視画像の表示前に生成しておき、この生成されたパラメータをユーザの好みに応じて適切に用いることができるようにしておくことが重要である。
本発明はこのような状況に鑑みてなされたものであり、ユーザの好みに応じた立体視画像を表示するためのパラメータを適切に生成することを目的とする。
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、立体視画像を表示させるための立体視画像情報を取得する取得部と、上記取得された立体視画像情報を構成する第1画像および第2画像を比較することにより上記立体視画像を表示する際における上記立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成する生成部とを具備する情報処理装置および情報処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、立体視画像情報を構成する第1画像および第2画像を比較することにより、立体視画像を表示する際におけるその立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成するという作用をもたらす。
また、この第1の側面において、上記生成部は、上記第1画像および上記第2画像を比較することにより上記第1画像および上記第2画像に含まれる物体のズラシ量を算出して当該ズラシ量に基づいて当該物体の領域と当該物体の奥行量とを関連付けた上記パラメータを生成するようにしてもよい。これにより、第1画像および第2画像に含まれる物体のズラシ量を算出し、このズラシ量に基づいてその物体の領域とその物体の奥行量とを関連付けたパラメータを生成するという作用をもたらす。
また、この第1の側面において、上記生成部は、上記物体の奥行量として、上記立体視画像を表示する表示部における表示面を基準とする場合における当該物体の飛出量または引込量を算出するようにしてもよい。これにより、立体視画像を表示する表示部における表示面を基準とする場合における物体の飛出量または引込量を算出するという作用をもたらす。
また、この第1の側面において、上記生成部は、上記第1画像および上記第2画像に含まれる1または複数の物体を物体毎に検出し、上記検出された物体の領域と当該物体の奥行量とを関連付けた上記パラメータを記録媒体に記録させる記録制御部をさらに具備するようにしてもよい。これにより、第1画像および第2画像に含まれる1または複数の物体を物体毎に検出し、この検出された物体の領域とその物体の奥行量とを関連付けて記録媒体に記録させるという作用をもたらす。
また、この第1の側面において、上記生成部は、上記第1画像を構成するブロックと上記第2画像を構成するブロックとを比較して上記第1画像および上記第2画像に含まれる物体のズラシ量をブロック単位で算出して上記算出されたズラシ量をブロック単位で保持するテーブル情報を生成するようにしてもよい。これにより、第1画像および第2画像に含まれる物体のズラシ量をブロック単位で算出し、この算出されたズラシ量をブロック単位で保持するテーブル情報を生成するという作用をもたらす。
また、この第1の側面において、上記取得部は、放送波を受信して当該放送波に対応する映像データであって上記立体視画像を表示させるための映像データを上記立体視画像情報として取得するようにしてもよい。これにより、放送波を受信してその放送波に対応する映像データ(立体視画像を表示させるための映像データ)を取得するという作用をもたらす。
また、この第1の側面において、上記取得部は、縮符号化されている上記第1画像および上記第2画像が時間軸において連続してペア単位で伝送されて上記第1画像および上記第2画像間における動きベクトルが当該画像に関連付けられている伝送方式であるフレームパッキング方式に係る映像データを上記立体視画像情報として取得し、上記生成部は、上記動きベクトルにおける水平成分を用いて上記パラメータを生成するようにしてもよい。これにより、フレームパッキング方式に係る映像データを取得し、第1画像および第2画像間における動きベクトルにおける水平成分を用いてパラメータを生成するという作用をもたらす。
また、この第1の側面において、上記生成部は、上記パラメータとして上記物体の奥行方向における位置を調整する際に用いられるパラメータを生成するようにしてもよい。これにより、物体の奥行方向における位置を調整する際に用いられるパラメータを生成するという作用をもたらす。
また、この第1の側面において、上記生成部は、上記パラメータとして上記物体から生じる音声を調整する際に用いられるパラメータを生成するようにしてもよい。これにより、物体から生じる音声を調整する際に用いられるパラメータを生成するという作用をもたらす。
また、この第1の側面において、上記生成されたパラメータと上記取得された立体視画像情報とを関連付けて記録媒体に記録させる記録制御部をさらに具備するようにしてもよい。これにより、生成されたパラメータと、取得された立体視画像情報とを関連付けて記録媒体に記録させるという作用をもたらす。
また、本発明の第2の側面は、立体視画像を表示するための第1画像および第2画像を含む映像データであって、符号化されている上記第1画像および上記第2画像が時間軸において連続してペア単位で伝送されて上記第1画像および上記第2画像間における動きベクトルが当該画像に関連付けられている伝送方式であるフレームパッキング方式に係る映像データを取得する取得部と、上記取得された映像データに含まれる上記第1画像および上記第2画像間における動きベクトルを用いて上記立体視画像を表示する際に上記立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成する生成部とを具備する情報処理装置および情報処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、フレームパッキング方式に係る映像データを取得し、この映像データに含まれる第1画像および第2画像間における動きベクトルを用いて、立体視画像を表示する際にその立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成するという作用をもたらす。
本発明によれば、ユーザの好みに応じた立体視画像を表示するためのパラメータを適切に生成することができるという優れた効果を奏し得る。
本発明の第1の実施の形態における情報処理装置100の機能構成例を示すブロック図である。 本発明の第1の実施の形態における表示部170に表示される立体視画像を構成する各画像と、これらの各画像に含まれる物体の奥行方向における位置との関係を示す図である。 本発明の第1の実施の形態における表示部170に表示される立体視画像を構成する各画像に含まれる物体のズラシ量の関係を示す図である。 本発明の第1の実施の形態における相関値算出部140による相関値算出処理の対象となるブロックの選択方法とこれらの比較処理とを模式的に示す図である。 本発明の第1の実施の形態における相関値算出部140による相関値算出処理の対象となるブロックの選択方法とこれらの比較処理とを模式的に示す図である。 本発明の第1の実施の形態における相関値算出部140による相関値算出処理の対象となる立体視画像を構成する2つの画像の一部を拡大して示す図である。 本発明の第1の実施の形態における立体視画像パラメータ生成部150により生成されるズラシ量保持テーブルの一例を模式的に示す。 本発明の第1の実施の形態における立体視画像パラメータ生成部150による二値化処理に用いられる微分フィルタの一例を示す図である。 本発明の第1の実施の形態における立体視画像パラメータ生成部150による二値化処理の流れを模式的に示す図である。 本発明の第1の実施の形態における映像復号部120により復号された映像データに対応する立体視画像におけるズレ量と、表示部170の表示面におけるズレ量との関係を示す図である。 本発明の第1の実施の形態における表示部170に表示される立体視画像を視聴する場合における視聴位置と、その立体視画像に含まれる物体(立体視物体)の飛出位置との関係を模式的に示す図である。 本発明の第1の実施の形態における情報処理装置100による立体視画像パラメータ生成制御処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における情報処理装置700の機能構成例を示すブロック図である。 本発明の第3の実施の形態における情報処理装置800の機能構成例を示すブロック図である。 本発明の第3の実施の形態における動きベクトル検出部810による動きベクトル検出の対象となる映像データの一例を示す図である。
以下、本発明を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(立体視画像パラメータ生成制御:放送局からの受信した放送波に含まれる立体視画像について立体視画像パラメータを生成する例)
2.第2の実施の形態(立体視画像パラメータ記録制御:放送局からの受信した放送波に含まれる立体視画像について立体視画像パラメータを生成して記録する例)
3.第3の実施の形態(立体視画像パラメータ生成制御:フレームパッキング方式により圧縮符号化されている立体視画像について立体視画像パラメータを生成する例)
<1.第1の実施の形態>
[情報処理装置の構成例]
図1は、本発明の第1の実施の形態における情報処理装置100の機能構成例を示すブロック図である。情報処理装置100は、放送受信部110と、映像復号部120と、音声復号部130と、相関値算出部140と、立体視画像パラメータ生成部150と、映像音声出力制御部160と、表示部170と、音声出力部180と、操作受付部190とを備える。情報処理装置100は、例えば、各放送局からの放送波を受信して画像(立体視画像または平面画像)を表示するテレビジョン受像機により実現される。
放送受信部110は、アンテナ(図示せず)を介して、各放送局からの放送波を受信し、映像信号(ビデオ信号)および音声信号(オーディオ信号)を復調するものである。放送受信部110は、例えば、地上デジタルテレビジョン放送、CS(Communications Satellite)デジタル放送、BS(Broadcasting Satellite)デジタル放送等の放送波を受信する。そして、放送受信部110は、復調された映像信号を映像復号部120に出力し、復調された音声信号を音声復号部130に出力する。
映像復号部120は、放送受信部110から出力された映像信号(伝送のために圧縮符号化された映像信号)を復号処理して映像データを復元するものであり、復元された映像データを相関値算出部140および映像音声出力制御部160に出力する。また、映像復号部120は、放送受信部110からの映像信号が立体視画像を表示するための映像信号である場合には、復元された映像データとして、左眼視用画像データ(Lch画像データ)および右眼視用画像データ(Rch画像データ)を順次出力する。すなわち、放送受信部110および映像復号部120は、放送波を受信してその放送波に対応する映像データ(立体視画像を表示させるための映像データ)を立体視画像情報として取得する。また、放送受信部110および映像復号部120は、特許請求の範囲に記載の取得部の一例である。
音声復号部130は、放送受信部110から出力された音声信号(伝送のために圧縮符号化された音声信号)を復号処理して音声データを復元するものであり、復元された音声データを映像音声出力制御部160に出力する。
相関値算出部140は、映像復号部120から出力された映像データ(左眼視用画像および右眼視用画像)について相関値算出処理を行うものであり、その算出結果(相関値)を立体視画像パラメータ生成部150に出力する。例えば、相関値算出部140は、左眼視用画像を構成するブロックと、右眼視用画像を構成するブロックとを比較することによりブロック間における相関値をブロック単位で算出する。なお、相関値算出処理については、図4乃至図6等を参照して詳細に説明する。
立体視画像パラメータ生成部150は、相関値算出部140から出力された相関値算出結果に基づいて、算出対象となった立体視画像に関する各種パラメータ(立体視画像パラメータ)を生成するものである。例えば、立体視画像パラメータ生成部150は、左眼視用画像および右眼視用画像に含まれる物体のズラシ量を算出し、このズラシ量に基づいてその物体の領域とその物体の奥行量とを関連付けた立体視画像パラメータを算出する。この場合に、立体視画像パラメータ生成部150は、相関値算出部140によりブロック単位で算出された相関値に基づいて、左眼視用画像および右眼視用画像に含まれる物体のズラシ量をブロック単位で算出する。そして、立体視画像パラメータ生成部150は、その算出されたズラシ量をブロック単位で保持するズラシ量保持テーブル(テーブル情報)を生成する。ここで、物体の奥行量は、例えば、表示部170に立体視画像が表示される場合において、表示部170の表示面を基準とする場合における物体の飛出量または引込量とすることができる。このように、立体視画像パラメータ生成部150は、立体視画像を表示する際におけるその立体視画像に含まれる物体の奥行方向における位置を示す立体視画像パラメータ(例えば、ズラシ量保持テーブル)を生成する。この立体視画像パラメータは、立体視画像を表示する際におけるその立体視画像に含まれる物体の奥行方向における位置を調整する際に用いられる。また、この立体視画像パラメータは、立体視画像を表示する際におけるその立体視画像に含まれる物体から生じる音声を調整する際に用いられる。そして、立体視画像パラメータ生成部150は、生成された立体視画像パラメータを映像音声出力制御部160に出力する。なお、立体視画像パラメータ生成処理については、図7乃至図9等を参照して詳細に説明する。また、相関値算出部140および立体視画像パラメータ生成部150は、特許請求の範囲に記載の生成部の一例である。
映像音声出力制御部160は、操作受付部190により受け付けられた操作入力に応じて、放送受信部110により受信された放送波に対応する映像および音声を出力するための出力処理を行うものである。例えば、放送受信部110により受信された放送波に対応する立体視画像を表示部170に表示させ、その放送波に対応する音声を音声出力部180から出力させるための操作入力が操作受付部190により受け付けられた場合を想定する。この場合には、映像音声出力制御部160は、映像復号部120から出力された映像データに基づいて、表示部170に立体視画像を表示させる制御を行う。また、映像音声出力制御部160は、映像復号部120から出力された音声データに基づいて、音声出力部180に音声を出力させる制御を行う。また、表示部170に表示される立体視画像について編集や加工等を施す指示操作が操作受付部190により受け付けられた場合を想定する。この場合には、映像音声出力制御部160は、立体視画像パラメータ生成部150により生成された立体視画像パラメータを用いて、その指示操作に応じた編集や加工等を行う。また、音声出力部180から出力される音声を調整する指示操作が操作受付部190により受け付けられた場合を想定する。この場合には、映像音声出力制御部160は、立体視画像パラメータ生成部150により生成された立体視画像パラメータを用いて、その立体視画像に係る音声を調整する。
表示部170は、映像音声出力制御部160の制御に基づいて、各種画像を表示する表示部である。表示部170は、例えば、LCD(Liquid Crystal Display)等の表示素子により実現することができる。
音声出力部180は、映像音声出力制御部160の制御に基づいて、各種の音声情報を出力するものである。音声出力部180は、例えば、スピーカにより実現することができる。
操作受付部190は、ユーザによる操作入力を受け付ける操作受付部であり、受け付けられた操作入力の内容に応じた操作信号を映像音声出力制御部160に供給する。例えば、放送受信部110により受信された放送波に対応する立体視画像を表示部170に表示させ、それに対応する音声を音声出力部180から出力させるための操作入力が受け付けられた場合には、その旨の操作信号を映像音声出力制御部160に供給する。また、表示部170に表示される立体視画像について編集や加工等を施す指示操作が行われた場合には、その旨の操作信号を映像音声出力制御部160に供給する。
[立体視画像とこれに含まれる物体の奥行方向における位置との関係例]
図2は、本発明の第1の実施の形態における表示部170に表示される立体視画像を構成する各画像と、これらの各画像に含まれる物体の奥行方向における位置との関係を示す図である。図2(a)には、立体視画像が表示部170に表示された際に、ユーザ210が立体的に見ることができる物体203乃至205の位置を奥行方向に仮想的に配置した場合における上面図を模式的に示す。図2(b)には、図2(a)に示す物体203乃至205を立体的に表示させるための立体視画像(左眼視用画像201および右眼視用画像202)を示す。すなわち、左眼視用画像201および右眼視用画像202には、物体203乃至205が含まれている。また、奥行方向は、例えば、ユーザ210と表示部170の表示面とを結ぶ線に平行な方向であり、表示部170の表示面に直行する方向である。
なお、図2では、同一の物体については、左眼視用画像201および右眼視用画像202において同一の符号を付して説明する。また、図2では、説明の容易のため、左眼視用画像201および右眼視用画像202に含まれる物体203乃至205のズラシ量を比較的大きくして示す。
また、本発明の第1の実施の形態では、表示部170に立体視画像を表示するための表示方式の一例として、視差バリア方式や専用メガネ方式を用いることができる。専用メガネ方式は、立体視画像を見るための専用メガネ(例えば、アクティブシャッター方式メガネ、偏光板タイプメガネ)をユーザがかけることにより、そのユーザに立体視画像を提供する方式である。なお、視差バリア方式や専用メガネ方式以外の他の方式についても本発明の実施の形態を適用することができる。
ここで、左眼視用画像201および右眼視用画像202が表示部170に表示された際に、ユーザ210の左眼211が左眼視用画像201を見て、ユーザ210の右眼212が右眼視用画像202を見た場合を想定する。この場合には、図2(a)に示すように、左眼視用画像201および右眼視用画像202に含まれる物体204が表示面の位置220(表示部170の表示面の位置)に見えるものとする。また、左眼視用画像201および右眼視用画像202に含まれる物体203が表示面の位置220の奥側(表示面の奥側221)に見え、物体205が表示面の位置220の手前側(表示面の手前側222)に見えるものとする。
このように、表示面の位置220の物体204を基準とする場合において、立体感を構成する物体203および205は、立体視画像(左眼視用画像201および右眼視用画像202)内において水平方向にズレている。また、表示面の位置220を基準とする場合において、飛び出している物体205と、引っ込んでいる物体203とは、ズレの位置が反転している。
[左眼視用画像および右眼視用画像に含まれる物体のズラシ量の関係例]
図3は、本発明の第1の実施の形態における表示部170に表示される立体視画像を構成する各画像に含まれる物体のズラシ量の関係を示す図である。矩形230は、図2(b)に示す左眼視用画像201および右眼視用画像202に対応する矩形であり、矩形230内には、図2(b)に示す左眼視用画像201および右眼視用画像202に含まれる物体203乃至205を示す。なお、矩形230内において、物体203乃至205のうち、図2(b)に示す左眼視用画像201に含まれる物体203乃至205の輪郭を太線で示す。なお、物体204については、図2(a)に示すように、表示面の位置220に相当するため、ズレが発生しない。このため、矩形230内において、左眼視用画像201および右眼視用画像202に含まれる物体204が重複する。
また、矩形230内において、左眼視用画像201を基準とする場合における左眼視用画像201および右眼視用画像202間における物体203のズラシ量を矢印231で示す。同様に、左眼視用画像201を基準とする場合における左眼視用画像201および右眼視用画像202間における物体205のズラシ量を矢印232で示す。なお、物体204については、上述したようにズレが発生しない。
このように、左右眼の視差を利用して立体的な視覚を得るため、左眼視用画像201および右眼視用画像202に含まれる物体は、その物体の表示位置(奥行方向における位置)に応じてズレている。すなわち、物体のズラシ量は、立体視物体(3Dオブジェクト)の飛出量または引込量に対応するものである。そこで、本発明の第1の実施の形態では、立体視画像を構成する左眼視用画像および右眼視用画像を比較して物体のズラシ量を算出し、立体視物体(3Dオブジェクト)の飛出量または引込量を立体視画像パラメータとして求める例を示す。また、本発明の第1の実施の形態では、左眼視用画像を基準とし、左眼視用画像に含まれる物体と、右眼視用画像に含まれるその物体との差分に基づいて、その物体の飛出量または引込量を求める例を示す。
例えば、基準となる左眼視用画像に含まれる物体が右眼視用画像において左側(図3における左側)にズレている場合には、その物体は飛出物体であり、その物体のズラシ量は0よりも大きいものとする(すなわち、ズラシ量>0)。
また、例えば、基準となる左眼視用画像に含まれる物体が右眼視用画像において右側(図3における右側)にズレている場合には、その物体は引込物体であり、その物体のズラシ量は0未満であるものとする(すなわち、ズラシ量<0)。
また、例えば、基準となる左眼視用画像に含まれる物体が右眼視用画像においてズレていない場合には、その物体は表示面の位置(スクリーン面)に相当する物体であり、その物体のズラシ量は0であるものとする(すなわち、ズラシ量=0)。
具体的には、基準となる左眼視用画像201に含まれる物体203は、右眼視用画像202において右側(矢印231で示す)にズレているため、物体203は引込物体であり、物体203のズラシ量は0未満である(すなわち、物体203のズラシ量<0)。
また、基準となる左眼視用画像201に含まれる物体205は、右眼視用画像202において左側(矢印232で示す)にズレているため、物体205は飛出物体であり、物体205のズラシ量は0よりも大きい(すなわち、物体205のズラシ量>0)。
また、基準となる左眼視用画像201に含まれる物体204は、右眼視用画像202においてズレていないため、物体204は表示面の位置(スクリーン面)に相当する物体であり、物体204のズラシ量は0である(すなわち、物体204のズラシ量=0)。
[ズラシ量の算出例]
次に、立体視画像に含まれる物体のズラシ量を算出する算出方法について図面を参照して詳細に説明する。
図4および図5は、本発明の第1の実施の形態における相関値算出部140による相関値算出処理の対象となるブロック(比較対象ブロック)の選択方法とこれらの比較処理とを模式的に示す図である。なお、図4に示す左眼視用画像201および右眼視用画像202は、図2(b)と同様である。
相関値算出部140が相関値算出処理を行う場合には、基準となる左眼視用画像201における特定サイズの領域に含まれる画像(左比較対象ブロック)を取り出す。この比較対象ブロックは、例えば、4画素×4画素のサイズとすることができる。
また、相関値算出部140が相関値算出処理を行う場合には、最初に、左眼視用画像201の左上隅の位置が左比較対象ブロックの位置として選択される。また、選択された左比較対象ブロックの位置(左眼視用画像201における位置)に対応する右眼視用画像202の位置が、右比較対象ブロック(第一右比較対象ブロック)の位置として選択される。このように、左眼視用画像201および右眼視用画像202における2つのブロック(左比較対象ブロックおよび第一右比較対象ブロック)を比較することにより、相関値算出部140が相関値を算出する。
続いて、水平方向において、右眼視用画像202における第一右比較対象ブロックを1画素だけズラした位置が、新たな右比較対象ブロック(第二右比較対象ブロック)の位置として選択される。続いて、左眼視用画像201および右眼視用画像202における2つのブロック(左比較対象ブロックおよび第二右比較対象ブロック)を比較することにより、相関値算出部140が相関値を算出する。
以降も同様に、右眼視用画像202の水平方向における探索範囲(第一右比較対象ブロックを基準とする一定範囲)内において、右比較対象ブロックを1画素だけズラシながら、新たな右比較対象ブロック(第M右比較対象ブロック)が順次選択される。そして、左比較対象ブロックおよび第M右比較対象ブロックが比較され、相関値が算出される。なお、相関値の算出方法については、図5を参照して詳細に説明する。
続いて、立体視画像パラメータ生成部150が、右眼視用画像202の水平方向における探索範囲内の各右比較対象ブロックの比較により算出された相関値のうち、最も大きい相関値を抽出する。そして、立体視画像パラメータ生成部150が、その抽出された相関値に対応する右比較対象ブロックのズラシ量を、左眼視用画像201における左比較対象ブロックに関するズラシ量として決定する。
ここで、右眼視用画像202の水平方向における探索範囲(右比較対象ブロックをズラす範囲)について説明する。例えば、表示部170に表示される左眼視用画像および右眼視用画像のズレ量(mm)の最大値は、人間の両眼の間隔(例えば、65mm)に対応する。このため、ズラシ量を算出する際における探索範囲として、表示部170の表示面における水平方向のサイズと、人間の両眼の間隔の最大値(例えば、65mm)とに応じたピクセル数の範囲を設定することができる。
また、違和感のない立体視画像(3D映像)を構成する左眼視用画像および右眼視用画像の画像間の視差量を5%とする。この場合において、65インチ(≒142cm)のディスプレイにより試聴するためには、表示部170の表示面での視差量は、≒71mmに相当する。また、1920画素×1080画素の解像度のディスプレイパネルとして、ピクセル数に換算すると、N=1920×71/1420=96ピクセルとなる。したがって、探索範囲として、「−96<m<96」の範囲を設定することができる。
続いて、左比較対象ブロックの移動について説明する。最初のズラシ量が決定された後に、左眼視用画像201における左比較対象ブロックが右側方向(矢印241乃至244に示す方向)に4画素シフトされる。この左比較対象ブロックのシフトに応じて、右眼視用画像202における右比較対象ブロックが右側方向(矢印251乃至254に示す方向)に4画素シフトされて、第一右比較対象ブロックとして選択される。以降は、上述したように、右眼視用画像202の水平方向における探索範囲内において、新たな右比較対象ブロック(第M右比較対象ブロック)が順次選択され、左比較対象ブロックおよび第M右比較対象ブロックの比較により相関値が算出される。そして、左眼視用画像201における左比較対象ブロックに関するズラシ量が決定される。
以降も同様にして、左眼視用画像201における左比較対象ブロックが4画素ずつ右側方向に順次シフトされる。そして、左眼視用画像201の右端に左比較対象ブロックがシフトされ、この左比較対象ブロックについて相関値算出処理およびズラシ量決定処理が終了すると、左比較対象ブロックが4画素下側にシフトされるとともに左眼視用画像201の左端に移動される。そして、左眼視用画像201の右端および下端に左比較対象ブロックがシフトされ、この左比較対象ブロックについて相関値算出処理およびズラシ量決定処理が終了した場合には、一の立体視画像についての相関値算出処理およびズラシ量決定処理を終了する。また、以降も同様に、次の立体視画像について相関値算出処理およびズラシ量決定処理を順次行う。
ここで、左眼視用画像201において左比較対象ブロック240が配置され、左比較対象ブロック240の位置に対応する右眼視用画像202における右比較対象ブロック(第一右比較対象ブロック250)が選択された場合を想定する。すなわち、左眼視用画像201に含まれる物体205の位置に左比較対象ブロック240が配置された場合における相関値算出処理およびズラシ量決定処理を示す。
最初に、左比較対象ブロック240および第一右比較対象ブロック250が比較され、相関値が算出される。続いて、右眼視用画像202の水平方向における探索範囲R1内において、右比較対象ブロックを1画素だけズラしながら、新たな右比較対象ブロック(第M右比較対象ブロック)が順次選択される。そして、左比較対象ブロック240および第M右比較対象ブロック(図4では、点線で示す各矩形)が比較され、相関値が算出される。
続いて、立体視画像パラメータ生成部150が、右眼視用画像202の水平方向における探索範囲R1内の各右比較対象ブロックの比較により算出された相関値のうち、最も大きい相関値を抽出する。この例では、探索範囲R1内の右比較対象ブロック255について算出された相関値が最も大きい相関値として抽出される(256)。この場合には、立体視画像パラメータ生成部150が、その抽出された相関値に対応する右比較対象ブロック255のズラシ量を、左眼視用画像201における左比較対象ブロック240に関するズラシ量として決定する。
図5には、相関値算出部140による相関値算出処理の対象となる立体視画像を構成する2つの画像(左眼視用画像および右眼視用画像)の一部(それぞれ対応する領域)を拡大して示す。具体的には、図5(a)には、左眼視用画像の一部に対応する画像(4画素×8画素)260と、右眼視用画像の一部に対応する画像(4画素×8画素)270とを並べて示す。なお、画像260および270を構成する各矩形は画素を示し、画像260および270に含まれる半円形261および271は、左眼視用画像および右眼視用画像に含まれる物体の一部を模式的に示すものとする。
最初に、相関値の算出方法について説明する。相関値C(m)は、次の式1を用いて算出される。ここで、mは、ズラシ量であり、探索範囲内の値となる。例えば、探索範囲を2R(2×R(Rは正の整数))とし、基準位置を0とし、左右方向における左側を負の値とし、左右方向における右側を正の値とする場合には、−R≦m≦Rとなる。
ここで、Nは、相関値算出の対象となる画像のピクセル数(すなわち、比較対象ブロックの画素数)を示す。本発明の第1の実施の形態では、N=16の場合を示す。また、nは、比較対象ブロック内の画素を識別する識別番号であり、比較対象ブロック内の各画素には、その配置位置に応じて識別番号0乃至15が付される。また、Xは、左眼視用画像における比較対象ブロック内の画素値を示し、Xは、右眼視用画像における比較対象ブロック内の画素値を示す。
ここで、C(m)は、その最大値が1になるよう正規化されている(すなわち、C(m)≦1)。このため、各比較対象ブロックについて算出された相関値の最大値は1以下となる。
具体的には、相関値算出部140が相関値算出処理を行う場合には、図5(a)に示す左比較対象ブロック(点線の矩形)262内の各画素と、第一右比較対象ブロック(点線の矩形)272内の各画素とについて、式1を用いて相関値C(m)を算出する。
続いて、図5(b)に示すように、水平方向において、画像260における右比較対象ブロックを1画素だけズラした位置が、新たな右比較対象ブロック(第二右比較対象ブロック)272の位置として選択される。続いて、相関値算出部140が、図5(b)に示す左比較対象ブロック(点線の矩形)262内の各画素と、第二右比較対象ブロック(点線の矩形)272内の各画素とについて、式1を用いて相関値C(m)を算出する。
続いて、図5(c)に示すように、以降も同様に、探索範囲内において、左比較対象ブロック(点線の矩形)262内の各画素と、第M右比較対象ブロック(点線の矩形)272内の各画素とについて、式1を用いて相関値C(m)が算出される。続いて、探索範囲内における相関値C(m)の算出処理が終了した場合には、立体視画像パラメータ生成部150が、各比較対象ブロックについて算出された相関値C(m)のうち、1に最も近い相関値C(m)を抽出する。この例では、図5(b)に示す第二右比較対象ブロック272について算出された相関値C(m)が最も大きい相関値として抽出される。この場合には、立体視画像パラメータ生成部150が、その抽出された相関値C(m)に対応する第二右比較対象ブロック272のズラシ量1(m=1)を、左眼視用画像における左比較対象ブロック262に関するズラシ量として決定する。
図6は、本発明の第1の実施の形態における相関値算出部140による相関値算出処理の対象となる立体視画像を構成する2つの画像(左眼視用画像および右眼視用画像)の一部(それぞれ対応する領域)を拡大して示す図である。なお、図6は、画像(4画素×8画素)275に含まれる半円形(物体)276の位置が異なる点以外は、図5と同様である。このため、図5と共通する部分については、同一の符号を付して、これらの説明を省略する。
具体的には、図6では、画像275に含まれる半円形(物体)276の位置が、図5に示す画像270に含まれる半円形(物体)271の位置よりも、右側に0.5画素だけズレている場合を模式的に示す。
ここで、図5では、左眼視用画像に含まれる半円形(物体)261および右眼視用画像に含まれる半円形(物体)271が1画素だけズレている例(物体が画素単位(整数単位)でズレている例)を示した。ただし、左眼視用画像および右眼視用画像に含まれる物体が画素単位(整数単位)でズレていない場合も想定される。例えば、図6に示すように、左眼視用画像および右眼視用画像に含まれる物体が小数単位(例えば、0.5画素単位)でズレている場合が想定される。このような場合でも、上述した式1を用いる相関値の計算は、一定の探索範囲において相関値が最大となるズラシ量を求めればよいため、左眼視用画像および右眼視用画像に含まれる物体が小数単位でズレている場合についても適用することができる。
なお、精度の高いズラシ量を求めるため、周辺ピクセルとのフィルタ処理(例えば、移動平均を行う補間フィルタによるフィルタ処理)により、小数精度でズラシ量を求めるようにしてもよい。
[ズラシ量保持テーブル例]
図7は、本発明の第1の実施の形態における立体視画像パラメータ生成部150により生成されるズラシ量保持テーブルの一例(ズラシ量保持テーブル300)を模式的に示す図である。図7(a)には、ズラシ量保持テーブル300を生成する際に用いられる立体視画像(左眼視用画像301および右眼視用画像302)を示す。左眼視用画像301および右眼視用画像302は、1920画素×1080画素からなる画像である。なお、図7(a)では、左眼視用画像301および右眼視用画像302に対応する矩形のみを示し、各画像に含まれる物体等の図示を省略する。
図7(b)には、左眼視用画像301および右眼視用画像302について算出されたズラシ量を、ブロック単位で保持するズラシ量保持テーブル300を示す。1920画素×1080画素からなる左眼視用画像301および右眼視用画像302について、4画素×4画素のブロック単位で相関値処理を行った場合には、129,600(480×270)個のズラシ量がブロック毎に算出される。このようにブロック毎に算出されたズラシ量を、立体視画像パラメータ生成部150は、算出対象となったブロック(左比較対象ブロック)に関連付けてズラシ量保持テーブル300に保持させる。
また、図7(b)には、左眼視用画像301におけるブロック(左比較対象ブロック)の位置に対応するズラシ量保持テーブル300の位置に、立体視画像パラメータ生成部150により生成されたズラシ量を格納して示す。また、上述したように、ズラシ量については、画素単位で算出するようにしてもよく、小数単位で算出するようにしてもよいが、図7(b)では、説明の容易のため、画素単位で算出されたズラシ量を保持する例を示す。また、ズラシ量については、0以外に、正の値(いわゆる、飛出方向の値(飛出量))および負の値(いわゆる、引込方向の値(引込量))の何れも算出されるが、図7(b)では、説明の容易のため、正の値のみを例示する。
このように生成されるズラシ量保持テーブル300については、立体視画像パラメータ生成部150が映像音声出力制御部160に出力する。そして、映像音声出力制御部160は、映像復号部120から出力された映像データと、音声復号部130から出力された音声データとを出力させる場合に、ズラシ量保持テーブル300の保持内容を用いて各出力制御を行うことができる。例えば、映像復号部120から出力された映像データに基づいて立体視画像を表示部170に表示させる場合には、ズラシ量保持テーブル300の保持内容を用いて、立体視画像に含まれる各物体の飛出量または引込量を調整することができる。また、例えば、音声復号部130から出力された音声データに基づいて立体視画像に係る音声を音声出力部180から出力させる場合を想定する。この場合には、ズラシ量保持テーブル300の保持内容を用いて、立体視画像に含まれる各物体の飛出量または引込量に応じて、その立体視画像に係る音声を調整することができる。
このように、映像データおよび音声データを出力させる場合に、ズラシ量保持テーブル300の保持内容を用いてブロック単位で各出力制御を行うことができる。ここで、立体視画像において、立体的に見ることができる物体(立体視物体)を検出しておき、この立体視物体に対応する領域を保持しておくことにより、物体単位で各種出力制御を行うことができると考えられる。そこで、以下では、立体視物体を検出して、立体視物体に対応する領域を保持する例を示す。
[立体視物体の検出例]
図8は、本発明の第1の実施の形態における立体視画像パラメータ生成部150による二値化処理に用いられる微分フィルタの一例(微分フィルタ(X方向)321および微分フィルタ(Y方向)322)を示す図である。また、図8には、立体視物体の検出処理(3Dオブジェクト領域の検出処理)の対象となるズラシ量保持テーブル310を示す。なお、図8では、説明の容易のため、ズラシ量保持テーブル310を簡略化して示す。
微分フィルタ(X方向)321は、X方向(画像における水平方向)の差分を求めるための微分フィルタであり、微分フィルタ(Y方向)322は、Y方向(画像における垂直方向)の差分を求めるための微分フィルタである。
この例では、立体視物体の検出方法として、ズラシ量保持テーブル310におけるズラシ量が「0」の領域(ズラシ量0領域)に接する、ズラシ量が「非0」の領域(ズラシ量非0領域)についてエッジ検出処理を行うことにより立体視物体を検出する例を示す。
図8では、ズラシ量保持テーブル310におけるズラシ量0領域に接するズラシ量非0領域に対応する矩形群311にグレーを付して示す。すなわち、矩形群311を構成するブロックに対応する画素について、エッジ検出処理を行う。
例えば、矩形群311を構成するブロック312に対応する画素群(4画素×4画素)について、矢印313および314に示すように、微分フィルタ(X方向)321および微分フィルタ(Y方向)322を用いて、エッジ検出処理を行う。なお、矩形群311を構成するブロック312に対応する画素群については、ズラシ量非0の画像ブロック330として図9(a)に示す。
図9は、本発明の第1の実施の形態における立体視画像パラメータ生成部150による二値化処理の流れを模式的に示す図である。図9(a)には、図8に示す矩形群311を構成するブロック312に対応する画素群を、ズラシ量非0の画像ブロック330として示す。
図9(b)には、二値化処理の流れを模式的に示す。最初に、上述したように、ズラシ量非0の画像ブロック330を構成する画素について、微分フィルタ(X方向)321を用いてフィルタ処理(X方向)331が行われる。また、ズラシ量非0の画像ブロック330について、微分フィルタ(Y方向)322を用いてフィルタ処理(Y方向)333が行われる。
続いて、フィルタ処理(X方向)331により算出された値の絶対値が算出される(絶対値算出処理332)。また、フィルタ処理(Y方向)333により算出された値の絶対値が算出される(絶対値算出処理334)。
続いて、絶対値算出処理332により算出された絶対値と、絶対値算出処理334により算出された絶対値とが加算されて加算値(絶対値和)が算出される(加算処理335)。
続いて、加算処理335により算出された加算値に基づいて、二値化処理336が行われる。具体的には、加算処理335により算出された加算値が閾値以上である場合には「1」とし、加算処理335により算出された加算値が閾値未満である場合には「0」とする。続いて、二値化処理336の結果(二値化データ(0または1))が画像ブロックの二値化データ337として画素毎に保持される。また、このように算出された二値化データ(0または1)については、ズラシ量保持テーブル310に関連付けて保持される。
例えば、算出された二値化データ(0または1)により、立体視画像における閉じた領域が特定される場合には、立体視画像パラメータ生成部150が、その閉じた領域を立体視物体として検出する。このように、立体視物体が検出された場合には、立体視画像パラメータ生成部150が、その検出された物体に対応する領域と、その検出された物体のズラシ量とを関連付けて立体視画像パラメータを生成する。また、立体視画像に複数の物体が含まれる場合には、その複数の物体を物体毎に検出し、その検出された物体に対応する領域と、その検出された物体のズラシ量とを関連付けて立体視画像パラメータを生成する。このように複数の物体を検出する場合には、各物体に対応する領域が閉じた領域であることが必要となる。なお、立体視画像パラメータ生成部150が、その検出された物体のズラシ量を奥行量(飛出量または引込量)に変換し、その検出された物体に対応する領域と、その検出された物体の奥行量とを関連付けて立体視画像パラメータを生成するようにしてもよい。
[画像におけるズレ量と表示面におけるズレ量との関係例]
図10は、本発明の第1の実施の形態における映像復号部120により復号された映像データに対応する立体視画像におけるズレ量と、表示部170の表示面におけるズレ量との関係を示す図である。図10(a)には、立体視画像を構成する左眼視用画像201および右眼視用画像202を示す。図10(a)に示す左眼視用画像201および右眼視用画像202は、図2(b)と同様である。図10(a)では、左眼視用画像201における物体203のズレ量(右眼視用画像202に含まれる物体203とのズレ量)をズレ量G1として示す。
図10(b)には、表示部170に表示される立体視画像を示す。なお、図10(b)では、図10(a)に示す左眼視用画像201および右眼視用画像202を合成して示す。また、図10(b)では、表示部170の表示面におけるズレ量(左眼視用画像201および右眼視用画像202に含まれる物体203のズレ量)をズレ量G2として示す。
このように、立体視画像におけるズレ量と、表示部170の表示面におけるズレ量との関係に基づいて、映像音声出力制御部160は、生成された立体視画像パラメータを用いて、立体視画像を表示部170に表示させる。このため、映像音声出力制御部160は、立体視画像におけるズレ量と、表示部170の表示面におけるズレ量との変換テーブルを保持しておき、この変換テーブルに基づいて、生成された立体視画像パラメータを用いた立体視画像の表示制御を行う。
[試聴位置と飛出位置との関係例]
図11は、本発明の第1の実施の形態における表示部170に表示される立体視画像を視聴する場合における視聴位置と、その立体視画像に含まれる物体(立体視物体)の飛出位置との関係を模式的に示す図である。
図11において、立体視画像が表示される位置(表示部170の表示面)を表示面の位置350とし、表示部170に表示される立体視画像を視聴する場合におけるユーザの視聴位置を視聴位置351とする。また、この状態で立体視画像を視聴しているユーザが見ることができる物体(立体視物体352)の飛出位置を飛出位置353とする。
ここで、立体視画像に含まれる立体視物体352のズレ量(表示面上のズレ量)をpとし、表示面の位置350および視聴位置351間の距離をlとし、立体視画像を視聴しているユーザの両眼間隔をeとする。また、表示面の位置350および飛出位置353間の距離(飛出量)をdとする。
この場合に、表示面の位置350と、視聴位置351と、飛出位置353との関係については、相似関係から、以下の式2が成立する。
d:p=(l−d):e …式2
また、式2を変形すると、d=pl/(e+p)が求められる。
具体的には、p=71mm、l=2000mm、e=65mmを代入すると、飛出量dとして、1044mm(d=71×2000/(65+71))を求めることができる。
このように、立体視画像における物体のズレ量を用いて、その物体の飛出量を求めることができる。このため、映像音声出力制御部160は、立体視画像における物体のズレ量を用いて、その物体の奥行量(飛出量または引込量)の調整を行うことができる。
[情報処理装置の動作例]
次に、本発明の第1の実施の形態における情報処理装置100の動作について図面を参照して説明する。
図12は、本発明の第1の実施の形態における情報処理装置100による立体視画像パラメータ生成制御処理の処理手順の一例を示すフローチャートである。
最初に、放送受信部110が放送波を受信して映像信号を復調し、映像復号部120がその映像信号を復号処理して映像データ(立体視画像を表示させるための映像データ)を復元する(ステップS901)。すなわち、立体視画像情報が取得される(ステップS901)。なお、ステップS901は、特許請求の範囲に記載の取得手順の一例である。
続いて、相関値算出部140が、左眼視用画像および右眼視用画像における最初の比較対象ブロックを選択する(ステップS902)。続いて、相関値算出部140が、選択された左眼視用画像および右眼視用画像における2つの比較対象ブロックを比較することにより相関値を算出する(ステップS903)。続いて、右眼視用画像の水平方向における探索範囲内の相関値算出処理が終了したか否かが判断される(ステップS904)。探索範囲内の相関値算出処理が終了していない場合には(ステップS904)、相関値算出部140が、右眼視用画像における比較対象ブロックを水平方向に移動させて新たな比較対象ブロックを選択し(ステップS905)、ステップS903に戻る。
一方、探索範囲内の相関値算出処理が終了した場合には(ステップS904)、立体視画像パラメータ生成部150が、探索範囲内の各比較対象ブロックの比較により算出された相関値のうち、最も大きい相関値を抽出する。そして、立体視画像パラメータ生成部150が、その抽出された相関値に対応する比較対象ブロックのズラシ量を、左眼視用画像における左比較対象ブロックに関するズラシ量として決定する(ステップS906)。
続いて、立体視画像パラメータ生成部150が、決定されたズラシ量を、算出対象となった比較対象ブロックに関連付けてズラシ量保持テーブルに保持する(ステップS907)。
続いて、左眼視用画像における全ての比較対象ブロックについてズラシ量決定処理が終了したか否かが判断される(ステップS908)。全ての比較対象ブロックについてズラシ量決定処理が終了していない場合には(ステップS908)、ズラシ量決定処理が終了していない比較対象ブロックが新たな比較対象ブロックとして選択され(ステップS909)、ステップS903に戻る。すなわち、相関値算出部140が、左眼視用画像における比較対象ブロックのうち、ズラシ量決定処理が終了していない比較対象ブロックを新たな比較対象ブロックとして選択し(ステップS909)、ステップS903に戻る。
一方、左眼視用画像における全ての比較対象ブロックについてズラシ量決定処理が終了した場合には(ステップS908)、立体視画像に含まれる物体の領域が検出される(ステップS910)。すなわち、立体視画像パラメータ生成部150が、生成されたズラシ量保持テーブルに基づいて、立体視画像に含まれる物体(立体的に見ることができる物体(立体視物体))の領域を検出する(ステップS910)。続いて、立体視画像パラメータ生成部150が、その検出された物体に対応する領域と、その検出された物体の奥行量とを関連付けて立体視画像パラメータを生成し(ステップS911)、立体視画像パラメータ生成制御処理の動作を終了する。なお、ステップS902乃至S911は、特許請求の範囲に記載の生成手順の一例である。
このように、本発明の第1の実施の形態によれば、立体視画像(3D映像)に含まれる立体視物体(3Dオブジェクト)の領域と、この領域に係る立体視画像パラメータ(例えば、飛出量または引込量)とを求めることができる。すなわち、快適かつ臨場感を与える3D放送アプリケージョンを実現するために必要な各種情報を求めることができる。また、この各種情報をユーザに提供することができるため、ユーザが好みに応じて立体視画像を編集や加工等を容易に行うことができる。例えば、立体視物体の領域と、この領域に係る奥行量(飛出量または引込量)とを用いて、立体視画像を調整して表示させることができる。これにより、ユーザが立体視画像を見る場合に、その立体視画像の表示をさらに快適なものとし、臨場感を与えることができる。また、例えば、平面画像(2D映像)、立体視画像(3D映像)が混在している放送波に対応する画像を家庭用テレビに表示する場合には、チャネル切り替えやCMにより、平面画像および立体視画像が頻繁に切り替わることも想定される。この場合でも、ユーザが好みに応じて立体視画像を編集や加工等を容易に行うことができるため、ユーザに生じる不快感を低減させることができる。このように、本発明の第1の実施の形態によれば、ユーザの好みに応じた立体視画像を表示するためのパラメータを適切に生成することができる。
<2.第2の実施の形態>
本発明の第1の実施の形態では、受信した放送波に対応する映像データを表示する前に立体視画像パラメータを生成し、この立体視画像パラメータを用いてその映像データの表示制御を行う例を示した。しかしながら、受信した放送波に対応する映像データを記録(録画)しておき、ユーザ好みの時間にその映像データを見ることも想定される。そこで、本発明の第2の実施の形態では、受信した放送波に対応する映像データの立体視画像パラメータを生成し、この立体視画像パラメータとその映像データとを関連付けて記録する例を示す。なお、本発明の第2の実施の形態における情報処理装置の構成については、図1に示す例と略同様である。このため、本発明の第1の実施の形態と共通する部分については、同一の符号を付して、これらの説明の一部を省略する。
[情報処理装置の構成例]
図13は、本発明の第2の実施の形態における情報処理装置700の機能構成例を示すブロック図である。情報処理装置700は、記録制御部710と、コンテンツ記憶部720と、操作受付部730と、映像音声出力制御部740とを備える。情報処理装置700は、例えば、各放送局からの放送波を受信して映像データおよび音声データを記録するデジタルビデオレコーダやHDD(Hard Disk Drive)レコーダにより実現される。
記録制御部710は、放送受信部110により受信された放送波に対応する映像および音声をコンテンツとしてコンテンツ記憶部720に記録させるものである。具体的には、記録制御部710は、映像復号部120から出力された映像データと、映像復号部120から出力された音声データとを関連付けたコンテンツをコンテンツ記憶部720に記録させる。また、映像復号部120から出力された映像データが立体視画像に係る映像データである場合には、そのコンテンツと、立体視画像パラメータ生成部150により生成された立体視画像パラメータとが関連付けて記録される。すなわち、記録制御部710は、映像データおよび音声データを関連付けたコンテンツ(立体視画像情報を含む)と、その立体視画像パラメータとを関連付けてコンテンツ記憶部720に記録させる。また、立体視画像パラメータ生成部150により立体視画像に含まれる1または複数の物体が検出された場合には、その検出された物体の領域と、その物体の奥行量とを関連付けてコンテンツ記憶部720に記録させるようにしてもよい。
操作受付部730は、ユーザによる操作入力を受け付ける操作受付部であり、受け付けられた操作入力の内容に応じた操作信号を映像音声出力制御部740に供給する。例えば、コンテンツ記憶部720に記憶されているコンテンツを再生する再生指示操作が行われた場合には、その旨の操作信号を映像音声出力制御部740に供給する。また、コンテンツ記憶部720に記憶されているコンテンツ(立体視画像コンテンツ)について編集や加工等を施す指示操作が行われた場合には、その旨の操作信号を映像音声出力制御部740に供給する。
コンテンツ記憶部720は、記録制御部710の制御に基づいて、各種のコンテンツを記憶するものである。例えば、コンテンツ記憶部720は、記録制御部710の制御に基づいて、映像復号部120から出力された映像データと、映像復号部120から出力された音声データとを関連付けたコンテンツを記憶する。また、コンテンツ記憶部720は、立体視画像に係る映像データおよび音声データのコンテンツと、立体視画像パラメータ生成部150により生成された立体視画像パラメータとを関連付けて記憶する。そして、コンテンツ記憶部720は、記憶されているコンテンツを映像音声出力制御部740に供給する。
映像音声出力制御部740は、操作受付部730により受け付けられた操作入力に応じて、コンテンツ記憶部720に記憶されているコンテンツに対応する映像および音声を出力するための出力処理を行うものである。
このように、本発明の第2の実施の形態によれば、受信した放送波に対応する映像データ(立体視画像の映像データ)と、この映像データの立体視画像パラメータを関連付けて記録することができる。これにより、ユーザ好みの時間に、その映像データを見ることができるとともに、その映像データの立体視画像パラメータを用いて、ユーザ好みの編集や加工等を容易に行うことができる。また、その映像データの立体視画像パラメータを用いて、ユーザ好みの音声制御を容易に行うことができる。
<3.第3の実施の形態>
本発明の第1の実施の形態では、受信した放送波に対応する映像データについて、立体視画像に含まれる物体のズラシ量を算出して、このズラシ量に基づいて立体視画像パラメータを生成する例を示した。ここで、3D映像信号入力方式として、フレームパッキング方式を用いる場合には、ペアとなっている左眼視用画像および右眼視用画像間の動きベクトルを用いることができる。そこで、本発明の第3の実施の形態では、3D映像信号入力方式としてフレームパッキング方式を用いる場合において、ペアとなっている左眼視用画像および右眼視用画像間の動きベクトルを用いて、立体視画像パラメータを生成する例を示す。なお、本発明の第3の実施の形態における情報処理装置の構成については、図1に示す例と略同様である。このため、本発明の第1の実施の形態と共通する部分については、同一の符号を付して、これらの説明の一部を省略する。
ここで、フレームパッキング方式について簡単に説明する。フレームパッキング方式は、3D映像信号入力方式の1つである。また、フレームパッキング方式では、ペアとなっている左眼視用画像および右眼視用画像の映像データが連続して符号化されている。また、フレームパッキング方式では、ペアとなっている左眼視用画像および右眼視用画像間の動きベクトルが保持されているため、この動きベクトルを用いることができる。すなわち、フレームパッキング方式は、圧縮符号化されている左眼視用画像および右眼視用画像が時間軸において連続してペア単位で伝送される伝送方式であり、左眼視用画像および右眼視用画像間における動きベクトルがその画像に関連付けられている。
ここで、左眼視用画像および右眼視用画像間の動きベクトルは、垂直成分は0であるが、水平成分は0以外の値(非0の値)となることが想定される。このため、ペアとなっている左眼視用画像および右眼視用画像の動きベクトルのうち、その水平成分を用いて、そのペアのズラシ量保持テーブルを生成することができる。
[情報処理装置の構成例]
図14は、本発明の第3の実施の形態における情報処理装置800の機能構成例を示すブロック図である。情報処理装置800は、動きベクトル検出部810と、立体視画像パラメータ生成部820とを備える。情報処理装置800は、例えば、フレームパッキング方式に対応するテレビジョン受像機により実現される。
放送受信部110は、各放送局からの放送波(フレームパッキング方式に係る放送波)を受信する。また、映像復号部120は、放送受信部110から出力された映像信号を復号処理して映像データを復元し、復元された映像データを動きベクトル検出部810および映像音声出力制御部160に出力する。
動きベクトル検出部810は、映像復号部120から出力された映像データ(左眼視用画像および右眼視用画像)について動きベクトル検出処理を行うものであり、その検出結果を立体視画像パラメータ生成部820に出力する。
立体視画像パラメータ生成部820は、動きベクトル検出部810から出力された動きベクトルの検出結果に基づいて、検出対象となった立体視画像に関する各種パラメータ(立体視画像パラメータ)を生成するものである。立体視画像パラメータ生成部820は、動きベクトル検出部810から出力された検出結果(動きベクトル)を用いて、その動きベクトルが検出された物体の領域とその物体の奥行量とを関連付けた立体視画像パラメータを算出する。そして、立体視画像パラメータ生成部820は、生成された立体視画像パラメータを映像音声出力制御部160に出力する。なお、動きベクトル検出部810および立体視画像パラメータ生成部820は、特許請求の範囲に記載の生成部の一例である。
[フレームパッキング方式に対応する映像データ例]
図15は、本発明の第3の実施の形態における動きベクトル検出部810による動きベクトル検出の対象となる映像データの一例を示す図である。
図15には、時系列で連続する各画像(左眼視用画像831、右眼視用画像832、左眼視用画像833、右眼視用画像834)をフレーム毎に示す。なお、左眼視用画像831および右眼視用画像832は、立体視画像を表示するためのペア861であり、左眼視用画像833および右眼視用画像834は、立体視画像を表示するためのペア862である。
また、左眼視用画像831、右眼視用画像832、左眼視用画像833、右眼視用画像834には、静止状態である立体視物体(点線の矩形841乃至844内に示す)と、移動状態である立体視物体(点線の矩形851乃至854内に示す)とが含まれている。なお、静止状態である立体視物体(点線の矩形841乃至844内に示す)は、表示面の奥側に位置し、移動状態である立体視物体(点線の矩形851乃至854内に示す)は、表示面の手前側に位置するように表示されるものとする。
最初に、動きベクトル検出部810が、ペアとなっている左眼視用画像および右眼視用画像間の動きベクトルを検出する。具体的には、動きベクトル検出部810が、ペア861を構成する左眼視用画像831および右眼視用画像832間の動きベクトルを検出し、検出された動きベクトルを立体視画像パラメータ生成部820に出力する。立体視画像パラメータ生成部820は、動きベクトル検出部810により検出された動きベクトル(左眼視用画像831および右眼視用画像832間の動きベクトル)の水平成分を算出して、その算出された水平成分をズラシ量とする。そして、立体視画像パラメータ生成部820は、算出されたズラシ量と、このズラシ量が算出されたブロックとを関連付けて、ペア861のズラシ量保持テーブルを生成する。また、ペア862以降についても同様に、ペア毎にズラシ量保持テーブルを生成することができる。
また、立体視画像パラメータ生成部820は、本発明の第1の実施の形態と同様に、ズラシ量保持テーブルを用いて、エッジ検出処理、二値化処理、立体視物体検出処理等を行うことができる。また、立体視画像パラメータ生成部820は、動きベクトルの大きさの分布に基づいて、立体視物体(3Dオブジェクト)の領域を検出するようにしてもよい。
このように、本発明の第3の実施の形態によれば、受信した放送波に対応する映像データ(立体視画像の映像データ)に関連付けられている動きベクトルを用いて、立体視画像パラメータを生成することができる。このように、動きベクトルを用いることにより、フレームパッキング方式で圧縮符号化されている立体視画像(3D映像)については、立体視画像パラメータ生成に必要な演算量を削減することができる。
なお、本発明の実施の形態では、放送波に対応する立体視画像情報(立体視画像を表示するための立体視画像情報)を取得して立体視画像を表示させる情報処理装置を例にして説明した。ただし、記録媒体に記憶されている立体視画像情報を取得して立体視画像を表示させる情報処理装置やネットワーク(有線回線や無線回線)を介して立体視画像情報を取得して立体視画像を表示させる情報処理装置に本発明の実施の形態を適用することができる。
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、本発明の実施の形態において明示したように、本発明の実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本発明の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本発明は実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
100、700、800 情報処理装置
110 放送受信部
120 映像復号部
130 音声復号部
140 相関値算出部
150、820 立体視画像パラメータ生成部
160、740 映像音声出力制御部
170 表示部
180 音声出力部
190、730、 操作受付部
710 記録制御部
720 コンテンツ記憶部
810 動きベクトル検出部

Claims (13)

  1. 立体視画像を表示させるための立体視画像情報を取得する取得部と、
    前記取得された立体視画像情報を構成する第1画像および第2画像を比較することにより前記立体視画像を表示する際における前記立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成する生成部と
    を具備する情報処理装置。
  2. 前記生成部は、前記第1画像および前記第2画像を比較することにより前記第1画像および前記第2画像に含まれる物体のズラシ量を算出して当該ズラシ量に基づいて当該物体の領域と当該物体の奥行量とを関連付けた前記パラメータを生成する請求項1記載の情報処理装置。
  3. 前記生成部は、前記物体の奥行量として、前記立体視画像を表示する表示部における表示面を基準とする場合における当該物体の飛出量または引込量を算出する請求項2記載の情報処理装置。
  4. 前記生成部は、前記第1画像および前記第2画像に含まれる1または複数の物体を物体毎に検出し、
    前記検出された物体の領域と当該物体の奥行量とを関連付けた前記パラメータを記録媒体に記録させる記録制御部をさらに具備する
    請求項2記載の情報処理装置。
  5. 前記生成部は、前記第1画像を構成するブロックと前記第2画像を構成するブロックとを比較して前記第1画像および前記第2画像に含まれる物体のズラシ量をブロック単位で算出して前記算出されたズラシ量をブロック単位で保持するテーブル情報を生成する請求項1記載の情報処理装置。
  6. 前記取得部は、放送波を受信して当該放送波に対応する映像データであって前記立体視画像を表示させるための映像データを前記立体視画像情報として取得する請求項1記載の情報処理装置。
  7. 前記取得部は、圧縮符号化されている前記第1画像および前記第2画像が時間軸において連続してペア単位で伝送されて前記第1画像および前記第2画像間における動きベクトルが当該画像に関連付けられている伝送方式であるフレームパッキング方式に係る映像データを前記立体視画像情報として取得し、
    前記生成部は、前記動きベクトルにおける水平成分を用いて前記パラメータを生成する
    請求項6記載の情報処理装置。
  8. 前記生成部は、前記パラメータとして前記物体の奥行方向における位置を調整する際に用いられるパラメータを生成する請求項1記載の情報処理装置。
  9. 前記生成部は、前記パラメータとして前記物体から生じる音声を調整する際に用いられるパラメータを生成する請求項1記載の情報処理装置。
  10. 前記生成されたパラメータと前記取得された立体視画像情報とを関連付けて記録媒体に記録させる記録制御部をさらに具備する請求項1記載の情報処理装置。
  11. 立体視画像を表示するための第1画像および第2画像を含む映像データであって、符号化されている前記第1画像および前記第2画像が時間軸において連続してペア単位で伝送されて前記第1画像および前記第2画像間における動きベクトルが当該画像に関連付けられている伝送方式であるフレームパッキング方式に係る映像データを取得する取得部と、
    前記取得された映像データに含まれる前記第1画像および前記第2画像間における動きベクトルを用いて前記立体視画像を表示する際に前記立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成する生成部と
    を具備する情報処理装置。
  12. 立体視画像を表示させるための立体視画像情報を取得する取得手順と、
    前記取得された立体視画像情報を構成する第1画像および第2画像を比較することにより前記立体視画像を表示する際における前記立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成する生成手順と
    を具備する情報処理方法。
  13. 立体視画像を表示させるための立体視画像情報を取得する取得手順と、
    前記取得された立体視画像情報を構成する第1画像および第2画像を比較することにより前記立体視画像を表示する際における前記立体視画像に含まれる物体の奥行方向における位置を示すパラメータを生成する生成手順と
    をコンピュータに実行させるプログラム。
JP2010232804A 2010-10-15 2010-10-15 情報処理装置、情報処理方法およびプログラム Pending JP2012089931A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010232804A JP2012089931A (ja) 2010-10-15 2010-10-15 情報処理装置、情報処理方法およびプログラム
US13/137,676 US9001188B2 (en) 2010-10-15 2011-09-02 Information processing apparatus, information processing method and program
EP11180921A EP2442577A3 (en) 2010-10-15 2011-09-12 Information processing apparatus, informaton processing method and program
CN2011102943389A CN102457742A (zh) 2010-10-15 2011-09-30 信息处理装置、信息处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232804A JP2012089931A (ja) 2010-10-15 2010-10-15 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2012089931A true JP2012089931A (ja) 2012-05-10

Family

ID=44582646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232804A Pending JP2012089931A (ja) 2010-10-15 2010-10-15 情報処理装置、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US9001188B2 (ja)
EP (1) EP2442577A3 (ja)
JP (1) JP2012089931A (ja)
CN (1) CN102457742A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109218348A (zh) * 2017-06-29 2019-01-15 华为技术有限公司 一种区块链中区块的确定方法及节点设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153537A1 (ja) * 2011-05-11 2012-11-15 パナソニック株式会社 映像表示装置
JP5087163B1 (ja) * 2011-08-31 2012-11-28 株式会社東芝 立体画像表示装置
US10264238B2 (en) * 2015-11-12 2019-04-16 Bitanimate, Inc. Stereoscopic mapping

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200814A (ja) * 2002-12-16 2004-07-15 Sanyo Electric Co Ltd 立体映像生成方法及び立体映像生成装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
JP2009505550A (ja) * 2005-08-17 2009-02-05 エヌエックスピー ビー ヴィ 奥行き抽出のためのビデオ処理方法及び装置
WO2010038409A1 (ja) * 2008-09-30 2010-04-08 パナソニック株式会社 再生装置、記録媒体、及び集積回路
WO2010095382A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路
JP2010531490A (ja) * 2007-06-20 2010-09-24 トムソン ライセンシング 画像のステレオ・マッチングのためのシステム及び方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179441A (en) 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US5383013A (en) 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
JPH09322198A (ja) 1996-05-29 1997-12-12 Sony Corp 3次元立体映像信号変換装置及び該装置を用いる映像モニター装置
JP4056154B2 (ja) * 1997-12-30 2008-03-05 三星電子株式会社 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
US20020012459A1 (en) 2000-06-22 2002-01-31 Chips Brain Co. Ltd. Method and apparatus for detecting stereo disparity in sequential parallel processing mode
US7444013B2 (en) 2001-08-10 2008-10-28 Stmicroelectronics, Inc. Method and apparatus for recovering depth using multi-plane stereo and spatial propagation
KR100585966B1 (ko) 2004-05-21 2006-06-01 한국전자통신연구원 3차원 입체 영상 부가 데이터를 이용한 3차원 입체 디지털방송 송/수신 장치 및 그 방법
US20080279285A1 (en) * 2004-07-02 2008-11-13 Koninklijke Philips Electronics, N.V. Video Processing
KR100667810B1 (ko) 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
KR100834577B1 (ko) * 2006-12-07 2008-06-02 한국전자통신연구원 스테레오 비전 처리를 통해 목표물 검색 및 추종 방법, 및이를 적용한 가정용 지능형 서비스 로봇 장치
EP2153670A4 (en) 2007-06-11 2011-03-09 Samsung Electronics Co Ltd METHOD AND DEVICE FOR GENERATING HEADLINE INFORMATION ON A STEREOSCOPIC IMAGE
ES2395363T3 (es) 2008-12-25 2013-02-12 Dolby Laboratories Licensing Corporation Reconstrucción de vistas desentrelazadas, utilizando interpolación adaptativa basada en disparidades entre las vistas para un muestro ascendente
KR101574068B1 (ko) * 2008-12-26 2015-12-03 삼성전자주식회사 영상 처리 방법 및 장치
EP2400774B1 (en) 2009-02-19 2015-07-15 Panasonic Intellectual Property Management Co., Ltd. Recording medium and reproduction device
WO2010095440A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
JP5409107B2 (ja) * 2009-05-13 2014-02-05 任天堂株式会社 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム
US8872900B2 (en) * 2009-06-26 2014-10-28 Lg Electronics Inc. Image display apparatus and method for operating the same
JP5428618B2 (ja) * 2009-07-29 2014-02-26 ソニー株式会社 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004200814A (ja) * 2002-12-16 2004-07-15 Sanyo Electric Co Ltd 立体映像生成方法及び立体映像生成装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
JP2009505550A (ja) * 2005-08-17 2009-02-05 エヌエックスピー ビー ヴィ 奥行き抽出のためのビデオ処理方法及び装置
JP2010531490A (ja) * 2007-06-20 2010-09-24 トムソン ライセンシング 画像のステレオ・マッチングのためのシステム及び方法
WO2010038409A1 (ja) * 2008-09-30 2010-04-08 パナソニック株式会社 再生装置、記録媒体、及び集積回路
WO2010095382A1 (ja) * 2009-02-19 2010-08-26 パナソニック株式会社 記録媒体、再生装置、集積回路

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109218348A (zh) * 2017-06-29 2019-01-15 华为技术有限公司 一种区块链中区块的确定方法及节点设备
CN109218348B (zh) * 2017-06-29 2020-12-01 华为技术有限公司 一种区块链中区块的确定方法及节点设备

Also Published As

Publication number Publication date
EP2442577A3 (en) 2012-05-16
CN102457742A (zh) 2012-05-16
US20120092448A1 (en) 2012-04-19
US9001188B2 (en) 2015-04-07
EP2442577A2 (en) 2012-04-18

Similar Documents

Publication Publication Date Title
KR101639053B1 (ko) 3d 이미지 및 그래픽 데이터의 조합
RU2554465C2 (ru) Комбинирование 3d видео и вспомогательных данных
CN103024408B (zh) 立体图像转换装置和方法、立体图像输出装置
US20130038611A1 (en) Image conversion device
US20110096155A1 (en) Display apparatus and image display method therein
KR20110106371A (ko) 3d 비디오상에 3d 그래픽스를 오버레이하는 방법 및 디바이스
KR20110096494A (ko) 전자 장치 및 입체영상 재생 방법
CA2767511A1 (en) Signal processing method and apparatus therefor using screen size of display device
KR20110116525A (ko) 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
US9414042B2 (en) Program guide graphics and video in window for 3DTV
JP5699566B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2012119738A (ja) 情報処理装置、情報処理方法およびプログラム
EP2582144A2 (en) Image processing method and image display device according to the method
JP2012089931A (ja) 情報処理装置、情報処理方法およびプログラム
JP5066244B2 (ja) 映像再生装置及び映像再生方法
WO2012014489A1 (ja) 映像信号処理装置及び映像信号処理方法
US20110242292A1 (en) Display control unit, display control method and program
JP5050094B2 (ja) 映像処理装置及び映像処理方法
US8964005B2 (en) Apparatus and method for displaying obliquely positioned thumbnails on a 3D image display apparatus
KR20110051074A (ko) 3차원 영상 디스플레이 방법과 이를 구현하기 위한 3차원 디스플레이 장치
KR101804912B1 (ko) 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법
KR101659623B1 (ko) 입체영상 재생 장치 및 데이터 처리 방법
KR20120140425A (ko) 입체영상 처리 장치 및 입체영상 처리 방법
JP2014225736A (ja) 画像処理装置
KR101913252B1 (ko) 입체영상 처리 장치 및 입체영상 디스플레이 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141104