[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011114472A - 情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置 - Google Patents

情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置 Download PDF

Info

Publication number
JP2011114472A
JP2011114472A JP2009267558A JP2009267558A JP2011114472A JP 2011114472 A JP2011114472 A JP 2011114472A JP 2009267558 A JP2009267558 A JP 2009267558A JP 2009267558 A JP2009267558 A JP 2009267558A JP 2011114472 A JP2011114472 A JP 2011114472A
Authority
JP
Japan
Prior art keywords
content
parallax
eye image
image
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009267558A
Other languages
English (en)
Inventor
Masashi Ota
正志 太田
Noboru Murabayashi
昇 村林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009267558A priority Critical patent/JP2011114472A/ja
Publication of JP2011114472A publication Critical patent/JP2011114472A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】特性の異なる3Dコンテンツを続けて視聴する場合でもユーザが受ける疲労感を軽減させることができるようにする。
【解決手段】3Dコンテンツサーバ12が提供する3Dコンテンツには、左目用の画像であるL画像と右目用の画像であるR画像のデータ、および、L画像とR画像の間の視差を表す情報である視差パラメータが含まれる。視差の異なるL画像とR画像のデータを含む3Dコンテンツを続けて再生する場合、2番目以降に選択された3Dコンテンツの再生は、例えば最初に選択された3Dコンテンツに含まれる視差パラメータを用いて、同じ量の立体感をユーザに与えるようにして行われる。本発明は動画のコンテンツを再生する録画機器に適用することができる。
【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置に関し、特に、特性の異なる3Dコンテンツを続けて視聴する場合でもユーザが受ける疲労感を軽減させることができるようにした情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置に関する。
近年、LCD(Liquid Crystal Display)などのディスプレイの画素数の向上やフレームレートの向上に伴い実現可能になった画像の表示方式として3D(3次元)表示方式がある。3D表示方式によれば、視聴者は被写体を立体的に認識することが可能になる。
以下、適宜、それを見ることによって被写体を立体的に認識できる画像を3D画像といい、3D画像のデータを含むコンテンツを3Dコンテンツという。
3D画像を鑑賞する方式としては、偏光フィルタメガネやシャッタメガネを用いるメガネ方式と、レンチキュラー方式等の、メガネを用いない裸眼方式とがある。また、3D画像を表示するための再生方式として、視差のある左目用画像(L画像)と右目用画像(R画像)を交互に表示するフレームシーケンシャル方式がある。L画像とR画像をシャッタメガネ等によって視聴者の左右のそれぞれの目に届けることにより、立体感を視聴者に感じさせることが可能になる。
3D画像と2D画像は画像の性質が異なるため、3D画像を長時間にわたって視聴した場合、2D画像を視聴したときより疲労が蓄積してしまう。3D画像は従来の2D画像に較べてよりリアルに感じるため、視聴者は無意識のうちにコンテンツを長時間視聴してしまうといったこともある。
そのため、通常の2D画像を視聴している時よりも気付かないうちに疲労感が増加してしまうことがあることから、3D画像を視聴するときの疲労感を軽減する技術が各種提案されている(例えば、特許文献1)。
特開平08−205199号公報 特開平08−126034号公報 特開2001−320731号公報
ところで、ブロードバンドネットワークの普及によって、様々な動画コンテンツをWeb上で視聴することができるようになっている。YouTube(商標)などの動画配信サイトにおいては、ユーザは、サムネイル画像が表示された選択画面から所定の動画コンテンツを選択していくことによって、複数の動画コンテンツを続けて視聴することができる。
将来的には、このような動画配信サイトにおいて3Dコンテンツの視聴が可能になる可能性がある。3Dコンテンツの視聴が可能になった場合、視聴可能な全ての3Dコンテンツの特性が同じであるとは限らず、特性が異なる3Dコンテンツが混在している可能性もある。ここで、3Dコンテンツの特性には、L画像とR画像の間の視差などが含まれる。
特性の異なる3Dコンテンツを視聴した場合、視聴する3Dコンテンツが変わる毎に、視聴者であるユーザが感じる立体感(奥行き感)も変わることになる。従って、立体感が変わることに起因して目が疲れてしまう可能性がある。
本発明はこのような状況に鑑みてなされたものであり、特性の異なる3Dコンテンツを続けて視聴する場合でもユーザが受ける疲労感を軽減させることができるようにするものである。
本発明の第1の側面の情報処理装置は、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生する再生手段と、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御する制御手段と、視差が制御された左目用画像と右目用画像のデータを出力する出力手段とを備える。
前記制御手段には、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、所定の時刻以降に再生された複数の前記3Dコンテンツのうちの最初に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差と同一になるように制御させることができる。
前記制御手段には、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、その視差と、直前に再生された前記3Dコンテンツの左目用画像と右目用画像の間の、再生時に制御された制御後の視差との平均になるように制御させることができる。
前記制御手段には、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、所定の時刻以降に再生された全ての前記3Dコンテンツの左目用画像と右目用画像の間の視差の平均になるように制御させることができる。
前記3Dコンテンツに含まれる、前記所定の視差を表す視差情報を記憶する記憶手段をさらに設けることができる。前記制御手段には、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、前記記憶手段に記憶されている前記視差情報により表される視差に応じて制御させることができる。
前記再生手段には、前記3Dコンテンツを再生することによって得られた左目用画像と右目用画像の差分に基づいて前記所定の視差を検出させ、前記制御手段には、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、前記再生手段により検出された、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御させることができる。
本発明の第1の側面の情報処理方法は、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生し、前記3Dコンテンツを再生することによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御し、視差を制御した左目用画像と右目用画像のデータを出力するステップを含む。
本発明の第1の側面のプログラムは、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生し、前記3Dコンテンツを再生することによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御し、視差を制御した左目用画像と右目用画像のデータを出力するステップを含む処理をコンピュータに実行させる。
本発明の第2の側面の表示制御装置は、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生する再生手段と、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御する制御手段と、視差が制御された左目用画像と右目用画像を表示させる表示制御手段とを備える。
本発明の第3の側面の送信装置は、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生する再生手段と、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御するために用いられる視差情報を、左目用画像と右目用画像のデータとともに送信する送信手段とを備える。
本発明の第4の側面の受信装置は、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツが再生されることによって得られる左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御するために用いられる視差情報とともに、左目用画像と右目用画像のデータを受信する受信手段と、データが受信された左目用画像と右目用画像の間の視差を、前記視差情報により表される視差と同一になるように制御する制御手段と、視差が制御された左目用画像と右目用画像を表示させる表示制御手段とを備える。
本発明の第1の側面においては、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツが再生され、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差が、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御される。また、視差が制御された左目用画像と右目用画像のデータが出力される。
本発明の第2の側面においては、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツが再生され、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差が、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御される。また、視差が制御された左目用画像と右目用画像が表示される。
本発明の第3の側面においては、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツが再生され、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御するために用いられる視差情報が、左目用画像と右目用画像のデータとともに送信される。
本発明の第4の側面においては、所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツが再生されることによって得られる左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御するために用いられる視差情報とともに、左目用画像と右目用画像のデータが受信され、データが受信された左目用画像と右目用画像の間の視差が、前記視差情報により表される視差と同一になるように制御される。また、視差が制御された左目用画像と右目用画像が表示される。
本発明によれば、特性の異なる3Dコンテンツを続けて視聴する場合でもユーザが受ける疲労感を軽減させることができる。
本発明の一実施形態に係る3D画像表示システムの構成例を示す図である。 3Dコンテンツの選択画面の例を示す図である。 3Dコンテンツに含まれるデータの例を示す図である。 視差の変化の例を示す図である。 表示制御装置の構成例を示すブロック図である。 図5のシステムコントローラの機能構成例を示すブロック図である。 3Dコンテンツサーバの構成例を示すブロック図である。 表示制御装置の再生処理について説明するフローチャートである。 視差の変化の他の例を示す図である。 表示制御装置の他の再生処理について説明するフローチャートである。 空間方向の視差を有するL画像とR画像の例を示す図である。 コンテンツ制御部の構成例を示すブロック図である。 L画像とR画像の表示タイミングの例を示す図である。 視差の検出の例を示す図である。 送受信システムの構成例を示すブロック図である。
[3D画像表示システム]
図1は、本発明の一実施形態に係る3D画像表示システムの構成例を示す図である。
図1の3D画像表示システムは、表示制御装置1、TV(テレビジョン受像機)2、および、コンテンツの視聴者であるユーザが着用するシャッタメガネ3から構成される。すなわち、図1の3D画像表示システムによる3D画像の視聴方式はメガネを用いた方式である。表示制御装置1とTV2は例えばHDMI(High Definition Multimedia Interface)規格のケーブルによって接続される。
また、表示制御装置1には、インターネットなどよりなるネットワーク11を介して3Dコンテンツサーバ12が接続される。表示制御装置1と3Dコンテンツサーバ12の間ではネットワーク11を介して通信が行われ、3Dコンテンツサーバ12に記憶されている3Dコンテンツが表示制御装置1に送信される。3Dコンテンツサーバ12は、ネットワーク11を介してアクセスしてきた機器からの要求に応じて3Dコンテンツを提供するサーバである。
図2は、TV2に表示される3Dコンテンツの選択画面の例を示す図である。
表示制御装置1にはWebブラウザが搭載されている。例えば、3Dコンテンツサーバ12に対してアクセスが行われたときに3Dコンテンツサーバ12から送信されてきたHTMLファイルなどのデータに基づいて、図2に示すような画面が表示制御装置1により表示される。
図2に示すように、3Dコンテンツの選択画面には、視聴可能な3Dコンテンツを表すサムネイル画像が並べて表示される。ユーザは、画面上に表示されるカーソルを表示制御装置1のリモートコントローラを操作するなどして移動させ、サムネイル画像を指定することによって、3Dコンテンツの受信と再生の開始を指示することができる。
3Dコンテンツサーバ12が提供する3Dコンテンツには、図3に示すように、画像データとして、左目用の画像であるL画像のデータと、各L画像に対応する、右目用の画像であるR画像のデータとが含まれている。また、3Dコンテンツには、L画像とR画像の間の視差を表す情報である視差パラメータが含まれている。後述するように、視差には、空間方向の視差と時間方向の視差とがある。
以下においては、視差パラメータの値と視差の大きさは比例するものとする。視差パラメータの値が大きいほどL画像とR画像の間の視差が大きく、そのL画像とR画像を見たユーザは、被写体をより立体的に感じることになる。なお、3Dコンテンツには、画像データの再生にあわせて再生される音声データも含まれる。
3Dコンテンツサーバ12が提供する3Dコンテンツの視差(3Dコンテンツに含まれるL画像とR画像の間の視差)の大きさは統一されておらず、ある3Dコンテンツと他の3Dコンテンツとで視差が異なることがある。
表示制御装置1は、3Dコンテンツサーバ12から送信されてきた3Dコンテンツを再生し、画像L1,R1,L2,R2,L3,R3,・・・といったように、3Dコンテンツを再生して得られたL画像とR画像をTV2に交互に表示させる。
シャッタメガネ3には、例えば、赤外線を用いた無線通信によって、画像の垂直同期信号の情報を含む制御信号が表示制御装置1から供給される。シャッタメガネ3の左目側の透過部と右目側の透過部は、その偏光特性を制御可能な液晶デバイスから構成される。シャッタメガネ3は、制御信号に従って、左目オープンかつ右目クローズと、左目クローズかつ右目オープンとの2つのシャッタ開閉動作を交互に繰り返す。その結果、ユーザの右目にはR画像のみが、左目にはL画像のみが入力される。L画像とR画像を交互に見ることによって、ユーザは被写体を立体的に感じることになる。
このように、表示制御装置1においては、3Dコンテンツサーバ12から送信されてきた3Dコンテンツの再生が行われる。3Dコンテンツの再生時、再生対象として受信した3Dコンテンツの視差を、その3Dコンテンツと異なる、過去に再生した3Dコンテンツの視差に応じて調整することが行われる。
例えば、表示制御装置1の電源がオンにされた後に、3Dコンテンツ#1、3Dコンテンツ#2、3Dコンテンツ#3が順に選択され、再生が行われる場合について説明する。また、3Dコンテンツ#1,#2,#3に予め設定されている視差パラメータの値は、それぞれ10,30,60であるものとする。視差の調整が行われないとした場合、3Dコンテンツ#1を視聴したときにユーザが感じる立体感が最も小さく、3Dコンテンツ#3を視聴したときにユーザが感じる立体感が最も大きいものになる。
図4は、3Dコンテンツ#1,#2,#3の順に選択された場合の視差の変化の例を示す図である。
図4の横軸は時間を表し、縦軸は視差パラメータを表す。図4の例においては、時刻t1において3Dコンテンツ#1の再生が行われ、時刻t2において3Dコンテンツ#2の再生が行われている。また、時刻t3において3Dコンテンツ#3の再生が行われている。
この場合、3Dコンテンツ#1の再生は、3Dコンテンツ#1に予め設定されている値10の視差パラメータを用いて行われる。
また、3Dコンテンツ#2の再生は、3Dコンテンツ#2に予め設定されている値30の視差パラメータではなく、最初に選択された3Dコンテンツ#1の視差パラメータと同じ、値10の視差パラメータを用いて行われる。
さらに、3Dコンテンツ#3の再生は、3Dコンテンツ#3に予め設定されている値60ではなく、最初に選択された3Dコンテンツ#1の視差パラメータと同じ、値10の視差パラメータを用いて行われる。
すなわち、図4において実線で結んで示すように、3Dコンテンツ#1,#2,#3の再生は、同じ値10の視差パラメータを用いて、同じ量の立体感をユーザに与えるようにして行われる。なお、図4の点線は、視差の調整を行なわず、予め設定されているとおりの視差パラメータを用いて3Dコンテンツ#1,#2,#3の再生が行われた場合の視差パラメータの変化を示す。
複数の3Dコンテンツを続けて視聴した場合であっても立体感が変わらないため、再生対象の3Dコンテンツが切り替わる毎に立体感が変わる場合に較べて、ユーザに与える疲労感を軽減させることが可能になる。再生対象の3Dコンテンツが変わる毎に立体感が変わるとした場合、ユーザは立体感の変化によって目が疲れてしまう可能性があるが、そのようなことを防ぐことができる。
[表示制御装置1の構成]
図5は、表示制御装置1の構成例を示すブロック図である。
システムコントローラ21は、CPU、RAMなどにより構成され、ユーザI/F22から供給されるユーザの操作の内容を表す信号に従って、表示制御装置1の全体の動作を制御する。例えば、システムコントローラ21は、再生処理部25を制御することによって3Dコンテンツの再生を行い、コンテンツ制御部26を制御することによって3Dコンテンツの視差を調整する。
ユーザI/F22は、リモートコントローラからの信号を受光する受光部などにより構成される。ユーザI/F22は、リモートコントローラに対するユーザの操作を検出し、その内容を表す信号をシステムコントローラ21に出力する。
信号出力部23は、システムコントローラ21から供給された制御信号をシャッタメガネ3に送信する。信号出力部23から送信された制御信号を受信したシャッタメガネ3においては、左目側の透過部と右目側の透過部のシャッタ動作が制御される。
通信部24は、ネットワーク11のインタフェースであり、ネットワーク11を介して3Dコンテンツサーバ12と通信を行う。通信部24は、システムコントローラ21による制御に従って、3Dコンテンツサーバ12に対して所定の3Dコンテンツの送信を要求し、送信されてきた3Dコンテンツを受信して再生処理部25に出力する。
再生処理部25は、通信部24から供給された再生対象の3Dコンテンツに対して、圧縮されているデータを伸張するデコード処理等の再生処理を施す。再生処理部25は、3Dコンテンツを再生して得られたL画像とR画像のデータをコンテンツ制御部26に出力し、視差パラメータをシステムコントローラ21に出力する。コンテンツの画像にあわせて音声を出力するために用いられる音声データは、再生処理部25から図示せぬ回路を介して外部のスピーカ等に出力される。
コンテンツ制御部26は、再生処理部25から供給されたL画像とR画像の間の視差を、システムコントローラ21から供給された視差パラメータに基づいて調整する。例えば、コンテンツ制御部26は、再生対象になっている3Dコンテンツの視差を、最初に選択された3Dコンテンツに含まれる視差パラメータにより表される視差と同じ視差になるように調整する。コンテンツ制御部26は、視差を調整したL画像とR画像のデータを表示制御部27に出力する。
表示制御部27は、コンテンツ制御部26から供給されたL画像とR画像のデータをTV2に出力し、L画像とR画像を表示させる。
図6は、図5のシステムコントローラ21の機能構成例を示すブロック図である。
図6に示すように、システムコントローラ21は視差パラメータ記憶部41と視差制御部42から構成される。視差制御部42は、システムコントローラ21内のCPUにより所定のプログラムが実行されることによって実現される。
視差パラメータ記憶部41は、再生処理部25から供給された視差パラメータを記憶する。再生処理部25からは、最初に選択された3Dコンテンツに含まれる視差パラメータが供給されてくる。
ここで、最初に選択された3Dコンテンツは、電源オンの後に1番目に再生された3Dコンテンツ、3Dコンテンツサーバ12へのアクセス後に1番目に再生された3Dコンテンツなどの、基準となる所定の時刻の後に1番目に再生された3Dコンテンツである。この例の場合、基準となる所定の時刻は、表示制御装置1の電源オン時、または3Dコンテンツサーバ12へのアクセス時となる。
視差制御部42は、視差パラメータ記憶部41に記憶されている視差パラメータに基づいてコンテンツ制御部26を制御し、再生対象になっている3Dコンテンツの視差の調整を行わせる。
図7は、3Dコンテンツサーバ12の構成例を示すブロック図である。
図7に示すように、3Dコンテンツサーバ12はコンピュータにより構成される。CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53は、バス54により相互に接続されている。
バス54には、さらに、入出力インタフェース55が接続されている。入出力インタフェース55には、キーボード、マウスなどよりなる入力部56、ディスプレイ、スピーカなどよりなる出力部57が接続される。また、入出力インタフェース55には、ハードディスクや不揮発性のメモリなどよりなる記憶部58、ネットワークインタフェースなどよりなる通信部59、リムーバブルメディア61を駆動するドライブ60が接続される。
記憶部58は、図3を参照して説明したような、L画像およびR画像のデータと、視差パラメータとを含む3Dコンテンツを複数記憶する。送信することが要求された3Dコンテンツは記憶部58から読み出され、入出力インタフェース55を介して通信部59に供給される。
通信部59は、ネットワーク11を介して表示制御装置1と通信を行い、送信することが要求された3Dコンテンツを表示制御装置1に送信する。
[表示制御装置1の動作]
図8のフローチャートを参照して、表示制御装置1の再生処理について説明する。
図8の処理は、例えば、3Dコンテンツサーバ12へのアクセスが指示され、図2に示すような選択画面がTV2に表示されている状態で所定の3Dコンテンツが選択されたときに開始される。所定の3Dコンテンツが選択されたとき、選択された3Dコンテンツを送信することが表示制御装置1から3Dコンテンツサーバ12に対して要求され、それに応じて、3Dコンテンツサーバ12から3Dコンテンツが送信されてくる。
ステップS1において、通信部24は、ユーザにより選択された3Dコンテンツを受信する。
ステップS2において、受信された3Dコンテンツの再生が行われる。
すなわち、再生処理部25は、3Dコンテンツを再生して得られたL画像とR画像のデータをコンテンツ制御部26に出力し、視差パラメータをシステムコントローラ21に出力する。システムコントローラ21の視差制御部42は、再生処理部25から供給された視差パラメータをコンテンツ制御部26に出力する。コンテンツ制御部26は、再生処理部25から供給されたL画像とR画像の間の視差を、システムコントローラ21から供給された視差パラメータにより表される視差と同じ視差になるように調整し、視差を調整したL画像とR画像のデータを出力する。表示制御部27は、コンテンツ制御部26から供給されたL画像とR画像のデータをTV2に出力し、画像を表示させる。例えば、3Dコンテンツの画像は、図2の選択画面に替えてTV2に表示される。
これにより、最初に選択された3Dコンテンツについては、L画像とR画像の間の視差が、予め設定されたとおりの視差を有するようにして再生が行われる。3Dコンテンツの再生中にユーザにより所定の操作が行われたとき、3Dコンテンツの選択画面が再度表示される。
ステップS3において、システムコントローラ21は、他の3Dコンテンツが選択画面から選択されたか否かを判定する。
他の3Dコンテンツが選択されていないとステップS3において判定した場合、ステップS4において、システムコントローラ21は、3Dコンテンツの再生を終了するか否かを判定する。3Dコンテンツの再生を終了しないとステップS4において判定した場合、ステップS2に戻り、システムコントローラ21は3Dコンテンツの再生を続行し、終了すると判定した場合、処理を終了させる。
一方、他の3Dコンテンツが選択されたとステップS3において判定した場合、ステップS5において、システムコントローラ21の視差パラメータ記憶部41は、それまで再生を行っていた、最初に選択された3Dコンテンツに含まれる視差パラメータを記憶する。
ステップS6において、通信部24は、ユーザにより新たに選択された3Dコンテンツを受信する。
ステップS7において、新たに選択された3Dコンテンツの再生が、視差パラメータ記憶部41に記憶されている視差パラメータを用いて行われる。
すなわち、再生処理部25は、3Dコンテンツを再生して得られたL画像とR画像のデータをコンテンツ制御部26に出力する。システムコントローラ21の視差制御部42は、視差パラメータ記憶部41に記憶されている視差パラメータをコンテンツ制御部26に出力する。コンテンツ制御部26は、再生処理部25からデータが供給されたL画像とR画像の間の視差を、システムコントローラ21から供給された視差パラメータにより表される視差と同じ視差になるように調整し、視差を調整したL画像とR画像のデータを出力する。表示制御部27は、コンテンツ制御部26から供給されたL画像とR画像のデータをTV2に出力し、画像を表示させる。
これにより、2番目以降に選択された3Dコンテンツについては、L画像とR画像の間の視差が、最初に選択された3Dコンテンツの視差と同じ視差になるようにして再生が行われる。
ステップS8において、システムコントローラ21は、他の3Dコンテンツが選択画面から選択されたか否かを判定する。
他の3Dコンテンツが選択されたとステップS8において判定された場合、ステップS6以降の処理が繰り返される。すなわち、新たに選択された3Dコンテンツが受信され、受信された3Dコンテンツが、最初に選択された3Dコンテンツに含まれる視差パラメータを用いて再生される。
一方、他の3Dコンテンツが選択されていないとステップS8において判定した場合、ステップS9において、システムコントローラ21は、3Dコンテンツの再生を終了するか否かを判定する。3Dコンテンツの再生を終了しないとステップS9において判定された場合、ステップS7に戻り、3Dコンテンツの再生が続行され、終了すると判定された場合、処理は終了される。
以上の処理により、3Dコンテンツが切り替わる毎に立体感が変わるようにして再生が行われる場合に較べて、ユーザの疲労感を軽減させることが可能になる。
[変形例]
図9は、3Dコンテンツ#1,#2,#3の順に選択された場合の視差の変化の他の例を示す図である。
図9の例においては、2番目以降に選択された3Dコンテンツの視差が、その3Dコンテンツに予め設定されている視差と、直前に再生された3Dコンテンツの視差との平均の視差になるように調整される。
直前に再生された3Dコンテンツが2番目以降に選択されたコンテンツであり、その再生時に視差の調整が行われている場合、視差の平均の計算に用いられる、直前に再生された3Dコンテンツの視差は、再生時に行われた調整後の視差になる。一方、直前に再生された3Dコンテンツが最初に選択されたコンテンツであり、その再生時に視差の調整が行われていない場合、視差の平均の計算に用いられる、直前に再生された3Dコンテンツの視差は、予め設定されている視差になる。
図9の例においても、時刻t1において3Dコンテンツ#1の再生が行われ、時刻t2において3Dコンテンツ#2の再生が行われている。また、時刻t3において3Dコンテンツ#3の再生が行われている。
この場合、3Dコンテンツ#1の再生は、3Dコンテンツ#1に予め設定されている値10の視差パラメータを用いて行われる。
また、3Dコンテンツ#2の再生は、3Dコンテンツ#2に予め設定されている視差パラメータの値30と、直前に再生が行われた3Dコンテンツ#1の調整後の視差パラメータの値10との平均である値20の視差パラメータを用いて行われる。
さらに、3Dコンテンツ#3の再生は、3Dコンテンツ#3に予め設定されている視差パラメータの値60と、直前に再生が行われた3Dコンテンツ#2の調整後の視差パラメータの値20との平均である値40の視差パラメータを用いて行われる。3Dコンテンツ#3の再生に用いる視差パラメータの値の計算には、直前に再生された3Dコンテンツ#2の視差パラメータの値として、予め設定された値の30ではなく、実際に再生に用いられた調整後の値の20が用いられる。
この例の場合、図9に示すように、3Dコンテンツ#1,#2,#3は、視差パラメータを段階的に上げていく形で再生が行われることになる。
これにより、予め設定されている視差パラメータを用いて再生を行う場合と較べて、再生対象になっている3Dコンテンツの視差パラメータを、直前に選択された3Dコンテンツの視差パラメータに近づけることができる。再生対象の3Dコンテンツが切り替わることによる視差パラメータの変化、すなわち立体感の変化が急峻なものになるのを防ぐことができることにより、ユーザの疲労感を軽減させることが可能になる。
図10のフローチャートを参照して、図9に示すようにして視差パラメータを変化させる表示制御装置1の再生処理について説明する。
図10の処理も、例えば、3Dコンテンツサーバ12へのアクセスが指示され、図2に示す選択画面がTV2に表示されている状態で所定の3Dコンテンツが選択されたときに開始される。
ステップS21乃至S25の処理は、図8のステップS1乃至S5の処理と同様の処理である。すなわち、ステップS21において、通信部24は、ユーザにより選択された3Dコンテンツを受信する。
ステップS22において、受信された3Dコンテンツの再生が行われる。最初に選択された3Dコンテンツについては、L画像とR画像の間の視差が、予め設定されたとおりの視差を有するようにして再生が行われる。
ステップS23において、システムコントローラ21は、他の3Dコンテンツが選択画面から選択されたか否かを判定する。
他の3Dコンテンツが選択されていないとステップS23において判定した場合、ステップS24において、システムコントローラ21は、3Dコンテンツの再生を終了するか否かを判定する。3Dコンテンツの再生を終了しないとステップS24において判定した場合、ステップS22に戻り、システムコントローラ21は3Dコンテンツの再生を続行し、終了すると判定した場合、処理を終了させる。
一方、他の3Dコンテンツが選択されたとステップS23において判定した場合、ステップS25において、システムコントローラ21の視差パラメータ記憶部41は、それまで再生を行っていた最初の3Dコンテンツに含まれる視差パラメータを記憶する。
ステップS26において、通信部24は、ユーザにより新たに選択された3Dコンテンツを受信する。
ステップS27において、システムコントローラ21の視差制御部42は、新たに選択された3Dコンテンツに含まれる視差パラメータの値と、直前に選択された3Dコンテンツの再生に用いられた視差パラメータの値との平均を計算する。
新たに選択された3Dコンテンツが2番目に選択されたものである場合、平均の計算に用いる、直前に選択された3Dコンテンツの再生に用いられた視差パラメータの値として、ステップS25において記憶された視差パラメータの値が用いられる。また、新たに選択された3Dコンテンツが3番目以降に選択されたものである場合、平均の計算に用いる、直前に選択された3Dコンテンツの再生に用いられた視差パラメータの値として、後述するステップS30において記憶された視差パラメータの値が用いられる。
ステップS28において、新たに選択された3Dコンテンツの再生が、視差制御部42により計算された視差パラメータの平均を用いて行われる。
すなわち、再生処理部25は、3Dコンテンツを再生して得られたL画像とR画像のデータをコンテンツ制御部26に出力する。システムコントローラ21の視差制御部42は、計算により平均を求めた視差パラメータをコンテンツ制御部26に出力する。コンテンツ制御部26は、再生処理部25からデータが供給されたL画像とR画像の間の視差を、システムコントローラ21から供給された視差パラメータにより表される視差と同じ視差になるように調整し、視差を調整したL画像とR画像のデータを出力する。表示制御部27は、コンテンツ制御部26から供給されたL画像とR画像のデータをTV2に出力し、画像を表示させる。
これにより、いま再生対象になっている3Dコンテンツについては、L画像とR画像の間の視差を、直前に選択された3Dコンテンツの視差に近づけるようにして再生が行われる。
ステップS29において、システムコントローラ21は、他の3Dコンテンツが選択画面から選択されたか否かを判定する。
他の3Dコンテンツが選択されたとステップS29において判定された場合、ステップS30において、システムコントローラ21の視差パラメータ記憶部41は、それまで再生を行っていた3Dコンテンツの再生に実際に用いられた視差パラメータを記憶する。
視差パラメータが記憶された後、ステップS26以降の処理が繰り返される。すなわち、新たに選択された3Dコンテンツが受信され、同様に、直前に選択された3Dコンテンツの再生に用いられた視差パラメータの値との平均を用いて、新たに選択された3Dコンテンツの再生が行われる。
一方、他の3Dコンテンツが選択されていないとステップS29において判定した場合、ステップS31において、システムコントローラ21は、3Dコンテンツの再生を終了するか否かを判定する。3Dコンテンツの再生を終了しないとステップS31において判定した場合、ステップS28に戻り、システムコントローラ21は3Dコンテンツの再生を続行し、終了すると判定した場合、処理を終了する。
以上の処理により、視差の異なる3Dコンテンツの再生が予め設定されているとおりの視差パラメータを用いて行う場合に較べてユーザの疲労感を軽減させることが可能になる。
以上においては、直前に選択された3Dコンテンツの視差パラメータだけが用いられて視差パラメータの計算が行われるものとしたが、所定の時刻以降に選択された全ての3Dコンテンツの視差パラメータが用いられるようにしてもよい。例えば、新たに選択された3Dコンテンツの再生に用いる視差パラメータの値として、所定の時刻以降に再生された全ての3Dコンテンツの視差パラメータの値の平均を用いることによっても、視差パラメータの変化が急峻になるのを防ぐことができる。
[視差の調整について]
図11は、空間方向の視差があるL画像とR画像の例を示す図である。
図11Aの右側に示す画像R1は、左側に示すL画像である画像L1に対応するR画像である。画像L1に映る被写体のフレーム内の位置と、画像R1に映る被写体のフレーム内の位置には、ずれ(差)があり、このずれ量が空間方向の視差となる。
例えば、視差パラメータの値が10の3Dコンテンツ#1は、各L画像と、対応するR画像において、被写体のフレーム内の位置に10画素だけずれがあるコンテンツである。また、視差パラメータの値が30の3Dコンテンツ#2は、各L画像と、対応するR画像において、被写体のフレーム内の位置に30画素だけずれがあるコンテンツである。
この場合において、図4を参照して説明したように3Dコンテンツ#2を値10の視差パラメータを用いて再生するとき、コンテンツ制御部26は、L画像とR画像、またはそのいずれかを被写体の位置が10画素だけずれた画像になるように補正する。
例えば、コンテンツ制御部26は、補正前の画像R1に映る被写体の位置を、画像L1に映る被写体の位置に20画素だけ近づけることによって、画像L1に対して、被写体の位置が10画素だけずれている画像になるように画像R1を補正する。図11Bの画像R1は補正後のR画像である。図11Bの画像R1において、点線で示す被写体は補正前の被写体の位置を示し、実線で示す被写体は補正後の被写体の位置を示している。
図11Bの例においては、L画像に映る被写体の位置を基準として、R画像に映る被写体の位置だけを補正しているが、R画像に映る被写体の位置を基準として、L画像に映る被写体の位置だけを補正するようにしてもよい。また、L画像に映る被写体の位置とR画像に映る被写体の位置の両方を補正するようにしてもよい。
このように、空間方向の視差の調整は、L画像に映る被写体の位置とR画像に映る被写体の位置の少なくとも一方の被写体の位置を視差パラメータの値に応じて補正することによって行われる。
図12は、時間方向の視差を調整するコンテンツ制御部26の構成例を示すブロック図である。
図12に示すように、コンテンツ制御部26は、動きベクトル検出部61−1および61−2、メモリ62−1および62−2から構成される。メモリ62−1および62−2はディレイラインにより構成される。再生処理部25から出力されたL画像のデータは動きベクトル検出部61−1とメモリ62−1に入力され、R画像のデータは動きベクトル検出部61−2とメモリ62−2に入力される。
動きベクトル検出部61−1は、入力されたL画像のデータに基づいて、フレーム間の動きを表す動きベクトルを検出し、システムコントローラ21に出力する。動きベクトル検出部61−1においては、例えば、1フレームを所定の数に分割して構成される領域毎の動きベクトルが検出され、領域毎に検出された動きベクトルの平均が、フレーム間の動きを表す動きベクトルとして検出される。
動きベクトル検出部61−2は、動きベクトル検出部61−1と同様に、入力されたR画像のデータに基づいて動きベクトルを検出し、システムコントローラ21に出力する。
メモリ62−1は、入力されたL画像のデータを一時的に記憶し、システムコントローラ21による制御に従って所定の時間だけ遅延させて出力する。
メモリ62−2は、入力されたR画像のデータを一時的に記憶し、システムコントローラ21による制御に従って所定の時間だけ遅延させて出力する。
システムコントローラ21においては、例えば動きベクトル検出部61−1により検出された動きベクトルの水平方向の成分の大きさと、動きベクトル検出部61−2により検出された動きベクトルの水平方向の成分の大きさの平均が求められる。また、求められた平均と視差パラメータとに基づいて、例えばL画像の表示時刻に対する、R画像の表示時刻の遅延量が求められ、遅延量を表す情報がメモリ62−1とメモリ62−2に出力される。
上述した視差パラメータの値は、3Dコンテンツに含まれる各L画像の表示時刻に対する、対応するR画像の表示時刻の遅延量の平均を表す。例えば、視差パラメータの値が10である3Dコンテンツ#1に含まれるL画像と、対応するR画像は、平均して、1フレーム期間を所定の数に分割して得られた時間を1単位としてその10単位分の時間だけタイミングをずらして表示される。L画像とR画像の表示時刻の差が、時間方向の視差となる。
なお、動きベクトル検出部61−1と61−2のいずれか一方において動きベクトルの検出が行われるようにしてもよい。この場合、動きベクトル検出部61−1または61−2により検出された動きベクトルの水平方向の成分の大きさが遅延量の計算に用いられる。
図13は、L画像とR画像の表示タイミングの例を示す図である。
例えば、動きベクトルの水平方向の成分の大きさV1に対して遅延量T1、V2に対してT2、・・・といったように、システムコントローラ21においては、動きベクトルの水平方向の成分の大きさと遅延量が対応付けて管理されている。
画像L1と画像R1に基づいて検出された動きベクトルの水平方向の成分の大きさがV1である場合、遅延量としてT1が選択され、図13に示すように、R画像である画像R1は、対応するL画像である画像L1に対してT1だけ遅れた時刻に表示される。メモリ62−1からの画像L1のデータの出力時刻と、メモリ62−2からの画像R1の出力時刻が、システムコントローラ21から供給される遅延量の情報に基づいて制御される。なお、ここでは、3Dコンテンツの視差パラメータを考慮しないで説明しているが、実際には、遅延量であるT1が視差パラメータに基づいて補正される。
同様に、画像L2と画像R2に基づいて検出された動きベクトルの水平方向の成分の大きさがV2である場合、遅延量としてT2が選択され、画像R2は画像L2に対してT2だけ遅れた時刻に表示される。
図4を参照して説明したようにして3Dコンテンツ#2を値10の視差パラメータを用いて再生するとき、システムコントローラ21は、値10と、3Dコンテンツ#2に予め設定されている視差パラメータの値30との比を乗算して遅延量を補正する。すなわち、図13に示す画像が3Dコンテンツ#2の画像であるとすると、画像L1の表示時刻に対する画像R1の表示時刻の遅延量は1/3T1となり、画像L2の表示時刻に対する画像R2の表示時刻の遅延量は1/3T2となる。
このように、時間方向の視差の調整は、L画像の表示時刻に対するR画像の表示時刻の遅延量を視差パラメータの値に応じて補正することによって行われる。
以上のような構成を有するコンテンツ制御部26により視差が調整されたL画像とR画像を見たユーザは、左右の画像の時間差により、被写体を立体的に感じることになる。左右の画像の時間差により被写体を立体的に感じる現象と似た現象として、Mach-Dvorak現象が知られている。例えば特開平7−222203号公報には、通常の2D画像をL画像、そのL画像を遅延させた画像をR画像とすることで、3D画像の信号を擬似的に生成する技術が開示されている。
なお、画像の輝度を考慮して時間方向の視差が調整されるようにしてもよい。例えば、画像が暗い場合は立体感の効果は小さいものと仮定し、動き量が小さくても遅延量を大きくしないような制御が行われる。ここで、予め設定された画像の平均的な明るさの輝度信号レベルをyとし、動き検出量をmとした場合に、遅延量dは下式(1)によって表される。式(1)において、kは重み係数である。
d= k・y+(1−k)・m ・・・ (1)
また、以上においては、3Dコンテンツに視差パラメータが含まれているものとしたが、視差パラメータが含まれていない場合、表示制御装置1において視差パラメータの検出が行われ、その後、上述したような視差の調整が行われるようにしてもよい。
この場合、視差パラメータの検出は例えば再生処理部25により行われる。再生処理部25は、図14に示すようにして、3Dコンテンツに含まれる全てのL画像と、対応するR画像についての差分(被写体の位置のずれ量)を計算し、その平均値を視差パラメータの値として検出する。
[変形例]
以上においては、表示制御装置1がTV2とは別の筐体の装置として用意され、視差を調整した画像をTV2に出力する情報処理装置として表示制御装置1が機能するものとしたが、表示制御装置1がTV2内に設けられるようにしてもよい。
また、視差の計算と、実際の視差の調整がそれぞれ異なる装置において行われるようにしてもよい。
図15は、3D画像表示システムの他の構成例を示す図である。
図15の3D画像表示システムは、送信装置81と受信装置82から構成される。受信装置82は、例えばTV2の内部に設けられる装置であり、HDMI規格のケーブルを介して、TV2とは別の筐体の装置として外部に設けられる送信装置81と通信を行う。
図15の3D画像表示システムにおいては、3Dコンテンツの再生に用いる視差パラメータが送信装置81により決定される。また、決定された視差パラメータが、L画像とR画像の間の視差を調整するために用いる情報として、L画像とR画像のデータとともに送信装置81から受信装置82に送信される。
受信装置82においては、送信装置81から送信されてきたL画像とR画像の間の視差が、送信装置81から送信されてきた視差パラメータに基づいて調整され、視差を調整したL画像とR画像が表示される。
図15に示すように、送信装置81は、システムコントローラ91、ユーザI/F92、通信部93、再生処理部94、および送信部95から構成される。ユーザI/F92、通信部93、再生処理部94は、それぞれ、図5のユーザI/F22、通信部24、および再生処理部25に対応する。
システムコントローラ91は、ユーザI/F92から供給されるユーザの操作の内容を表す信号に従って、送信装置81の全体の動作を制御する。例えば、システムコントローラ91は、図4または図9を参照して説明したようにして、3Dコンテンツの再生に用いる視差パラメータを決定する。システムコントローラ91は、決定した視差パラメータを送信部95に出力する。
ユーザI/F92は、リモートコントローラに対するユーザの操作を検出し、その内容を表す信号をシステムコントローラ91に出力する。
通信部93は、システムコントローラ21による制御に従って、3Dコンテンツサーバ12に対して3Dコンテンツの送信を要求し、送信されてきた3Dコンテンツを受信して再生処理部94に出力する。
再生処理部94は、通信部93から供給された再生対象の3Dコンテンツに対して、圧縮されているデータを伸張するデコード処理等の再生処理を施す。再生処理部25は、3Dコンテンツを再生して得られたL画像とR画像のデータを送信部95に出力し、視差パラメータをシステムコントローラ21に出力する。
送信部95は、再生処理部94から供給された画像データをHDMI規格のケーブルを介して受信装置82に送信する。また、送信部95は、システムコントローラ91から供給された視差パラメータを、HDMI規格のversion1.4で規定されるHDMI Vender Specific InfoFrame Packetなどに格納して受信装置82に送信する。
HDMI Vender Specific InfoFrame Packetは、各ベンダーが規定した制御コマンドの送受信などに用いられるパケットであり、送信側の機器から受信側の機器に対して、HDMIのCEC(Consumer Electronics Control)線を介して送信される。
受信装置82は、システムコントローラ101、受信部102、コンテンツ制御部103、表示制御部104、ディスプレイ105、および信号出力部106から構成される。コンテンツ制御部103、表示制御部104、信号出力部106は、それぞれ、図5のコンテンツ制御部26、表示制御部27、信号出力部23に対応する。
システムコントローラ101は、受信装置82の全体の動作を制御し、送信装置81から送信されてきたL画像とR画像の表示を制御する。例えば、システムコントローラ101は、送信装置81から送信され、受信部102において受信された視差パラメータをコンテンツ制御部103に出力する。
受信部102は、送信装置81から送信されてきたL画像とR画像のデータ、および視差パラメータを受信し、L画像とR画像のデータをコンテンツ制御部103に、視差パラメータをシステムコントローラ101にそれぞれ出力する。
コンテンツ制御部103は、受信部102から供給されたL画像とR画像の間の視差をシステムコントローラ101から供給された視差パラメータにより表される視差と同じ視差になるように調整する。コンテンツ制御部103は、視差を調整したL画像とR画像のデータを表示制御部27に出力する。
表示制御部104は、コンテンツ制御部103から供給された画像データに基づいて、視差が調整されたL画像とR画像をディスプレイ105に表示させる。
信号出力部106は、制御信号を送信し、シャッタメガネ3のシャッタ動作を制御する。
このような構成を有する3D画像表示システムにおいても、図4または図9を参照して説明したようにして、L画像とR画像の間の視差を調整することが可能になる。
以上においては、3D画像の視聴方式がメガネを用いた方式であるものとしたが、裸眼方式であってもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。
インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図7に示されるリムーバブルメディア61に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM52や記憶部58に、予めインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 表示制御装置, 2 TV, 3 シャッタメガネ, 11 ネットワーク, 12 3Dコンテンツサーバ, 21 システムコントローラ, 22 ユーザI/F, 23 信号出力部, 24 通信部, 25 再生処理部, 26 コンテンツ制御部, 27 表示制御部, 41 視差パラメータ記憶部, 42 視差制御部

Claims (11)

  1. 所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生する再生手段と、
    前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御する制御手段と、
    視差が制御された左目用画像と右目用画像のデータを出力する出力手段と
    を備える情報処理装置。
  2. 前記制御手段は、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、所定の時刻以降に再生された複数の前記3Dコンテンツのうちの最初に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差と同一になるように制御する
    請求項1に記載の情報処理装置。
  3. 前記制御手段は、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、その視差と、直前に再生された前記3Dコンテンツの左目用画像と右目用画像の間の、再生時に制御された制御後の視差との平均になるように制御する
    請求項1に記載の情報処理装置。
  4. 前記制御手段は、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、所定の時刻以降に再生された全ての前記3Dコンテンツの左目用画像と右目用画像の間の視差の平均になるように制御する
    請求項1に記載の情報処理装置。
  5. 前記3Dコンテンツに含まれる、前記所定の視差を表す視差情報を記憶する記憶手段をさらに備え、
    前記制御手段は、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、前記記憶手段に記憶されている前記視差情報により表される視差に応じて制御する
    請求項1に記載の情報処理装置。
  6. 前記再生手段は、前記3Dコンテンツを再生することによって得られた左目用画像と右目用画像の差分に基づいて前記所定の視差を検出し、
    前記制御手段は、前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、前記再生手段により検出された、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御する
    請求項1に記載の情報処理装置。
  7. 所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生し、
    前記3Dコンテンツを再生することによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御し、
    視差を制御した左目用画像と右目用画像のデータを出力する
    ステップを含む情報処理方法。
  8. 所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生し、
    前記3Dコンテンツを再生することによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御し、
    視差を制御した左目用画像と右目用画像のデータを出力する
    ステップを含む処理をコンピュータに実行させるプログラム。
  9. 所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生する再生手段と、
    前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御する制御手段と、
    視差が制御された左目用画像と右目用画像を表示させる表示制御手段と
    を備える表示制御装置。
  10. 所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツを再生する再生手段と、
    前記3Dコンテンツが再生されることによって得られた左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御するために用いられる視差情報を、左目用画像と右目用画像のデータとともに送信する送信手段と
    を備える送信装置。
  11. 所定の視差が設定された左目用画像と右目用画像のデータを含むコンテンツである3Dコンテンツが再生されることによって得られる左目用画像と右目用画像の間の視差を、再生対象になっている前記3Dコンテンツと異なる、過去に再生された前記3Dコンテンツの左目用画像と右目用画像の間の視差に応じて制御するために用いられる視差情報とともに、左目用画像と右目用画像のデータを受信する受信手段と、
    データが受信された左目用画像と右目用画像の間の視差を、前記視差情報により表される視差と同一になるように制御する制御手段と、
    視差が制御された左目用画像と右目用画像を表示させる表示制御手段と
    を備える受信装置。
JP2009267558A 2009-11-25 2009-11-25 情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置 Withdrawn JP2011114472A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009267558A JP2011114472A (ja) 2009-11-25 2009-11-25 情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009267558A JP2011114472A (ja) 2009-11-25 2009-11-25 情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置

Publications (1)

Publication Number Publication Date
JP2011114472A true JP2011114472A (ja) 2011-06-09

Family

ID=44236504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009267558A Withdrawn JP2011114472A (ja) 2009-11-25 2009-11-25 情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置

Country Status (1)

Country Link
JP (1) JP2011114472A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102655597A (zh) * 2011-11-23 2012-09-05 上海华博信息服务有限公司 可实时动态调节立体视频视差曲线的播放系统
WO2013014836A1 (ja) * 2011-07-26 2013-01-31 パナソニック株式会社 動画編集装置、動画編集方法、プログラムおよび集積回路
WO2013027307A1 (ja) * 2011-08-25 2013-02-28 パナソニック株式会社 立体画像処理装置、立体画像表示装置及び立体画像処理方法
US9113140B2 (en) 2011-08-25 2015-08-18 Panasonic Intellectual Property Management Co., Ltd. Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013014836A1 (ja) * 2011-07-26 2013-01-31 パナソニック株式会社 動画編集装置、動画編集方法、プログラムおよび集積回路
US8855472B2 (en) 2011-07-26 2014-10-07 Panasonic Corporation Video editing apparatus, video editing method, program, and integrated circuit
WO2013027307A1 (ja) * 2011-08-25 2013-02-28 パナソニック株式会社 立体画像処理装置、立体画像表示装置及び立体画像処理方法
JP5490252B2 (ja) * 2011-08-25 2014-05-14 パナソニック株式会社 立体画像処理装置、立体画像表示装置及び立体画像処理方法
US9113140B2 (en) 2011-08-25 2015-08-18 Panasonic Intellectual Property Management Co., Ltd. Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
CN102655597A (zh) * 2011-11-23 2012-09-05 上海华博信息服务有限公司 可实时动态调节立体视频视差曲线的播放系统

Similar Documents

Publication Publication Date Title
US9094657B2 (en) Electronic apparatus and method
US10051257B2 (en) 3D image reproduction device and method capable of selecting 3D mode for 3D image
US9021399B2 (en) Stereoscopic image reproduction device and method for providing 3D user interface
JP5387399B2 (ja) 情報処理装置および情報処理方法
US8515264B2 (en) Information processing apparatus, information processing method, display control apparatus, display control method, and program
US8643697B2 (en) Video processing apparatus and video processing method
JP4742174B1 (ja) 3次元映像再生方法、および3次元映像再生装置
JP2012015774A (ja) 立体視映像処理装置および立体視映像処理方法
US8610763B2 (en) Display controller, display control method, program, output device, and transmitter
JP2011223482A (ja) 画像処理装置、画像処理方法、およびプログラム
KR20110029319A (ko) 영상 처리 시스템 및 영상 처리 방법
WO2011080878A1 (ja) 画像再生装置及び表示装置
US20110157164A1 (en) Image processing apparatus and image processing method
US9118895B2 (en) Data structure, image processing apparatus, image processing method, and program
JP2012070116A (ja) 情報処理装置、情報処理方法、再生装置、再生方法、およびプログラム
US20110018979A1 (en) Display controller, display control method, program, output device, and transmitter
JP2011114472A (ja) 情報処理装置、情報処理方法、プログラム、表示制御装置、送信装置、および受信装置
KR20110114583A (ko) 디스플레이 파라미터 설정들의 제어
US20120013718A1 (en) Electronic apparatus and image processing method
KR101674688B1 (ko) 입체영상 재생 장치 및 입체영상 재생 방법
JP2011250318A (ja) 立体映像データ生成装置、表示装置、立体映像データ生成方法、プログラムおよび記録媒体
JP5367031B2 (ja) 情報処理方法、および情報処理装置
JP2011199388A (ja) 再生装置、再生制御方法、およびプログラム
JP5335022B2 (ja) 映像再生装置
JP5581160B2 (ja) 映像信号処理システム、映像信号処理システムに用いられる表示装置、及び映像信号処理方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205