JP2009238117A - 多視差画像生成装置および方法 - Google Patents
多視差画像生成装置および方法 Download PDFInfo
- Publication number
- JP2009238117A JP2009238117A JP2008086154A JP2008086154A JP2009238117A JP 2009238117 A JP2009238117 A JP 2009238117A JP 2008086154 A JP2008086154 A JP 2008086154A JP 2008086154 A JP2008086154 A JP 2008086154A JP 2009238117 A JP2009238117 A JP 2009238117A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- viewpoint
- parallax image
- priority
- sprite
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/282—Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/36—Level of detail
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
- H04N9/8227—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】 ビデオメモリ量を削減する。
【解決手段】 ディスプレイパラメータから視点数と該視点の位置を取得し、3次元ディスプレイから所定の視距離の直線上の位置に関して優先度が付与されている視域優先度情報を参照して、複数の視点での優先度を定める視差画像優先度情報を生成する手段101と、複数の画像解像度レベルごとに、複数の視点での視差画像を複数格納している手段102と、前記視差画像優先度情報に含まれる視点ごとに複数の画像解像度レベルの最高レベルを設定し、全視点の視差画像のデータサイズの総和が閾値よりも大きい場合には総和が閾値以下になるまで優先度の低い視点ほど低いレベルに再設定し、視点ごとの視差画像の画像解像度レベルを定める視差画像解像度情報を生成する手段103と、視点ごとに、前記視差画像解像度情報に対応する視差画像を手段102から読み出す手段104と、を具備する。
【選択図】 図1
【解決手段】 ディスプレイパラメータから視点数と該視点の位置を取得し、3次元ディスプレイから所定の視距離の直線上の位置に関して優先度が付与されている視域優先度情報を参照して、複数の視点での優先度を定める視差画像優先度情報を生成する手段101と、複数の画像解像度レベルごとに、複数の視点での視差画像を複数格納している手段102と、前記視差画像優先度情報に含まれる視点ごとに複数の画像解像度レベルの最高レベルを設定し、全視点の視差画像のデータサイズの総和が閾値よりも大きい場合には総和が閾値以下になるまで優先度の低い視点ほど低いレベルに再設定し、視点ごとの視差画像の画像解像度レベルを定める視差画像解像度情報を生成する手段103と、視点ごとに、前記視差画像解像度情報に対応する視差画像を手段102から読み出す手段104と、を具備する。
【選択図】 図1
Description
本発明は、画像の多視差画像生成装置および方法に関する。
映像機器や家庭用ゲーム機などリアルタイムCGレンダリングを行う機器においては、CGキャラクタが複雑な形状をしている場合に、CGキャラクタそのものを画像として用意し、表示時にその画像を板ポリゴンにテクスチャマッピングすることで、CGキャラクタを構成する多くのポリゴンを描画処理することなく高速に描画する、スプライトという技術が広く用いられている。
液晶ディスプレイ上にレンチキュラーシートを重ねることで水平方向に視差のある映像を表示する一次元インテグラルイメージング方式の3Dディスプレイにおいては、各画素について複数の視点からのCG画像を描画する必要がある(例えば特許文献1参照)。この3Dディスプレイにおいて観察者に立体感を与えるスプライトを描画するためには、視点ごとに異なるテクスチャ画像を板ポリゴンにマッピングする必要がある。視点ごとに異なるテクスチャを描画する手段は従来の手法が利用可能である(例えば特許文献2参照)。本明細書では、この手法を多視差スプライトと呼ぶ。
特開2004−212666公報
特開2004−5228公報
多視差スプライトをグラフィックスハードウェアのビデオメモリ上に保持する場合、表示に用いるすべての視差画像をすべてテクスチャデータとして格納する必要がある。そのため、多視差スプライトがビデオメモリの大部分を占有してしまうという問題が生じる。
この発明は、上述した事情を考慮してなされたものであり、描画対象の視点について多視差スプライトを高解像度でビデオメモリに保持する場合に比べ、多視差スプライトが占有するビデオメモリ量を削減する多視差画像生成装置および方法を提供することを目的とする。
上述の課題を解決するため、本発明の多視差画像生成装置は、ディスプレイパラメータから視点数と該視点の位置を取得し、3次元ディスプレイから所定の視距離の直線上の位置に関して優先度が付与されている視域優先度情報を参照して、視点ごとの優先度を定める視差画像優先度情報を生成する第1生成手段と、複数の解像度レベルごとに、複数の視点での視差画像を複数格納している第1格納手段と、描画対象とする視点について複数の前記解像度レベルを高解像度のレベルに設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで前記優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の解像度レベルを定める視差画像解像度情報を生成する第2生成手段と、前記視差画像解像度情報に基づいて、視点ごとに前記解像度レベルに対応する視差画像を前記第1格納手段から読み出す第1読み出し手段と、読み出された前記視差画像を視点と関連付けて格納する第2格納手段と、を具備することを特徴とする。
また本発明の多視差画像生成装置は、ディスプレイパラメータから視点数と該視点の位置を取得し、時刻ごとに視差画像の表示位置を示す表示位置情報を参照して、前記位置ごとに視差画像が位置する頻度を積算し、視点ごとの、頻度に応じた優先度を定める視差画像優先度情報を生成する第3生成手段と、複数の解像度レベルごとに、複数の視点での視差画像を複数格納している第1格納手段と、描画対象とする視点について複数の前記解像度レベルを高解像度のレベルに設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで前記優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の解像度レベルを定める視差画像解像度情報を生成する第2生成手段と、前記視差画像解像度情報に基づいて、視点ごとに前記解像度レベルに対応する視差画像を前記第1格納手段から読み出す第1読み出し手段と、読み出された前記視差画像を視点と関連付けて格納する第2格納手段と、を具備することを特徴とする。
本発明の多視差画像生成装置および方法によれば、描画対象の視点について多視差スプライトを高解像度でビデオメモリに保持する場合に比べ、多視差スプライトが占有するビデオメモリ量を削減することができる。
以下、図面を参照しながら本発明の実施形態に係る多視差画像生成装置および方法について詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
実施形態では、3Dディスプレイ(3次元ディスプレイ)において、異なる視点ごとに異なる画像を表示することで視差をもつスプライトの表示を行う。このとき、ビデオメモリに格納すべき各視点画像のデータ量が増大するという問題がある。実施形態の多視差画像生成装置によれば、多視差スプライトの各視点画像について複数段階の異なる解像度のスプライト画像を用意し、多視差スプライトの画面内移動領域情報、および、設定視域に応じて、視点ごとに領域および解像度の異なるスプライト画像を選択してビデオメモリに読み込み、多視差スプライトとして表示を行う。これにより、多視差スプライトデータを効率的にビデオメモリに格納することが可能となる。
実施形態では、3Dディスプレイ(3次元ディスプレイ)において、異なる視点ごとに異なる画像を表示することで視差をもつスプライトの表示を行う。このとき、ビデオメモリに格納すべき各視点画像のデータ量が増大するという問題がある。実施形態の多視差画像生成装置によれば、多視差スプライトの各視点画像について複数段階の異なる解像度のスプライト画像を用意し、多視差スプライトの画面内移動領域情報、および、設定視域に応じて、視点ごとに領域および解像度の異なるスプライト画像を選択してビデオメモリに読み込み、多視差スプライトとして表示を行う。これにより、多視差スプライトデータを効率的にビデオメモリに格納することが可能となる。
もう少し詳しくは、まず、特開2007−96951の手法などで作成された視差画像について、複数段階の異なる解像度の画像を作成する。次いで、観察者に解像度の高い多視差スプライトを観察させたい領域を定義する視域優先度情報と、多視差スプライトの表示頻度の統計量、および特開2004−212666の視域最適化情報を用い、視点ごとに、スプライト画像中の解像度の選択を行った後、ビデオメモリに読み込み、表示を行う。
(第1の実施形態)
本実施形態では、視域優先度情報とディスプレイパラメータを入力とし、視域優先度情報に依存した、多視差スプライトの各視点についての解像度(多視点解像度情報)を決定し、その多視点解像度情報にもとづいて多重解像度多視点画像格納部から選択的に各視点の画像を読み出し、多視点スプライトを構成し、多視点スプライト名を付加して多視点スプライト格納部に登録する場合である。
本実施形態では、視域優先度情報とディスプレイパラメータを入力とし、視域優先度情報に依存した、多視差スプライトの各視点についての解像度(多視点解像度情報)を決定し、その多視点解像度情報にもとづいて多重解像度多視点画像格納部から選択的に各視点の画像を読み出し、多視点スプライトを構成し、多視点スプライト名を付加して多視点スプライト格納部に登録する場合である。
[装置の構成]
本実施形態の多視差画像生成装置について図1を参照して説明する。
第1の実施形態の多視差画像生成装置は、視域依存視差画像優先度決定部101、多重解像度多視点画像格納部102、視差画像解像度決定部103、視差画像読み出し部104、多視差スプライト登録部105、多視差スプライト格納部106を含む。
本実施形態の多視差画像生成装置について図1を参照して説明する。
第1の実施形態の多視差画像生成装置は、視域依存視差画像優先度決定部101、多重解像度多視点画像格納部102、視差画像解像度決定部103、視差画像読み出し部104、多視差スプライト登録部105、多視差スプライト格納部106を含む。
視域依存視差画像優先度決定部101は、3Dディスプレイのディスプレイパラメータ111と、視域優先度情報112を入力とし、視差画像優先度情報113を出力する。より詳しくは、視域依存視差画像優先度決定部101は、ディスプレイパラメータから視点数と視点の位置を取得し、3次元ディスプレイから所定の視距離の直線上の位置に関して優先度が付与されている視域優先度情報を参照して、視点ごとの優先度を定める視差画像優先度情報を生成する。視域優先度情報112については後に図5、図6を参照して説明する。視域依存視差画像優先度決定部101の動作の詳細は後に図9を参照して説明する。
多重解像度多視点画像格納部102は、多視点画像について複数の段階の解像度の画像を格納している。多重解像度多視点画像格納部102は、複数の画像解像度レベルごとに、複数の視点での視差画像を複数格納している。多重解像度多視点画像格納部102の内容については後に図4を参照して説明する。
視差画像解像度決定部103は、視差画像優先度情報113と、多視点スプライトデータサイズ閾値114とを入力とし、多重解像度多視点画像格納部102から視差画像解像度情報115を読み出し、視差画像解像度情報116を出力する。視差画像解像度決定部103は、描画対象とする視点(例えば全視点)について複数の前記画像解像度レベルを高解像度のレベル(例えば最高レベル)に設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の画像解像度レベルを定める視差画像解像度情報を生成する。視差画像解像度決定部103の動作の一例については後に図11を参照して説明する。
視差画像読み出し部104は、視差画像解像度情報116を入力とし、多重解像度多視点画像格納部102から視点数分の視差画像117を読み出す。視差画像読み出し部104は、視点ごとに解像度レベルに対応する視差画像を多重解像度多視点画像格納部102から読み出す。
多視差スプライト登録部105は、多視差スプライト名118を入力とし、視差画像読み出し部104で読み出した視点数分の視差画像に多視差スプライト名118を付加して多視差スプライト格納部106に記録する。
多視差スプライト格納部106は、多視差スプライトを格納する。多視差スプライト格納部106は、視差画像読み出し部104にて読み出された視差画像を視点と関連付けて格納する。
[3Dディスプレイにおける視域]
本実施形態における3Dディスプレイ202と、視域205の位置関係について図2を参照して説明する。3Dディスプレイ202は、LCDパネル203とレンチキュラーシート204を含む。
本実施形態における3Dディスプレイ202と、視域205の位置関係について図2を参照して説明する。3Dディスプレイ202は、LCDパネル203とレンチキュラーシート204を含む。
まず、3Dディスプレイ202と、本実施形態で用いる座標系201の位置関係を説明する。3Dディスプレイ202は観察者206に正対するように配置する。ここで、座標系201のX軸と3Dディスプレイの水平方向が平行となり、座標系201のY軸と3Dディスプレイ202の垂直方向が平行となり、3Dディスプレイ202の原点が座標系201の原点となるように配置するものとする。
このとき、座標系201のXZ平面について観察者206が立体映像を鑑賞できる範囲である視域205を示したものが図2の斜線で塗りつぶした領域である。ここで、図2中のLは設定視距離である。この視域205は、3Dディスプレイの仕様を記したディスプレイパラメータ111から算出することが可能である。設定視距離Lもディスプレイパラメータに含まれる。視域205の算出手法は例えば特開2004−212666に記されている。
[多視点画像の生成処理]
3Dディスプレイで表示する多視点画像を作成する手法について図3を参照して説明する。
図3のように図2と共通の座標系201に、多視点画像を生成したいCGオブジェクト301を配置する。そして、多視点カメラ302を視距離Lの直線上に一定の間隔で並べ、それぞれのカメラからCGオブジェクト301の描画処理または撮影を行う。多視点カメラ302のそれぞれの位置やカメラ同士の間隔の位置間隔の算出手法は、例えば特開2007−96951に記されている。多視点カメラ302のそれぞれで得られる画像を視差画像と呼ぶ。視差画像の集合を多視点画像と呼ぶ。
3Dディスプレイで表示する多視点画像を作成する手法について図3を参照して説明する。
図3のように図2と共通の座標系201に、多視点画像を生成したいCGオブジェクト301を配置する。そして、多視点カメラ302を視距離Lの直線上に一定の間隔で並べ、それぞれのカメラからCGオブジェクト301の描画処理または撮影を行う。多視点カメラ302のそれぞれの位置やカメラ同士の間隔の位置間隔の算出手法は、例えば特開2007−96951に記されている。多視点カメラ302のそれぞれで得られる画像を視差画像と呼ぶ。視差画像の集合を多視点画像と呼ぶ。
ここで得られた視差画像は、CGオブジェクト301が描画されている領域の画素の透明度を表すアルファ成分は、アルファ成分を0〜255の8ビットで表現される場合には、1から255までの値が代入されている。一方、視差画像において、CGオブジェクト301が描画されず、背景が描画される領域の画素の透明度を表すアルファ成分は0の値が代入されている。
視差画像においてオブジェクト301が描画されていない領域を示す手法としては、上記のほか、ある単一の色を視差画像においてオブジェクトが描画されていない領域を示す色(本実施形態では、この色を抜き色と呼ぶ)と定義し、オブジェクトが描画される領域の画素には、この抜き色を用いず、抜き色とは異なる抜き色と類似した色を用いる手法もある。
[多重解像度多視点画像格納部102に格納される情報]
図3に示すように多視点カメラ302を並べて描画処理を行うことにより作成された多視点画像は、多重解像度多視点画像格納部102に格納される。
多重解像度多視点画像格納部102に格納される情報について図4を参照して説明する。
多重解像度多視点画像格納部102は、視差画像解像度情報115と視差画像117を格納している。図4の401は、あるCGオブジェクト301に対応する多重解像度多視点画像である。402は、図3に示された一連のカメラにより撮影された多視点画像である。例えば画像403は、多視点カメラ302の一番右のカメラ303で撮影されたものであり、画像404は、右から2番目のカメラ304で撮影されたものであるとする。
図3に示すように多視点カメラ302を並べて描画処理を行うことにより作成された多視点画像は、多重解像度多視点画像格納部102に格納される。
多重解像度多視点画像格納部102に格納される情報について図4を参照して説明する。
多重解像度多視点画像格納部102は、視差画像解像度情報115と視差画像117を格納している。図4の401は、あるCGオブジェクト301に対応する多重解像度多視点画像である。402は、図3に示された一連のカメラにより撮影された多視点画像である。例えば画像403は、多視点カメラ302の一番右のカメラ303で撮影されたものであり、画像404は、右から2番目のカメラ304で撮影されたものであるとする。
ここで、多視点画像402の画像解像度を“画像解像度レベル1”と呼ぶものとする。ここで画像解像度レベル1の画像の水平画素数をSw(1)、垂直画素数をSh(1)とする。
多重解像度多視点画像格納部102が多視点画像402のそれぞれの画像に画像縮小処理を行い、この処理によって生成された多視点画像405を“画像解像度レベル2”の多視点画像と呼ぶ。ここで画像解像度レベル2の画像の水平画素数をSw(2)、垂直画素数をSh(2)とする。ここでの画像縮小処理は、一般の画像処理ツールを用いることも可能であるし、グラフィックスハードウェアのミップマップフィルタなどを用いてもよい。ミップマップフィルタで生成されるように、Sw(1):Sw(2)=Sh(1):Sh(2)=2:1としてもよいし、これ以外の比としてもよい。また、Sw(1)とSw(2)の比と、Sh(1)とSh(2)の比は必ずしも同一である必要はない。
このような画像縮小処理を任意回数繰り返すことで、さらに“画像解像度レベル3”の多視点画像406から、“画像解像度レベルm”の多視点画像407まで、合計m段階の画像解像度の多視点画像を作成する。このようにして作成されたものが、CGオブジェクト301に対応する多重解像度多視点画像である。
また、画像解像度レベルそれぞれに対応する水平画素数Swおよび垂直画素数Shの組をあるCGオブジェクト301に対応する視差画像解像度情報115と呼ぶ。
また、画像解像度レベルそれぞれに対応する水平画素数Swおよび垂直画素数Shの組をあるCGオブジェクト301に対応する視差画像解像度情報115と呼ぶ。
本実施形態をパーソナルコンピュータ上に実現する場合には、多重解像度多視点画像格納部102は、例えば、メインメモリやHDDなどの外部記憶装置を用いる。
[視域優先度情報112の内容]
視域優先度情報112の内容について図5および図6を参照して説明する。
視域優先度とは、カメラの位置に応じた視差画像間の相対的な優先度を定めるものである。ここで、多視差スプライトの各視点画像について、優先度が高いほど視差画像の解像度は高く、優先度が低いほど視差画像の解像度は低く設定される。
視域優先度情報112の内容について図5および図6を参照して説明する。
視域優先度とは、カメラの位置に応じた視差画像間の相対的な優先度を定めるものである。ここで、多視差スプライトの各視点画像について、優先度が高いほど視差画像の解像度は高く、優先度が低いほど視差画像の解像度は低く設定される。
視域優先度の設定例を図5に示す。3Dディスプレイから視距離Lの直線上の点501〜点504を定義する。点501のX座標成分をx0、点502のX座標成分をx1と順に定め、点504のX座標成分x3まで定める。ここで、点502と点503の間の領域が、最も視域優先度が高いものとし、“優先順位1”とする。続いて、点501と点502の間、および、点503と点504の間の点が、“優先順位1”に比べて優先度が低い、“優先順位2”とする。
図6は視域優先度情報112の内部構成を示すものである。上述した視域優先度設定に対応するX座標成分の範囲と優先度の対応関係について順に記したものとなっている。
この例では、視域優先度は“優先順位1”“優先順位2”の2段階としているが、視域優先度は3段階以上の優先度があってもよい。また、優先度を設定する領域は、図6のように3領域だけではなく、例えば5つなど、3つ以上定義してもよい。
また、例えば、ビデオカメラなどを用いて観察者の視点位置を測定し、視点位置がディスプレイの水平中心よりも右側に主に存在している場合には、視域の右側に視域優先度が高い領域が分布するように定義するなど、3Dディスプレイ202と観察者206の位置関係により、視域優先度の分布を適応的に変化させることも可能である。
[視差画像優先度情報113の内容]
視差画像優先度情報113について図7を参照して説明する。
図7は、あるひとつの多視差スプライトに関する視差画像優先度情報113の内容を示すものである。視差画像優先度情報113は、多視点のカメラ位置情報と優先度情報を有している。例えば、701は視点0の画像を撮影したカメラ303について、そのカメラの位置C(0)と、優先度P(0)を有している。同様に702は視点1の画像を撮影したカメラ304に対応したものである。
視差画像優先度情報113について図7を参照して説明する。
図7は、あるひとつの多視差スプライトに関する視差画像優先度情報113の内容を示すものである。視差画像優先度情報113は、多視点のカメラ位置情報と優先度情報を有している。例えば、701は視点0の画像を撮影したカメラ303について、そのカメラの位置C(0)と、優先度P(0)を有している。同様に702は視点1の画像を撮影したカメラ304に対応したものである。
このように視点0〜n−1までのn個分の視差画像優先度情報を保持するものが視差画像優先度情報113である。すなわち、視点位置ごとに、異なる優先度を定義することが可能である。
[視差画像解像度情報116の内容]
視差画像解像度情報116について図8を参照して説明する。
図8は、あるひとつの多視差スプライトに関する視差画像解像度情報116の内容を示すものである。視差画像解像度情報116は、多視点のカメラ位置情報と、画像解像度レベル情報を有している。例えば、801は視点0の画像を撮影した図2のカメラ303について、そのカメラの位置C(0)と、その画像の画像解像度レベルS(0)を保持する。同様に802は視点1の画像を撮影したカメラ304に対応したものである。
視差画像解像度情報116について図8を参照して説明する。
図8は、あるひとつの多視差スプライトに関する視差画像解像度情報116の内容を示すものである。視差画像解像度情報116は、多視点のカメラ位置情報と、画像解像度レベル情報を有している。例えば、801は視点0の画像を撮影した図2のカメラ303について、そのカメラの位置C(0)と、その画像の画像解像度レベルS(0)を保持する。同様に802は視点1の画像を撮影したカメラ304に対応したものである。
このように視点0〜n−1までのn個分の視差画像の画像解像度レベル情報を保持するものが視差画像解像度情報116である。すなわち、視点位置ごとに、異なる解像度の画像を表示するように指定することが可能である。
[視域依存視差画像優先度決定部101の処理内容]
視域依存視差画像優先度決定部101の処理フローの一例について図9を参照して説明する。本実施形態をパーソナルコンピュータ上で実施する場合には、視域依存視差画像優先度決定部101はCPU上に実装されるプログラムである。
(ステップS901)まず、入力されたディスプレイパラメータ111の情報を元に、初期値(初期優先度)を代入した仮視差画像優先度情報を作成する。ディスプレイパラメータ111から視点数nを得て、仮視差画像優先度情報の視点数n個分の格納領域を確保する。次いで、ディスプレイパラメータ111から多視点カメラ302のそれぞれのカメラの位置を得て、仮視差画像優先度情報の各視点のカメラ位置C(0)〜C(n−1)に代入する。次に、仮視差画像優先度情報の各視点の優先度P(0)〜P(n−1)に、優先度が最も高いことを示す“優先順位1”という値を代入する。
視域依存視差画像優先度決定部101の処理フローの一例について図9を参照して説明する。本実施形態をパーソナルコンピュータ上で実施する場合には、視域依存視差画像優先度決定部101はCPU上に実装されるプログラムである。
(ステップS901)まず、入力されたディスプレイパラメータ111の情報を元に、初期値(初期優先度)を代入した仮視差画像優先度情報を作成する。ディスプレイパラメータ111から視点数nを得て、仮視差画像優先度情報の視点数n個分の格納領域を確保する。次いで、ディスプレイパラメータ111から多視点カメラ302のそれぞれのカメラの位置を得て、仮視差画像優先度情報の各視点のカメラ位置C(0)〜C(n−1)に代入する。次に、仮視差画像優先度情報の各視点の優先度P(0)〜P(n−1)に、優先度が最も高いことを示す“優先順位1”という値を代入する。
(ステップS902)次に、入力した視域優先度情報112を元に、仮視差画像優先度情報の各視点についての優先度を求める。具体的な処理内容について図10を参照して説明する。
図10の例で、視点i0に対応するカメラ1001は、点x0と点x1の間に存在する。視域優先度情報112より、点x0と点x1の間の領域は、“優先順位2”であることが判明するため、視点i0に対応する視差画像優先度情報113の優先度P(i0)に、“優先順位2”を代入する。同様に、視点i1に対応するカメラ1002は、点x1と点x2に間に存在し、この領域は“優先順位1”であるため、優先度P(i1)に“優先順位1”を代入する。さらに、視点i2に対応するカメラ1003は、点x2と点x3の間に存在し、この領域は“優先順位0”であるため、優先度P(i2)に“優先順位2”を代入する。この処理を描画対象とする視点について行う。
(ステップS903)次に、ステップS902の処理で求めた視差画像優先度情報113を出力し、処理を終了する。
図10の例で、視点i0に対応するカメラ1001は、点x0と点x1の間に存在する。視域優先度情報112より、点x0と点x1の間の領域は、“優先順位2”であることが判明するため、視点i0に対応する視差画像優先度情報113の優先度P(i0)に、“優先順位2”を代入する。同様に、視点i1に対応するカメラ1002は、点x1と点x2に間に存在し、この領域は“優先順位1”であるため、優先度P(i1)に“優先順位1”を代入する。さらに、視点i2に対応するカメラ1003は、点x2と点x3の間に存在し、この領域は“優先順位0”であるため、優先度P(i2)に“優先順位2”を代入する。この処理を描画対象とする視点について行う。
(ステップS903)次に、ステップS902の処理で求めた視差画像優先度情報113を出力し、処理を終了する。
[視差画像解像度決定部103の処理内容]
視差画像解像度決定部103の処理フローの一例について図11を参照して説明する。本実施形態をパーソナルコンピュータ上で実施する場合には、視差画像解像度決定部103はCPU上に実装されるプログラムである。
(ステップS1101)まず、入力された多視点スプライトデータサイズ閾値114を変数Dsに代入する。同じく視差画像優先度情報113、視差画像解像度情報115が入力される。視差画像優先度情報113の具体的な内容は図7に、視差画像解像度情報116の具体的な内容は図8に示されている。視差画像解像度情報の各視点について、最も高い解像度情報である画像解像度レベル1の解像度を代入する。最後に、後段のループに用いるインデックスiに1を代入する。
視差画像解像度決定部103の処理フローの一例について図11を参照して説明する。本実施形態をパーソナルコンピュータ上で実施する場合には、視差画像解像度決定部103はCPU上に実装されるプログラムである。
(ステップS1101)まず、入力された多視点スプライトデータサイズ閾値114を変数Dsに代入する。同じく視差画像優先度情報113、視差画像解像度情報115が入力される。視差画像優先度情報113の具体的な内容は図7に、視差画像解像度情報116の具体的な内容は図8に示されている。視差画像解像度情報の各視点について、最も高い解像度情報である画像解像度レベル1の解像度を代入する。最後に、後段のループに用いるインデックスiに1を代入する。
(ステップS1102)次に、視差画像解像度情報116の全視差の画像データサイズの総和Ddを算出する。Ddは以下の式で求まる。ここで、Sw(k)および、Sh(k)は、視差画像解像度情報115で参照される値である。また、S(k)は、視差画像解像度情報116における各視点画像の画像解像度レベルである。また、BPPは、1画素あたりの情報量を示す係数であり、Ddの単位がバイトで、各画素がRGBAの4つの色要素を有し、各色要素1つあたり8ビット(1バイト)で構成される場合には、BPPは4となる。
次に、算出したDdと1101において入力されたDsを比較する。DsがDd以上である場合にはステップS1107へ遷移する。DsがDdよりも小さい場合にはステップS1103へ遷移する。
(ステップS1103)視差画像優先度情報113のうち、優先度が最も低いものからi段階分の優先度の視点について、対応する視差画像解像度情報116の画像解像度レベルを1段階下げる。1段階下げるとは、ある視点jについて、S(j)<m(mは視差画像解像度情報115における最低の画像解像度レベルである)の場合には、S(j)に1を加える。
この処理を具体的に説明すると次にようになる。
例えば、インデックスiが1の場合で、視差画像優先度情報113の各視点の優先度が、優先順位1と優先順位2の2つの優先度を有する場合を仮定する。複数の優先度の中で最も優先度が低いものは優先順位2であり、最も低い優先順位2から1段階分の優先度とは、優先度が優先順位2のものである。したがって、優先度が優先順位2である視点jについて、画像解像度レベルS(j)が最低画像解像度レベルm未満であれば、S(j)に1加える。
例えば、インデックスiが1の場合で、視差画像優先度情報113の各視点の優先度が、優先順位1と優先順位2の2つの優先度を有する場合を仮定する。複数の優先度の中で最も優先度が低いものは優先順位2であり、最も低い優先順位2から1段階分の優先度とは、優先度が優先順位2のものである。したがって、優先度が優先順位2である視点jについて、画像解像度レベルS(j)が最低画像解像度レベルm未満であれば、S(j)に1加える。
異なる条件の例について説明する。インデックスiが2の場合で、視差画像優先度情報113の各視点の優先度が、同じく優先順位1と優先順位2の2つの優先度を有する場合を仮定する。複数の優先度の中で最も優先度が低いものは優先順位2であり、最も低い優先順位2から2段階分の優先度とは、優先度が優先順位2と優先順位1のものである。したがって、優先度が優先順位2または優先順位1である視点jについて、画像解像度レベルS(j)が最低画像解像度レベルm未満であれば、S(j)に1加える。
(ステップS1104)視差画像解像度情報116の描画対象とする視点について、最低レベルの画像解像度レベルであるかどうかを判定する。具体的には、描画対象とする視点jについて、S(j)=mが満たされるかどうかを判定する。この条件を満たす場合には、これ以上解像度を下げても、多視点スプライトデータサイズ閾値Dsを満足するスプライトデータを生成することが不可能である。そのため、ステップS1105に遷移し、エラーを出力して終了する(ステップS1105)。
ステップS1104で条件を満たさなかった場合には、ステップS1106に遷移する。
ステップS1104で条件を満たさなかった場合には、ステップS1106に遷移する。
インデックスiを1増やして、ステップS1102に遷移する(ステップS1106)。視差画像解像度情報116を出力して終了する(ステップS1107)。
[視差画像読み出し部104の処理内容]
視差画像読み出し部104は、入力された視差画像解像度情報116の情報を元に、多重解像度多視点画像格納部102から、視点ごとに対応する解像度の視差画像を読み出す。視差画像解像度情報116の具体的な構成は図8に示されている。例えば、図8の801で示される、視点0の解像度が画像解像度レベル2と指定されている場合には、視点0のスプライト画像として、多重解像度多視点画像格納部102より、画像解像度レベル2、視点0の画像を読み出す。以上の処理を視点数分繰りかえす。
視差画像読み出し部104は、入力された視差画像解像度情報116の情報を元に、多重解像度多視点画像格納部102から、視点ごとに対応する解像度の視差画像を読み出す。視差画像解像度情報116の具体的な構成は図8に示されている。例えば、図8の801で示される、視点0の解像度が画像解像度レベル2と指定されている場合には、視点0のスプライト画像として、多重解像度多視点画像格納部102より、画像解像度レベル2、視点0の画像を読み出す。以上の処理を視点数分繰りかえす。
そして、読み出した多視差スプライト画像を出力する。なお、本実施形態をパーソナルコンピュータ上で実施する場合には、視差画像読み出し部104はCPU上に実装されるプログラムである。
[多視差スプライト格納部106に格納される情報]
多視差スプライト格納部106に格納される多視差スプライト情報について図12に示す。本実施形態をパーソナルコンピュータ上に実現する場合には、多視差スプライト格納部106は、例えば、メインメモリやHDDなどの外部記憶装置を用いる。
多視差スプライト格納部106に格納される多視差スプライト情報について図12に示す。本実施形態をパーソナルコンピュータ上に実現する場合には、多視差スプライト格納部106は、例えば、メインメモリやHDDなどの外部記憶装置を用いる。
多視差スプライト格納部106では、多視差スプライト画像1202に多視差スプライト名118を関連付け、多視差スプライトデータ1201として保持する。多視差スプライト格納部106は複数の多視差スプライトデータ1201を格納できるものとし、多視差スプライトの区別を多視差スプライト名118で行う。多視差スプライト名として、例えば、通し番号や文字列などを用いる。
[多視差スプライト登録部105の処理内容]
多視差スプライト登録部105は、多視差画像読み出し部104の出力である多視差スプライト画像と、多視差スプライト名118を入力とする。多視差スプライト登録部105では、図12の多視差スプライト名118を、入力された多視差スプライト画像1202に関連づけて多視差スプライトデータ1201を構成し、多視差スプライト格納部106に登録する。
多視差スプライト登録部105は、多視差画像読み出し部104の出力である多視差スプライト画像と、多視差スプライト名118を入力とする。多視差スプライト登録部105では、図12の多視差スプライト名118を、入力された多視差スプライト画像1202に関連づけて多視差スプライトデータ1201を構成し、多視差スプライト格納部106に登録する。
なお、本実施形態をパーソナルコンピュータ上で実施する場合には、多視差スプライト登録部105はCPU上に実装されるプログラムである。
[第1の実施形態の効果]
本実施形態では、3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成する。
本実施形態では、3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成する。
描画対象とする視点のスプライト画像を高解像度で保持する場合は、多視差スプライトデータサイズが多視差スプライトデータサイズ閾値を超えてしまう場合に、第1の実施形態の多視差画像生成装置を用いれば、多視差スプライトデータサイズ閾値を超えないデータサイズにおいて、視域優先度が高い視点には高い解像度のスプライト画像、一方、視域優先度が低い視点には低い解像度のスプライト画像というように、観察者の視点が視域の中央に高頻度で存在する場合に、多視差スプライトの映像を視覚的に大きく劣化させることなく構成することが可能である。
なお、本実施形態の実施にあたっては、多視差スプライトを用いる3Dディスプレイアプリケーション実行の前処理での実行が考えられる。
第1の実施形態では、水平方向のみに視差を生成する3Dディスプレイを対象とし、水平方向1次元についてのみの多重解像度多視差スプライトを構成したが、水平および垂直方向に視差を生成する3Dディスプレイについても、本実施形態の内容を縦横2次元に適用することで実施可能である。
(第2の実施形態)
本実施形態では、第1の実施形態の構成に追加して、多視差スプライト格納部から多視差スプライトを読み出し、指定された位置に描画を行い、多視差スプライトを立体映像として提示する場合の例を示す。
本実施形態では、第1の実施形態の構成に追加して、多視差スプライト格納部から多視差スプライトを読み出し、指定された位置に描画を行い、多視差スプライトを立体映像として提示する場合の例を示す。
[装置の構成]
本実施形態の多視差画像生成装置について図13を参照して説明する。
第2の実施形態の多視差画像生成装置は、図1に示される第1の実施形態の多視差画像生成装置に、多視差スプライト読み出し部1301、多視差スプライト描画部1302、提示部1303を含む。
本実施形態の多視差画像生成装置について図13を参照して説明する。
第2の実施形態の多視差画像生成装置は、図1に示される第1の実施形態の多視差画像生成装置に、多視差スプライト読み出し部1301、多視差スプライト描画部1302、提示部1303を含む。
多視差スプライト読み出し部1301は、多視差スプライト名1311を入力として、多視差スプライト格納部106から多視点スプライトデータを読み出す。
多視差スプライト描画部1302は、読み出された多視差スプライトを、ディスプレイパラメータ111と、スプライト表示位置1312に基づいてフレームメモリ上に描画を行う。
提示部1303は、フレームメモリ上に描画された多視差スプライトを立体映像として提示する。
[多視差スプライト読み出し部1301の処理内容]
多視差スプライト読み出し部1301は、入力された多視差スプライト名1311に対応する多視差スプライトデータを多視差スプライト格納部106から読み出す。読み出された多視差スプライトデータは、多視差スプライト描画部1302に入力される。本実施形態をパーソナルコンピュータ上で実施する場合には、多視差スプライト読み出し部1301はCPU上に実装されるプログラムであり、多視差スプライト描画部1302を実装したグラフィックスハードウェアのビデオメモリに多視差スプライトを転送する処理を行う。
多視差スプライト読み出し部1301は、入力された多視差スプライト名1311に対応する多視差スプライトデータを多視差スプライト格納部106から読み出す。読み出された多視差スプライトデータは、多視差スプライト描画部1302に入力される。本実施形態をパーソナルコンピュータ上で実施する場合には、多視差スプライト読み出し部1301はCPU上に実装されるプログラムであり、多視差スプライト描画部1302を実装したグラフィックスハードウェアのビデオメモリに多視差スプライトを転送する処理を行う。
[多視差スプライト描画部1302の処理内容]
多視差スプライト描画部1302の処理内容について図14を参照しながら説明する。多視差スプライト描画部1302は、多視差スプライト読み出し部1301で読み出された多視差スプライト画像1401を、入力されたディスプレイパラメータ111と、スプライト表示位置1312にもとづいて、多視点レンダリング用フレームメモリ1402上に転送する。
多視差スプライト描画部1302の処理内容について図14を参照しながら説明する。多視差スプライト描画部1302は、多視差スプライト読み出し部1301で読み出された多視差スプライト画像1401を、入力されたディスプレイパラメータ111と、スプライト表示位置1312にもとづいて、多視点レンダリング用フレームメモリ1402上に転送する。
ここで入力されるディスプレイパラメータ111は、多視点レンダリング用フレームメモリの個数や各視点のフレームメモリの画素数、提示部1303に多視点レンダリング用フレームメモリの内容を表示する際に必要となるパラメータを保持するものである。多視差スプライト描画部1302に入力されるディスプレイパラメータ111は、視域依存視差画像優先度決定部101に代入されるものと同一のものである必要がある。ディスプレイパラメータの具体的内容については、例えば特開2007−96951を参照されたい。
多視差スプライト画像1401は、n個の視点について異なる解像度のスプライト画像1408などから構成される。多視点レンダリング用フレームメモリ1402は、n個の視点についてのフレームバッファ1403などから構成される。そして、例えば視点0については、スプライト画像1408から、フレームバッファ1403上の、スプライト表示位置1404および1405で指定された多視差スプライト描画領域1406に画像を転送する。この処理をn個描画対象とする視点について繰り返す。ここで各視点について描画左上位置1404と描画右下位置1405を同一にした場合には、多視差スプライトは3Dディスプレイパネル面に存在するように表示される。視点ごとに視差を持たせるように、視点ごとに異なる位置に描画した場合には、多視差スプライトは3Dディスプレイパネル面の手前または奥に存在するように表示される。この処理の具体的内容は例えば特開2007−96951を参照されたい。
ここで、視点0の多視差スプライト描画領域1406と視点1の多視差スプライト描画領域1407は、同一のオブジェクトの異なる位置からの画像であるため、転送先の領域の大きさは共通である。したがって、多視差スプライト画像1401上の画像は、多視点レンダリング用フレームメモリ1402上の各視点の描画領域のサイズに一致するように転送時に拡大または縮小処理が施される。
本実施形態をパーソナルコンピュータ上で実施する場合には、多視差スプライト描画部1302は、パーソナルコンピュータに搭載されたグラフィックスハードウェア上で実現される処理である。具体的には、多視差スプライト画像1401は、グラフィックスハードウェア上のビデオメモリにテクスチャマッピングデータとして保持される。また、多視点レンダリング用フレームメモリ1402は、グラフィックスハードウェア上のビデオメモリにフレームバッファとして保持される。また、多視差スプライト画像1401から多視点レンダリング用フレームメモリ1402への転送処理は、グラフィックスハードウェアにおけるポリゴンへのテクスチャマッピング処理により実行される。転送処理を具体的に説明すると、例えば、視点0の場合、スプライト画像1408をテクスチャマップとして準備する。ついで、描画領域1406に対応する長方形のポリゴンの4隅の頂点のテクスチャ座標に、スプライト画像1408の4隅のテクスチャ座標を代入する。ついで、フレームバッファ1403への描画処理において、描画左上位置1404、描画右下位置1405となる長方形のポリゴンを描画する。この処理を描画対象とする視点について繰り返す。
[提示部1303の処理内容]
提示部1303では、多視差スプライト描画部1302で描画された多視点レンダリング用フレームメモリ1402を3Dディスプレイに出力する。
提示部1303では、多視差スプライト描画部1302で描画された多視点レンダリング用フレームメモリ1402を3Dディスプレイに出力する。
[第2の実施形態の効果]
本実施形態では、3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成し、生成した多視差スプライトを3Dディスプレイ上の任意の位置に提示する。
本実施形態では、3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成し、生成した多視差スプライトを3Dディスプレイ上の任意の位置に提示する。
描画対象とする視点のスプライト画像を高解像度で保持する場合は、多視差スプライトデータサイズが多視差スプライトデータサイズ閾値を超えてしまう場合に、第2の実施形態の多視差画像生成装置を用いれば、多視差スプライトデータサイズ閾値を超えないデータサイズにおいて、視域優先度が高い視点には高い解像度のスプライト画像、一方、視域優先度が低い視点には低い解像度のスプライト画像というように、観察者の視点が視域の中央に高頻度で存在する場合に、多視差スプライトの映像を視覚的に大きく劣化させることなく構成し、3Dディスプレイに表示することが可能である。
本実施形態をパーソナルコンピュータ上で実施する場合、多視差スプライト描画部1302における多視差スプライト画像1401はビデオメモリに格納される。本実施形態により、多視差スプライト1つあたりの占有ビデオメモリサイズを縮小することで、描画対象とする視点のスプライト画像を高解像度で保持する場合に比べ、ビデオメモリにより多く種類の多視差スプライトを格納することが可能となる。
また、ビデオメモリにおけるデータ転送速度の制約上、多視差スプライト1つあたりの占有ビデオメモリサイズを縮小することで、描画対象とする視点のスプライト画像を高解像度で保持する場合に比べ、多視差スプライト1つについてテクスチャメモリからフレームバッファへのデータ転送に要する時間が削減される。これにより、多視差スプライトの描画に要する時間が短縮され、多視差スプライトを用いるアプリケーションの処理速度の高速化が実現される。
また、図15と図16を参照しながら付随する効果について説明する。本実施形態により、3Dディスプレイにおける視域の中央付近1501(斜線部分)で観察される多視差スプライトの画像解像度を高くし、一方、視域の境界付近1502(点々部分)で観察される多視差スプライトの画像解像度を低くするとする。図15の1503のように、観察者の視点が視域の中央付近に存在する場合には、多視差スプライトは解像度が高く近くされるが、図16の1601のように観察者の視点が視域境界に近づいた場合に、多視差スプライトは解像度が低く知覚される。この効果により、観察者が現在の視点位置が視域境界に近いことを知覚させることが可能である。
観察者の視点位置が視域境界の外に移動してしまうと、観察者は正常ではない立体映像を知覚してしまうという問題が生じる。本実施形態で生成した多視差スプライトにより立体映像が正しく観察できる視域範囲を観察される多視差スプライトの画像解像度の変化として提示することで、この問題を防ぐことが可能である。
本実施形態の実施にあたっては、多視差スプライトを用いる3Dディスプレイアプリケーション実行の前処理での実行が考えられる。または、3Dディスプレイアプリケーション内部のシーングラフ処理手段(シーングラフとはCGオブジェクトの空間データ構造のことである)に本実施形態を適用することで、アプリケーション実行中に、グラフィックスハードウェアのビデオメモリ消費量など、アプリケーションの状態に応じて動的に多視差スプライトの構成を変化させることも可能である。
本実施形態では、水平方向のみに視差を生成する3Dディスプレイを対象とし、水平方向1次元についてのみの多重解像度多視差スプライトを構成したが、水平および垂直方向に視差を生成する3Dディスプレイについても、本実施形態の内容を縦横2次元に適用することで実施可能である。
(第3の実施形態)
本実施形態では、スクリーン中のスプライト表示位置情報とディスプレイパラメータを入力とし、スプライト表示位置情報に依存する、多視差スプライトの各視点についての解像度を決定し、その多視点解像度情報にもとづいて多重解像度多視点画像格納部102から選択的に各視点の画像を読み出し、多視点スプライトを構成し、多視点スプライト名を付加して多視差スプライト格納部に登録する装置の例を示す。
本実施形態では、スクリーン中のスプライト表示位置情報とディスプレイパラメータを入力とし、スプライト表示位置情報に依存する、多視差スプライトの各視点についての解像度を決定し、その多視点解像度情報にもとづいて多重解像度多視点画像格納部102から選択的に各視点の画像を読み出し、多視点スプライトを構成し、多視点スプライト名を付加して多視差スプライト格納部に登録する装置の例を示す。
[装置の構成]
本実施形態の多視差画像生成装置について図17を参照して説明する。
第3の実施形態の多視差画像生成装置は、第1の実施形態の視域依存視差画像優先度決定部101の代わりにスプライト表示位置依存視差画像優先度決定部1701を含み、その他は第1の実施形態と同様である。
スプライト表示位置依存視差画像優先度決定部1701は、3Dディスプレイのディスプレイパラメータ111と、スプライト表示位置情報1711を入力とし、視差画像優先度情報113を出力する。スプライト表示位置依存視差画像優先度決定部1701は、ディスプレイパラメータから視点数と該視点の位置を取得し、時刻ごとに視差画像の表示位置を示す表示位置情報を参照して、位置ごとに視差画像が位置する頻度を積算し、視点ごとの、頻度に応じた優先度を定める視差画像優先度情報を生成する。
以下、本実施形態と第1の実施形態の異なる部分について説明する。
本実施形態の多視差画像生成装置について図17を参照して説明する。
第3の実施形態の多視差画像生成装置は、第1の実施形態の視域依存視差画像優先度決定部101の代わりにスプライト表示位置依存視差画像優先度決定部1701を含み、その他は第1の実施形態と同様である。
スプライト表示位置依存視差画像優先度決定部1701は、3Dディスプレイのディスプレイパラメータ111と、スプライト表示位置情報1711を入力とし、視差画像優先度情報113を出力する。スプライト表示位置依存視差画像優先度決定部1701は、ディスプレイパラメータから視点数と該視点の位置を取得し、時刻ごとに視差画像の表示位置を示す表示位置情報を参照して、位置ごとに視差画像が位置する頻度を積算し、視点ごとの、頻度に応じた優先度を定める視差画像優先度情報を生成する。
以下、本実施形態と第1の実施形態の異なる部分について説明する。
[スプライト表示位置情報1711の構成]
スプライト表示位置情報1711について図18および図19を参照して説明する。
スプライト表示位置情報1711の具体的な内容は、図19で定義される情報である。
図18は、多視差スプライトの表示位置の時間変化を図上に示した例である。3Dディスプレイのスクリーン1801の中で、多視差スプライト1802の中心位置の軌跡を、有向線分の集合1803で示している。多視差スプライトはn視点の視差画像を有し、ここではそのうち中央の視点の視差画像を用いるなど、代表となる1つの視差画像1802を利用するものとする。1804は、スクリーン1801の座標系であり、本実施形態では、スクリーン中央を原点、水平方向で、かつ、右向きをx軸正方向、垂直方向で、かつ、上向きをy軸正方向とする。スクリーン座標系1804は、座標系は表示システムの形態により任意に変更可能である。
スプライト表示位置情報1711について図18および図19を参照して説明する。
スプライト表示位置情報1711の具体的な内容は、図19で定義される情報である。
図18は、多視差スプライトの表示位置の時間変化を図上に示した例である。3Dディスプレイのスクリーン1801の中で、多視差スプライト1802の中心位置の軌跡を、有向線分の集合1803で示している。多視差スプライトはn視点の視差画像を有し、ここではそのうち中央の視点の視差画像を用いるなど、代表となる1つの視差画像1802を利用するものとする。1804は、スクリーン1801の座標系であり、本実施形態では、スクリーン中央を原点、水平方向で、かつ、右向きをx軸正方向、垂直方向で、かつ、上向きをy軸正方向とする。スクリーン座標系1804は、座標系は表示システムの形態により任意に変更可能である。
ここで、軌跡1803を、多視差スプライトのモーションパスと呼ぶ。本実施形態でのモーションパスは、スクリーン上の点P0、P1、…、P6で定義される折れ線である。多視差スプライト1802の中心位置は、時刻t0において点P0にあり、時刻t1において点P1上にある。時刻t(t0≦t≦t1)では、中心位置Pは、P0とP1を内分した、以下の式で定義される位置にある。
t1≦tの時刻範囲でも同様である。このように、多視差スプライト1802は、この折れ線1803の上を移動する。
図19は、図18の多視差スプライトの軌跡に対応する、スプライト表示位置情報1711の構成を示すものである。スプライト表示位置情報1711は、多視差スプライト名1901と、時刻と対応する多視差スプライトの中心位置を順に定義した情報1902を含む。ここで座標P0、P1、…、P6は、2次元座標で定義されるものとする。
第3の実施形態では、モーションパスを折れ線で定義したが、モーションパスはベジェ関数やスプライン関数などを用いて曲線により定義されてもよい。
また、第3の実施形態では、多視差スプライトはスクリーン面上を2次元的に移動するものとしたが、モーションパスは、3Dディスプレイの奥行き方向も含め3次元的に移動するように定義してもよい。その場合には、座標のZ成分である奥行き方向の情報は用いないなど、3次元から2次元への射影処理を行う必要がある。
第3の実施形態では、モーションパスを折れ線で定義したが、モーションパスはベジェ関数やスプライン関数などを用いて曲線により定義されてもよい。
また、第3の実施形態では、多視差スプライトはスクリーン面上を2次元的に移動するものとしたが、モーションパスは、3Dディスプレイの奥行き方向も含め3次元的に移動するように定義してもよい。その場合には、座標のZ成分である奥行き方向の情報は用いないなど、3次元から2次元への射影処理を行う必要がある。
[スプライト表示位置依存視差画像優先度決定部1701の処理内容]
スプライト表示位置依存視差画像優先度決定部1701の処理内容の一例について図20と図21を参照しながら説明する。図20は、スプライト表示位置依存視差画像優先度決定部1701の処理フローである。本実施形態をパーソナルコンピュータ上で実施する場合には、スプライト表示位置依存視差画像優先度決定部1701はCPU上に実装されるプログラムである。
スプライト表示位置依存視差画像優先度決定部1701の処理内容の一例について図20と図21を参照しながら説明する。図20は、スプライト表示位置依存視差画像優先度決定部1701の処理フローである。本実施形態をパーソナルコンピュータ上で実施する場合には、スプライト表示位置依存視差画像優先度決定部1701はCPU上に実装されるプログラムである。
(ステップS2001)まず、多視差スプライト表示位置検出用ラインバッファを初期化する。このラインバッファは、図21の2101で示されるものであり、3Dディスプレイのスクリーン1801の水平画素数分の数値を格納するものである。ここでは、ラインバッファLB(x)にすべて0を代入する。また、時刻を格納する変数tにモーションパスの開始時刻であるt_startを代入する。図18のモーションパス1803では、t_start=t0である。
(ステップS2002)次に、図19のスプライト表示位置情報を参照し、現在時刻tにおけるスプライト中心位置を算出する。中心位置の算出手法は、前述のスプライト表示位置情報1711の構成で述べた手法を用いる。
(ステップS2003)次に、スプライトの表示領域に対応する、x座標のラインバッファの値を増加させる。具体的には、下記の式のように、スプライト画像中の非透明である有効画素の最小のx座標値x_minと最大のx座標値x_maxの間の範囲のラインバッファの値を1増やす。
x_min≦x≦x_maxの範囲xについて、LB(x)=LB(x)+1
図21は、上記の処理を図で示したものである。図21の2103が、スプライト画像中の水平方向の有効画素であり、この領域のラインバッファ2101の値を1増やす。
図21は、上記の処理を図で示したものである。図21の2103が、スプライト画像中の水平方向の有効画素であり、この領域のラインバッファ2101の値を1増やす。
本実施形態では、多視差スプライトの表示時の拡大処理または縮小処理を行っていない。多視差スプライトの表示時の拡大処理または縮小処理を行う場合には、スプライトの表示領域1802は拡大または縮小され、その結果がラインバッファ2103に反映される。
(ステップS2004)次に、時刻変数tをあらかじめ定めた時刻の増分Δtだけ増やす。増分Δtは多視差スプライトの移動速度に応じて設定するものとする。そして、tがモーションパスの終了時刻t_endよりも大きな値になった場合には、ステップS2005に遷移する。時刻変数tがt_endよりも小さい場合には、ステップS2002に遷移する。
(ステップS2005)次に、ラインバッファLB(x)の数値の平均μと分散σを算出する。図21の2104は、ラインバッファの値をヒストグラムで示したものである。多視差スプライトが高い頻度で存在するx座標の領域では、ヒストグラム2104の値が大きくなる。このヒストグラムより、2105で示される平均μと分散σを算出する。ヒストグラム2104のうち、斜線で塗りつぶされている領域がμ−σ≦x≦μ+σの領域であり、水平方向に関して、この範囲に多視差スプライトは統計上高い頻度で表示されることになる。本実施形態では、この領域を多視差スプライト高頻度表示範囲と呼ぶ。
(ステップS2006)次に、算出した平均μと分散σ、および、ディスプレイパラメータ111より、視差画像優先度情報113を生成し出力する。この処理の具体的内容について以下に説明する。
[スプライト表示位置依存視差画像優先度決定部1701における視差画像優先度情報113生成処理]
スプライト表示位置依存視差画像優先度決定部1701における視差画像優先度情報113生成処理について詳しく説明する。
スプライト表示位置依存視差画像優先度決定部1701における視差画像優先度情報113生成処理について詳しく説明する。
特開2004−212666で示されているように、本実施形態で示す3Dディスプレイでは、視域最適化法を用いて視域を拡大している。これは、図22に示すように、3Dディスプレイ2201のひとつの画素についてレンチキュラーレンズで実現される視点数(例えば12視点)よりも多い視点数(例えば24視点)について描画部が多視点画像2202を生成し、3Dディスプレイの水平方向の画素について異なる組み合わせの視点画像を対応させることによって実現している。例えば、3Dディスプレイ2201のある画素2206は、多視点画像2202のうち、2203で示される視点0から視点jまでの多視点画像を表示に用いている。同様に、画素2207は、2204で示される視点iから視点lまでの多視点画像を表示に用い、画素2208は、2205で示される視点kから視点n−1までの多視点画像を表示に用いている。すなわち、多視点画像2202は、画像中のすべての領域が3Dディスプレイの画素として表示されるのではなく、各視点について斜線で示した領域のみが表示されることとなる。本実施形態では、この領域を多視差画像の実効表示範囲と呼ぶ。各視点の実効表示範囲は、3Dディスプレイのパネル構成に依存するものであり、ディスプレイパラメータ111から算出可能である。
本実施形態では、ラインバッファの値の平均μを中心とする2σの幅の領域により、多視差スプライト高頻度表示範囲2105を定義したが、多視差スプライト高頻度表示範囲2105の幅は2σに限定せず、多視差スプライトの形状や移動範囲に応じて変更してもよい。
また、本実施形態では、ステップS2003において、スプライト画像中の非透明である有効画素の最小のx座標値x_minと最大のx座標値x_maxの間の範囲のラインバッファの値を1増やすという処理を行ったが、例えば多視差スプライトが主に表示領域1802の右側に存在する場合には、スプライト画像中の非透明である有効画素の最小のx座標値x_minと最大のx座標値x_maxの間の範囲のラインバッファの右側に多く値を加算するなど、多視差スプライトの実際の形状に応じて加算する値に重み付けをしてもよい。
ここで、多視点画像2202のうち、多視差スプライト高頻度表示範囲を、実行表示範囲が含む視点について高い解像度で保持し、それ以外の視点については、低い解像度で保持するとする。このようにしても視覚上大きな劣化とはならず、多視差スプライト全体のデータ量を縮小することが可能である。
次に、多視点画像2202の表示領域と、ヒストグラム2104から視差画像優先度情報113を生成する手法について図23を参照して説明する。
各視点について、2301で示すように、多視点画像の実効表示範囲が、ヒストグラム2104の斜線部分である多視差スプライト高頻度表示範囲を包含するものを見つける。図23の例では、視点aから視点bまでの視点が上記の条件を満たす。そのため、この範囲の視点2303について、優先度が最も高いことを示す“優先順位1”とする。一方、視点0から視点a―1の視点2302、視点b+1から視点n−1までの範囲の視点2304、優先順位1より優先度が低いことを示す“優先順位2”とする。これにより、視差画像優先度情報113の各P(i)に優先度を代入する。
なお、第3の実施形態において、スプライト表示位置依存視差画像優先度決定部1701の後段の処理は、第1の実施形態と共通である。
各視点について、2301で示すように、多視点画像の実効表示範囲が、ヒストグラム2104の斜線部分である多視差スプライト高頻度表示範囲を包含するものを見つける。図23の例では、視点aから視点bまでの視点が上記の条件を満たす。そのため、この範囲の視点2303について、優先度が最も高いことを示す“優先順位1”とする。一方、視点0から視点a―1の視点2302、視点b+1から視点n−1までの範囲の視点2304、優先順位1より優先度が低いことを示す“優先順位2”とする。これにより、視差画像優先度情報113の各P(i)に優先度を代入する。
なお、第3の実施形態において、スプライト表示位置依存視差画像優先度決定部1701の後段の処理は、第1の実施形態と共通である。
[第3の実施形態の効果]
本実施形態では、多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納部から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成する。
本実施形態では、多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納部から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成する。
描画対象とする視点のスプライト画像を高解像度で保持する場合は、多視差スプライトデータサイズが多視差スプライトデータサイズ閾値を超えてしまう場合に、本実施形態の多視差画像生成装置を用いれば、多視差スプライトデータサイズ閾値を超えないデータサイズにおいて、多視差スプライトが高頻度で表示される領域には高い解像度のスプライト画像、一方、多視差スプライトが低頻度で表示される領域には低い解像度のスプライト画像というように、多視差スプライトの映像を視覚的に大きく劣化させることなく構成することが可能である。
本実施形態の実施にあたっては、多視差スプライトを用いる3Dディスプレイアプリケーション実行の前処理での実行が考えられる。
本実施形態の実施にあたっては、多視差スプライトを用いる3Dディスプレイアプリケーション実行の前処理での実行が考えられる。
本実施形態では、水平方向のみに視差を生成する3Dディスプレイを対象とし、水平方向1次元についてのみの多重解像度多視差スプライトを構成したが、水平および垂直方向に視差を生成する3Dディスプレイについても、本実施形態の内容を縦横2次元に適用することで実施可能である。
(第4の実施形態)
本実施形態では、第3の実施形態の構成に追加して、多視差スプライト格納部から多視差スプライトを読み出し、指定された位置に描画を行い、多視差スプライトを立体映像として提示する装置の例を示す。
本実施形態では、第3の実施形態の構成に追加して、多視差スプライト格納部から多視差スプライトを読み出し、指定された位置に描画を行い、多視差スプライトを立体映像として提示する装置の例を示す。
[装置の構成]
本実施形態の多視差画像生成装置について図24を参照して説明する。
本実施形態の多視差画像生成装置は、第2の実施形態の多視差スプライト読み出し部1301、多視差スプライト描画部1302、提示部1303を第3の実施形態の多視差画像生成装置に負荷したものである。
本実施形態の多視差画像生成装置について図24を参照して説明する。
本実施形態の多視差画像生成装置は、第2の実施形態の多視差スプライト読み出し部1301、多視差スプライト描画部1302、提示部1303を第3の実施形態の多視差画像生成装置に負荷したものである。
[第4の実施形態の効果]
本実施形態では、多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成し、生成した多視差スプライトを3Dディスプレイ上の任意の位置に提示する。
本実施形態では、多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報と、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成し、生成した多視差スプライトを3Dディスプレイ上の任意の位置に提示する。
描画対象とする視点のスプライト画像を高解像度で保持する場合は、多視差スプライトデータサイズが多視差スプライトデータサイズ閾値を超えてしまう場合に、本実施形態の装置を用いれば、多視差スプライトデータサイズ閾値を超えないデータサイズにおいて、多視差スプライトが高頻度で表示される領域には高い解像度のスプライト画像、一方、多視差スプライトが低頻度で表示される領域には低い解像度のスプライト画像というように、多視差スプライトの映像を視覚的に大きく劣化させることなく構成し、3Dディスプレイに表示することが可能である。
本実施形態をパーソナルコンピュータ上で実施する場合、多視差スプライト描画部1302における多視差スプライト画像1401はビデオメモリに格納される。本実施形態により、多視差スプライト1つあたりの占有ビデオメモリサイズを縮小することで、描画対象とする視点のスプライト画像を高解像度で保持する場合に比べ、ビデオメモリにより多く種類の多視差スプライトを格納することが可能となる。
また、ビデオメモリにおけるデータ転送速度の制約上、多視差スプライト1つあたりの占有ビデオメモリサイズを縮小することで、描画対象とする視点のスプライト画像を高解像度で保持する場合に比べ、多視差スプライト1つについてテクスチャメモリからフレームバッファへのデータ転送に要する時間が削減される。これにより、多視差スプライトの描画に要する時間が短縮され、多視差スプライトを用いるアプリケーションの処理速度の高速化が実現される。
本実施形態の実施にあたっては、多視差スプライトを用いる3Dディスプレイアプリケーション実行の前処理での実行が考えられる。または、3Dディスプレイアプリケーション内部のシーングラフ処理手段に本実施形態を適用することで、アプリケーション実行中に、グラフィックスハードウェアのビデオメモリ消費量など、アプリケーションの状態に応じて動的に多視差スプライトの構成を変化させることも可能である。
本実施形態では、水平方向のみに視差を生成する3Dディスプレイを対象とし、水平方向1次元についてのみの多重解像度多視差スプライトを構成したが、水平および垂直方向に視差を生成する3Dディスプレイについても、本実施形態の内容を縦横2次元に適用することで実施可能である。
(第5の実施形態)
本実施形態では、視域優先度情報とスクリーン中のスプライト表示位置情報とディスプレイパラメータを入力とし、視域情報とスプライト表示位置情報に依存した、多視差スプライトの各視点についての解像度を決定し、その多視点解像度情報にもとづいて多重解像度多視点画像格納手段から選択的に各視点の画像を読み出し、多視点スプライトを構成し、多視点スプライト名を付加して多視差スプライト格納部に登録する装置の例を示す。
本実施形態では、視域優先度情報とスクリーン中のスプライト表示位置情報とディスプレイパラメータを入力とし、視域情報とスプライト表示位置情報に依存した、多視差スプライトの各視点についての解像度を決定し、その多視点解像度情報にもとづいて多重解像度多視点画像格納手段から選択的に各視点の画像を読み出し、多視点スプライトを構成し、多視点スプライト名を付加して多視差スプライト格納部に登録する装置の例を示す。
[装置の構成]
本実施形態の多視差画像生成装置について図25を参照して説明する。
本実施形態では、第1の実施形態の構成に、第3の実施形態のスプライト表示位置依存視差画像優先度決定部1701を追加し、視域依存視差画像優先度決定部101の出力とスプライト表示位置依存視差画像優先度決定部1701の出力を合成する視差画像優先度合成部2501を追加している。
本実施形態の多視差画像生成装置について図25を参照して説明する。
本実施形態では、第1の実施形態の構成に、第3の実施形態のスプライト表示位置依存視差画像優先度決定部1701を追加し、視域依存視差画像優先度決定部101の出力とスプライト表示位置依存視差画像優先度決定部1701の出力を合成する視差画像優先度合成部2501を追加している。
視差画像優先度合成部2501は、スプライト表示位置依存視差画像優先度決定部1701の出力である視差画像優先度情報113と、視域依存視差画像優先度決定部101の出力である視差画像優先度情報113とを入力とし、両視差画像優先度の合成処理を行い、視差画像優先度情報2511を出力する。
本装置のうち、視域依存視差画像優先度決定部101と、多重解像度多視点画像格納部102と、視差画像解像度決定部103と、視差画像読み出し部104と、多視差スプライト格納部106と、多視差スプライト登録部105は、第1の実施形態で説明したものと同一であるので、本実施形態では説明を省略する。同じく、本装置のうち、スプライト表示位置依存視差画像優先度決定部1701は、第3の実施形態で説明したものと同一であるので、本実施形態では説明を省略する。
[視差画像優先度合成部2501の処理内容]
視差画像優先度合成部2501の処理フローについて図26を参照して説明する。本実施形態をパーソナルコンピュータ上で実施する場合には、視差画像優先度合成部2501はCPU上に実装されるプログラムである。ここで、スプライト表示位置依存視差画像優先度決定部1701の出力である視差画像優先度情報113と、視域依存視差画像優先度決定部101の出力である視差画像優先度情報113と、視差画像優先度情報2511の構造は、すべて図7で示される113と同一である。
視差画像優先度合成部2501の処理フローについて図26を参照して説明する。本実施形態をパーソナルコンピュータ上で実施する場合には、視差画像優先度合成部2501はCPU上に実装されるプログラムである。ここで、スプライト表示位置依存視差画像優先度決定部1701の出力である視差画像優先度情報113と、視域依存視差画像優先度決定部101の出力である視差画像優先度情報113と、視差画像優先度情報2511の構造は、すべて図7で示される113と同一である。
(ステップS2601)まず、ループ処理のための視点インデックス変数に0を代入する。
(ステップS2602)次に、視域依存視差画像優先度決定部101の出力である視差画像優先度情報113について、視点iについての優先度P(i)を変数Paに代入する。
(ステップS2603)次に、スプライト表示位置依存視差画像優先度決定部1701の出力である視差画像優先度情報113について、視点iについての優先度P(i)を変数Pbに代入する。
(ステップS2602)次に、視域依存視差画像優先度決定部101の出力である視差画像優先度情報113について、視点iについての優先度P(i)を変数Paに代入する。
(ステップS2603)次に、スプライト表示位置依存視差画像優先度決定部1701の出力である視差画像優先度情報113について、視点iについての優先度P(i)を変数Pbに代入する。
(ステップS2604)次に、2つの優先度PaとPbの比較を行う。PaがPbよりも優先度が高ければ、変数Pcに優先度が低いPbを代入する。一方、PaがPbよりも優先度が低ければ、変数Pcに優先度が低いPaを代入する。PaとPbが等しい優先度である場合には、PcにPaを代入する。例えば、Paが“優先順位1”でありPbが“優先順位2”である場合には、Pcには“優先順位2”が代入されることになる。
(ステップS2605)次に、視差画像優先度情報2511の視点iについての優先度P(i)にPcを代入する。
(ステップS2606)次に、視点インデックス変数iを1増やす。iが視点数nと等しいかどうかを判定し、等しい場合にはステップS2607へ遷移し、等しくない場合にはステップS2602へ遷移する。
(ステップS2607)最後に、視差画像優先度情報2511を出力して終了する。
(ステップS2606)次に、視点インデックス変数iを1増やす。iが視点数nと等しいかどうかを判定し、等しい場合にはステップS2607へ遷移し、等しくない場合にはステップS2602へ遷移する。
(ステップS2607)最後に、視差画像優先度情報2511を出力して終了する。
このように、視差画像優先度合成部2501により、視域依存視差画像優先度決定部101とスプライト表示位置依存視差画像優先度決定部1701の両者から出力された視差画像ごとの優先度情報が合成される。
本実施形態では、各視点について、視域依存視差画像優先度決定部101とスプライト表示位置依存視差画像優先度決定部1701から出力される視差画像優先度のうち、低い優先度を出力する方法について述べたが、この方法に制約されることなく、両者のうち高い優先度を出力することもできる。また、両者の優先度の中間の優先度を算出し出力することも可能である。
[第5の実施形態の効果]
本実施形態では、第1の実施形態における3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、第3の実施形態における多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報とを組み合わせ、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成する。
本実施形態では、第1の実施形態における3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、第3の実施形態における多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報とを組み合わせ、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成する。
描画対象とする視点のスプライト画像を高解像度で保持する場合は、多視差スプライトデータサイズが多視差スプライトデータサイズ閾値を超えてしまう場合に、本実施形態の装置を用いれば、多視差スプライトデータサイズ閾値を超えないデータサイズにおいて、かつ、多視差スプライトが高頻度で表示される領域について、多視差スプライトの映像を視覚的に大きく劣化させることなく構成することが可能である。
本実施形態の実施にあたっては、多視差スプライトを用いる3Dディスプレイアプリケーション実行の前処理での実行が考えられる。
本実施形態では、水平方向のみに視差を生成する3Dディスプレイを対象とし、水平方向1次元についてのみの多重解像度多視差スプライトを構成したが、水平および垂直方向に視差を生成する3Dディスプレイについても、本実施形態の内容を縦横2次元に適用することで実施可能である。
(第6の実施形態)
本実施形態では、第5の実施形態の構成に追加して、第2の実施形態で説明した、多視差スプライト格納部から多視差スプライトを読み出し、指定された位置に描画を行い、多視差スプライトを立体映像として提示する装置の例を示す。
本実施形態では、第5の実施形態の構成に追加して、第2の実施形態で説明した、多視差スプライト格納部から多視差スプライトを読み出し、指定された位置に描画を行い、多視差スプライトを立体映像として提示する装置の例を示す。
[装置の構成]
本実施形態の構成について図27を参照して説明する。
この装置は、図25に示される第5の実施形態の装置に、多視差スプライト読み出し部1301、多視差スプライト描画部1302、提示部1303を追加している。これらは、すべて第2の実施形態で説明しているため、ここでは説明を省略する。
本実施形態の構成について図27を参照して説明する。
この装置は、図25に示される第5の実施形態の装置に、多視差スプライト読み出し部1301、多視差スプライト描画部1302、提示部1303を追加している。これらは、すべて第2の実施形態で説明しているため、ここでは説明を省略する。
[第6の実施形態の効果]
本実施形態では、第1の実施形態における3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、第3の実施形態における多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報とを組み合わせ、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成し、生成した多視差スプライトを3Dディスプレイ上の任意の位置に提示する。
本実施形態では、第1の実施形態における3Dディスプレイの視域に基づいて定義された視差画像優先度情報と、第3の実施形態における多視差スプライトの表示位置情報に基づいて算出された視差画像優先度情報とを組み合わせ、所与の多視差スプライトデータサイズ閾値を元に、多重解像度多視点画像格納手段から視点ごとに異なる解像度で定義される多重解像度多視差スプライトを読み出し、多視差スプライトデータを生成し、生成した多視差スプライトを3Dディスプレイ上の任意の位置に提示する。
描画対象とする視点のスプライト画像を高解像度で保持する場合は、多視差スプライトデータサイズが多視差スプライトデータサイズ閾値を超えてしまう場合に、本実施形態の装置を用いれば、多視差スプライトデータサイズ閾値を超えないデータサイズにおいて、観察者の視点が視域の中央に高頻度で存在する場合で、かつ、多視差スプライトが高頻度で表示される領域について、多視差スプライトの映像を視覚的に大きく劣化させることなく構成し、3Dディスプレイに表示することが可能である。
本実施形態をパーソナルコンピュータ上で実施する場合、多視差スプライト描画部1302における多視差スプライト画像1401はビデオメモリに格納される。本実施形態により、多視差スプライト1つあたりの占有ビデオメモリサイズを縮小することで、描画対象とする視点のスプライト画像を最高解像度で保持する場合に比べ、ビデオメモリにより多く種類の多視差スプライトを格納することが可能となる。
また、ビデオメモリにおけるデータ転送速度の制約上、多視差スプライト1つあたりの占有ビデオメモリサイズを縮小することで、描画対象とする視点のスプライト画像を最高解像度で保持する場合に比べ、多視差スプライト1つについてテクスチャメモリからフレームバッファへのデータ転送に要する時間が削減される。これにより、多視差スプライトの描画に要する時間が短縮され、多視差スプライトを用いるアプリケーションの処理速度の高速化が実現される。
本実施形態の実施にあたっては、多視差スプライトを用いる3Dディスプレイアプリケーション実行の前処理での実行が考えられる。または、3Dディスプレイアプリケーション内部のシーングラフ処理手段に本実施形態を適用することで、アプリケーション実行中に、グラフィックスハードウェアのビデオメモリ消費量など、アプリケーションの状態に応じて動的に多視差スプライトの構成を変化させることも可能である。
以上に示した実施形態によれば、視域優先度が高い視点には高い解像度のスプライト画像、一方、視域優先度が低い視点には低い解像度のスプライト画像というように、観察者の視点が視域の中央に高頻度で存在する場合に、多視差スプライトの映像を視覚的に大きく劣化させることなく提示することにより、描画対象とする視点について多視差スプライトを高解像度でビデオメモリに保持する場合に比べ、多視差スプライトが占有するビデオメモリ量を削減することができる。
なお、次世代グラフィックス処理エンジンへの搭載や、3Dディスプレイ用描画エンジンのミドルウェアへの搭載が期待できる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
101・・・視域依存視差画像優先度決定部、111・・・ディスプレイパラメータ、102・・・多重解像度多視点画像格納部、103・・・視差画像解像度決定部、104・・・視差画像読み出し部、105・・・多視差スプライト登録部、106・・・多視差スプライト格納部、112・・・視域優先度情報、113・・・視差画像優先度情報、114・・・多視点スプライトデータサイズ閾値、115・・・視差画像解像度情報、116・・・視差画像解像度情報、117・・・視差画像、118、1901・・・多視差スプライト名、201・・・座標系、202、2201・・・3Dディスプレイ、203・・・LCDパネル、204・・・レンチキュラーシート、205・・・視域、206・・・観察者、301・・・CGオブジェクト、302〜304・・・多視点カメラ、402、405〜407・・・多視点画像、403、404・・・画像、1001〜1003・・・カメラ、1201・・・多視差スプライトデータ、1202、1401・・・多視差スプライト画像、1301・・・多視差スプライト読み出し部、1302・・・多視差スプライト描画部、1303・・・提示部、1311・・・多視差スプライト名、1312、1404、1405・・・スプライト表示位置、1402・・・多視点レンダリング用フレームメモリ、1403・・・フレームバッファ、1406、1407・・・多視差スプライト描画領域、1408・・・スプライト画像、1501・・・視域の中央付近、1502・・・視域の境界付近、1701・・・スプライト表示位置依存視差画像優先度決定部、1711・・・スプライト表示位置情報、1801・・・スクリーン、1802・・・多視差スプライト、1803・・・モーションパス、1804・・・スクリーン座標系、2101、2103・・・ラインバッファ、2104・・・ヒストグラム、2105・・・多視差スプライト高頻度表示範囲、2202・・・多視点画像、2501・・・視差画像優先度合成部、2511・・・視差画像優先度情報。
Claims (7)
- ディスプレイパラメータから視点数と該視点の位置を取得し、3次元ディスプレイから所定の視距離の直線上の位置に関して優先度が付与されている視域優先度情報を参照して、視点ごとの優先度を定める視差画像優先度情報を生成する第1生成手段と、
複数の解像度レベルごとに、複数の視点での視差画像を複数格納している第1格納手段と、
描画対象とする視点について複数の前記解像度レベルを高解像度のレベルに設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで前記優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の解像度レベルを定める視差画像解像度情報を生成する第2生成手段と、
前記視差画像解像度情報に基づいて、視点ごとに前記解像度レベルに対応する視差画像を前記第1格納手段から読み出す第1読み出し手段と、
読み出された前記視差画像を視点と関連付けて格納する第2格納手段と、を具備することを特徴とする多視差画像生成装置。 - ディスプレイパラメータから視点数と該視点の位置を取得し、時刻ごとに視差画像の表示位置を示す表示位置情報を参照して、前記位置ごとに視差画像が位置する頻度を積算し、視点ごとの、頻度に応じた優先度を定める視差画像優先度情報を生成する第3生成手段と、
複数の解像度レベルごとに、複数の視点での視差画像を複数格納している第1格納手段と、
描画対象とする視点について複数の前記解像度レベルを高解像度のレベルに設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで前記優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の解像度レベルを定める視差画像解像度情報を生成する第2生成手段と、
前記視差画像解像度情報に基づいて、視点ごとに前記解像度レベルに対応する視差画像を前記第1格納手段から読み出す第1読み出し手段と、
読み出された前記視差画像を視点と関連付けて格納する第2格納手段と、を具備することを特徴とする多視差画像生成装置。 - ディスプレイパラメータから視点数と該視点の位置を取得し、3次元ディスプレイから所定の視距離の直線上の位置に関して優先度が付与されている視域優先度情報を参照して、視点ごとの優先度を定める第1視差画像優先度情報を生成する第1生成手段と、
ディスプレイパラメータから視点数と該視点の位置を取得し、時刻ごとに視差画像の表示位置を示す表示位置情報を参照して、前記位置ごとに視差画像が位置する頻度を積算し、視点ごとの、頻度に応じた優先度を定める第2視差画像優先度情報を生成する第3生成手段と、
視点ごとに、前記第1視差画像優先度情報および第2視差画像優先度情報のいずれかに対応する優先度を定める第3視差画像優先度情報を生成する第4生成手段と、
複数の解像度レベルごとに、複数の視点での視差画像を複数格納している第1格納手段と、
描画対象とする視点について複数の前記解像度レベルを高解像度のレベルに設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで前記優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の解像度レベルを定める視差画像解像度情報を生成する第2生成手段と、
前記視差画像解像度情報に基づいて、視点ごとに解像度レベルに対応する視差画像を前記第1格納手段から読み出す第1読み出し手段と、
読み出された前記視差画像を視点と関連付けて格納する第2格納手段と、を具備することを特徴とする多視差画像生成装置。 - 多視差名と、前記第1読み出し手段で読み出された視点ごとの視差画像とを関連付けて前記第2格納手段に登録する登録手段をさらに具備することを特徴とする請求項1から請求項3のいずれか1項に記載の多視差画像生成装置。
- 多視差名に対応する視差画像を読み出す第2読み出し手段と、
視差画像の表示位置を指定する表示位置情報と前記ディスプレイパラメータとに対応して、前記第2読み出し手段が読み出した視差画像をフレームメモリ上に描画する描画手段と、
前記フレームメモリ上に描画された視差画像を提示する提示手段と、をさらに具備することを特徴とする請求項1から請求項4のいずれか1項に記載の多視差画像生成装置。 - ディスプレイパラメータから視点数と該視点の位置を取得し、3次元ディスプレイから所定の視距離の直線上の位置に関して優先度が付与されている視域優先度情報を参照して、視点ごとの優先度を定める視差画像優先度情報を生成し、
複数の解像度レベルごとに、複数の視点での視差画像を複数格納している第1格納手段を用意し、
描画対象とする視点について複数の前記解像度レベルを高解像度のレベルに設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで前記優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の解像度レベルを定める視差画像解像度情報を生成し、
前記視差画像解像度情報に基づいて、視点ごとに前記解像度レベルに対応する視差画像を前記第1格納手段から読み出し、
読み出された前記視差画像を視点と関連付けて格納する第2格納手段を用意することを特徴とする多視差画像生成方法。 - ディスプレイパラメータから視点数と該視点の位置を取得し、時刻ごとに視差画像の表示位置を示す表示位置情報を参照して、前記位置ごとに視差画像が位置する頻度を積算し、視点ごとの、頻度に応じた優先度を定める視差画像優先度情報を生成し、
複数の解像度レベルごとに、複数の視点での視差画像を複数格納している第1格納手段を用意し、
描画対象とする視点について複数の前記解像度レベルを高解像度のレベルに設定し、描画対象とする視点の視差画像のデータサイズの総和が閾値よりも大きい場合には該総和が閾値以下になるまで前記優先度の低い視点ほど低解像度のレベルに再設定し、視点ごとの視差画像の解像度レベルを定める視差画像解像度情報を生成し、
前記視差画像解像度情報に基づいて、視点ごとに前記解像度レベルに対応する視差画像を前記第1格納手段から読み出し、
読み出された前記視差画像を視点と関連付けて格納する第2格納手段を用意することを特徴とする多視差画像生成方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008086154A JP2009238117A (ja) | 2008-03-28 | 2008-03-28 | 多視差画像生成装置および方法 |
US12/409,116 US20090244066A1 (en) | 2008-03-28 | 2009-03-23 | Multi parallax image generation apparatus and method |
CN200910130658A CN101547376A (zh) | 2008-03-28 | 2009-03-27 | 多视差图像生成装置以及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008086154A JP2009238117A (ja) | 2008-03-28 | 2008-03-28 | 多視差画像生成装置および方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009238117A true JP2009238117A (ja) | 2009-10-15 |
Family
ID=41116406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008086154A Pending JP2009238117A (ja) | 2008-03-28 | 2008-03-28 | 多視差画像生成装置および方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20090244066A1 (ja) |
JP (1) | JP2009238117A (ja) |
CN (1) | CN101547376A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012111755A1 (ja) * | 2011-02-18 | 2012-08-23 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2013026738A (ja) * | 2011-07-19 | 2013-02-04 | Toshiba Corp | 報知装置、報知方法及び医用画像診断装置 |
US8768086B2 (en) | 2010-07-20 | 2014-07-01 | Samsung Electronics Co., Ltd. | Apparatus and method for depth-image encoding with rate-distortion optimization |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX340111B (es) * | 2010-03-31 | 2016-06-27 | Thomson Licensing * | Mapas de disparidad 3d. |
WO2012042895A1 (ja) * | 2010-09-30 | 2012-04-05 | パナソニック株式会社 | 立体映像符号化装置、立体映像撮影装置、および立体映像符号化方法 |
JP2012186781A (ja) * | 2011-02-18 | 2012-09-27 | Sony Corp | 画像処理装置および画像処理方法 |
CN102860018A (zh) * | 2011-04-20 | 2013-01-02 | 株式会社东芝 | 图像处理装置及方法 |
JP2012243147A (ja) * | 2011-05-20 | 2012-12-10 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
JP6005731B2 (ja) | 2011-05-26 | 2016-10-12 | トムソン ライセンシングThomson Licensing | スケール非依存マップ |
US10805625B2 (en) * | 2011-07-05 | 2020-10-13 | Texas Instruments Incorporated | Method, system and computer program product for adjusting a stereoscopic image in response to decoded disparities between views of the stereoscopic image |
JP2013026808A (ja) * | 2011-07-21 | 2013-02-04 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP5978573B2 (ja) * | 2011-09-06 | 2016-08-24 | ソニー株式会社 | 映像信号処理装置および映像信号処理方法 |
WO2013081576A1 (en) * | 2011-11-28 | 2013-06-06 | Hewlett-Packard Development Company, L.P. | Capturing a perspective-flexible, viewpoint-synthesizing panoramic 3d image with a multi-view 3d camera |
JP5818674B2 (ja) * | 2011-12-21 | 2015-11-18 | 株式会社東芝 | 画像処理装置、方法、及びプログラム、並びに、画像表示装置 |
CN103871042B (zh) * | 2012-12-12 | 2016-12-07 | 株式会社理光 | 基于视差图的视差方向上连续型物体检测方法和装置 |
CN109155824B (zh) * | 2016-06-02 | 2021-03-19 | 索尼公司 | 图像处理设备和图像处理方法以及学习设备和学习方法 |
EP3565259A1 (en) * | 2016-12-28 | 2019-11-06 | Panasonic Intellectual Property Corporation of America | Three-dimensional model distribution method, three-dimensional model receiving method, three-dimensional model distribution device, and three-dimensional model receiving device |
JP6852491B2 (ja) * | 2017-03-21 | 2021-03-31 | 富士通株式会社 | 設計支援プログラム、情報処理装置、および設計支援方法 |
CN107205144A (zh) * | 2017-06-30 | 2017-09-26 | 努比亚技术有限公司 | 3d图像的合成方法及移动终端、存储介质 |
CN114827628B (zh) * | 2021-01-22 | 2024-06-04 | 腾讯科技(深圳)有限公司 | 多视点视频的数据传输方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09200803A (ja) * | 1996-01-23 | 1997-07-31 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2004212666A (ja) * | 2002-12-27 | 2004-07-29 | Toshiba Corp | 3次元画像表示装置、この表示装置に視差画像を配分する方法及びこの表示装置に3次元画像を表示する方法 |
JP2007199223A (ja) * | 2006-01-25 | 2007-08-09 | Onkyo Corp | 画像再生装置、画像再生プログラムおよび画像再生方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003018619A (ja) * | 2001-07-03 | 2003-01-17 | Olympus Optical Co Ltd | 立体映像評価装置およびそれを用いた表示装置 |
JP4220182B2 (ja) * | 2002-05-31 | 2009-02-04 | 株式会社東芝 | 高次元テクスチャ描画装置、高次元テクスチャ圧縮装置、高次元テクスチャ描画システム、高次元テクスチャ描画方法並びにプログラム |
JP3901644B2 (ja) * | 2003-01-30 | 2007-04-04 | 株式会社東芝 | テクスチャ画像圧縮装置及び方法、テクスチャ画像抽出装置及び方法、データ構造、記憶媒体 |
US7129954B2 (en) * | 2003-03-07 | 2006-10-31 | Kabushiki Kaisha Toshiba | Apparatus and method for synthesizing multi-dimensional texture |
JP4199170B2 (ja) * | 2004-07-20 | 2008-12-17 | 株式会社東芝 | 高次元テクスチャマッピング装置、方法及びプログラム |
JP2006101224A (ja) * | 2004-09-29 | 2006-04-13 | Toshiba Corp | 画像生成装置、画像生成方法および画像生成プログラム |
JP4282587B2 (ja) * | 2004-11-16 | 2009-06-24 | 株式会社東芝 | テクスチャ・マッピング装置 |
-
2008
- 2008-03-28 JP JP2008086154A patent/JP2009238117A/ja active Pending
-
2009
- 2009-03-23 US US12/409,116 patent/US20090244066A1/en not_active Abandoned
- 2009-03-27 CN CN200910130658A patent/CN101547376A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09200803A (ja) * | 1996-01-23 | 1997-07-31 | Canon Inc | 画像処理装置及び画像処理方法 |
JP2004212666A (ja) * | 2002-12-27 | 2004-07-29 | Toshiba Corp | 3次元画像表示装置、この表示装置に視差画像を配分する方法及びこの表示装置に3次元画像を表示する方法 |
JP2007199223A (ja) * | 2006-01-25 | 2007-08-09 | Onkyo Corp | 画像再生装置、画像再生プログラムおよび画像再生方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8768086B2 (en) | 2010-07-20 | 2014-07-01 | Samsung Electronics Co., Ltd. | Apparatus and method for depth-image encoding with rate-distortion optimization |
WO2012111755A1 (ja) * | 2011-02-18 | 2012-08-23 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US10122986B2 (en) | 2011-02-18 | 2018-11-06 | Sony Corporation | Image processing device and image processing method |
JP2013026738A (ja) * | 2011-07-19 | 2013-02-04 | Toshiba Corp | 報知装置、報知方法及び医用画像診断装置 |
Also Published As
Publication number | Publication date |
---|---|
CN101547376A (zh) | 2009-09-30 |
US20090244066A1 (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009238117A (ja) | 多視差画像生成装置および方法 | |
US10803561B2 (en) | Systems, methods, and media for hierarchical progressive point cloud rendering | |
Van Berkel | Image preparation for 3D LCD | |
US7689031B2 (en) | Video filtering for stereo images | |
JP5208767B2 (ja) | オンザフライハードウェア画像纏め | |
JP4861309B2 (ja) | 2.5dグラフィックスをレンダリングするためのゴースト・アーチファクト削減 | |
KR101697184B1 (ko) | 메쉬 생성 장치 및 그 방법, 그리고, 영상 처리 장치 및 그 방법 | |
KR20200052846A (ko) | 데이터 처리 시스템 | |
CN110999285A (zh) | 基于纹理图与网格的3d图像信息的处理 | |
JP6195076B2 (ja) | 別視点画像生成装置および別視点画像生成方法 | |
US20120044241A1 (en) | Three-dimensional on-screen display imaging system and method | |
JP2009163724A (ja) | グラフィックスインターフェイス、グラフィックスデータをラスタ化する方法およびコンピュータ読み取り可能な記録媒体 | |
JP2020173529A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20120133651A1 (en) | Method for stereoscopic illustration | |
JP2013223008A (ja) | 画像処理装置及び方法 | |
JP4987890B2 (ja) | 立体画像描画装置、立体画像描画方法、立体画像描画プログラム | |
JP2004356789A (ja) | 立体映像表示装置及びプログラム | |
JP4320271B2 (ja) | 立体画像表示方法 | |
US20110090307A1 (en) | Method for the real-time composition of a video | |
JP2011197816A (ja) | 画像生成方法 | |
JPWO2014171066A1 (ja) | 三次元画像表示システム、三次元画像表示システムのサーバ及び三次元画像表示方法 | |
CN106412562A (zh) | 三维场景中显示立体内容的方法及其系统 | |
KR20060114708A (ko) | 3차원 모델을 스케일링하는 스케일링 유닛 및 방법 | |
TWI503788B (zh) | 還原尺寸重調景深圖框爲原始景深圖框的方法、裝置及系統 | |
Bao et al. | Superview 3D image warping for visibility gap errors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120508 |