JP5387377B2 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP5387377B2 JP5387377B2 JP2009283080A JP2009283080A JP5387377B2 JP 5387377 B2 JP5387377 B2 JP 5387377B2 JP 2009283080 A JP2009283080 A JP 2009283080A JP 2009283080 A JP2009283080 A JP 2009283080A JP 5387377 B2 JP5387377 B2 JP 5387377B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- signal
- eye
- unit
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Description
例えば、特許文献1は、静止画像や動きの少ない画像に対して、左眼用画像と右眼用画像を所定量だけ水平方向にずらすことにより、画像が浮き上がったように知覚させる装置を提案している。
また、特許文献2は、画像を複数の視差算出領域に分割し、各領域において画像の特徴量から擬似的な奥行きを算出し、奥行きに基づいて左眼用画像と右眼用画像を反対方向に水平シフトする方法を提案している。
さらに、特許文献3は、画像の上部と下部の特徴量を算出し、予め用意した奥行き情報を表す複数のシーン構造の合成比率を調整することより、画像を単純な構造の組み合わせで表現する方法を提案している。
ところで、上記の従来技術には以下に示すような問題がある。
特許文献2に記載の画像変換装置では、画像の特徴量から擬似的な奥行きを推定するが、推定は画面前方にある物体の先鋭度が高い、輝度が高い、彩度が高いなどの仮定に基づいており、必ずしも正しい推定が行われるとは限らない。このため、奥行き推定を誤った物体に対しては誤った網膜像差が与えられるため、誤った位置に配置されてしまう。
(a)入力画像
(b)奥行き情報(距離画像)
(c)右眼用画像
(d)左眼用画像
これらの各画像を示している。
(c)右眼用画像は、(b)奥行き情報(距離画像)に基づいて、(a)入力画像中の近い距離の画素部分(人物領域)を左にずらすシフト処理を実行して生成されている。
(d)左眼用画像は、(b)奥行き情報(距離画像)に基づいて、(a)入力画像中の近い距離の画素部分(人物領域)を右にずらすシフト処理を実行して生成されている。
2次元画像信号を入力する画像入力部と、
前記2次元画像信号を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力部と、
前記画像入力部から出力される画像信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力部を具備し、
前記画像変換部は、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量と前記奥行き情報を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行う構成である画像処理装置にある。
(a)入力信号に対する微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する微分信号に対する非線形変換処理を実行する非線形変換部、
(c)前記非線形変換部の出力と、入力信号との加算または減算を実行する画像合成部、
上記(a)〜(c)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスを有し、前記奥行き情報出力部の出力する奥行き情報に応じて、前記処理パスを構成する各画像変換単位の出力を選択し合成して左眼用画像または右眼用画像を生成する処理を行う。
(a)入力信号に対する微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数によるゲイン制御を実行して補正微分信号を生成するゲイン制御部、
(c)前記ゲイン制御部の出力に対して非線形変換処理を実行する非線形変換部、
(d)前記非線形変換部の出力と、入力信号との加算または減算を実行する画像合成部、
上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する。
(a)入力信号に対する微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数を乗算して補正微分信号を生成する乗算処理部、
(c)前記乗算処理部の出力に対して非線形変換処理を実行する非線形変換部、
(d)前記非線形変換部の出力と、入力信号との加算または減算を実行する画像合成部、
上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する。
画像処理装置において実行する画像処理方法であり、
画像入力部が、2次元画像信号を入力する画像入力ステップと、
奥行き情報出力部が、前記2次元画像信号を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力ステップと、
画像変換部が、前記画像入力部から出力される画像信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップと、
画像出力部が、前記画像変換部から出力される左眼用画像と右眼用画像を出力する画像出力ステップを有し、
前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量と前記奥行き情報を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行うステップである画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、2次元画像信号を入力させる画像入力ステップと、
奥行き情報出力部に、前記2次元画像信号を構成する画像領域の奥行き情報を入力または生成させる奥行き情報出力ステップと、
画像変換部に、前記画像入力部から出力される画像信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力させる画像変換ステップと、
画像出力部に、前記画像変換部から出力される左眼用画像と右眼用画像を出力させる画像出力ステップを有し、
前記画像変換ステップは、入力画像信号の空間的な特徴量を抽出し、入力画像信号に対して前記特徴量と前記奥行き情報を適用した強調処理を施す画像変換処理により左眼用画像または右眼用画像の少なくともいずれかの画像生成を行わせるステップであるプログラムにある。
1.画像処理装置の構成例について
2.奥行き情報出力部の処理について
3.画像変換部の処理について
4.ゲイン制御部の処理について
5.非線形変換部の処理について
6.画像合成部の処理について
7.網膜像差(視差)による立体感について
8.被写体距離に応じたゲインを設定した補正微分信号および画像生成構成例について
9.画像変換部の処理シーケンスについて
10.2次元(2D)表示処理時の効果について
11.画像表示部を持つ実施例について
図2は、本発明の画像処理装置の一実施例を示す図である。画像処理装置100は、画像入力部110において、デジタルスチルカメラなどから出力される静止画像ファイルや、カムコーダなどから出力される動画像データを受け取り、内部データ形式に変換する。ここで、内部データ形式は、ベースバンドの動画像データであり、赤(R)、緑(G)、青(B)の三原色のビデオデータ、または、輝度(Y)、色差(Cb,Cr)のビデオデータである。内部データ形式は、色空間の識別信号が重畳されており、後段の色空間変換部120が対応していればどのような色空間でも構わない。
一方、奥行き情報出力部115からは、奥行き情報が画像変換部130に入力される。
画像変換部130は、後述する処理によって例えば左眼用画像(L:Left)と右眼用画像(R:Right)からなる両眼視差画像を生成し、立体表示装置の形式に従ってこれらの画像を合成して出力する。すなわち画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。
次に、奥行き情報出力部115の処理例について説明する。奥行き情報出力部115は、外部から奥行き情報を入力して出力するか、あるいは内部で生成して出力する処理を行う。
2次元画像から距離情報を得る方法としては、A.Saxenaらが"Make3D:Learning 3−D Scene Structure from a Single Still Image"(IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 2008.)で発表した方法や、特開2005−151534号公報で公知されている方法などがある。
次に、画像変換部130の処理例について説明する。図4は、画像変換部130の一実施例の構成を示すブロック図である。画像変換部130は、入力画像信号の空間的な特徴量を抽出し、抽出した特徴量に対する異なる強調処理を施すことで左眼用画像と右眼用画像を生成する処理を行う。画像変換部130は、微分器131、ゲイン制御部132、非線形変換部133、および画像合成部134から構成される。
なお、実施例では輝度信号を処理データとした例について説明するが、輝度信号ではなく色信号(RGB等)を処理対象データとして利用してもよい。
次に、ゲイン制御部132の実行する処理について説明する。
図5は、ゲイン制御部132の一実施例の構成を示すブロック図である。ゲイン制御部132では、入力された微分信号の振幅値を、同じく入力した奥行き情報を基に、その振幅値を制御する。なお、以下に説明する実施例では、奥行き情報は入力微分信号の1画素ごとに、1つの深さの値を有する、所謂デプスマップの形状で入力されるものとして説明していく。
乗算処理部202は、入力された微分信号の各画素について、ゲイン係数算出部201から出力された各画素に対するゲイン係数を、微分信号(H)の振幅値に乗じる乗算処理を行い、結果として振幅値がゲイン制御された補正微分信号(H')を出力する。
ゲイン係数算出部201は、入力された奥行き情報(In)を、予め設定した関数f(x)により変換して、ゲイン係数(Out)を出力する。
このとき、関数f(x)は、様々な設定が利用可能である。
関数f(x)の一例としては、例えば、
f(x)=A×x
(ただしAは定数)
上記式に示されるような線形一次関数を用いる。Aは予め設定した定数であり、様々な値に設定可能である。
奥行き情報は、微分信号の各画素に応じた値を入力し、各画素に応じたゲイン係数を出力するものとする。
入力値(奥行き情報)の例は、D1、D2、D3であり、ある3つの画素に対応した奥行きの値を想定する。なお、奥行きとは観察者(ユーザ)あるいはカメラから被写体までの距離に対応する値である。
奥行き(=被写体距離)はD1<D2<D3の順に、手前から奥へと深く(ユーザまたはカメラから遠く)なっていくものとする。
このとき出力値(ゲイン係数)の例は、G1、G2、G3であり、各々は図6中の関数f(x)に、D1、D2、D3の値を入力することで得られる値である。
この例のように、ゲイン係数算出部201は、微分信号の各画素に応じたゲイン係数を出力する。
図7には、
(a)入力信号
(b)微分信号
(c)奥行き情報
(d)補正後の微分信号
これらの例を示している。
図7(b)は、図7(a)の入力画像信号を微分処理した画像である。
図7(c)は、図7(a)の入力画像信号に対応した奥行き情報であり、画像を3分割した各領域に奥行きの値を与えた簡易なものである。
G3、G2、G1(G1<G2<G3)
となる。
図7(d)補正後の微分信号においては、画面上部ほど(遠い領域ほど)、大きなゲイン値が乗じられ、画面下部ほど(近い領域ほど)小さなゲイン値が乗じられる。
この結果、画面上部ほど(遠い領域ほど)微分信号の振幅値が大きくなり、画面下部ほど(近い領域ほど)微分信号の振幅は小さくなる。
次に、非線形変換部133の実行する処理について説明する。非線形変換部133は、ゲイン制御部132から出力される距離に応じてゲイン制御のなされた補正微分信号(H')を非線形的に変換した視差強調信号(E')を生成して画像合成部134に出力する。
f(x)=xγ
上記式に示されるような指数関数を用いる。γは予め設定した係数であり、様々な値に設定可能である。
また、非線形変換部133における変換関数は、指数関数に限定するものではなく、また線形的な変換を施しても構わない。
次に画像合成部134の処理について説明する。
画像合成部134は、ビデオデータを構成する各フレーム画像と、このフレーム画像から生成した空間的な特徴量、すなわち、輝度信号の微分信号、または、この微分信号を非線形変換して生成した視差強調信号を適用して左眼用画像と、右眼用画像を生成する処理を行う。
図9は、距離が大の画像領域(奥行きが大きい画像領域)
図10は、距離が小の画像領域(奥行きが小さい画像領域)
これらの各画像領域について、上から順に、
(a)入力信号(S)
(b)微分信号(H)
(c)補正(ゲイン制御)後の補正微分信号(H')
(d)右眼用画像信号(R)
(e)左眼用画像信号(L)
これらの各信号を示している。
(a)入力信号(S)は、ビデオデータの任意のフレームの任意の水平1ラインの輝度変化を示している。中央部に輝度の高い高輝度領域が存在する1つのラインを例示している。ライン位置(x1)からライン位置(x2)までの領域Aにおいて、輝度が次第に高くなる変化を示し、ライン位置(x2)〜(x3)において高レベル輝度を維持した高輝度部分が存在し、その後、ライン位置(x3)からライン位置(x4)までの領域Bにおいて、輝度が次第に低くなる変化を示している。
微分器131の生成する微分信号(H)は、図9に示すとおり、(a)入力信号(S)の輝度変化が正になる領域Aにおいて正の値をとり、(a)入力信号の輝度変化が負になる領域Bにおいて負の値をとる。
距離=大の場合は、振幅の大きい補正微分信号
距離=小の場合は、振幅の小さい補正微分信号、
これらの補正微分信号(図9、図10の(c))を生成し、これらの補正微分信号(またはその非線形変換結果である視差強調信号)と(a)入力信号との合成処理により、(d)右眼用画像信号と、(e)左眼用画像信号を生成する。
図9、図10の(a)入力信号に相当するビデオデータの輝度レベルを(S)とし、
図9、図10の(b)に示す微分信号の信号レベルを(H)とする。
また、ゲイン制御部132において行われる微分信号の補正結果としての補正微分信号の信号レベルを(H')てとする。
なお、補正微分信号(H')の生成の際、(b)微分信号(H)に乗じるゲイン値(G)は、奥行き情報(D)をもとに予め設定された関数などから決定される。
図10に示す距離が小の場合のゲイン値をG1、
とする。
図9、図10に示す例は、G3>1>G1の関係を想定している。
図9に示す距離が大の場合の補正後微分信号(H')は、
H'=G3×H
図10に示す距離が小の場合の補正後微分信号(H')は、
H'=G1×H
これらの式によって算出された信号が、図9、図10の(c)補正後の微分信号の信号レベル(H')となる。
一方、図10(c)に示す距離が小の場合において、実線で示す補正後微分信号(H')と、点線で示す補正前微分信号(=(b))を比較すると、実線で示す補正後微分信号(H')は、点線で示す補正前微分信号よりも振幅が小さくなっている。
すなわち、奥行き情報出力部115の出力する奥行き情報が大(カメラからの距離が遠い)画素については、(b)微分信号に対して大きなゲイン値を乗じて補正されて図9(c)に示す補正後微分信号が生成される。
一方、奥行き情報出力部115の出力する奥行き情報が小(カメラからの距離が近い)画素については、(b)微分信号に対して小さなゲイン値を乗じて補正されて図10(c)に示す補正後微分信号が生成される。
Right=S−E'
Left=S+E'
これにより得られる信号が、図9(d)、図10(d)に実線で示す右眼用画像信号、および、図9(e)、図10(e)に示す左眼用画像信号である。
Right=S−E
Left=S+E
である。
図9に示す距離が大の場合は、(d)右眼用画像信号、(e)左眼用画像信号の両者とも、実線(補正後微分信号)の振幅が、点線(補正前微分信号)の振幅より大きくなっている。
一方、図10に示す距離が小の場合は、(d)右眼用画像信号、(e)左眼用画像信号の両者とも、実線(補正後微分信号)の振幅が、点線(補正前微分信号)の振幅より小さくなっている。
Right=S−E’
Left=S+E’
Right=S−H’
Left=S+H’
図9、図10を参照して説明した右眼用画像信号と、左眼用画像信号を生成して、これらの画像を観察者の右眼と左眼で観察することにより視差が発生し、奥行きを感じることができる。これは、右眼用画像と左眼用画像の網膜像差に基づく現象である。以下、本発明の画像処理装置100において生成する右眼用画像(R:Right)と左眼用画像(L:Left)の網膜像差について説明する。
Right=S−H'
Left=S+H'
あるいは、(c)補正後の微分信号(H')に対する非線形変換により得られる視差強調信号(E')と、入力信号(S)を利用して、
Right=S−E'
Left=S+E'
上記処理により、(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。
なお、以下の説明では、非線形変換処理を省略し、右眼用画像信号(Right)と、左眼用画像信号(Left)を入力信号(S)と、微分信号(H)の加減算により生成する例として説明する。
Right=S−H
Left=S+H
この右眼用画像信号(Right)と、左眼用画像信号(Left)は、図9、図10の(d),(e)に示す点線の信号に相当する。図9、図10とも点線の信号レベルは同じである。すなわち被写体距離に応じた補正がなされていない信号である。
Right=S−H
Left=S+H
図11の水平軸は、画像の水平方向の画素位置を表しており、垂直軸は、画素の輝度レベルを表している。
S=sinωx
このとき、微分信号Hは、余弦波信号、すなわち、以下の式で表される。
H=cosωx
Right=S−H’
Left=S+H’
画像合成部134は、非線形変換部133における視差強調処理としての非線形変換処理(図8参照)を(c)補正後の微分信号(H')に対して実行した結果として得られる視差強調信号(E')と、入力信号(S)を利用して(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を下式に従って生成する。
Right=S−E'
Left=S+E'
入力信号(S)
第1左眼用信号(L1)(=被写体距離(奥行き)が小さい場合)
第2左眼用信号(L2)(=被写体距離(奥行き)が大きい場合)
第1右眼用信号(R1)(=被写体距離(奥行き)が小さい場合)
第2右眼用信号(R2)(=被写体距離(奥行き)が大きい場合)
これらの5つの信号を示している。
第1右眼用信号(R1)(=被写体距離(奥行き)が小さい場合)、
これらは例えば図10に示す設定に対応し、
第2左眼用信号(L2)(=被写体距離(奥行き)が大きい場合)、
第2右眼用信号(R2)(=被写体距離(奥行き)が大きい場合)、
これらは図9に示す設定で生成した左右の眼用の信号に対応する。
第1右眼用信号(R1)=S−H'=S−(G1×H)
第1左眼用信号(L1)=S+H'=S+(G1×H)
第2右眼用信号(R2)=S−H'=S−(G3×H)
第2左眼用信号(L2)=S+H'=S+(G3×H)
このように、微分信号(H)に対被写体距離に応じたゲインを乗じて生成した補正微分信号(H')を入力信号(S)に加減算して各眼用の信号を生成している。
第1右眼用信号(R1)=S−H'=S−(G1×H)は、入力信号に対して一定量αだけ位相が進む。
第1左眼用信号(L1)=S+H'=S+(G1×H)は、入力信号に対して一定量αだけ位相が遅れる。
また、
第2右眼用信号(R2)=S−H'=S−(G3×H)は、入力信号に対してさらにβを追加した(α+β)の位相が進んだ信号となる。
第2左眼用信号(L2)=S+H'=S+(G3×H)は、入力信号に対してさらにβを追加した(α+β)の位相が遅れた信号となる。
被写体距離が小さい場合に左右の眼で観察される画像は、
第1右眼用信号(R1)=S−H'=S−(G1×H)
第1左眼用信号(L1)=S+H'=S+(G1×H)
これらの信号の組み合わせとなり、この時の網膜像差は2αとなる。
第2右眼用信号(R2)=S−H'=S−(G3×H)
第2左眼用信号(L2)=S+H'=S+(G3×H)
これらの信号の組み合わせとなり、この時の網膜像差は2(α+β)となる。
被写体距離が小さい場合に左右の眼で観察される画像の視差=2α、
被写体距離が大きい場合に左右の眼で観察される画像の視差=2(α+β)、
このように、左右の眼で観察される画像の視差は被写体距離が小さい場合は小さく設定され、被写体距離が大きい場合は大きく設定される。すなわち被写体距離に応じた視差が設定される。
結果として、画像の観察者(ユーザ)に、被写体距離が小さいオブジェクトは手前に、被写体距離が大きいオブジェクトはより遠くに見える感覚を与えることが可能となる。
(信号特性)
(d1)(a)入力信号の輝度変化が正、(b)微分信号(または(c)補正微分信号)が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(d2)(a)入力信号の輝度変化が負、(b)微分信号(または(c)補正微分信号)が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(d3)(b)微分信号(または(c)補正微分信号)が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
(信号特性)
(e1)(a)入力信号の輝度変化が正、(b)微分信号(または(c)補正微分信号)が正の値をとる領域Aの少なくとも一部領域において、(a)入力信号より輝度が上昇した信号領域が発生する。
(e2)(a)入力信号の輝度変化が負、(b)微分信号(または(c)補正微分信号)が負の値をとる領域Bの少なくとも一部領域において、(a)入力信号より輝度が低下した信号領域が発生する。
(e3)(b)微分信号(または(c)補正微分信号)が0の値をとる領域では、(a)入力信号に対する輝度変化は発生しない。
右眼用画像信号R=S−H’
左眼用画像信号L=S+H’
または、
右眼用画像信号R=S−E’
左眼用画像信号L=S+E’
上記式に従った信号合成処理によって、(d)右眼用画像信号(R)と、(e)左眼用画像信号(L)を生成する。
R=S−H'
L=S+H'
または、
R=S−E'
L=S+E'
上記式に従った信号合成処理によって、(d)右眼用画像信号(R)と、(e)左眼用画像信号(L)を生成する。
(a)入力画像フレーム(S)
(p)奥行き情報(D)
(c)補正微分信号(H')
(d)右眼用信号(R)
(e)左眼用信号(L)
これらの具体的な画像例を示している。なお、(p)奥行き情報(D)は、明るい部分が被写体距離が小さく(近い)、暗い部分が被写体距離が大きい(遠い)ことを示す輝度による奥行き情報データである。
(a)入力画像フレームの輝度信号(S)と、
(c)補正微分信号(H')[=(p)奥行き情報に基づいて微分画像信号のゲインを制御した補正微分信号(H')]
これらの信号を入力し、
右眼用画像信号R=S−H'
左眼用画像信号L=S+H'
上記算出処理に従って図15に示す(d)右眼用画像信号と、(e)左眼用画像信号を生成して出力する。この場合、画像合成部134は、2系統のビデオ信号を出力する。
右眼用画像信号R=S−E'
左眼用画像信号L=S+E'
上記算出処理に従って図15に示す(d)右眼用画像信号と、(e)左眼用画像信号を生成して出力する構成としてもよい。
このような処理構成とすることで、奥行き情報の精製負荷が軽減され、装置の処理能力が低い場合でも処理の遅れなどを発生させることのないデータ処理が可能となる。
(1)左眼用画像と右眼用画像を時間分割で交互に出力する方式(図18)
これは、例えば液晶シャッタを左右交互に開閉して観察する画像を左右の眼交互に時間的に分離するアクティブ眼鏡方式に対応する画像出力方式である。
(2)左眼用画像と右眼用画像を時間分割で交互に出力する方式において出力フレームレートを高速としたアクティブ眼鏡方式に対応する方式(図19)
これは、図18と同様の時間分割方式であるが、出力フレームレートを高速化した方式である。
(3)左眼用画像と右眼用画像を空間的に分離して同時出力する方式(図20)
これは、例えば偏光フィルタや、色フィルタにより左右の眼各々によって観察する画像を分離するパッシブ眼鏡方式に対応する画像出力方式である。例えば、この空間分割方式の立体表示装置においては、表示前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて観察される。
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
これらの加減算処理により、図18(d),(e)に示す右眼用画像信号と左眼用画像信号を生成する。
なお、補正微分信号(H')を非線形変換した視差強調信号の信号レベルを(E')とし、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
これらの加減算処理により、図18(d),(e)に示す右眼用画像信号と左眼用画像信号を生成する構成としてもよい。
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
または、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
上記式に従った合成処理により合成して出力する。
R=S−H',L=S+H'、または、
R=S−E',L=S+E'、
上記式を適用して、(d)右眼用画像(R)と、(e)左眼用画像(L)を生成する。さらに、次のフレーム、すなわち、(a)入力画像のフレームn+1とその(c)補正微分信号画像(または視差強調信号)から、前述の式を適用して、(d)右眼用画像と、(e)左眼用画像を生成する。
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
または、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
上記式に従った合成処理により合成して(d)右眼用画像と、(e)左眼用画像を生成する。
右眼用画像信号:Right=S−H'
左眼用画像信号:Left=S+H'
または、
右眼用画像信号:Right=S−E'
左眼用画像信号:Left=S+E'
上記式に従って生成される画像である。
ただし、
Sは入力信号、
H'は、入力信号Sの微分信号Hを距離に応じたゲインGを乗じて生成した補正微分信号、
E'は、補正微分信号H'を非線形変換した視差強調信号である。
なお、視差強調信号E'は、入力信号Sの補正微分信号H'の非線形変換のみならず、線形変換信号を施して得られる信号でもよい。
次に、被写体距離に応じたゲインを設定した補正微分信号および画像生成を行う画像変換部の具体的構成例について説明する。
画像変換部130の構成例については、先に図4を参照して説明した。図4に示す画像変換部130の構成は画像変換部の一つの構成例である。図4と異なる画像変換部130の構成例を図21に示す、
第1パス画像変換部300−1、
第2〜第nパス画像変換部L,300−L2〜Ln、
第2〜第nパス画像変換部R,300−R2〜Rn、
出力選択部L,301L、
出力選択部R,301R、
これらを有する。
第1パス非線形変換部312は、微分信号(h(Y))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e(Y))を生成する。
第1パス画像合成部313は、入力輝度信号(Y)に非線形変換された微分信号である視差強調信号(e(Y))を加減算することにより、以下の各信号を生成する。
左眼用信号L1=Y+e(Y)
右眼用信号R1=Y−e(Y)
第2パス画像変換部R,300−R2は、第1パス画像変換部300−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼信号R2を生成する。
すなわち、第2パス画像変換部L,300−L2は、第2パス位相制御信号生成部321と、第2パス非線形変換部322と、第2パス画像合成部323から構成される。
第2パス画像変換部R,300−R2は、第2パス位相制御信号生成部331と、第2パス非線形変換部332と、第2パス画像合成部333から構成される。
第2パス位相制御信号生成部321は、入力信号(左眼用信号L1)に対して微分処理を行い、微分信号(h(L1))を生成する。
第2パス非線形変換部322は、微分信号(h(L1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e(L1))を生成する。
第2パス画像合成部323は、入力信号(左眼用信号L1)に非線形変換された微分信号である視差強調信号(e(L1))を加算することにより、以下の信号を生成する。
左眼用信号L2=L1+e(L1)
このように、第2パス画像変換部L,300−L2は、第1パス画像変換部300−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼用信号L2を生成する。
第2パス位相制御信号生成部331は、入力信号(右眼用信号R1)に対して微分処理を行い、微分信号(h(R1))を生成する。
第2パス非線形変換部332は、微分信号(h(R1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e(R1))を生成する。
第2パス画像合成部333は、入力信号(R1)に非線形変換された微分信号である視差強調信号(e(R1))を減算することにより、以下の信号を生成する。
右眼用信号R2=R1−e(R1)
このように、第2パス画像変換部R,300−R2は、第1パス画像変換部300−1により生成された右眼用信号Rを入力として、さらに大きな視差を発生させる右眼用信号R2を生成する。
第2パス画像変換部L300−L2の出力が図14に示す第2左眼用信号L2、第2パス画像変換部R300−R2の出力が図14に示す第2右眼用信号R2に対応する。
また、被写体距離の大きい画素領域では、第2パス画像変換部L300−L2の出力と、第2パス画像変換部R300−R2の出力が利用され、その視差は、2(α+β)となる。
このように、本発明による画像処理装置では、被写体距離に応じた視差を生成することが可能となる。
図23に示す画像変換部130は、
第1パス画像変換部400−1、
第2〜第nパス画像変換部L,400−L2〜Ln、
第2〜第nパス画像変換部R,400−R2〜Rn、
画像合成重み値算出部405、
画像合成処理部L,410L、
画像合成処理部R,410R、
これらを有する。
画像合成処理部R,410Rは、第1パス画像変換部と、第2〜第nパス画像変換部Rの各々の出力値を画像合成重み値算出部405から入力する重み情報に応じて加算して右眼用画像(R)を生成する。
第1パスゲイン制御部412は、微分信号(h(Y))に対して各画素の距離情報に応じたゲインを乗算して補正微分信号(h'(Y))を生成する。
第1パス非線形変換部413は、補正微分信号(h'(Y))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e'(Y))を生成する。
第1パス画像合成部414は、入力輝度信号(Y)に非線形変換された補正微分信号である視差強調信号(e'(Y))を加減算することにより、以下の各信号を生成する。
左眼用信号L1=Y+e'(Y)
右眼用信号R1=Y−e'(Y)
第2パス画像変換部R,400−R2は、第1パス画像変換部400−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼信号R2を生成する。
すなわち、第2パス画像変換部L,400−L2は、第2パス位相制御信号生成部421と、第2パスゲイン制御部422と、第2パス非線形変換部423と、第2パス画像合成部424から構成される。
第2パス画像変換部R,400−R2は、第2パス位相制御信号生成部431と、第2パスゲイン制御部432と、第2パス非線形変換部433と、第2パス画像合成部434から構成される。
第2パス位相制御信号生成部421は、入力信号(左眼用信号L1)に対して微分処理を行い、微分信号(h(L1))を生成する。
第2パスゲイン制御部422は、微分信号(h(L1))に対して各画素の距離情報に応じたゲインを乗算して補正微分信号(h'(L1))を生成する。
第2パス非線形変換部423は、補正微分信号(h'(L1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e'(L1))を生成する。
第2パス画像合成部424は、入力信号(左眼用信号L1)に非線形変換された補正微分信号である視差強調信号(e'(L1))を加算することにより、以下の信号を生成する。
左眼用信号L2=L1+e'(L1)
このように、第2パス画像変換部L,400−L2は、第1パス画像変換部400−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼用信号L2を生成する。
第2パス位相制御信号生成部431は、入力信号(右眼用信号R1)に対して微分処理を行い、微分信号(h(R1))を生成する。
第2パスゲイン制御部432は、微分信号(h(R1))に対して各画素の距離情報に応じたゲインを乗算して補正微分信号(h’(R1))を生成する。
第2パス非線形変換部433は、補正微分信号(h’(R1))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e’(R1))を生成する。
第2パス画像合成部434は、入力信号(R1)に非線形変換された補正微分信号である視差強調信号(e’(R1))を減算することにより、以下の信号を生成する。
右眼用信号R2=R1−e’(R1)
このように、第2パス画像変換部R,400−R2は、第1パス画像変換部400−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼用信号R2を生成する。
また、第1パス画像変換部400−1と第2〜第nパス画像変換部R,400−R2〜Rnの生成した複数の右眼用信号(R1〜Rn)は、画像合成処理部R,410Rに入力される。
画像合成処理部R,410Rは、第1パス画像変換部と、第2〜第nパス画像変換部Rの各々の出力値を画像合成重み値算出部405から入力する重み情報に応じて加算して右眼用画像(R)を生成する。
ここで、ある画素[座標は(x,y)]について、第kパス出力画像における画素値をPk(x,y)とし、重みがWk(x,y)に設定されたとすると、出力画像内の当該画素値Pout(x,y)は、下記の式で算出される。
第1パス乗算処理部452は、微分信号(h(Y))に対して、ゲイン係数算出部480から入力するゲイン係数を乗算して補正微分信号(h'(Y))を生成する。ゲイン係数算出部480から入力するゲイン係数は、各画素の距離情報に応じたゲイン係数である。
第1パス非線形変換部453は、補正微分信号(h'(Y))に対して視差の発生を制御する非線形な変換処理を施す。図8を参照して説明した非線形変換処理を実行して出力として視差強調信号(e'(Y))を生成する。
第1パス画像合成部454は、入力輝度信号(Y)に非線形変換された補正微分信号である視差強調信号(e'(Y))を加減算することにより、以下の各信号を生成する。
左眼用信号L1=Y+e'(Y)
右眼用信号R1=Y−e'(Y)
第2パス画像変換部L,400−L2は、第1パス画像変換部400−1により生成された左眼用信号L1を入力として、さらに大きな視差を発生させる左眼信号L2を生成する。
第2パス画像変換部R,400−R2は、第1パス画像変換部400−1により生成された右眼用信号R1を入力として、さらに大きな視差を発生させる右眼信号R2を生成する。
しかし、図22、図24、図25に示すパス画像変換部の構成は、いずれも図21に示す画像変換部、または図23に示す画像変換部を構成するパス画像変換部の構成として利用可能である。
左眼用画像信号:Left=S+E'
上記式に従って左眼用画像(Left)を生成する。
なお、(a)入力信号に相当するビデオデータの輝度レベルを(S)、
微分信号(H)を被写体距離(奥行き情報)に応じたゲインGを適用して補正した補正微分信号(H')の非線形変換した信号である視差強調信号の信号レベルを(E')としている。
右眼用画像信号:Right=S−E'
上記式に従って右眼用画像(Right)を生成する。
なお、(a)入力信号に相当するビデオデータの輝度レベルを(S)、
微分信号(H)を被写体距離(奥行き情報)に応じたゲインGを適用して補正した補正微分信号(H')の非線形変換した信号である視差強調信号の信号レベルを(E')としている。
図21〜図25を参照して説明した複数のパス画像変換部を連結して、次第に大きな視差を発生させる画像を生成する構成を持つ画像変換部を利用する場合、例えば図26に示すフローのステップS104〜S106の処理が異なる設定となる。
また、図23を参照して説明した構成を持つ画像変換部の構成においては、第1〜第nパス画像変換部の各々の出力値に対する重み情報の算出も行う必要がある。
さらに、本発明の画像処理装置は、右眼用画像(Right)と左眼用画像(Left)を以下のように生成している。
すなわち、例えば図9、図10の(a)入力信号(S)に対する(b)微分信号(H)に対して、距離に応じたゲイン値を乗じて(c)補正微分信号(H')を生成し、この(c)補正微分信号(H')と、入力信号(S)を利用して(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。
Right=S−H'
Left=S+H'
あるいは、(c)補正後の微分信号(H')に対する非線形変換により得られる視差強調信号(E')と、入力信号(S)を利用して、
Right=S−E'
Left=S+E'
上記処理により、(d)右眼用画像信号(Right)と、(e)左眼用画像信号(Left)を生成する。
加算信号=(S+H’)+(S−H’)=S
または、
加算信号=(S+E’)+(S−E’)=S
結果として加算信号は、入力画像と等価になる。
加算信号=(S+H’)+(S−H’)=S
または、
加算信号=(S+E’)+(S−E’)=S
上記信号[S]となる。すなわち、入力の2次元画像をそのまま知覚することが出来る。すなわち不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能となる。
加算信号=(S+H’)+(S−H’)=S
または、
加算信号=(S+E’)+(S−E’)=S
上記信号[S]となる。一方、人間の網膜像差に対する視力は、通常視力の10倍ほど高いため、このような距離から観察しても左眼用画像と右眼用画像の間の網膜像差は十分認識することが可能である。従って、偏光メガネを外した場合には、不自然な二重の画像に見えてしまうというようなことがなく、何ら処理を施していない画像として観察することが可能であり、偏光メガネを装着すれば、立体知覚が可能となる。
図2、図3を参照して説明した画像処理装置は、画像表示部を持たない画像処理装置として説明した。しかし、画像表示部を持つ画像処理装置として構成してもよい。図28は、画像表示部を持つ画像処理装置の一実施例を示す図である。
時間分割方式の立体表示方法においては、入力されるビデオデータの奇数フレームと偶数フレームをそれぞれ左眼用画像、および右眼用画像(または、右眼用画像、および左眼用画像)と認識し、ユーザが装着する液晶シャッタ方式によるメガネを制御して、左眼と右眼に映像が時間的に交互に提示されるようにする。この表示方式では、画像表示部550は、左眼用画像、および右眼用画像の出力切り替えタイミングを、鑑賞者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させる設定として制御する。
空間分割方式の立体表示方法においては、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせ、ユーザが装着する偏光フィルタ方式によるメガネで見た場合に、左眼と右眼に水平ラインごとに映像が分離されて提示されるようにする。
110 画像入力部
115 奥行き情報出力部
120 色空間変換部
130 画像変換部
131 微分器
132 ゲイン制御部
133 非線形変換部
134 画像合成部
140 色空間逆変換部
150 画像出力部
201 ゲイン係数算出部
202 乗算処理部
300 画像変換部
301 出力選択部
311 第1パス位相制御信号生成部
312 第1パス非線形変換部
313 第1パス画像合成部
321 第2パス位相制御信号生成部
322 第2パス非線形変換部
323 第2パス画像合成部
331 第2パス位相制御信号生成部
332 第2パス非線形変換部
333 第2パス画像合成部
400 画像変換部
405 画像合成重み値算出部
410 画像合成処理部
411 第1パス位相制御信号生成部
412 第1パスゲイン制御部
413 第1パス非線形変換部
414 第1パス画像合成部
421 第2パス位相制御信号生成部
422 第2パスゲイン制御部
423 第2パス非線形変換部
424 第2パス画像合成部
431 第2パス位相制御信号生成部
432 第2パスゲイン制御部
433 第2パス非線形変換部
434 第2パス画像合成部
451 第1パス位相制御信号生成部
452 第1パス乗算処理部
453 第1パス非線形変換部
454 第1パス画像合成部
461 第2パス位相制御信号生成部
462 第2パス乗算処理部
463 第2パス非線形変換部
464 第2パス画像合成部
471 第2パス位相制御信号生成部
472 第2パス乗算処理部
473 第2パス非線形変換部
474 第2パス画像合成部
550 画像表示部
Claims (18)
- 2次元画像を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力部と、
前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換部と、
を具備する画像処理装置。 - 前記画像変換部は、
前記奥行き情報出力部の出力する奥行き情報が大きい画像領域に対しては大きいゲインによる前記輝度微分信号の補正処理を行い、
奥行き情報が小さい画像領域に対しては小さいゲインによる前記輝度微分信号の補正処理を行い、前記補正微分信号を生成する請求項1に記載の画像処理装置。 - 前記画像変換部は、
前記補正微分信号を非線形変換して生成した信号を、前記輝度信号に対して加算した信号または減算した信号を生成し、これらの信号のいずれかを左眼用画像または右眼用画像の輝度信号として生成する処理を行う構成である請求項1に記載の画像処理装置。 - 前記画像変換部は、
(a)前記輝度信号から輝度微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する輝度微分信号に対する非線形変換処理を実行する非線形変換部、
(c)前記非線形変換部の出力と、前記輝度信号との加算または減算を実行する画像合成部、
上記(a)〜(c)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスを有し、
前記奥行き情報出力部の出力する奥行き情報に応じて、前記処理パスを構成する各画像変換単位の出力を選択し合成して左眼用画像または右眼用画像を生成する処理を行う請求項1に記載の画像処理装置。 - 前記画像変換部は、
(a)前記輝度信号から輝度微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する輝度微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数によるゲイン制御を実行して補正微分信号を生成するゲイン制御部、
(c)前記ゲイン制御部の出力に対して非線形変換処理を実行する非線形変換部、
(d)前記非線形変換部の出力と、前記輝度信号との加算または減算を実行する画像合成部、
上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、
前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、
前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する請求項1に記載の画像処理装置。 - 前記画像変換部は、
(a)前記輝度信号から輝度微分信号を生成する位相制御信号生成部、
(b)前記位相制御信号生成部の生成する輝度微分信号に対して、前記奥行き情報出力部の出力する奥行き情報に応じて設定されたゲイン係数を乗算して補正微分信号を生成する乗算処理部、
(c)前記乗算処理部の出力に対して非線形変換処理を実行する非線形変換部、
(d)前記非線形変換部の出力と、前記輝度信号との加算または減算を実行する画像合成部、
上記(a)〜(d)の構成要素によって構成される画像変換単位による画像変換処理を繰り返し実行する処理パスと、
前記奥行き情報出力部の出力する奥行き情報に応じて前記処理パスを構成する各画像変換単位の重み値を設定する重み値算出部と、
前記重み値算出部の算出する重み値に応じて、前記処理パスを構成する各画像変換単位の出力を合成して左眼用画像または右眼用画像を生成する画像合成部を有する請求項1に記載の画像処理装置。 - 前記画像変換部は、
動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行う構成である請求項1〜6いずれかに記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記画像変換部の生成する左眼用画像と右眼用画像の出力を行う画像出力部を有し、
前記画像出力部は、前記画像変換部の生成する左眼用画像と右眼用画像を前記2次元画像のフレームレートの2倍速で交互に出力する処理を行う構成である請求項7に記載の画像処理装置。 - 前記画像変換部は、
動画像を構成する各フレームに対して、左眼用画像と右眼用画像のいずれか一方のみを交互に生成する処理を行う構成である請求項1〜6いずれかに記載の画像処理装置。 - 前記画像変換部は、
動画像を構成する各フレームに対して、左眼用画像と右眼用画像を生成する処理を行うとともに、
生成した左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を生成する処理を行う構成である請求項1〜6いずれかに記載の画像処理装置。 - 前記画像変換部は、
生成する左眼用画像と右眼用画像の輝度信号の加算信号が前記2次元画像の輝度信号に等しくなる設定、またはほぼ等しくなる設定として左眼用画像と右眼用画像を生成する処理を行う構成である請求項1〜10いずれかに記載の画像処理装置。 - 前記画像処理装置は、さらに、
前記画像変換部の生成した画像を表示する画像表示部を有する構成である請求項1〜11いずれかに記載の画像処理装置。 - 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を行う構成である請求項12に記載の画像処理装置。
- 前記画像表示部は、左眼用画像、および右眼用画像を交互に出力する時間分割方式の立体表示処理を実行する際、左眼用画像および右眼用画像の出力切り替えタイミングを画像観察者の装着したメガネの左右眼鏡部のシャッタ切り替えに同期させて表示切り替えを行う構成である請求項13に記載の画像処理装置。
- 前記画像表示部は、表示部前面に水平ラインごとに偏光方向が異なるように設定した偏光フィルタを貼り合わせた構成を有し、前記画像変換部の生成する左眼用画像と右眼用画像を構成するラインデータを交互に含む両眼視差画像を表示する構成である請求項12に記載の画像処理装置。
- 画像処理装置において実行する画像処理方法であり、
奥行き情報出力部が、2次元画像を構成する画像領域の奥行き情報を入力または生成する奥行き情報出力ステップと、
画像変換部が、前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップを有する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
奥行き情報出力部に、2次元画像を構成する画像領域の奥行き情報を入力または生成させる奥行き情報出力ステップと、
画像変換部に、前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップを実行させるプログラム。 - 画像処理装置において画像処理を実行させるプログラムを記録した記録媒体であり、
前記プログラムは、
奥行き情報出力部に、2次元画像を構成する画像領域の奥行き情報を入力または生成させる奥行き情報出力ステップと、
画像変換部に、前記2次元画像の輝度信号と、前記奥行き情報出力部の出力する奥行き情報を入力して、前記輝度信号の輝度微分信号に対して画像領域単位の奥行き情報に応じたゲイン制御を行った補正微分信号を加算した信号と減算した信号の組を、左眼用画像と右眼用画像の輝度信号の組として、両眼立体視を実現するための左眼用画像と右眼用画像を生成して出力する画像変換ステップを実行させるプログラムである記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009283080A JP5387377B2 (ja) | 2009-12-14 | 2009-12-14 | 画像処理装置、および画像処理方法、並びにプログラム |
US12/960,066 US8866884B2 (en) | 2009-12-14 | 2010-12-03 | Image processing apparatus, image processing method and program |
CN201010586284.9A CN102104786B (zh) | 2009-12-14 | 2010-12-07 | 图像处理装置和图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009283080A JP5387377B2 (ja) | 2009-12-14 | 2009-12-14 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011124935A JP2011124935A (ja) | 2011-06-23 |
JP2011124935A5 JP2011124935A5 (ja) | 2012-12-20 |
JP5387377B2 true JP5387377B2 (ja) | 2014-01-15 |
Family
ID=44157253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009283080A Expired - Fee Related JP5387377B2 (ja) | 2009-12-14 | 2009-12-14 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8866884B2 (ja) |
JP (1) | JP5387377B2 (ja) |
CN (1) | CN102104786B (ja) |
Families Citing this family (112)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286941B2 (en) | 2001-05-04 | 2016-03-15 | Legend3D, Inc. | Image sequence enhancement and motion picture project management system |
US8897596B1 (en) | 2001-05-04 | 2014-11-25 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with translucent elements |
US8401336B2 (en) | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
KR101588877B1 (ko) | 2008-05-20 | 2016-01-26 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
JP5397190B2 (ja) * | 2009-11-27 | 2014-01-22 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
KR101824672B1 (ko) | 2010-05-12 | 2018-02-05 | 포토네이션 케이맨 리미티드 | 이미저 어레이 구조 및 어레이 카메라 |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
JP5699609B2 (ja) | 2011-01-06 | 2015-04-15 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US8730232B2 (en) | 2011-02-01 | 2014-05-20 | Legend3D, Inc. | Director-style based 2D to 3D movie conversion system and method |
EP2487530B1 (en) | 2011-02-14 | 2015-02-25 | Samsung Electronics Co., Ltd. | Display panel comprising metal grid color selective polarizer |
US8964012B2 (en) | 2011-02-14 | 2015-02-24 | Samsung Electronics Co., Ltd. | Display panel having a polarizing layer and display apparatus having the same |
KR101197151B1 (ko) * | 2011-02-14 | 2012-11-09 | 삼성전자주식회사 | 디스플레이패널 및 이를 포함하는 디스플레이장치 |
US9407904B2 (en) | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US9282321B2 (en) | 2011-02-17 | 2016-03-08 | Legend3D, Inc. | 3D model multi-reviewer system |
US9288476B2 (en) | 2011-02-17 | 2016-03-15 | Legend3D, Inc. | System and method for real-time depth modification of stereo images of a virtual reality environment |
US9241147B2 (en) | 2013-05-01 | 2016-01-19 | Legend3D, Inc. | External depth map transformation method for conversion of two-dimensional images to stereoscopic images |
WO2012155119A1 (en) | 2011-05-11 | 2012-11-15 | Pelican Imaging Corporation | Systems and methods for transmitting and receiving array camera image data |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
TWI484816B (zh) * | 2011-07-04 | 2015-05-11 | Mstar Semiconductor Inc | 被動式立體影像系統及其影像處理方法 |
JP5831024B2 (ja) * | 2011-08-04 | 2015-12-09 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
CN103037236A (zh) * | 2011-08-22 | 2013-04-10 | 联发科技股份有限公司 | 图像处理方法以及装置 |
WO2013043751A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
JP5691966B2 (ja) * | 2011-09-22 | 2015-04-01 | 株式会社Jvcケンウッド | 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム |
JP5691965B2 (ja) * | 2011-09-22 | 2015-04-01 | 株式会社Jvcケンウッド | 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム |
IN2014CN02708A (ja) | 2011-09-28 | 2015-08-07 | Pelican Imaging Corp | |
JP5860663B2 (ja) * | 2011-10-18 | 2016-02-16 | 日立オートモティブシステムズ株式会社 | ステレオ撮像装置 |
JP2013115668A (ja) | 2011-11-29 | 2013-06-10 | Sony Corp | 画像処理装置、および画像処理方法、並びにプログラム |
US9113059B2 (en) | 2011-11-30 | 2015-08-18 | Canon Kabushiki Kaisha | Image pickup apparatus and image region discrimination method |
WO2013089770A1 (en) | 2011-12-16 | 2013-06-20 | Intel Corporation | Resolution loss mitigation for 3d displays |
US9571810B2 (en) | 2011-12-23 | 2017-02-14 | Mediatek Inc. | Method and apparatus of determining perspective model for depth map generation by utilizing region-based analysis and/or temporal smoothing |
US20130162763A1 (en) * | 2011-12-23 | 2013-06-27 | Chao-Chung Cheng | Method and apparatus for adjusting depth-related information map according to quality measurement result of the depth-related information map |
JP5692051B2 (ja) * | 2011-12-27 | 2015-04-01 | 株式会社Jvcケンウッド | 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム |
EP2817955B1 (en) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systems and methods for the manipulation of captured light field image data |
WO2013125139A1 (ja) * | 2012-02-22 | 2013-08-29 | ソニー株式会社 | 画像処理装置及び画像処理方法、並びにコンピューター・プログラム |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
WO2013190814A1 (ja) * | 2012-06-22 | 2013-12-27 | 株式会社ニコン | 画像処理装置、撮像装置および画像処理プログラム |
CN104508681B (zh) | 2012-06-28 | 2018-10-30 | Fotonation开曼有限公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的系统及方法 |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
JP5949314B2 (ja) | 2012-08-20 | 2016-07-06 | 株式会社日本自動車部品総合研究所 | 視差マップ生成装置および視差マップ生成装置用のプログラム |
EP4296963B1 (en) | 2012-08-21 | 2025-01-15 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
WO2014030390A1 (ja) * | 2012-08-23 | 2014-02-27 | 富士フイルム株式会社 | 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム |
US9214013B2 (en) | 2012-09-14 | 2015-12-15 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
CN104685863B (zh) * | 2012-09-27 | 2017-11-03 | 富士胶片株式会社 | 摄像装置及图像处理方法 |
US20140092281A1 (en) | 2012-09-28 | 2014-04-03 | Pelican Imaging Corporation | Generating Images from Light Fields Utilizing Virtual Viewpoints |
US9143711B2 (en) | 2012-11-13 | 2015-09-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US9007365B2 (en) | 2012-11-27 | 2015-04-14 | Legend3D, Inc. | Line depth augmentation system and method for conversion of 2D images to 3D images |
US9547937B2 (en) | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
US9253380B2 (en) | 2013-02-24 | 2016-02-02 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
WO2014138697A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
WO2014164909A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Array camera architecture implementing quantum film sensors |
WO2014153098A1 (en) | 2013-03-14 | 2014-09-25 | Pelican Imaging Corporation | Photmetric normalization in array cameras |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9007404B2 (en) | 2013-03-15 | 2015-04-14 | Legend3D, Inc. | Tilt-based look around effect image enhancement method |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
WO2014145856A1 (en) | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9438878B2 (en) | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
CN105594205B (zh) * | 2013-10-02 | 2017-09-26 | 奥林巴斯株式会社 | 三维图像系统 |
EP3066690A4 (en) | 2013-11-07 | 2017-04-05 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
WO2015074078A1 (en) | 2013-11-18 | 2015-05-21 | Pelican Imaging Corporation | Estimating depth from projected texture using camera arrays |
US9456134B2 (en) | 2013-11-26 | 2016-09-27 | Pelican Imaging Corporation | Array camera configurations incorporating constituent array cameras and constituent cameras |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
US9779508B2 (en) * | 2014-03-26 | 2017-10-03 | Microsoft Technology Licensing, Llc | Real-time three-dimensional reconstruction of a scene from a single camera |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
CN104104940A (zh) * | 2014-07-29 | 2014-10-15 | 冠捷显示科技(厦门)有限公司 | 一种裸眼3d深度图像传送方法 |
JP6428024B2 (ja) * | 2014-07-31 | 2018-11-28 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
JP2016053849A (ja) * | 2014-09-03 | 2016-04-14 | ソニー株式会社 | 画像処理装置および画像処理方法、並びに固体撮像装置 |
EP3467776A1 (en) | 2014-09-29 | 2019-04-10 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
JP6931268B2 (ja) * | 2015-06-08 | 2021-09-01 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US9609307B1 (en) | 2015-09-17 | 2017-03-28 | Legend3D, Inc. | Method of converting 2D video to 3D video using machine learning |
JP6611576B2 (ja) * | 2015-11-30 | 2019-11-27 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
WO2018056086A1 (ja) * | 2016-09-23 | 2018-03-29 | 日本電信電話株式会社 | 画像生成装置、画像生成方法、データ構造、およびプログラム |
JP6615824B2 (ja) * | 2016-09-23 | 2019-12-04 | 日本電信電話株式会社 | 画像生成装置、画像生成方法、およびプログラム |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
JP2019053644A (ja) * | 2017-09-19 | 2019-04-04 | セイコーエプソン株式会社 | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 |
MX2022003020A (es) | 2019-09-17 | 2022-06-14 | Boston Polarimetrics Inc | Sistemas y metodos para modelado de superficie usando se?ales de polarizacion. |
MX2022004162A (es) | 2019-10-07 | 2022-07-12 | Boston Polarimetrics Inc | Sistemas y metodos para el aumento de sistemas de sensores y sistemas de formacion de imagenes con polarizacion. |
US10929958B1 (en) * | 2019-11-15 | 2021-02-23 | Novatek Microelectronics Corp. | Method and image processing device for image blurring |
MX2022005289A (es) | 2019-11-30 | 2022-08-08 | Boston Polarimetrics Inc | Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion. |
JP7462769B2 (ja) | 2020-01-29 | 2024-04-05 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
CN115428028A (zh) | 2020-01-30 | 2022-12-02 | 因思创新有限责任公司 | 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法 |
CN113542712B (zh) * | 2020-04-16 | 2024-08-20 | 钰立微电子股份有限公司 | 多深度信息的处理方法与处理系统 |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
KR20220151420A (ko) * | 2021-05-06 | 2022-11-15 | 삼성전자주식회사 | 웨어러블 전자 장치 및 3d 이미지 출력 방법 |
US12003697B2 (en) | 2021-05-06 | 2024-06-04 | Samsung Electronics Co., Ltd. | Wearable electronic device and method of outputting three-dimensional image |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
WO2023032209A1 (ja) * | 2021-09-06 | 2023-03-09 | 日本電信電話株式会社 | 映像処理装置、映像処理方法、およびプログラム |
US12014484B2 (en) * | 2022-06-13 | 2024-06-18 | National Technology & Engineering Solutions Of Sandia, Llc | Thermographic phosphor digital image correlation |
CN115190286B (zh) * | 2022-07-06 | 2024-02-27 | 敏捷医疗科技(苏州)有限公司 | 一种2d图像转换方法及装置 |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62293381A (ja) * | 1986-06-11 | 1987-12-19 | Toshiba Corp | 立体画像表示装置 |
JP3182009B2 (ja) | 1992-12-24 | 2001-07-03 | 日本電信電話株式会社 | 両眼立体視装置 |
US6553184B1 (en) | 1994-03-14 | 2003-04-22 | Sanyo Electric Co., Ltd. | Method of converting two dimensional images into three-dimensional images |
JP2983844B2 (ja) | 1994-07-14 | 1999-11-29 | 三洋電機株式会社 | 3次元画像変換方法 |
JP3091644B2 (ja) * | 1994-08-26 | 2000-09-25 | 三洋電機株式会社 | 2次元画像の3次元化方法 |
KR0146105B1 (ko) * | 1995-04-25 | 1998-09-15 | 구자홍 | 패턴인식형 윤곽보정장치 |
JP3096625B2 (ja) * | 1995-10-20 | 2000-10-10 | 三洋電機株式会社 | 2次元映像を3次元映像に変換する方法 |
US6163337A (en) * | 1996-04-05 | 2000-12-19 | Matsushita Electric Industrial Co., Ltd. | Multi-view point image transmission method and multi-view point image display method |
US6445833B1 (en) | 1996-07-18 | 2002-09-03 | Sanyo Electric Co., Ltd | Device and method for converting two-dimensional video into three-dimensional video |
JP3005474B2 (ja) | 1996-08-07 | 2000-01-31 | 三洋電機株式会社 | 2次元映像を3次元映像に変換する装置および方法 |
US6584219B1 (en) * | 1997-09-18 | 2003-06-24 | Sanyo Electric Co., Ltd. | 2D/3D image conversion system |
JPH1198534A (ja) * | 1997-09-24 | 1999-04-09 | Sanyo Electric Co Ltd | 3次元映像生成方法 |
JP3540626B2 (ja) * | 1998-09-17 | 2004-07-07 | 三洋電機株式会社 | 2次元映像を3次元映像に変換する装置および方法 |
JP2000261828A (ja) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | 立体映像生成方法 |
JP2001320731A (ja) * | 1999-11-26 | 2001-11-16 | Sanyo Electric Co Ltd | 2次元映像を3次元映像に変換する装置及びその方法 |
JP4051196B2 (ja) * | 2001-11-08 | 2008-02-20 | オリンパス株式会社 | ノイズリダクションシステム、ノイズリダクション方法、ノイズリダクションプログラム、及び電子カメラ |
CN101246251A (zh) * | 2003-09-10 | 2008-08-20 | 夏普株式会社 | 摄影透镜位置控制装置 |
JP2007506167A (ja) * | 2003-09-15 | 2007-03-15 | アルミン・グラスニック | 3次元的奥行き効果を有するイメージ表示法用の3次元イメージ・パターンの生成方法および3次元イメージ・パターンを表示する装置 |
JP4214976B2 (ja) | 2003-09-24 | 2009-01-28 | 日本ビクター株式会社 | 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム |
DE10353417A1 (de) * | 2003-11-11 | 2005-06-09 | X3D Technologies Gmbh | Anordnung zur zwei- oder dreidimensionalen Darstellung |
US7262767B2 (en) | 2004-09-21 | 2007-08-28 | Victor Company Of Japan, Limited | Pseudo 3D image creation device, pseudo 3D image creation method, and pseudo 3D image display system |
CA2553473A1 (en) * | 2005-07-26 | 2007-01-26 | Wa James Tam | Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging |
JP4687320B2 (ja) * | 2005-08-11 | 2011-05-25 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びに、プログラム |
JP2007166277A (ja) * | 2005-12-14 | 2007-06-28 | Nippon Telegr & Teleph Corp <Ntt> | 3次元画像情報の伝送方法、送信側装置および受信側装置 |
US7869649B2 (en) * | 2006-05-08 | 2011-01-11 | Panasonic Corporation | Image processing device, image processing method, program, storage medium and integrated circuit |
JP4662071B2 (ja) * | 2006-12-27 | 2011-03-30 | 富士フイルム株式会社 | 画像再生方法 |
KR100859694B1 (ko) * | 2007-04-12 | 2008-09-23 | 삼성에스디아이 주식회사 | 평면/입체 액정 표시장치 및 그 구동방법 |
US8131098B2 (en) * | 2007-07-06 | 2012-03-06 | Panasonic Corporation | Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit |
US8029139B2 (en) * | 2008-01-29 | 2011-10-04 | Eastman Kodak Company | 2D/3D switchable color display apparatus with narrow band emitters |
US8029193B2 (en) * | 2008-03-07 | 2011-10-04 | Pacific Bearing Company | Guide rail and method for manufacturing same |
JP5347717B2 (ja) * | 2008-08-06 | 2013-11-20 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
JP5280450B2 (ja) * | 2008-08-07 | 2013-09-04 | 株式会社日立メディコ | X線ct画像形成方法及びそれを用いたx線ct装置 |
EP2462745B1 (en) * | 2009-08-05 | 2015-04-01 | Thomson Licensing | Optical compensation for ghosting in stereoscopic displays |
-
2009
- 2009-12-14 JP JP2009283080A patent/JP5387377B2/ja not_active Expired - Fee Related
-
2010
- 2010-12-03 US US12/960,066 patent/US8866884B2/en not_active Expired - Fee Related
- 2010-12-07 CN CN201010586284.9A patent/CN102104786B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102104786A (zh) | 2011-06-22 |
US20110273531A1 (en) | 2011-11-10 |
CN102104786B (zh) | 2014-04-02 |
JP2011124935A (ja) | 2011-06-23 |
US8866884B2 (en) | 2014-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5387377B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5347717B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5521913B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
EP2259601B1 (en) | Image processing method, image processing device, and recording medium | |
JP5879713B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP2011124935A5 (ja) | ||
JP5402483B2 (ja) | 擬似立体画像作成装置及び擬似立体画像表示システム | |
TW201242335A (en) | Image processing device, image processing method, and program | |
JP2013005259A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP2012120057A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US9088774B2 (en) | Image processing apparatus, image processing method and program | |
JP5304758B2 (ja) | 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム | |
US9064338B2 (en) | Stereoscopic image generation method and stereoscopic image generation system | |
JP5794335B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5569635B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP6028427B2 (ja) | 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置 | |
WO2013186882A1 (ja) | 立体視画像生成方法および立体視画像生成システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121102 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130607 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130611 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130923 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5387377 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |