JP6380881B2 - 立体画像表示装置、画像処理装置及び立体画像処理方法 - Google Patents
立体画像表示装置、画像処理装置及び立体画像処理方法 Download PDFInfo
- Publication number
- JP6380881B2 JP6380881B2 JP2013089533A JP2013089533A JP6380881B2 JP 6380881 B2 JP6380881 B2 JP 6380881B2 JP 2013089533 A JP2013089533 A JP 2013089533A JP 2013089533 A JP2013089533 A JP 2013089533A JP 6380881 B2 JP6380881 B2 JP 6380881B2
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- stereoscopic
- parallax adjustment
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 317
- 238000003672 processing method Methods 0.000 title claims description 55
- 238000000034 method Methods 0.000 claims description 176
- 238000004364 calculation method Methods 0.000 claims description 169
- 230000008859 change Effects 0.000 claims description 135
- 238000013500 data storage Methods 0.000 claims description 121
- 230000002441 reversible effect Effects 0.000 claims description 108
- 230000008569 process Effects 0.000 claims description 102
- 230000003287 optical effect Effects 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 20
- 230000007613 environmental effect Effects 0.000 claims description 18
- 230000002123 temporal effect Effects 0.000 claims description 13
- 238000009529 body temperature measurement Methods 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 63
- 230000006870 function Effects 0.000 description 47
- 230000033001 locomotion Effects 0.000 description 44
- 238000005259 measurement Methods 0.000 description 34
- 230000004888 barrier function Effects 0.000 description 25
- 238000011156 evaluation Methods 0.000 description 13
- 239000011521 glass Substances 0.000 description 11
- 230000007423 decrease Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 208000003164 Diplopia Diseases 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 208000029444 double vision Diseases 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 229920003229 poly(methyl methacrylate) Polymers 0.000 description 2
- 239000004417 polycarbonate Substances 0.000 description 2
- 229920000515 polycarbonate Polymers 0.000 description 2
- 239000004926 polymethyl methacrylate Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 102100027340 Slit homolog 2 protein Human genes 0.000 description 1
- 101710133576 Slit homolog 2 protein Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 229920006351 engineering plastic Polymers 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 229910010272 inorganic material Inorganic materials 0.000 description 1
- 239000011147 inorganic material Substances 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/368—Image reproducers using viewer tracking for two or more viewers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/006—Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Liquid Crystal Display Device Control (AREA)
Description
少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
前記観察者の観察位置を計測する観察者位置計測部と、
この観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置に対する前記立体表示パネル部の表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
画像データを保存又は受信する画像データ保管部と、
前記相対位置に応じて立体画像表示に適した視差調整量を前記デバイス特性データから算出する視差調整量算出部と、
この視差調整量に従って前記画像データのうち少なくとも前記3Dクロストーク領域に対応する範囲に対して視差調整処理を実施する視差調整処理部と、
を備えたものである。
少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルへ画像データを出力する画像処理装置において、
前記観察者の観察位置を計測する観察者位置計測部と、
この観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
画像データを受信する画像データ受信部と、
前記相対位置に応じて立体画像表示に適した視差調整量を前記デバイス特性データから算出する視差調整量算出部と、
この視差調整量に従って前記画像データのうち少なくとも前記3Dクロストーク領域に対応する範囲に対して視差調整処理を実施する視差調整処理部と、
前記視差調整処理された前記画像データを出力する画像データ送信部と、
を備えたものである。
少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル、
を用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
前記相対位置に応じて立体画像表示に適した視差調整量を前記デバイス特性データから算出し、
画像データを取得し、
前記視差調整量に従って前記画像データのうち少なくとも前記3Dクロストーク領域に対応する範囲に対して視差調整処理を実施し、
前記視差調整処理をされた前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする。
実施形態1の立体画像表示装置の構成について下記に説明する。図1は立体画像表示装置11の構成図である。立体画像表示装置11は、観察者位置計測部101と、相対位置算出部102と、デバイス特性データ保管部103と、視差調整量算出部104と、画像データ保管部105と、視差調整処理部106と、立体表示パネル部107と、を備えるものである。また、相対位置算出部102、視差調整量算出部104及び視差調整処理部106を統合した処理部を、画像処理部151とする。
θ=tan−1(X/Z) 式(2)
ここで、Y(LBRW)は左眼画像を黒、右眼画像を白としたときの輝度、Y(LBRB)は左眼画像を黒、右眼画像を黒としたときの輝度、Y(LWRB)は左眼画像を白、右眼画像を黒としたときの輝度、である。
視差値u=x1−x2 式(4)
(uf<=uth) AND (uf<=uc) 式(5)
uf=κuc 式(6)
uf(x,y)=κuc(x,y) 式(7)
ここで、uc(x,y)は、視差画像の画素位置(x,y)における視差値を示す。
本実施形態2では、観察者の観察位置と立体表示パネルとの相対位置が速く移動する場合であっても、観察者へ違和感を与えずになだらかに視差調整処理を実現して、3Dクロストークによる二重像や逆視の問題を解決して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することが目的となる。
移動速度:v=dθ/dt 式(11)
duth/dθ<=u'a 式(12)
本実施形態3では、観察者の観察位置と立体表示パネルの相対位置がより速く移動しても、正視領域及び逆視領域における任意の領域では視差値が一定であり、かつ、それ以外の領域では、なだらかに視差調整処理を行い、3Dクロストークによる二重像や逆視の影響を軽減して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することが目的となる。
図37に、3Dクロストーク特性データの一例を示す。図37から3Dクロストーク量の閾値β5以下となる視野角範囲はθ20〜θ21とθ22〜θ23となり、この視野角範囲が特定領域となる。
uth(θ20)=κthuc(θ20) 式(21)
ここで、uth(θ20)は視野角がθ20のときの視差許容値uthを示し、uc(θ20)は視野角がθ20のときのコンテンツの視差最大値ucを示す。
κ<=κth 式(22)
本実施形態4では、3Dクロストークによる二重像の影響が現れる画像範囲だけに、視差調整処理を適用することで、その他の画像範囲は視差値を保持して立体画像を表示した状態で、3Dクロストークによる二重像の問題を解決して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することが目的となる。
X軸方向の位置を検出し(図46[A]のy1線上であればx2の位置となり、図46[A]のy2線上であればx1の位置となる。)、検出したX軸方向の位置から斜め成分の3Dクロストーク画像範囲の傾きを算出する。
本実施形態5では、観察者が視差の調整を手動で指示した場合であっても、観察者へ違和感を与えずに視差調整処理を実現して、3Dクロストークによる二重像や逆視の問題を解決して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することが目的となる。
uc<=uth 式(30)
本実施形態6では、立体画像表示装置を使用する環境温度が変化しても、その温度に適切な視差調整処理を行い、3Dクロストークによる二重像や逆視の問題を解決して、観察者へ違和感を与えない立体画像表示装置及び立体画像処理方法を提供することが目的となる。
ステップS604は、デバイス特性データ保管部103から、ステップS603で計測した温度に対応するデバイス特性データを取得する。
本実施形態7では、観察者の立体表示パネルへの観察状況に応じて、視野角に対する視差許容値のモード切替を実施することで、良好な観察状況である場合には、3Dコンテンツが保有する視差値を最大限に保持し、臨場感のある立体画像を表示する立体画像表示装置を提供することが目的となる。
du/dt=(uf7−uf3)/dth 式(80)
本実施形態8では、観察者の観察位置と立体表示パネルとの相対位置に応じた任意視点画像生成処理と視差調整処理を組合せることにより、3Dクロストークによる2重像を軽減するだけでなく、相対位置の移動に応じて運動視差も提示する立体画像表示装置を提供することが目的となる。
全ての上記実施形態における視差調整量算出部104では、デバイス特性データ保管部103に保管されたデバイス特性データを使用して、視差調整量を算出する例について記載したが、デバイス特性データが取得できない状況においても、視差調整処理が実現できるようにデバイス特性データを使用せずに視差調整量を算出しても良い。この場合、デバイス特性データを使用した場合の視差調整処理と比べて視差調整量の精度は低下するものの、3Dクロストーク量が小さく正視領域幅が大きい立体表示特性を有する立体表示パネルを用いることで、観察者が移動した場合であっても3Dクロストークによる二重像の影響を軽減する視差調整処理が実用可能なレベルで実施できる。
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
前記観察者の観察位置を計測する観察者位置計測部と、
前記観察者の観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置に応じて立体画像表示に適した視差調整量を算出する視差調整量算出部と、
この視差調整量に従って画像データの視差調整処理を実施する視差調整処理部と、
を備えた立体画像表示装置。
前記画像データを保存又は受信する画像データ保管部と、
を更に備え、
前記視差調整量算出部は、前記相対位置に応じて立体画像表示に適した視差調整量を前記デバイス特性データから算出する、
付記1記載の立体画像表示装置。
付記2記載の立体画像表示装置。
前記視差調整量は、前記3Dクロストーク特性データを基準にして算出されるものである、
付記2又は3記載の立体画像表示装置。
前記3Dクロストーク領域の前記視差調整量が前記非3Dクロストーク領域の前記視差調整量よりも小さい、
付記4記載の立体画像表示装置。
付記5記載の立体画像表示装置。
立体画像の視認状況により特定された少なくとも2つ以上の3Dクロストーク量の閾値を使用して、前記3Dクロストーク領域の視野角範囲を少なくとも2つ以上の視野角範囲に分類し、
分類した視野角範囲ごとに、視野角に対する傾きが異なる視差調整量を算出する、
付記1乃至6のいずれか一つに記載の立体画像表示装置。
前記視差調整処理部は、正視領域から逆視領域に変化する3Dクロストーク領域にのみ前記視差調整処理を実施することを特徴とする、
付記1乃至7のいずれか一つに記載の立体画像表示装置。
前記視差調整処理部は、前記相対位置と画像データが保有する視差値に応じて、正視領域の隣接視点画像間かつ正視領域から逆視領域に変化する3Dクロストーク領域に、前記視差調整処理を実施することを特徴とする、
付記1乃至7のいずれか一つに記載の立体画像表示装置。
前記視差調整量算出部は、前記相対位置の時間変化に起因する視野角の変化量と前記視差変化量許容値とに基づき、視野角に対する前記視差調整量を算出する、
ことを特徴とする付記1乃至9のいずれか一つに記載の立体画像表示装置。
前記視差調整処理部は、前記視差一定領域特定部で特定された領域において、前記視差調整処理後の画像データの視差値が一定値となるように、当該画像データが保有する視差値を全体的に低減する、
付記1乃至10のいずれか一つに記載の立体画像表示装置。
付記11記載の立体画像表示装置。
前記視差調整処理部は、前記画像データのうち前記3Dクロストーク画像範囲に対して視差調整処理を実施する、
付記2乃至12のいずれか一つに記載の立体画像表示装置。
検出された前記入力操作を判定する入力操作判定部と、
検出された又は判定された前記入力操作を処理する入力操作処理部と、
を更に備え、
前記入力操作判定部は、前記入力操作によって入力された視差調整量を判定し、
前記視差調整量算出部は、判定された前記視差調整量を使用して、適切な視差調整量を算出する、
付記1乃至13のいずれか一つに記載の立体画像表示装置。
検出された前記入力操作を判定する入力操作判定部と、
検出された又は判定された前記入力操作を処理する入力操作処理部と、
を更に備え、
前記入力操作処理部は、観察者の入力操作の検出結果を表示する通知画面を、前記3Dクロストーク画像範囲外に表示する、
付記1乃至14のいずれか一つに記載の立体画像表示装置。
前記視差調整量算出部は、前記温度計測部で計測した温度に対応する前記デバイス特性データに基づき、視野角に対して立体画像表示に適した視差調整量を算出する、
付記2乃至15のいずれか一つに記載の立体画像表示装置。
前記相対位置に応じて、前記左眼に左眼用の立体画像及び前記右眼に右眼用の立体映像が投影される正視領域と、前記左眼に右眼用の立体映像及び前記右眼に左眼用の立体映像が投影される逆視領域と、前記左眼に右眼用及び左眼用の立体映像又は前記右眼に左眼用及び右眼用の立体映像が投影される3Dクロストーク領域とに分類し、
前記観察者が前記正視領域から前記逆視領域に移動する際の前記3Dクロストーク領域において、前記画像データに対して前記正視領域又は前記逆視領域よりも小さい視差を付与する
付記1乃至16のいずれか一つに記載の立体画像表示装置。
前記相対位置の変化に応じて、前記相対位置の視野角成分に対する視差量の微分係数を有限の値として前記視差調整量を算出する、
付記1至17のいずれか一つに記載の立体画像表示装置。
観察者の両眼に視点の異なる画像がそれぞれ投影されることで立体画像を表示する正視領域のみが存在する立体表示パネル部を有すると共に、
前記観察者の観察位置を計測する観察者位置計測部と、
前記観察者の観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置と画像データが保有する視差値に応じて立体画像表示に適した視差調整量を算出する視差調整量算出部と、
この視差調整量に従って前記画像データの視差調整処理を実施する視差調整処理部と、
を備えた立体画像表示装置。
付記19記載の立体画像表示装置。
前記視差調整量算出部は、前記相対位置の時間変化に起因する視野角の変化量と前記視差変化量許容値とに基づき、視野角に対する前記視差調整量を算出する、
ことを特徴とする付記19又は20記載の立体画像表示装置。
検出された前記入力操作を判定する入力操作判定部と、
検出された又は判定された前記入力操作を処理する入力操作処理部と、
を更に備え、
前記入力操作判定部は、前記入力操作によって入力された視差調整量を判定し、
前記視差調整量算出部は、判定された前記視差調整量を使用して、適切な視差調整量を算出する、
付記19乃至21のいずれか一つに記載の立体画像表示装置。
前記視差調整量算出部は、前記温度計測部で計測した温度に対応し、視野角に対して立体画像表示に適した視差調整量を算出する、
付記19乃至22のいずれか一つに記載の立体画像表示装置。
前記相対位置の変化に応じて、前記相対位置の視野角成分に対する視差量の微分係数を有限の値として前記視差調整量を算出する、
付記19乃至23のいずれか一つに記載の立体画像表示装置。
付記1乃至18のいずれか一つに記載の立体画像表示装置。
付記25記載の立体画像表示装置。
付記1乃至18、25、26のいずれか一つに記載の立体画像表示装置。
前記任意視点画像生成部は、前記相対位置算出部で算出された相対位置と、前記視差調整量算出部で算出された視差調整量とを参照して、前記立体表示パネルが前記観察者側へ投影するN視点分の各視点領域の中から前記相対位置に応じて2つの視点領域を検出し、該視点領域に相当する2視点の仮想的なカメラの視点位置を算出し、該カメラで撮影した画像データを表示する、
付記27記載の立体画像表示装置。
前記任意視点画像生成部は、前記相対位置算出部で算出された相対位置と、前記視差調整量算出部で算出された視差調整量とを参照して、前記立体表示パネルが前記観察者側へ投影するN視点分の各視点領域に相当するN視点の仮想的なカメラの視点位置を算出し、該カメラで撮影した画像データを表示する、
付記27記載の立体画像表示装置。
付記29記載の立体画像表示装置。
付記29記載の立体画像表示装置。
前記任意視点画像生成部は、前記相対位置算出部で算出された相対位置と、前記視差調整量算出部で算出された視差調整量とを参照して、前記N視点の仮想的なカメラの中から前記観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動する、
付記27記載の立体画像表示装置。
前記画像データ保管部に保管された複数の画像データから視点位置を参照し、視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示する、
付記27記載の立体画像表示装置。
前記任意視点画像生成部は、
前記右眼用画像データと前記左眼用画像データとから計2つの視点位置を参照し、2視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示する
付記33記載の立体画像表示装置。
付記34記載の立体画像表示装置。
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルへ画像データを出力する画像処理装置において、
計測された前記観察者の観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
この相対位置に応じて立体画像表示に適した視差調整量を算出する視差調整量算出部と、
この視差調整量に従って画像データの視差調整処理を実施する視差調整処理部と、
を備えた画像処理装置。
前記視差調整処理を実施する前の前記画像データを受信する画像データ受信部と、
前記視差調整処理された前記画像データを出力する画像データ送信部と、
を更に備えた付記36記載の画像処理装置。
前記視差調整量算出部は、前記相対位置に応じて立体画像表示に適した前記視差調整量を前記デバイス特性データから算出する、
付記36又は37記載の画像処理装置。
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル、
を用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察者の観察位置に対する前記立体表示パネルの相対位置を算出し、
この相対位置に応じて立体画像表示に適した視差調整量を算出し、
この視差調整量に従って画像データの視差調整処理を実施し、
前記視差調整処理をされた前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル、
を用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察者の観察位置に対する前記立体表示パネルの相対位置を算出し、
この相対位置に応じて立体画像表示に適した視差調整量を算出し、
この視差調整量に従って画像データの視差調整処理を実施し、
前記視差調整処理をされた前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。
前記視差調整量に従って前記画像データの視差調整処理をする際に、前記視差調整量に従って前記画像データのうち前記3Dクロストーク画像範囲に対して前記視差調整処理をする、
付記40記載の立体画像処理方法。
11〜18 立体画像表示装置
101 観察者位置計測部
101a カメラ
102 相対位置算出部
103 デバイス特性データ保管部
104 視差調整量算出部
105 画像データ保管部
106 視差調整処理部
107 立体表示パネル部
107a 立体表示パネル
108 視差変化量許容値データ保管部
109 視差一定領域特定データ保管部(視差一定領域特定部)
110 3Dクロストーク画像範囲算出部
111 入力操作検出部
112 入力操作判定部
113 入力操作処理部
114 温度計測部
151〜158 画像処理部
150 計算機器
30 観察面
41 空白部分
80,81 領域
160 画像処理装置
161 画像データ受信部
162 画像データ送信部
163 画像入出力ケーブル
70R 右眼領域
70L 左眼領域
72L 左眼領域
70V1 視点1の領域
70V2 視点2の領域
70V3 視点3の領域
70V4 視点4の領域
70V5 視点5の領域
70V6 視点6の領域
70V7 視点7の領域
70V8 視点8の領域
72V1 視点1の領域
71V8 視点8の領域
71V4 視点4の領域
55L 左眼
55R 右眼
P 画素の幅
P' 投影面での画素の幅
e 両眼の間隔
OD 最適観察距離
FD 遠隔観察距離
ND 近接観察距離
h スリット(又はシリンドリカルレンズ)と画素との距離
S スリット幅
L シリンドリカルレンズ幅
4R 右眼用画素
4L 左眼用画素
4V1 視点1用画素
4V2 視点2用画素
4V3 視点3用画素
4V4 視点4用画素
4V5 視点5用画素
4V6 視点6用画素
4V7 視点7用画素
4V8 視点8用画素
6 パララックスバリア
6a スリット
2 表示パネル
3 レンチキュラレンズ
3a,3b シリンドリカルレンズ
20,21 光線
WP 立体表示パネルの中心画素の位置から両端画素の位置までの幅
60,61,63,65,66 仮想的なカメラ
60L,61L,63L,65L,66L 左眼用の仮想的なカメラ
60R,61R,63R,65R,66R 右眼用の仮想的なカメラ
60a,61a,63a,65a,66a 観察者
60b,61b,63b,65b,66b 画像データの視差値
7a,7b 左眼用と右眼用の仮想的なカメラの視点位置の差
8a,8b 画像データの視差値
9 立体画像コンテンツ
90,91,93,95,96 画像データ
Claims (31)
- 少なくとも2つの視点の異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から前記第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル部を備えるとともに、
前記観察者の観察位置を計測する観察者位置計測部と、
この観察位置に対する前記立体表示パネル部の相対位置を算出する相対位置算出部と、
この相対位置に対する前記立体表示パネル部の表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
画像データを保存又は受信する画像データ保管部と、
前記相対位置に応じて立体画像表示に適した視差調整量を前記デバイス特性データから算出する視差調整量算出部と、
この視差調整量に従って前記画像データのうち少なくとも前記3Dクロストーク領域に対応する範囲に対して視差調整処理を実施する視差調整処理部と、
を備えた立体画像表示装置。 - 前記相対位置は、前記観察者の観察位置と前記立体表示パネル部の表示面との視野角である、
請求項1記載の立体画像表示装置。 - 前記デバイス特性データは、3Dクロストーク特性データであり、
前記視差調整量は、前記3Dクロストーク特性データを基準にして算出されるものである、
請求項2記載の立体画像表示装置 - 前記3Dクロストーク特性データのうち、3Dクロストーク量が所定値を越える領域を3Dクロストーク領域とし、3Dクロストーク量が前記所定値以下の領域を非3Dクロストーク領域としたとき、
前記画像データのうち前記3Dクロストーク領域に対応する範囲の前記視差調整量が前記非3Dクロストーク領域に対応する範囲の前記視差調整量よりも小さい、
請求項3記載の立体画像表示装置。 - 前記3Dクロストーク量の所定値は10%である、
請求項4記載の立体画像表示装置。 - 前記視差調整量算出部は、
立体画像の視認状況により特定された少なくとも2つ以上の3Dクロストーク量の閾値を使用して、前記3Dクロストーク領域の視野角範囲を少なくとも2つ以上の視野角範囲に分類し、
分類した視野角範囲ごとに、視野角に対する傾きが異なる視差調整量を算出する、
請求項1乃至5のいずれか一つに記載の立体画像表示装置。 - 前記立体画像表示装置がN視点(Nは3以上)であり、
前記視差調整処理部は、前記画像データのうち正視領域から逆視領域に変化する3Dクロストーク領域に対応する範囲にのみ前記視差調整処理を実施することを特徴とする、
請求項1乃至6のいずれか一つに記載の立体画像表示装置。 - 前記立体画像表示装置がN視点(Nは3以上)であり、
前記視差調整処理部は、前記相対位置と画像データが保有する視差値に応じて、正視領域の隣接視点画像間かつ正視領域から逆視領域に変化する3Dクロストーク領域に、前記視差調整処理を実施することを特徴とする、
請求項1乃至6のいずれか一つに記載の立体画像表示装置。 - 時間に対する立体画像の視差変化によって違和感を与えない視差変化量の上限値となる視差変化量許容値を保管する視差変化量許容値データ保管部を更に備え、
前記視差調整量算出部は、前記相対位置の時間変化に起因する視野角の変化量と前記視差変化量許容値とに基づき、視野角に対する前記視差調整量を算出する、
ことを特徴とする請求項1乃至8のいずれか一つに記載の立体画像表示装置。 - 前記非3Dクロストーク領域内の所定の割合以上の領域を特定する視差一定領域特定部を更に備え、
前記視差調整処理部は、前記画像データのうち前記視差一定領域特定部で特定された領域に対応する範囲において、前記視差調整処理後の当該画像データの視差値が一定値となるように、当該画像データが保有する視差値を全体的に低減する、
請求項4又は5記載の立体画像表示装置。 - 前記非3Dクロストーク領域内の前記所定の割合は50%である、
請求項10記載の立体画像表示装置。 - 前記相対位置と前記デバイス特性データから3Dクロストーク画像範囲を算出する3Dクロストーク画像範囲算出部を更に備え、
前記視差調整処理部は、前記画像データのうち前記3Dクロストーク画像範囲に対して視差調整処理を実施する、
請求項1乃至11のいずれか一つに記載の立体画像表示装置。 - 前記観察者の入力操作を検出する入力操作検出部と、
検出された前記入力操作を判定する入力操作判定部と、
検出された又は判定された前記入力操作を処理する入力操作処理部と、
を更に備え、
前記入力操作判定部は、前記入力操作によって入力された視差調整量を判定し、
前記視差調整量算出部は、判定された前記視差調整量を使用して、適切な視差調整量を算出する、
請求項1乃至12のいずれか一つに記載の立体画像表示装置。 - 前記観察者の入力操作を検出する入力操作検出部と、
検出された前記入力操作を判定する入力操作判定部と、
検出された又は判定された前記入力操作を処理する入力操作処理部と、
を更に備え、
前記入力操作処理部は、観察者の入力操作の検出結果を表示する通知画面を、前記3Dクロストーク画像範囲外に表示する、
請求項12記載の立体画像表示装置。 - 環境温度を計測する温度計測部を更に備え、
前記視差調整量算出部は、前記温度計測部で計測した温度に対応する前記デバイス特性データに基づき、視野角に対して立体画像表示に適した視差調整量を算出する、
請求項1乃至14のいずれか一つに記載の立体画像表示装置。 - 前記視差調整量算出部は、
前記相対位置に応じて、前記左眼に左眼用の立体画像及び前記右眼に右眼用の立体映像が投影される正視領域と、前記左眼に右眼用の立体映像及び前記右眼に左眼用の立体映像が投影される逆視領域と、前記左眼に右眼用及び左眼用の立体映像又は前記右眼に左眼用及び右眼用の立体映像が投影される3Dクロストーク領域とに分類し、
前記観察者が前記正視領域から前記逆視領域に移動する際の前記3Dクロストーク領域において、前記画像データに対して前記正視領域又は前記逆視領域よりも小さい視差を付与する
請求項1乃至15のいずれか一つに記載の立体画像表示装置。 - 前記視差調整量算出部は、
前記相対位置の変化に応じて、前記相対位置の視野角成分に対する視差量の微分係数を有限の値として前記視差調整量を算出する、
請求項1乃至16のいずれか一つに記載の立体画像表示装置。 - 前記観察者と前記立体表示パネルとの位置関係と前記位置関係の時間変化とを含む観察状況に応じて視差調整モードを切替え、前記画像データの視差調整処理を変更する視差調整モード切替部を更に備えた、
請求項1乃至17のいずれか一つに記載の立体画像表示装置。 - 前記視差調整モード切替部は、視差調整モードの切替時に視差値の時間変化量を制限する機能を有する、
請求項18記載の立体画像表示装置。 - 前記相対位置算出部で算出された相対位置と、前記視差調整量算出部で算出された視差調整量とを参照して、2台以上の仮想的なカメラの視点位置を算出し、該カメラで撮影した画像データを表示する任意視点画像生成部を更に備えた、
請求項1乃至17、18、19のいずれか一つに記載の立体画像表示装置。 - 前記立体画像表示装置がN視点(Nは3以上)であり、
前記任意視点画像生成部は、前記相対位置算出部で算出された相対位置と、前記視差調整量算出部で算出された視差調整量とを参照して、前記立体表示パネルが前記観察者側へ投影するN視点分の各視点領域の中から前記相対位置に応じて2つの視点領域を検出し、該視点領域に相当する2視点の仮想的なカメラの視点位置を算出し、該カメラで撮影した画像データを表示する、
請求項20記載の立体画像表示装置。 - 前記立体画像表示装置がN視点(Nは3以上)であり、
前記任意視点画像生成部は、前記相対位置算出部で算出された相対位置と、前記視差調整量算出部で算出された視差調整量とを参照して、前記立体表示パネルが前記観察者側へ投影するN視点分の各視点領域に相当するN視点の仮想的なカメラの視点位置を算出し、該カメラで撮影した画像データを表示する、
請求項20記載の立体画像表示装置。 - 前記N視点の仮想的なカメラの視点位置が全て異なる視点位置である、
請求項22記載の立体画像表示装置。 - 前記N視点の仮想的なカメラの視点位置が任意の視野角範囲で同一の視点位置となる、
請求項22記載の立体画像表示装置。 - 前記立体画像表示装置がN視点(Nは3以上)であり、
前記任意視点画像生成部は、前記相対位置算出部で算出された相対位置と、前記視差調整量算出部で算出された視差調整量とを参照して、前記N視点の仮想的なカメラの中から前記観察者へ投影されない画像を撮影する仮想的なカメラを検出し、検出した仮想的なカメラの視点位置を前記相対位置で非連続的に移動する、
請求項20記載の立体画像表示装置。
- 前記任意視点画像生成部は、
前記画像データ保管部に保管された複数の画像データから視点位置を参照し、視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示する、
請求項20記載の立体画像表示装置。 - 前記画像データ保管部に保管された画像データが右眼用画像データと左眼用画像データとの計2視点の画像データであり、
前記任意視点画像生成部は、
前記右眼用画像データと前記左眼用画像データとから計2つの視点位置を参照し、2視点位置間内にある任意視点位置を特定し、
前記相対位置算出部で算出した相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示する
請求項26記載の立体画像表示装置。 - 前記任意視点画像生成部は、前記立体表示パネル部の正視領域において、前記相対位置に応じて、2視点位置間内にある任意視点位置から撮影した画像データを繰り返し表示する、
請求項27記載の立体画像表示装置。 - 少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネルへ画像データを出力する画像処理装置において、
前記観察者の観察位置を計測する観察者位置計測部と、
この観察位置に対する前記立体表示パネルの相対位置を算出する相対位置算出部と、
前記相対位置に対する表示特性を含むデバイス特性データを保存するデバイス特性データ保管部と、
画像データを受信する画像データ受信部と、
前記相対位置に応じて立体画像表示に適した視差調整量を前記デバイス特性データから算出する視差調整量算出部と、
この視差調整量に従って前記画像データのうち少なくとも前記3Dクロストーク領域に対応する範囲に対して視差調整処理を実施する視差調整処理部と、
前記視差調整処理された前記画像データを出力する画像データ送信部と、
を備えた画像処理装置。 - 少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル、
を用いた立体画像処理方法において、
前記観察者の観察位置を計測し、
この観察位置に対する前記立体表示パネルの相対位置を算出し、
前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
前記相対位置に応じて立体画像表示に適した視差調整量を前記デバイス特性データから算出し、
画像データを取得し、
前記視差調整量に従って前記画像データのうち少なくとも前記3Dクロストーク領域に対応する範囲に対して視差調整処理を実施し、
前記視差調整処理をされた前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。 - 少なくとも2つの視点に異なる方向に光線を振り分ける光学手段を有し、前記光線を振り分ける方向を第1の方向と定義した場合に、
観察者の右眼に右眼用画像が左眼に左眼用画像がそれぞれ投影されることにより立体画像を表示する正視領域と、
前記正視領域から第1の方向に移動した位置で前記右眼に左眼用画像が前記左眼に右眼用画像がそれぞれ投影される逆視領域と、
前記第1の方向における前記正視領域と前記逆視領域との間で前記右眼及び前記左眼の一方又は両方に右眼用画像及び左眼用画像が投影される3Dクロストーク領域と、
が存在する立体表示パネル、
を用いた立体画像表示方法において、
観察者の観察位置を計測し、
前記観察者の観察位置と前記立体表示パネルの位置との相対位置を算出し、
前記立体表示パネルの前記相対位置に対する表示特性を含むデバイス特性データを取得し、
前記デバイス特性データから前記相対位置に対して立体画像表示に適した視差調整量を算出し、
前記相対位置と前記デバイス特性データとから3Dクロストーク画像範囲を算出し、
画像データを取得し、
前記視差調整量に従って前記画像データのうち前記3Dクロストーク画像範囲に対して視差調整処理をし、
前記視差調整処理をされた前記画像データを前記立体表示パネルへ出力する、
ことを特徴とする立体画像処理方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013089533A JP6380881B2 (ja) | 2012-07-31 | 2013-04-22 | 立体画像表示装置、画像処理装置及び立体画像処理方法 |
CN201310325940.3A CN103595987B (zh) | 2012-07-31 | 2013-07-30 | 立体图像显示装置、图像处理装置及图像处理方法 |
EP13178706.1A EP2693758A3 (en) | 2012-07-31 | 2013-07-31 | Stereoscopic image display device, image processing device, and stereoscopic image processing method |
US13/955,371 US9398290B2 (en) | 2012-07-31 | 2013-07-31 | Stereoscopic image display device, image processing device, and stereoscopic image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012170644 | 2012-07-31 | ||
JP2012170644 | 2012-07-31 | ||
JP2013089533A JP6380881B2 (ja) | 2012-07-31 | 2013-04-22 | 立体画像表示装置、画像処理装置及び立体画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014045474A JP2014045474A (ja) | 2014-03-13 |
JP6380881B2 true JP6380881B2 (ja) | 2018-08-29 |
Family
ID=48914090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013089533A Active JP6380881B2 (ja) | 2012-07-31 | 2013-04-22 | 立体画像表示装置、画像処理装置及び立体画像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9398290B2 (ja) |
EP (1) | EP2693758A3 (ja) |
JP (1) | JP6380881B2 (ja) |
CN (1) | CN103595987B (ja) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10140269B2 (en) * | 2013-03-12 | 2018-11-27 | Microsoft Technology Licensing, Llc | Viewing effects of proposed change in document before committing change |
JP5942130B2 (ja) * | 2013-03-28 | 2016-06-29 | 株式会社ジャパンディスプレイ | 表示装置 |
JP6516234B2 (ja) * | 2014-04-24 | 2019-05-22 | Tianma Japan株式会社 | 立体画像表示装置 |
KR101966152B1 (ko) * | 2014-08-07 | 2019-04-05 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 제어 방법 |
JP6588196B2 (ja) | 2014-10-31 | 2019-10-09 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法および較正方法 |
US10448005B2 (en) | 2015-01-22 | 2019-10-15 | Nlt Technologies, Ltd. | Stereoscopic display device and parallax image correcting method |
JP6677385B2 (ja) * | 2015-01-22 | 2020-04-08 | 天馬微電子有限公司 | 立体表示装置及び視差画像補正方法 |
ES2873927T3 (es) * | 2015-03-03 | 2021-11-04 | Misapplied Sciences Inc | Sistema y método para visualizar un contenido dependiente de la ubicación |
CN106291952B (zh) * | 2015-05-28 | 2019-09-17 | 深圳市Tcl高新技术开发有限公司 | 一种裸眼3d图像的显示方法、装置及液晶显示屏 |
WO2016208404A1 (ja) * | 2015-06-23 | 2016-12-29 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
CN104967837A (zh) * | 2015-06-30 | 2015-10-07 | 西安三星电子研究有限公司 | 用于调整三维显示效果的设备和方法 |
JP5856344B1 (ja) * | 2015-07-27 | 2016-02-09 | 正樹 房間 | 3d画像表示装置 |
KR20170029210A (ko) * | 2015-09-07 | 2017-03-15 | 삼성전자주식회사 | 무안경 3d 디스플레이 장치 및 그 제어 방법 |
KR102402048B1 (ko) * | 2015-10-14 | 2022-05-26 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
JP6588840B2 (ja) * | 2016-02-04 | 2019-10-09 | 株式会社ジャパンディスプレイ | 表示装置 |
WO2017195513A1 (ja) * | 2016-05-10 | 2017-11-16 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
EP3416381A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
EP3416371A1 (en) * | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method for displaying, on a 2d display device, a content derived from light field data |
US10385771B2 (en) * | 2017-08-28 | 2019-08-20 | Southwest Research Institute | Crank pin offset in dedicated exhaust gas engines |
EP3681151A1 (en) * | 2017-09-07 | 2020-07-15 | Sony Corporation | Image processing device, image processing method, and image display system |
EP3511910A1 (en) * | 2018-01-12 | 2019-07-17 | Koninklijke Philips N.V. | Apparatus and method for generating view images |
US10607388B2 (en) * | 2018-02-07 | 2020-03-31 | Shenzhen China Star Optoelectronics Semiconductor Display Technology Co., Ltd. | Display control method, display control device, storage medium and terminal of autostereoscopic three-dimensional (3D) image |
JP6677387B2 (ja) * | 2018-03-12 | 2020-04-08 | 天馬微電子有限公司 | 立体画像表示装置及び立体画像表示方法 |
KR102053979B1 (ko) * | 2018-04-05 | 2019-12-12 | 박세진 | 사용자의 주시방향 인식기반 3차원 영상미디어 제공시스템 |
CN109413410A (zh) * | 2018-09-30 | 2019-03-01 | 程立军 | 基于眼睛三联动的图像显示方法及装置 |
JP2020072405A (ja) * | 2018-10-31 | 2020-05-07 | 京セラ株式会社 | 画像表示装置、画像表示システム、及び移動体 |
CN109640072A (zh) * | 2018-12-25 | 2019-04-16 | 鸿视线科技(北京)有限公司 | 3d互动方法及系统 |
KR102648198B1 (ko) * | 2019-01-14 | 2024-03-19 | 삼성디스플레이 주식회사 | 잔상 보상부 및 이를 포함하는 표시 장치 |
JP7395296B2 (ja) * | 2019-09-17 | 2023-12-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN110610454A (zh) * | 2019-09-18 | 2019-12-24 | 上海云绅智能科技有限公司 | 透视投影矩阵的计算方法及装置、终端设备、存储介质 |
US11039116B2 (en) * | 2019-10-29 | 2021-06-15 | Htc Corporation | Electronic device and subtitle-embedding method for virtual-reality video |
US11917118B2 (en) | 2019-12-27 | 2024-02-27 | Sony Group Corporation | Information processing apparatus and information processing method |
JP7516781B2 (ja) * | 2020-03-04 | 2024-07-17 | 富士フイルムビジネスイノベーション株式会社 | 表示システム、表示制御装置及びプログラム |
CN111556304B (zh) * | 2020-04-22 | 2021-12-31 | 浙江未来技术研究院(嘉兴) | 一种全景影像处理方法、装置及系统 |
CN114554174B (zh) * | 2020-11-25 | 2024-04-02 | 京东方科技集团股份有限公司 | 裸眼立体图像测量系统、图像处理方法及装置、显示设备 |
CN114721144A (zh) * | 2021-01-04 | 2022-07-08 | 宏碁股份有限公司 | 裸视立体显示器及其控制方法 |
CN113438465A (zh) * | 2021-06-22 | 2021-09-24 | 纵深视觉科技(南京)有限责任公司 | 一种显示调节方法、装置、设备及介质 |
EP4212946A1 (en) * | 2022-01-12 | 2023-07-19 | Samsung Electronics Co., Ltd. | Device and method to calibrate parallax optical element for temperature change |
TWI807713B (zh) * | 2022-03-22 | 2023-07-01 | 友達光電股份有限公司 | 立體顯示系統及方法 |
WO2024203264A1 (ja) * | 2023-03-30 | 2024-10-03 | ソニーグループ株式会社 | クロストーク測定装置、クロストーク測定方法及びプログラム |
CN117615112B (zh) * | 2023-10-11 | 2024-08-20 | 浙江华诺康科技有限公司 | 一种立体舒适度调整方法、装置、设备和可读存储介质 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4987487A (en) * | 1988-08-12 | 1991-01-22 | Nippon Telegraph And Telephone Corporation | Method of stereoscopic images display which compensates electronically for viewer head movement |
JP3229824B2 (ja) * | 1995-11-15 | 2001-11-19 | 三洋電機株式会社 | 立体映像表示装置 |
JP2000152285A (ja) | 1998-11-12 | 2000-05-30 | Mr System Kenkyusho:Kk | 立体画像表示装置 |
JP2003018619A (ja) * | 2001-07-03 | 2003-01-17 | Olympus Optical Co Ltd | 立体映像評価装置およびそれを用いた表示装置 |
JP2003107392A (ja) * | 2001-09-28 | 2003-04-09 | Sanyo Electric Co Ltd | 頭部位置追従型立体映像表示装置 |
JP2007318184A (ja) | 2004-08-18 | 2007-12-06 | Sharp Corp | 立体画像生成装置及びその立体画像生成方法 |
JP2007052304A (ja) | 2005-08-19 | 2007-03-01 | Mitsubishi Electric Corp | 映像表示システム |
JP4403162B2 (ja) * | 2006-09-29 | 2010-01-20 | 株式会社東芝 | 立体画像表示装置および立体画像の作製方法 |
CN102124490B (zh) * | 2008-06-13 | 2018-02-13 | 图象公司 | 用于缩减或者清除在显示的立体图像中感知到的重像的方法和系统 |
JP2010014891A (ja) | 2008-07-02 | 2010-01-21 | Canon Inc | 3次元画像表示装置 |
EP2365701A1 (en) | 2008-11-26 | 2011-09-14 | NEC Corporation | Display device, terminal device, and display method |
JP4821867B2 (ja) | 2009-02-26 | 2011-11-24 | 株式会社デンソー | 通信装置、および通信プログラム |
JP5327524B2 (ja) | 2009-02-27 | 2013-10-30 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
GB2471137B (en) * | 2009-06-19 | 2011-11-30 | Sony Comp Entertainment Europe | 3D image processing method and apparatus |
EP2509065B1 (en) * | 2009-12-04 | 2016-11-23 | NLT Technologies, Ltd. | Stereoscopic display device, method for generating image data for stereoscopic display, and program therefor |
CN102449534B (zh) * | 2010-04-21 | 2014-07-02 | 松下电器产业株式会社 | 立体影像显示装置、立体影像显示方法 |
JP5235976B2 (ja) | 2010-05-31 | 2013-07-10 | 株式会社ソニー・コンピュータエンタテインメント | 映像再生方法、および映像再生装置 |
JP5494283B2 (ja) * | 2010-06-24 | 2014-05-14 | ソニー株式会社 | 立体表示装置及び立体表示装置の制御方法 |
JP4903888B2 (ja) | 2010-08-09 | 2012-03-28 | 株式会社ソニー・コンピュータエンタテインメント | 画像表示装置、画像表示方法、および画像補正方法 |
JP2012044308A (ja) | 2010-08-16 | 2012-03-01 | Sharp Corp | 3d画像出力装置及び3d画像表示装置 |
JP2012079291A (ja) * | 2010-09-08 | 2012-04-19 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP5364666B2 (ja) | 2010-09-13 | 2013-12-11 | 株式会社東芝 | 立体画像表示装置、方法およびプログラム |
US20120200676A1 (en) | 2011-02-08 | 2012-08-09 | Microsoft Corporation | Three-Dimensional Display with Motion Parallax |
US20130093752A1 (en) * | 2011-10-13 | 2013-04-18 | Sharp Laboratories Of America, Inc. | Viewer reactive auto stereoscopic display |
-
2013
- 2013-04-22 JP JP2013089533A patent/JP6380881B2/ja active Active
- 2013-07-30 CN CN201310325940.3A patent/CN103595987B/zh active Active
- 2013-07-31 US US13/955,371 patent/US9398290B2/en active Active
- 2013-07-31 EP EP13178706.1A patent/EP2693758A3/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
US9398290B2 (en) | 2016-07-19 |
EP2693758A2 (en) | 2014-02-05 |
JP2014045474A (ja) | 2014-03-13 |
EP2693758A3 (en) | 2014-05-07 |
CN103595987B (zh) | 2017-07-07 |
CN103595987A (zh) | 2014-02-19 |
US20140036046A1 (en) | 2014-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6380881B2 (ja) | 立体画像表示装置、画像処理装置及び立体画像処理方法 | |
JP6308513B2 (ja) | 立体画像表示装置、画像処理装置及び立体画像処理方法 | |
JP6213812B2 (ja) | 立体画像表示装置及び立体画像処理方法 | |
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
KR101926577B1 (ko) | 확장형 3차원 입체영상 디스플레이 시스템 | |
CN103348682B (zh) | 在多视图系统中提供单一视觉的方法和装置 | |
US9049435B2 (en) | Image providing apparatus and image providing method based on user's location | |
US9154765B2 (en) | Image processing device and method, and stereoscopic image display device | |
US11272169B2 (en) | Viewpoint controllable three-dimensional image display apparatus and method for displaying three-dimensional image | |
US20140293024A1 (en) | Foldable display and method and apparatus for controlling the same | |
WO2012172766A1 (en) | Image processing device and method thereof, and program | |
KR100751290B1 (ko) | 헤드 마운티드 디스플레이용 영상 시스템 | |
KR101721103B1 (ko) | 입체영상표시장치 및 그 구동방법 | |
CN103609104A (zh) | 用于立体效应调整的交互式用户接口 | |
KR101320477B1 (ko) | 카메라 간격 및 이동속도 조절이 가능한 건축물 내비게이션 장치 및 방법 | |
CN103969836A (zh) | 一种用于多视点自由立体显示器的视角扩展方法 | |
US20140362197A1 (en) | Image processing device, image processing method, and stereoscopic image display device | |
WO2013042392A1 (ja) | 立体画像評価装置 | |
JP2014053782A (ja) | 立体画像データ処理装置、および、立体画像データ処理方法 | |
KR100893381B1 (ko) | 실시간 입체영상 생성방법 | |
WO2013031864A1 (ja) | 表示装置 | |
KR101173640B1 (ko) | 3차원 헤드 마운티드 디스플레이 장치 | |
JP2017142769A (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
Joachimiak et al. | View Synthesis with Kinect-Based Tracking for Motion Parallax Depth Cue on a 2D Display | |
JP2013055682A (ja) | 映像処理装置および映像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160229 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170829 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6380881 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |