JP5438082B2 - 表示装置及び表示方法 - Google Patents
表示装置及び表示方法 Download PDFInfo
- Publication number
- JP5438082B2 JP5438082B2 JP2011206781A JP2011206781A JP5438082B2 JP 5438082 B2 JP5438082 B2 JP 5438082B2 JP 2011206781 A JP2011206781 A JP 2011206781A JP 2011206781 A JP2011206781 A JP 2011206781A JP 5438082 B2 JP5438082 B2 JP 5438082B2
- Authority
- JP
- Japan
- Prior art keywords
- position information
- depth direction
- image
- direction position
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Description
立体画像を撮像する場合、撮像される被写体が手前に位置しすぎて、視差が大きくなりすぎると、人間の脳がうまく立体像を融合できず、不快に感じるという問題点がある。このため、撮影現場では、大きな視差をつけないように、輻輳角、水平画角、及び/又は被写体の前後の位置関係を表す奥行方向位置情報などを調整して、撮影を行っている。
奥行方向位置情報を2次元表示装置で可視化する方法としては、距離画像がある。距離画像の主な表示方法としては、元画像の画素に対する奥行方向位置情報に基づいて、画素を色相で表現する方法がある。この場合、例えば、画素の位置が手前から奥に向かうにつれて、画素の色相が、光の波長の高い色(赤)から光の波長の低い色(紫)へと変化する。また、上記とは別の表示方法として、元画像の画素に対する奥行方向位置情報に基づいて、画素を無彩色の明度(グレースケール)で表現する方法もある。この場合、例えば、画素の位置が手前から奥に向かうにつれて、画素の明度が、輝度の高い白から輝度の低い黒へと変化する。
[実施の形態]
図1は、実施の形態における奥行方向位置情報表示装置の構成の一例を示すブロック図である。なお、以下では、「画像」「画素」「情報」「視差量」「距離」「座標」等の文言が用いられるが、これら文言は、「画像データ」「画素データ」「情報データ」「視差量データ」「距離データ」「座標データ」等の意味で用いられる場合がある。また、「画像」という文言は、「被写体を撮影することによって得られた画像」という意味で用いられる場合がある。
奥行方向位置情報表示装置100は、入力部101、画像処理部102、奥行方向位置情報処理部103、表示処理部104および設定部109、で構成される。
ここで入力される画像(入力画像)は、例えば、1フィールドごとや1フレームごとの静止画像である。また、入力画像は、例えば、連続した静止画像であってもよい。この場合、入力画像は動画像として取り扱われる。
入力画像には、例えば、1つの画像や、両眼視差を持つ左眼画像及び右眼画像、及びCGなどのサーフェスモデルで表現された3次元画像等が、含まれる。
以下では、入力画像に基づいて、奥行方向位置情報を設定する形態について、説明する。まず、1つの画像に基づいて、奥行方向の距離を算出する形態について、具体的に説明する。図3に示すカメラは、画像、及びカメラから被写体までの距離を測定可能である。このカメラによって、図3に示すような被写体が撮像された場合、例えば、1つの画像は、図4に示すように、水平方向及び垂直方向を基準方向とした2次元画像となる。また、この場合、各被写体までの奥行方向の距離は、例えば、各被写体の少なくとも一部の領域に対する測定で得られた実測距離となる。
なお、以下では、左眼画像と右眼画像とが一致する面、すなわち水平方向及び垂直方向によって構成される両眼視差のない平面を、基準面と定義する。例えば、左眼画像及び右眼画像に基づいて視差がゼロとなる平面が計算され、この平面が基準面として設定される。例えば、2眼式カメラを用いた撮像時には、この基準面によって、各被写体の位置関係を把握することができ、立体撮像を容易に行うことができる。ここで、「両眼視差のない平面」及び「視差がゼロになる平面」という文言は、「両眼視差が所定の誤差の範囲内である平面」及び「視差がゼロを基準とした所定の誤差の範囲内である平面」という意味を含んでいる。
設定部109は、奥行方向位置情報の表示に関する設定を行う。設定部109は、画像処理部102と、奥行方向位置情報処理部103と、表示処理部104とに、対応する設定情報を出力する。奥行方向位置情報の表示に関する設定としては、例えば、以下のようなものがある。
基準となる奥行方向位置情報、すなわち基準面位置情報は、実測に基づいて設定される場合や、画像から相対的に計算して設定される場合がある。例えば、図3に示すような被写体を、カメラから被写体までの距離を測定できるカメラで撮像した場合、カメラの位置を示す情報が、基準面位置情報として設定される。このように、基準面位置情報が設定されると、この基準面位置情報に基づいて基準面が設定される。
また、別の形態としては、3次元画像として表示する際に両眼視差がなくなる位置を示す情報が、基準面位置情報として設定される。例えば、図3に示すような被写体を2眼式カメラで撮像した場合、上記の視差量の設定において説明した形態で、両眼視差がない領域を規定するための情報が、基準面位置情報として設定される。さらに、例えば、図3に示すような被写体が、サーフェスモデルで表現されている場合、3次元画像として表示する際に左眼画像と右眼画像との視差量がない面を規定するための情報が、基準面位置情報として設定される。このように、基準面位置情報が設定されると、この基準面位置情報に基づいて基準面が設定される。
水平方向位置情報及び垂直方向位置情報は、画像の水平方向の位置(水平座標)及び垂直方向の位置(垂直座標)を定義するためのものである。水平方向位置情報及び垂直方向位置情報は、画像を水平方向と垂直方向とからなる2次元平面で表した場合に、2次元平面上の画像(2次元画像)の少なくとも一部の領域(例えば、被写体、ブロック、画素等)に対して、設定される。
ここでは、奥行方向位置情報画像を表示するために、水平方向位置情報又は奥行方向位置情報が選択される。例えば、図3に示すような被写体に対する奥行方向位置情報画像は、水平方向位置情報及び奥行方向位置情報を用いて、図5のように示される。より具体的には、水平方向位置情報及び奥行方向位置情報を2次元グラフにプロットすることによって、図5に示すような奥行方向位置情報画像が生成される。これにより、被写体間の奥行方向位置関係と水平方向位置関係を容易に把握することができる。この奥行方向位置情報画像(2次元グラフ)では、横軸が水平方向に設定され、縦軸が奥行方向に設定されている。
なお、画像が3次元情報を有している場合は、視点位置を変更する設定を実行してもよい。例えば、視点位置が変更された場合、視点変更後の水平方向位置情報、視点変更後の垂直方向位置情報、及び視点変換後の奥行方向位置情報を用いて、上記のような処理を行ってもよい。
(3)表示する奥行方向位置情報の奥行方向の範囲の設定。
ここでは、奥行方向位置情報の表示範囲が、設定される。例えば、図3に示すような被写体に対する、奥行方向位置情報の表示範囲(図3の破線)が設定された場合、表示範囲外に存在する被写体(図3の被写体A及び被写体C)の奥行方向位置情報は、非表示に設定してもよい。
また、これとは別の形態として、表示範囲外に存在する被写体(図3の被写体A及び被写体C)の奥行方向位置情報が、表示範囲内に収まるように、奥行方向位置情報を変換する処理を行ってもよい。この場合、例えば、図5に示すように、被写体Aの奥行方向位置情報は表示範囲の下辺に表示され、被写体Cの奥行方向位置情報は表示範囲の上辺に表示される。
同様に、立体視の際に手前に飛び出る被写体が画面の端で切れてしまう場合、図18に示すように、この範囲を視差注意領域(斜線部の領域)として示してもよい。さらに、図16と図18で示した領域(斜線部の領域)を、図19のように合わせて示してもよい。
(4)2次元画像の全領域の奥行方向位置情報を用いるか2次元画像の部分的な領域の奥行方向位置情報を用いるかの設定。
ここでは、例えば、図3に示すような被写体に対応する、図4に示した画像全体の領域が、奥行方向位置情報を表示する領域として、設定される。この場合、図5に示すように、画像全体の被写体に対応する奥行方向位置情報が、奥行方向位置情報画像として、表示される。
(5)画像の表示位置の設定と表示サイズの設定。
ここでは、画像の表示位置の設定と表示サイズの設定が行われる。例えば、画像の合成に関する設定、画像の切り替え表示に関する設定、及び別の表示装置へ出力する画像を作成するための設定等が、行われる。
また、図15で示したように、2眼式カメラなどで撮像した場合の左眼画像と右眼画像とを重ね合わせて表示する設定が、行われる。さらに、画像が3次元情報を有している場合は、3次元情報に基づいて、2次元画像を作成する設定を、行う。この場合は、視点位置を変更する設定を実行し、視点変換後に2次元画像を作成してもよい。
(6)奥行方向位置情報画像を画像と合成して表示するかしないかの設定。奥行方向位置情報画像を合成して表示する場合、全画面に重ねて表示するか部分的な領域に表示するかの設定。奥行方向位置情報画像の表示位置の設定と表示サイズの設定。
ここでは、画像と奥行方向位置情報画像とを合成して表示するか否かが、設定される。例えば、以下のような様々な表示を指示するための設定が、実行される。
合成しない場合は、奥行方向位置情報画像のみが表示される。また、この場合、奥行方向位置情報画像を、メインの表示装置とは異なる他の表示装置で表示してもよい。さらに、この場合、画像と奥行方向位置情報画像とを、1つの表示装置で切換表示してもよい。
また、画像の全体構成を把握する場合は、図10で示すように、奥行方向位置情報画像を子画面として画像の一部に重ねて表示してもよい。また、図4に示した画像に、図12のような奥行方向位置情報画像を合成して表示してもよい。この場合、例えば図13のように合成することによって、垂直位置情報と被写体との関連を容易に把握することができる。なお、図4に示した画像と、図12のような奥行方向位置情報画像との合成は、上記で説明した他の合成表示でもよい。
奥行方向位置情報処理部103は、設定部109で設定した表示になるように、入力部101から出力された奥行方向位置情報を処理することによって、2次元画像(奥行方向位置情報画像)を作成し表示処理部104へ出力する。
ここでは、2次元画像の作成に必要な情報を抽出することによって、奥行方向位置情報が処理される。例えば、上記(2)で設定したような、画像の設定領域における、奥行方向位置情報とその水平方向位置情報、又は奥行方向位置情報とその垂直方向位置情報が、奥行方向位置情報画像の作成に必要な情報として、抽出される。そして、抽出された情報に対して、例えば、上記(3)、(5)で設定したような、指定した表示範囲内に奥行方向位置情報を収める変換や、3次元画像において設定した視点から見た2次元画像に対応する奥行方向位置情報への変換が、行われる。
などが施してもよい。また、2次元画像には、例えば、上記(1)で設定した基準面を表示してもよい。
表示処理部104は、画像処理部102から入力された画像と、奥行方向位置情報処理部103から入力された画像とを合成し、合成後の画像を表示する。具体的には、表示処理部104は、設定部109における表示設定、例えば上記(4)、(6)の表示設定に基づいて、画像処理部102で出力した画像と、奥行方向位置情報処理部103で出力した画像とを、合成し表示する。
図2は、実施の形態における奥行方向位置情報表示装置の動作の一例を示すフローチャートである。ここでは、例えば、入力情報が、両眼視差を持つ左眼画像及び右眼画像と、その画素ごとの視差量とであり、最終表示として図17に示すような合成表示画像が表示される場合の処理を、説明する。
この場合、設定部109では、次のように処理される。まず、設定部109は、基準となる奥行方向位置情報を設定する。例えば、図14に示すように、基準面位置情報が、基準となる奥行方向位置情報として、設定される。基準面位置情報は、立体表示の際に両眼視差がない位置を示す情報である。次に、設定部109は、奥行方向位置情報と水平方向位置情報とを用いて、奥行方向位置情報の表示範囲を、図14に示した範囲に設定する。ここでは、例えば、基準面位置情報により設定される基準面に対して、視差量が画像の水平方向サイズの±3%以内に収まるように、表示範囲が設定される。ここに示す表示範囲は、奥行方向の表示範囲である。
続いて、設定部109は、図4に示した2次元画像の全領域に対する奥行方向位置情報を用いて、図16に示した奥行方向位置情報画像を作成する設定を、行う。続いて、設定部109は、図15に示した合成画像、例えば2眼式カメラなどで撮像したときの左眼画像と右眼画像を重ね合わせた画像を、作成する設定を、行う。続いて、設定部109は、図16の奥行方向位置情報画像と図15の画像とを、図17に示すように合成して表示する設定を、行う。例えば、図17では、奥行方向位置情報画像が半透明に設定され、画像の下から1/3の領域において、水平方向位置情報と画像の画素の水平位置とが一致するように、画像と奥行方向位置情報画像とが合成して表示されている。
まず、入力処理P1において、入力部101に、両眼視差を持つ左眼画像と右眼画像と、左眼画像及び右眼画像の画素ごとの視差量とが、入力される。視差量は左眼画像に対するものでもよいし、右眼画像に対するものでもよいし、左眼画像及び右眼画像の両方でもよい。次に、入力部101は、画像を画像処理部102へ出力し、奥行方向位置情報を奥行方向位置情報処理部103へ出力する。ここでは、画像に対応する奥行方向位置情報の位置は、水平方向位置情報と垂直方向位置情報とによって定義される。
画像変換処理P2において、画像処理部102は、設定部109の表示設定に従って、画像を作成する。例えば、画像処理部102は、両眼視差を持つ左眼画像と右眼画像とにおいて同位置の画素値を加算して、その結果を2で除算する処理を行う。このようにして、画像処理部102は、図15のような画像を作成する。ここでは、同位置の画素値は、両眼視差を持つ左眼画像と右眼画像とにおいて水平方向及び垂直方向から構成される平面上の同位置に存在する画素値に、対応している。
奥行方向位置情報変換処理P3において、奥行方向位置情報処理部103は、設定部109の表示設定に基づいて、2次元画像の全領域に対する、奥行方向位置情報とその水平方向位置情報を、抽出する。奥行方向位置情報処理部103は、上述した2次元グラフに、基準面位置情報によって設定される基準面を表示する。また、奥行方向位置情報処理部103は、この基準面を基準として、画像の水平方向サイズの±3%以内の視差量を、2次元グラフにプロットする。例えば、画像の水平サイズが1920画素である場合、画像の水平方向サイズの±3%の視差量は、±58画素である。ここでは、+側は水平方向の右側へシフトさせた方向に定義し、−側は水平方向の左側へシフトさせた方向に定義している。この場合、奥行方向位置情報処理部103は、画素ごとの視差量が+58画素から−58画素までの範囲の視差量、すなわち奥行方向表示範囲の視差量を、2次元グラフにプロットする。
また、ここでは、画像の水平方向サイズの±2%の範囲外である視差量に対応する領域が、視差注意領域として、設定されている。例えば、画像の水平サイズが1920画素である場合、画像の水平方向サイズの±2%の視差量は、±38画素である。この場合、奥行方向位置情報処理部103は、上記の奥行方向表示範囲の場合と同様に、±38画素の範囲外の視差量を、2次元グラフにプロットする。そして、奥行方向位置情報処理部103は、視差注意領域を報知するために、グラフ背景に、例えば黄色や赤色などの色付けをし、図16のような奥行方向位置情報画像を作成する。
合成処理P5において、表示処理部104は、画像と奥行方向位置情報画像を合成し、合成表示画像を作成する。例えば、奥行方向位置情報画像がフルサイズで生成されている場合、表示処理部104は、奥行方向位置情報画像を半透明に変換し、奥行方向位置情報画像の縦軸(奥行方向)サイズを1/3に縮小変換する。そして、表示処理部104は、変換後の奥行方向位置情報画像を、画像の下から1/3の領域に重ね合わせる。詳細には、表示処理部104は、画像の下から1/3の領域において、奥行方向位置情報画像の水平方向位置情報と、画像の画素の水平位置とを、一致させる。これにより、変換後の奥行方向位置情報画像が画像の下から1/3の領域に重ね合わせられ、合成表示画像が作成される。より詳細には、例えば、画像の下から1/3の領域の画像の輝度を上げ、輝度を上げた画像と変換後の奥行方向位置情報画像とにおいて同位置の画素値を加算して、その結果を2で割る処理を行うことによって、合成表示画像は作成される。
以上では、実施の形態における奥行方向位置情報表示装置の動作の一例を、フローチャートを用いて説明した。
上述した奥行方向位置情報表示装置100における各種の設定及び処理は、図示しない制御部において、実行されえる。制御部は、例えば、ROM(Read Only Memory)及びCPU(Central Processing Unit)等により構成される。ROMには、各種の設定及び処理を実行するためのプログラム等が、格納されている。制御部は、ROMのプログラムをCPUに実行させることにより、入力部101、画像処理部102、奥行方向位置情報処理部103、表示処理部104、及び設定部109の設定及び処理を制御する。なお、各種の設定及び処理を実行する場合には、データを一時的に格納するための記録部(図示しない)例えばRAM(Random Access Memory)が、用いられる。
[他の実施の形態]
(a)前記実施形態では、画素ごとの視差量を奥行方向位置情報として用いたが、ブロックごとや領域ごと又は被写体ごとの視差量を、奥行方向位置情報として用いても良い。また、説明を容易にするために、人物や物等の被写体を対象として説明を行ったが、視差量を有する被写体すべてに対して、上記のように処理することができる。例えば、図15に示すように、壁などの背景についても同様に処理することができる。
(b)前記実施形態では、図15に示すように右眼画像と左眼画像とを重ね合わせることによって、表示画像を生成する場合の例を示したが、画像の一部例えば右眼画像及び左眼画像のいずれか一方だけを、表示画像として用いてもよい。
(c)前記実施形態では、奥行方向位置情報画像に、奥行距離を示すメジャー(メートル、画素数など)を組み込むことによって、奥行方向位置情報を報知するようにしてもよい。これにより、ユーザは、奥行方向位置情報を、より分かりやすく把握することができる。
(d)前記実施形態では、右眼画像と左眼画像とを平均的に重ね合わせることによって、合成画像を生成する場合の例を示したが、合成画像の生成形態は、前記実施形態に限定されず、どのようにしてもよい。例えば、右眼画像と左眼画像とを交互に高速表示することによって、合成画像を生成してもよい。また、右眼画像及び左眼画像それぞれを1ライン毎に重ね合わせることによって、合成画像を生成してもよい。
(e)前記実施形態では、設定部109において奥行方向位置情報の表示に関する設定を行ったが、奥行方向位置情報の表示に関する設定は、上記の(1)〜(6)の内容に限定するものではなく、どのようにしてもよい。上記の(1)〜(6)とは異なる形態で奥行方向位置情報の表示に関する設定したとしても、設定に応じて動作させることができる。
(f)前記実施形態では、奥行方向位置情報が入力部101に入力される場合の例を示したが、奥行方向位置情報は、入力部101に入力された画像に基づいて、生成してもよい。
(g)前記実施形態では、例えば、水平方向位置情報が水平方向座標(ex. x座標)を含み、垂直方向位置情報が垂直方向座標(ex. y座標)を含み、奥行方向位置情報が奥行方向座標(ex. z座標)を含む場合の例を示した。すなわち、前記実施形態では、画像の3次元位置情報が、3次元直交座標系において定義されていたが、画像の3次元位置情報は、どのように定義してもよい。例えば、画像の3次元位置情報は、基準点からの距離r、基準点まわりの角度θ、基準点からの高さyからなる極座標系によって、定義してもよい。基準点(原点)は、任意に設定可能である。
101 入力部
102 画像処理部
103 奥行方向位置情報処理部
104 表示処理部
109 設定部
Claims (10)
- 被写体の奥行方向の位置及び情報の少なくともいずれか一方を示し、前記被写体に対応する2次元画像の少なくとも一部に、設定される奥行方向位置情報が、入力される入力部と、
前記被写体の水平方向の位置を示し前記2次元画像の少なくとも一部に設定される水平方向位置情報、及び被写体の垂直方向の位置を示し前記2次元画像の少なくとも一部に設定される垂直方向位置情報のいずれか一方と、前記奥行方向位置情報とから構成される2次元情報を、処理する奥行方向位置情報処理部と、
前記奥行方向位置情報処理部において処理された前記2次元情報に対応する奥行画像を、表示する表示処理部と、
を備える表示装置。 - 被写体画像が入力される入力部と、
被写体の奥行方向の位置及び情報の少なくともいずれか一方を示し、前記被写体に対応する2次元画像の少なくとも一部に設定される奥行方向位置情報を、前記被写体画像に基づいて算出し、且つ前記被写体の水平方向の位置を示し前記2次元画像の少なくとも一部に設定される水平方向位置情報、及び前記被写体の垂直方向の位置を示し前記2次元画像の少なくとも一部に設定される垂直方向位置情報のいずれか一方と、前記奥行方向位置情報とから構成される2次元情報を、処理する奥行方向位置情報処理部と、
前記奥行方向位置情報処理部において処理された前記2次元情報に対応する奥行画像を、表示する表示処理部と、
を備える表示装置。 - 前記奥行方向位置情報は、前記2次元画像の奥行方向の位置を示す位置情報、及び前記2次元画像の相対的な距離情報の少なくともいずれか一方を、有している、
請求項1又は2に記載の表示装置。 - 前記入力部に入力される被写体画像の少なくとも一部を、2次元画像に変換する画像処理部、
をさらに備え、
前記奥行方向位置情報処理部は、前記被写体画像の少なくとも一部に対応する前記2次元情報を、処理し、
前記表示処理部は、前記被写体画像の少なくとも一部に対応する前記奥行画像を、表示し、前記画像処理部において変換された前記2次元画像を、さらに表示し、
前記水平方向位置情報及び前記垂直方向位置情報のいずれか一方に対応する軸上における前記奥行画像の位置と、前記軸上における前記2次元画像の位置とは、互いに同じである、
請求項1又は2に記載の表示装置。 - 前記奥行方向位置情報処理部は、前記2次元情報に対応する前記画像において、被写体の位置関係を把握するために、基準面を前記奥行方向の所定の位置に設定する、
請求項1又は2に記載の表示装置。 - 前記基準面は、前記画像を立体表示した場合に両眼視差のない位置に設定され、
前記奥行方向位置情報処理部は、前記2次元情報に対応する前記画像において、前記基準面を表示する、
請求項5に記載の表示装置。 - 前記奥行方向位置情報処理部は、前記奥行方向位置情報に関する表示形態を、前記奥行方向の所定の範囲内で、変更する、
請求項1又は2に記載の表示装置。 - 前記奥行方向位置情報処理部は、前記奥行方向位置情報が所定値を超える場合に、前記奥行方向位置情報を前記所定値に設定する、
請求項1又は2に記載の表示装置。 - 被写体の奥行方向の位置及び情報の少なくともいずれか一方を示し、前記被写体に対応する2次元画像の少なくとも一部に、設定される奥行方向位置情報が、入力される入力ステップと、
前記被写体の水平方向の位置を示し前記2次元画像の少なくとも一部に設定される水平方向位置情報、及び被写体の垂直方向の位置を示し前記2次元画像の少なくとも一部に設定される垂直方向位置情報のいずれか一方と、前記奥行方向位置情報とから構成される2次元情報を、処理する奥行方向位置情報処理ステップと、
前記奥行方向位置情報処理部において処理された前記2次元情報に対応する奥行画像を、表示する表示処理ステップと、
を備える表示方法。 - 被写体画像が入力される入力ステップと、
被写体の奥行方向の位置及び情報の少なくともいずれか一方を示し、前記被写体に対応する2次元画像の少なくとも一部に設定される奥行方向位置情報を、前記被写体画像に基づいて算出し、且つ前記被写体の水平方向の位置を示し前記2次元画像の少なくとも一部に設定される水平方向位置情報、及び前記被写体の垂直方向の位置を示し前記2次元画像の少なくとも一部に設定される垂直方向位置情報のいずれか一方と、前記奥行方向位置情報とから構成される2次元情報を、処理する奥行方向位置情報処理ステップと、
前記奥行方向位置情報処理部において処理された前記2次元情報に対応する奥行画像を、表示する表示処理ステップと、
を備える表示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011206781A JP5438082B2 (ja) | 2010-11-16 | 2011-09-22 | 表示装置及び表示方法 |
US13/297,275 US20120120068A1 (en) | 2010-11-16 | 2011-11-16 | Display device and display method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010255501 | 2010-11-16 | ||
JP2010255501 | 2010-11-16 | ||
JP2011206781A JP5438082B2 (ja) | 2010-11-16 | 2011-09-22 | 表示装置及び表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012124885A JP2012124885A (ja) | 2012-06-28 |
JP5438082B2 true JP5438082B2 (ja) | 2014-03-12 |
Family
ID=46047333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011206781A Active JP5438082B2 (ja) | 2010-11-16 | 2011-09-22 | 表示装置及び表示方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20120120068A1 (ja) |
JP (1) | JP5438082B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5978573B2 (ja) * | 2011-09-06 | 2016-08-24 | ソニー株式会社 | 映像信号処理装置および映像信号処理方法 |
US9124875B2 (en) * | 2012-05-23 | 2015-09-01 | Fujifilm Corporation | Stereoscopic imaging apparatus |
EP2750392A1 (en) * | 2012-12-27 | 2014-07-02 | ST-Ericsson SA | Visually-assisted stereo acquisition from a single camera |
JP5851625B2 (ja) * | 2013-03-29 | 2016-02-03 | 株式会社東芝 | 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム |
JP6525611B2 (ja) * | 2015-01-29 | 2019-06-05 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP2018137505A (ja) * | 2017-02-20 | 2018-08-30 | セイコーエプソン株式会社 | 表示装置およびその制御方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020118275A1 (en) * | 2000-08-04 | 2002-08-29 | Harman Philip Victor | Image conversion and encoding technique |
WO2004071102A1 (ja) * | 2003-01-20 | 2004-08-19 | Sanyo Electric Co,. Ltd. | 立体視用映像提供方法及び立体映像表示装置 |
JP2004363680A (ja) * | 2003-06-02 | 2004-12-24 | Pioneer Electronic Corp | 表示装置及び方法 |
JP2007280212A (ja) * | 2006-04-10 | 2007-10-25 | Sony Corp | 表示制御装置、表示制御方法及び表示制御プログラム |
JP4901409B2 (ja) * | 2006-10-04 | 2012-03-21 | 株式会社フオトクラフト社 | 三次元画像の作成方法および装置 |
JP4701149B2 (ja) * | 2006-10-10 | 2011-06-15 | 株式会社リコー | 画像処理装置 |
US8488868B2 (en) * | 2007-04-03 | 2013-07-16 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
KR101055588B1 (ko) * | 2007-09-04 | 2011-08-23 | 삼성메디슨 주식회사 | 초음파 영상을 형성하는 초음파 시스템 및 방법 |
JP2010093422A (ja) * | 2008-10-06 | 2010-04-22 | Canon Inc | 撮像装置 |
GB2473282B (en) * | 2009-09-08 | 2011-10-12 | Nds Ltd | Recommended depth value |
-
2011
- 2011-09-22 JP JP2011206781A patent/JP5438082B2/ja active Active
- 2011-11-16 US US13/297,275 patent/US20120120068A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20120120068A1 (en) | 2012-05-17 |
JP2012124885A (ja) | 2012-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5438082B2 (ja) | 表示装置及び表示方法 | |
JP4764305B2 (ja) | 立体画像生成装置、方法およびプログラム | |
JP4649219B2 (ja) | 立体画像生成装置 | |
US8817073B2 (en) | System and method of processing 3D stereoscopic image | |
EP2866201B1 (en) | Information processing apparatus and method for controlling the same | |
CN106254854B (zh) | 三维图像的获得方法、装置及系统 | |
JP5291755B2 (ja) | 立体視画像生成方法および立体視画像生成システム | |
TWI531212B (zh) | 呈現立體影像之系統及方法 | |
JP2009210840A (ja) | 立体画像表示装置および方法並びにプログラム | |
JP5762600B1 (ja) | 情報処理装置及び情報処理方法 | |
JP2009251141A (ja) | 立体画像表示装置 | |
JP2018500690A (ja) | 拡大3d画像を生成するための方法およびシステム | |
JP5356590B1 (ja) | 画像処理装置及びその方法 | |
JP5464129B2 (ja) | 画像処理装置および視差情報生成装置 | |
EP3130273B1 (en) | Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm | |
JP5627498B2 (ja) | 立体画像生成装置及び方法 | |
JP2012105172A (ja) | 画像生成装置、画像生成方法、コンピュータプログラムおよび記録媒体 | |
TW201230770A (en) | Apparatus and method for stereoscopic effect adjustment on video display | |
KR101242764B1 (ko) | 입체 3d 영상과 gpu를 이용한 입체 증강현실 영상 생성 장치 및 방법 | |
JP2014199508A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP5351878B2 (ja) | 立体画像表示装置および方法並びにプログラム | |
WO2012080961A1 (en) | Improved stereoscopic shooting apparatus, and method thereof | |
WO2012063540A1 (ja) | 仮想視点画像生成装置 | |
JP2006041795A (ja) | 画像表示装置 | |
KR101229421B1 (ko) | 다중 세그먼트 방식을 이용한 3d 입체영상 획득 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5438082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |