JP2019029721A - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2019029721A JP2019029721A JP2017144516A JP2017144516A JP2019029721A JP 2019029721 A JP2019029721 A JP 2019029721A JP 2017144516 A JP2017144516 A JP 2017144516A JP 2017144516 A JP2017144516 A JP 2017144516A JP 2019029721 A JP2019029721 A JP 2019029721A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- angle
- information
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
【課題】ヘッドマウントディスプレイに表示された映像を視聴する際の違和感を低減する。【解決手段】本発明の画像処理装置は、ヘッドマウントディスプレイの姿勢情報を取得する姿勢情報取得手段と、入力視差画像に含まれる被写体までの距離情報を取得する距離情報取得手段と、前記入力視差画像を撮像した撮像装置に関する情報を取得する撮像情報取得手段と、前記姿勢情報と、前記距離情報と、前記撮像装置に関する情報とに基づいて、前記ヘッドマウントディスプレイに表示される表示視差画像を生成するために用いられる仮想カメラの画角を調整する画角調整手段と、前記姿勢情報と、前記調整された画角と、前記ヘッドマウントディスプレイの表示パラメータとに基づいて、前記入力視差画像から前記表示視差画像を生成する生成手段と、を有することを特徴とする。【選択図】図2
Description
本発明は、ヘッドマウントディスプレイに表示する視差画像を生成する画像処理技術に関する。
視聴者が立体的な映像を楽しむために用いられる表示装置として、差異を有する左目用画像および右目用画像から構成される画像(以下「視差画像」と記す)を表示する表示装置が提案されている。このような表示装置において、左目用画像に含まれる被写体の大きさと、右目用画像に含まれる被写体の大きさとが大きく異なってしまうと、視聴者の眼精疲労や融像不能などを招来してしまうおそれがある。
特許文献1は、平面パネルを備える表示装置に視差映像を表示する場合、表示装置から視聴者の左目までの距離と、右目までの距離との比率に応じて、左目用映像と右目用映像との大きさを調整して被写体の大きさのずれを抑制する画像処理技術を開示している。
近年、頭に装着して映像を視聴することにより、視聴者が臨場感あふれる映像を楽しむことができる、ヘッドマウントディスプレイが広く利用されている。ヘッドマウントディスプレイに視差画像を表示する場合、例えば魚眼レンズを備える撮像装置で撮像された入力画像から全天球画像を生成し、さらに全天球画像から表示用の視差画像をサンプリングするなどの高度な画像処理が行われる。
このとき、左目用画像と右目用画像とに含まれる被写体の大きさを揃えるために、これらの画像を単純に拡大縮小した場合、ヘッドマウントディスプレイで視聴する際の視野角が狭くなってしまう場合があった。そのため、ヘッドマウントディスプレイに表示された映像を視聴する際に、視聴者が違和感を覚えてしまうという課題があった。
本発明は上記課題に鑑みなされたものであり、ヘッドマウントディスプレイに表示された映像を視聴する際の違和感を低減することを目的とする。
本発明の画像処理装置は、ヘッドマウントディスプレイの姿勢情報を取得する姿勢情報取得手段と、入力視差画像に含まれる被写体までの距離情報を取得する距離情報取得手段と、前記入力視差画像を撮像した撮像装置に関する情報を取得する撮像情報取得手段と、前記姿勢情報と、前記距離情報と、前記撮像装置に関する情報とに基づいて、前記ヘッドマウントディスプレイに表示される表示視差画像を生成するために用いられる仮想カメラの画角を調整する画角調整手段と、前記姿勢情報と、前記調整された画角と、前記ヘッドマウントディスプレイの表示パラメータとに基づいて、前記入力視差画像から前記表示視差画像を生成する生成手段と、を有することを特徴とする。
本発明の画像処理装置によれば、ヘッドマウントディスプレイに表示された映像を視聴する際の違和感を低減することができる、という効果を奏する。
以下、本発明を実施するための形態について図面を参照して説明する。ただし、この実施形態に記載されている構成はあくまで例示であり、本発明の範囲を必ずしもそれらに限定する趣旨のものではない。
[実施形態1]
図1は、本実施形態における画像処理装置100のハードウェア構成例を示す図である。図1において、CPU101は、RAM102をワークメモリとして、ROM103およびハードディスクドライブ(HDD)105に格納されたプログラムを実行し、システムバス112を介して後述する各ブロックの動作を制御する。HDDインターフェース(以下、インターフェースは「I/F」と記す)104は、HDD105や光ディスクドライブなどの二次記憶装置を接続する。HDD I/F104は、例えばシリアルATA(SATA)などのI/Fである。CPU101は、HDD I/F104を介して、HDD105からのデータ読み出しおよびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開することができ、逆に、RAM102に展開されたデータをHDD105に保存することもできる。そしてCPU101は、RAM102に展開したデータをプログラムとして実行することができる。入力I/F106は、キーボードやマウス、デジタルカメラ、スキャナなどの入力デバイス107を接続する。入力I/F106は、例えばUSBやIEEE1394などのシリアルバスI/Fである。CPU101は、入力I/F106を介して入力デバイス107からデータを読み込むことができる。出力I/F108は、画像処理装置100と、出力デバイスであるヘッドマウントディスプレイ800とを接続する。出力I/F108は、例えばDVIやHDMI(登録商標)などの映像出力I/Fである。CPU101は、出力I/F108を介してヘッドマウントディスプレイ800にデータを送り、ヘッドマウントディスプレイ800に所定の映像を表示させることができる。姿勢検出I/F110は、加速度センサや角速度センサなどの姿勢検出部802を接続する。姿勢検出I/F110は、例えばUSBやIEEE1394などのシリアルバスI/Fである。姿勢検出部802は、ヘッドマウントディスプレイ800に取り付けられており、CPU101は姿勢検出I/F110を介して姿勢検出部802からヘッドマウントディスプレイ800の姿勢情報を読み込むことができる。姿勢情報はマウスやキーボード、カメラなどを介しても入力することができる。
図1は、本実施形態における画像処理装置100のハードウェア構成例を示す図である。図1において、CPU101は、RAM102をワークメモリとして、ROM103およびハードディスクドライブ(HDD)105に格納されたプログラムを実行し、システムバス112を介して後述する各ブロックの動作を制御する。HDDインターフェース(以下、インターフェースは「I/F」と記す)104は、HDD105や光ディスクドライブなどの二次記憶装置を接続する。HDD I/F104は、例えばシリアルATA(SATA)などのI/Fである。CPU101は、HDD I/F104を介して、HDD105からのデータ読み出しおよびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開することができ、逆に、RAM102に展開されたデータをHDD105に保存することもできる。そしてCPU101は、RAM102に展開したデータをプログラムとして実行することができる。入力I/F106は、キーボードやマウス、デジタルカメラ、スキャナなどの入力デバイス107を接続する。入力I/F106は、例えばUSBやIEEE1394などのシリアルバスI/Fである。CPU101は、入力I/F106を介して入力デバイス107からデータを読み込むことができる。出力I/F108は、画像処理装置100と、出力デバイスであるヘッドマウントディスプレイ800とを接続する。出力I/F108は、例えばDVIやHDMI(登録商標)などの映像出力I/Fである。CPU101は、出力I/F108を介してヘッドマウントディスプレイ800にデータを送り、ヘッドマウントディスプレイ800に所定の映像を表示させることができる。姿勢検出I/F110は、加速度センサや角速度センサなどの姿勢検出部802を接続する。姿勢検出I/F110は、例えばUSBやIEEE1394などのシリアルバスI/Fである。姿勢検出部802は、ヘッドマウントディスプレイ800に取り付けられており、CPU101は姿勢検出I/F110を介して姿勢検出部802からヘッドマウントディスプレイ800の姿勢情報を読み込むことができる。姿勢情報はマウスやキーボード、カメラなどを介しても入力することができる。
本実施形態における表示画像生成手順について、図2の機能ブロック図と図3のフローチャートとを参照して説明する。画像処理装置100によって生成された表示画像は、ヘッドマウントディスプレイ上に表示される。図2は、本実施形態における画像処理装置100の機能構成例を示すブロック図である。本実施形態において画像処理部200は、姿勢情報取得部201から得られるヘッドマウントディスプレイ800の姿勢情報に基づいて、ヘッドマウントディスプレイ800に表示する表示視差画像を生成する。具体的には、全天球画像において、ヘッドマウントディスプレイ800を装着した視聴者の視線方向に対応する部分画像を、左目用と右目用それぞれに対応するように順次表示する。これよりヘッドマウントディスプレイ800を装着した視聴者が全天球画像の中に存在するかのように、視差画像を視聴することができる。まず距離情報取得部203は、撮像情報と画像データとに基づいて、姿勢情報取得部201から取得した姿勢情報に対応する中心視野における距離情報を取得する。ここで距離情報とは、視点から被写体までの距離を示す。画角調整部206は、姿勢情報に対応する表示視差画像を生成するための仮想カメラの画角を調整する。ここで仮想カメラは、左目用と右目用2つのカメラがあるものとし、デフォルトの画角が設定されている。画角調整部206は、左目用仮想カメラおよび右目用仮想カメラの少なくともいずれかに対して、距離情報に基づいて予め設定された画角を調整する。表示画像生成部208は、画角調整部206により出力される画角に基づいて左目用仮想カメラおよび右目用仮想カメラそれぞれに撮像される画像を表示画像として生成し、表示する。
図3は、本実施形態における表示画像生成手順例を示すフローチャートである。図2および図3における各ブロックおよび各ステップの機能は、CPU101がROM103などの記憶領域に格納されたプログラムコードをRAM102に読み出して実行することにより実現される。あるいはまた、図2および図3におけるブロックおよびステップの一部または全部の機能をASICや電子回路等のハードウェアで実装してもよい。以下の各記号Sは、フローチャートにおけるステップであることを意味する。これらは図4のフローチャートについても同様である。
S301において、姿勢情報取得部201は、姿勢検出部802や入力デバイス107から姿勢情報を取得する。姿勢情報はRAM102やHDD105(以下、これらを「記憶領域」と記す)に一旦保存されたものが取得されてもよい。本実施形態において、姿勢情報はヘッドマウントディスプレイ800の姿勢を表すデータであり、ヘッドマウントディスプレイ800を装着する視聴者の視線方向に対応する。この姿勢情報は、3×3の回転行列Rと、ロール、ピッチ、ヨーとを用いて表現される。この他、姿勢情報は、クォータニオンなどを用いて表現されてもよい。
S302において、画像データ取得部202は、HDD105や入力デバイス107から取得した画像データを距離情報取得部203に送出する。本実施形態において、HDD105や入力デバイス107から取得される画像データは、魚眼レンズを備えるステレオ撮像装置によって撮像された全天球画像を表す画像データである例について説明する。
図5は、本実施形態における全天球画像の一例を示す図である。図5に示される全天球画像を表す画像データは、全ての向き(ある基準位置から360°の全ての方向)からの入射光線が表す色が保存された画像データである。本実施形態では、左目用表示画像を生成するために入力される全天球画像をIL、右目用表示画像を生成するために入力される全天球画像をIRとする。本実施形態において、全天球画像IL,IRは入力視差画像として取り扱われる。図5では、横軸を方位角θ[0〜2π]とし、縦軸を仰角φ[−π/2〜π/2]とした場合の座標系における全天球画像IL,IRが示されている。全天球画像IL,IRを撮像する撮像装置は、図6に示される通り、少なくとも2系統の撮像系を備えるステレオ撮像装置が、2セット組み合わされて構成されるステレオ撮像装置601である。各撮像系の画角が同じ場合、各撮像系は180°以上の画角を有する必要がある。なお、ステレオ撮像装置601は、2セット組み合わされて構成される例が示されているが、3セット以上組み合わされて構成されてもよい。この場合望ましくは、各撮像系の画角が120°以上程度であれば、本実施形態で説明されるように、仮想カメラの画角調整の効果を得ることができる。
図7は、本実施形態における表示画像例を示す図である。図7に示される表示画像は、ヘッドマウントディスプレイに表示するための表示視差画像であり、視聴者の左目に提示するための左目用表示画像JLと、視聴者の右目に提示するための右目用表示画像JRとから構成される。そして、これら表示画像JLと、表示画像JRとは、視聴者が接眼レンズを通して見た場合に、レンズの歪曲を考慮した補正が施されている。
図8は、本実施形態におけるヘッドマウントディスプレイ800である、ヘッドマウントディスプレイ800の一例を示す図である。ヘッドマウントディスプレイ800の筐体801には、ヘッドマウントディスプレイ800の姿勢情報を取得可能な姿勢検出部802と、表示視差画像が表示されるディスプレイパネル803と、一対の接眼レンズ804とが設けられている。図8に示されるヘッドマウントディスプレイ800は、視聴者の頭部に装着されて用いられる。そして、ヘッドマウントディスプレイ800は、視聴者の頭部の向き(すなわち、ヘッドマウントディスプレイの向き)に応じた表示視差画像をディスプレイパネル803に表示することができる。
S303において、撮像情報取得部204は、取得した撮像情報を距離情報取得部203に送出する。本実施形態において、撮像情報は、全天球画像IL,IRを撮像したステレオ撮像装置に関する撮像情報である。具体的には、本実施形態の撮像情報は、ステレオ撮像装置の正面方向θc,基線長bcおよび焦点距離fcを示す情報である。撮像情報取得部204は、これらの撮像情報を記憶領域から取得する。また、cはステレオ撮像装置の番号を示す。
S304において、距離情報取得部203は、全天球画像ILと全天球画像IRとに基づいて注目領域における距離を示す距離情報を取得し、取得した距離情報を画角調整部206に送出する。
注目領域における距離は、全天球画像ILを表す画像データと、全天球画像IRが表す画像データとに基づいて予め生成された距離マップから取得されてもよいし、CPU101が所定の計算を行うことにより取得されてもよい。注目領域における距離が計算によって取得される場合、まずヘッドマウントディスプレイの姿勢情報が示す位置が中心視野とされる。つまり、距離情報取得部203は、ヘッドマウントディスプレイの姿勢情報が示す位置のうち方位角θd,仰角Φdが示す座標を全天球画像ILおよび全天球画像IRにおける中心視野に設定する。これは、視聴者の頭の動きに追従して映像を表示するタイプのヘッドマウントディスプレイでは、視聴者が頭を動かして周囲を見回すため、左目用表示画像JLと右目用表示画像JRとのそれぞれの中心視野が注目領域となる場合が多いからである。
全天球画像ILにおける中心視野のN×M画素の領域を中心領域ALとし、このALをテンプレートとして全天球画像IRにおける中心領域を水平方向に走査してマッチングを行い、マッチングの結果、最も類似度が高い領域が中心領域ARとして抽出される。類似度の評価指標はSSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)など領域間の類似度を評価できるものであればよい。そして、求めた中心領域ARと中心領域ALとの水平方向のずれ量を注目領域の視差量dとする。視差量dと、ステレオ撮像装置の基線長bcと、カメラの焦点距離fcとから、距離Dを以下の(式1)で算出することができる。
D=fcbc/d・・・(式1)
D=fcbc/d・・・(式1)
ここで、cは中心視野を撮影したステレオ撮像装置の番号を示す。本実施形態では、中心視野が注目領域である例を説明したが、表示画像中で最も距離が近い領域、最も顕著度が高い領域、または、マニュアルで指定された領域を注目対象として距離を求めても構わない。
また、距離情報取得部203は、取得した距離を時間方向に平滑化することにより、後述される仮想カメラの画角が瞬間的に変化してしまうことを防ぐことができる。例えば、図9に示されるように、視聴者が視点からの距離が異なる複数の被写体が含まれる映像を視聴する場合、視聴者が遠くの物体901を見ている状態から右方向に振り向くと、最終的に近くの物体904を見ることになる。この場合、物体901を含む表示視差画像が表示された後、物体904を含む表示視差画像が表示される。このとき、中心視野における物体が切り替わる時に、仮想カメラの画角が大きく変化してしまう可能性がある。そこで、現時点における中心領域の距離dnだけではなく、前回表示視差画像を生成した際の距離の出力値dn-1に基づいて現在の距離の出力値を平滑化する。例えば、現時点の距離の影響度をa(0≦a≦1)とすると、平滑化後の距離の出力値dn’は、以下の(式2)で算出することができる。
dn’=dn×a+dn-1’×(1−a)・・・(式2)
dn’=dn×a+dn-1’×(1−a)・・・(式2)
図10(a)(b)は、図9に示されるシーンにおいて、横軸を時間とし、縦軸を距離として、注目領域における被写体(物体901〜904)までの距離の遷移を示すグラフである。図10(a)に示されるグラフでは、平滑化される前の距離の出力値が示されている。一方、図10(b)に示されるグラフでは、平滑化された後の距離の出力値が示されている。このように、距離情報取得部203は、取得した距離を時間方向に平滑化することにより、仮想カメラの画角が大きく変化してしまうことを抑制することができる。
S305において、視野角取得部205は、視聴者が接眼レンズ804を通じてディスプレイパネル803を見た場合の視野角βを取得し、取得した視野角βを画角調整部206に送出する。本実施形態では、例えば、x軸方向(横方向)の視野角βが取得される。この視野角βは予め記憶領域に保存されていて、必要に応じて読み出されてもよい。
S306において、画角調整部206は、ヘッドマウントディスプレイの姿勢情報と、距離情報と、ステレオ撮像装置に関する情報とに基づき、左目用表示画像JLと、右目用表示画像JRとを仮想的に撮像する仮想カメラの画角を調整する。本実施形態において、画角調整部206は、ヘッドマウントディスプレイ800の上下方向に延びる軸周りの回転量αと、ステレオ撮像装置の正面方向θcとを利用して仮想カメラの画角を調整する。
ここで、本実施形態における仮想カメラは、入力視差画像である全天球画像IL,IRに対して、指定した撮像方向および画角でフレーミングして表示画像JL,JRを抽出することができる仮想的な撮像装置である。このとき、画角調整部206は、まず、全天球画像IL,IRを内表面にマッピングした球を仮想空間上に配置する。そして、画角調整部206は、仮想カメラの撮像方向および画角を調整することにより、あたかも実際のカメラで撮像するように、全天球画像IL,IRの一部をフレーミングして表示画像JL,JRを出力することができる。
図11は、ステレオ撮像装置の向きと、視聴者が映像を見る方向とを示す模式図である。図11(a)は、ステレオ撮像装置の向きと、視聴者が映像を見る方向とのずれが0°の場合の例を示す図であり、これは視聴者が図6における方向Aを見ている状態と一致する。このとき、ステレオ撮像装置の向きと、視聴者が映像を見る方向とは同じ方向を向いているため、図7に示されるように、左目用表示画像JLに含まれる被写体と、右目用表示画像JRに含まれる被写体との間で大きさのずれは発生しない。一方、図11(b)は、ステレオ撮像装置の向きと、視聴者が映像を見る方向とが所定の角度ずれている場合の例を示す図であり、これは視聴者が図6における方向Bを見ている状態と一致する。このとき、左目用表示画像JLを生成するために用いられる左仮想カメラの画角と、右目用表示画像JRを生成するために用いられる右仮想カメラの画角とを調整せずに生成した画像例が、図12に示される。
図12示されるように、左目用表示画像JLに含まれる被写体は小さく、右目用表示画像JRに含まれる被写体は大きく表示されてしまう。これは、左仮想カメラは右仮想カメラに比べて被写体までの距離が遠くなるためである。そのため、本実施形態の画像処理装置100は、左仮想カメラの画角を狭くすることにより左目用表示画像JLにおける被写体を大きくし、右仮想カメラの画角を広くすることにより右目用表示画像JRにおける被写体を小さくする。これにより、画角調整部206は、左目用表示画像JLと右目用表示画像JRとにおける被写体の大きさを揃えることができる。
図13および図14は、全天球画像IL,IRからフレーミングされる範囲の一例を示す図である。図13は、ステレオ撮像装置の向きと、視聴者が映像を見る方向とのずれが0°の場合の例を示す図であり、左右の仮想カメラが全天球画像IL,IRをフレーミングしている範囲1301,1302は等しい。一方、図14は、ステレオ撮像装置の向きと、視聴者が映像を見る方向とが所定の角度ずれている場合の例を示す図である。図14において、被写体からの距離が遠い左仮想カメラによってフレーミングされる範囲1401は小さく、被写体からの距離が近い右仮想カメラによってフレーミングされる範囲1402は大きい。調整後の左仮想カメラの画角βLと、調整後の右仮想カメラの画角βRとは、以下の(式3)(式4)をそれぞれ用いて算出することができる。
注目被写体までの距離が遠くなるほど、全天球画像IL,IRに含まれる被写体の大きさのずれは小さくなるため、仮想カメラの画角調整による効果は小さくなる。そのため、予め閾値を設定しておき、注目被写体までの距離が所定の閾値以上の場合は画角の調整を行わないように制御してもよい。
また、別実施形態では、画像処理装置100は、画角調整部206に代えて、焦点距離調整部を有していてもよい。別実施形態の焦点距離調整部は、左仮想カメラの焦点距離を長くすることにより左目用表示画像JLにおける被写体を大きくし、右仮想カメラの焦点距離を短くすることにより右目用表示画像JRにおける被写体を小さくする。これにより、焦点距離調整部は、左目用表示画像JLと右目用表示画像JRとにおける被写体の大きさを揃えることができる。
S307において、表示パラメータ取得部207は、入力デバイス107から表示パラメータを取得する。本実施形態において、表示パラメータは、ヘッドマウントディスプレイ800に表示画像JL,JRを表示させるために必要なパラメータである。表示パラメータは、接眼レンズ804の歪曲率および中心位置、ならびに、ディスプレイパネル803の解像度およびサイズなどが相当する。表示パラメータ取得部207は、入力デバイス107からだけではなく、一旦記憶領域に保存された表示パラメータを取得してもよい。
S400において、表示画像生成部208は、姿勢情報と、仮想カメラの画角と、全天球画像IL,IRを表す画像データと、表示パラメータとに基づいて、ヘッドマウントディスプレイ800に表示させるための表示画像を生成する。上述の通り、本実施形態では、ヘッドマウントディスプレイ800に表示される表示画像は、左目に提示される左目用表示画像JLと、右目に提示される右目用表示画像JRとから構成される。本実施形態において、それぞれの表示画像JL,JRは、接眼レンズ804を通して見たときに、視聴者が歪みなく表示画像JL,JRを見ることができるように、接眼レンズ804の歪曲を考慮して補正されている。本実施形態では、接眼レンズの歪曲を考慮した補正と、透視投影処理とが同時に行われるため、表示画像JL,JRを生成する処理に必要な時間を短縮することができる。
次に、図4のフローチャートを参照して、本実施形態における表示画像生成手順(S400)の詳細について説明する。本実施形態の画像処理装置100は、ヘッドマウントディスプレイ800に表示する表示画像JL,JRを、ヘッドマウントディスプレイ800を装着している視聴者が向いている方向に応じて、全天球画像IL,IRからサンプリングして生成する。表示画像生成部208は、ヘッドマウントディスプレイ800の姿勢情報を仮想カメラの姿勢情報として用い、ディスプレイパネル803上のいずれの画素位置にいずれの向きからの光線を再現するかを演算する。この光線の向きは、ヘッドマウントディスプレイ800における上下方向に延びる軸周りの角度を表す方位角θと、左右方向に延びる軸周りの角度を表す仰角φとによって表される。表示画像生成部208は、接眼レンズ804の中心を原点とした座標系における画素の位置を(x,y)とした場合、光線の向き(θ,φ)を計算し、その向きから表示画像JL,JRにおける画素値を求めることができる。以下、図4のフローチャートを参照して詳細を説明する。また、図4のフローチャートによる処理は、左目用表示画像JLの全ての画素と、右目用表示画像JRの全ての画素についてそれぞれ実行される。
S401において、表示画像生成部208は、ヘッドマウントディスプレイ800上に表示される表示画像JL,JRにおける画素位置(x,y)の歪曲率を取得する。図15は、接眼レンズ804の歪曲によって、画素位置がずれる一例を示す模式図である。接眼レンズ804の歪曲量は、接眼レンズ804の中心からの距離rと、接眼レンズの光学特性とによって定まる。そのため、画像処理装置100は、接眼レンズ804に使用するレンズの種類に応じて、接眼レンズ804の中心からの距離rと、レンズの歪曲率とが対応付けられたルックアップテーブルを参照して、接眼レンズ804の歪曲率を取得することができる。なお、このようなルックアップテーブルは、記憶領域に予め記憶されておくものとする。また、入射光線の波長ごとに接眼レンズ804の歪曲率が異なる場合、R,G,B色成分の波長ごとのルックアップテーブルを記憶領域に予め記憶しておいてもよい。そして、R,G,B色成分ごとの歪曲率を取得して、以後のステップでR,G,B色成分ごとに異なる歪曲率を使用して表示画像の生成処理を行う。また、歪曲率の算出において、あらかじめ画素位置ごとに歪曲率を参照できるようにルックアップテーブルを作成しておき、接眼レンズ804の中心からの距離rに関する計算を省略できるようにしてもよい。さらに、接眼レンズ804の中心からの距離が遠く、視聴者が接眼レンズ804を通して視聴可能な範囲を超えている場合、表示画像JL,JRにおける画素値を黒に設定してS402〜S405処理をスキップしてもよい。
S402において、表示画像生成部208は、接眼レンズ804の歪曲に起因する屈折によって、光線が射出しているように見える画素位置を計算する。接眼レンズ804の歪曲を考慮した画素位置(xd,yd)は、画素位置(x,y)にそれぞれ歪曲率dを積算することによって計算することができる。具体的には、以下の(式5)(式6)をそれぞれ用いて計算することができる。
xd=x×d・・・(式5)
yd=y×d・・・(式6)
xd=x×d・・・(式5)
yd=y×d・・・(式6)
S403において、表示画像生成部208は、S402の演算で求めた画素位置(xd,yd)を、視聴者の視点を原点とする3次元空間における座標(X,Y,Z)に変換する。図16は、本実施形態において、視聴者の視点を原点とする3次元座標系の一例を示す模式図である。ヘッドマウントディスプレイ800(仮想カメラ)の姿勢情報を3×3の回転行列R、画素単位で表現した焦点距離をfとすると、3次元空間における座標(X,Y,Z)は、以下の(式7)によって計算することができる。なお、S402、S403における一連の処理は、本実施形態において位置取得手段に相当する。
[X Y Z]t=R×[x y f]t・・・(式7)
[X Y Z]t=R×[x y f]t・・・(式7)
上記(式7)において、左目用表示画像JLか、右目用表示画像JRかによって、仮想カメラの画角が異なるため、左目用、右目用それぞれで異なる焦点距離の値が用いられる。具体的には、表示画像生成部208は、左目用表示画像JLにおける画素値を求める場合はf=fLとし、右目用表示画像JRにおける画素値を求める場合はf=fRとして、上記3次元空間における座標(X,Y,Z)を算出する。fLとfRとは、以下の(式8)(式9)によって算出することができる。
fL=f×tan(βL/2)/tan(β/2)・・・(式8)
fR=f×tan(βR/2)/tan(β/2)・・・(式9)
fL=f×tan(βL/2)/tan(β/2)・・・(式8)
fR=f×tan(βR/2)/tan(β/2)・・・(式9)
S404において、表示画像生成部208は、3次元空間における座標(X,Y,Z)から方位角θと、仰角φとを導出する。図16に示される通り、原点から(X,Y,Z)までの距離をL=(X2+Y2+Z2)1/2とすると、方位角θと、仰角φとは以下の(式10)(式11)によって計算することができる。
φ=asin(Y/L) ・・・(式10)
θ=asin(Z/L/cosφ)・・・(式11)
φ=asin(Y/L) ・・・(式10)
θ=asin(Z/L/cosφ)・・・(式11)
S405において、表示画像生成部208は、S404で導出された方位角θと仰角φとによって特定される、全天球画像IL,IRにおける画素位置の画素値を取得して、取得した画素値を表示画像JL,JRの描画配列に格納する。このとき、左目用表示画像JLが生成される場合は全天球画像ILから画素値が取得され、右目用表示画像JRが生成される場合は全天球画像IRから画素値が取得される。
図17は、本実施形態において、接眼レンズ804の中心に対応するディスプレイパネル803上の位置を原点とした場合の、表示画像JL,JRにおける位置関係を表した模式図である。S405で取得された画素値が格納される表示画像JL,JR中の位置は、図17に示される原点から(x,y)移動した位置に相当する。なお、表示画像生成部208は、全天球画像ILから画素値を取得する際、バイリニア補間やバイキュービック補間など、取得対象となる画素の周辺画素から補間して画素値を取得してもよい。さらに、表示画像生成部208は、魚眼カメラなどで撮影した全天球画像から画素値を取得する場合、光線の向きと対応する画素位置との対応関係を規定したルックアップテーブルを予め記憶領域に保存しておいてもよい。表示画像生成部208は、このようなルックアップテーブルを参照することにより、複雑な演算を行うことなく、光線の向き(θ、φ)や画素位置(x,y)を導出することができる。
S406において、表示画像生成部208は、表示画像JL,JRにおける全画素の処理が完了したか否かを判定する。全画素の処理が完了した場合(S406:YES)、表示画像生成処理を完了して再び図3のフローチャートに復帰する。全画素の処理が完了していない場合(S406:NO)、再びS401〜S405の処理を繰り返す。
再び図3のフローチャートに戻り、S309において、画像データ出力部209は、S400において生成された表示画像JL,JRをヘッドマウントディスプレイ800に出力し、表示画像JL,JRをディスプレイパネル803に表示する。
S310において、画像処理部200は、次の表示画像を生成するか否かを判定する。次の表示画像は、例えば、動画における次フレームの画像などが相当する。次の表示画像が生成される場合(S310:YES)、再びS301に戻り表示画像生成処理が繰り返される。次の表示画像が生成されない場合(S310:NO)、本フローチャートの処理を終了する。
以上説明した通り、本実施形態の画像処理装置によれば、ヘッドマウントディスプレイの姿勢情報と、撮像装置に関する情報と、注目領域における距離情報とに基づき、入力視差画像をフレーミングする仮想カメラの画角を調整する。そのため、ステレオ撮像装置の向きと、視聴者が映像を見る方向とが所定の角度ずれている場合であっても、左目用表示画像JLと右目用表示画像JRとにおける被写体の大きさを揃えることができる。この結果、本実施形態の画像処理装置によれば、ヘッドマウントディスプレイに表示された映像を視聴する際の違和感を低減することができる。
また、仮想カメラの画角を調整する手法に依らず、左目用画像と右目用画像とに含まれる被写体の大きさを揃えるために、これらの画像を単純に拡大縮小した場合、接眼レンズの歪曲率を考慮した画像補正を正しく行えないという課題もあった。本実施形態の画像処理手法(S400)によれば、全天球画像IL,IRの一部をフレーミングスする左仮想カメラと右仮想カメラとの画角をそれぞれ調整するため、表示画像JL,JRに対して、歪曲率を考慮した画像補正を正しく行えることができる。
[その他の実施例]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100・・画像処理装置
201・・姿勢情報取得部
203・・距離情報取得部
204・・撮像情報取得部
206・・画角調整部
208・・表示画像生成部
800・・ヘッドマウントディスプレイ
201・・姿勢情報取得部
203・・距離情報取得部
204・・撮像情報取得部
206・・画角調整部
208・・表示画像生成部
800・・ヘッドマウントディスプレイ
Claims (15)
- ヘッドマウントディスプレイの姿勢情報を取得する姿勢情報取得手段と、
入力視差画像に含まれる被写体までの距離情報を取得する距離情報取得手段と、
前記入力視差画像を撮像した撮像装置に関する情報を取得する撮像情報取得手段と、
前記姿勢情報と、前記距離情報と、前記撮像装置に関する情報とに基づいて、前記ヘッドマウントディスプレイに表示される表示視差画像を生成するために用いられる仮想カメラの画角を調整する画角調整手段と、
前記姿勢情報と、前記調整された画角と、前記ヘッドマウントディスプレイの表示パラメータとに基づいて、前記入力視差画像から前記表示視差画像を生成する生成手段と、を有する
ことを特徴とする画像処理装置。 - 前記画角調整手段は、前記表示視差画像のうち、視聴者の左目に提示される左目用表示画像を生成するために用いられる左仮想カメラの画角と、視聴者の右目に提示される右目用表示画像を生成するために用いられる右仮想カメラの画角とをそれぞれ調整する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記画角調整手段は、前記姿勢情報が示す前記ヘッドマウントディスプレイの向きと、前記撮像装置に関する情報が示す前記撮像装置の向きとのずれに基づいて、前記左目用表示画像に含まれる被写体の大きさと、前記右目用表示画像に含まれる被写体の大きさとの差が小さくなるように、前記左仮想カメラの画角と前記右仮想カメラの画角とをそれぞれ調整する
ことを特徴とする請求項2に記載の画像処理装置。 - 前記画角調整手段は、前記距離情報が示す距離が所定の閾値以上である場合、前記仮想カメラの画角の調整を行わない
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 前記生成手段は、
前記姿勢情報と、前記表示パラメータとに基づいて、前記ヘッドマウントディスプレイ上に表示される前記表示視差画像における画素位置であって、視聴者の視点を含む3次元空間における画素位置を取得する位置取得手段と、
前記調整された画角と、前記取得された画素位置とに基づいて導出された方位角と仰角とによって特定される、前記入力視差画像における画素位置の画素値を、前記取得された画素位置の画素値とするサンプリング手段と、をさらに有する
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 - 前記位置取得手段は、前記表示パラメータが示す、前記ヘッドマウントディスプレイが備える接眼レンズの歪曲率を考慮して前記表示視差画像における画素位置を取得する
ことを特徴とする請求項5に記載の画像処理装置。 - 前記距離情報取得手段は、前記入力視差画像の視差量に基づいて前記距離情報を算出する
ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 - 前記距離情報取得手段は、前記仮想カメラによってフレーミングされた前記入力視差画像の領域のうち、中心領域に含まれる被写体までの距離情報を取得する
ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。 - 前記距離情報取得手段は、前記距離情報が示す距離を時間方向に平滑化し、前記平滑化された距離情報を取得する
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 - 前記入力視差画像は、全天球画像である
ことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。 - 前記生成手段は、仮想空間に配置された球の内表面にマッピングされた前記全天球画像から、前記仮想カメラによってフレーミングされた領域で前記表示視差画像を生成する
ことを特徴とする請求項10に記載の画像処理装置。 - 前記撮像装置は、少なくとも2系統の撮像系を備えるステレオ撮像装置であり、
前記撮像装置に関する情報は、前記ステレオ撮像装置の向き、基線長および焦点距離を少なくとも含む
ことを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 - 前記画角調整手段に代えて、前記姿勢情報と、前記距離情報と、前記撮像装置に関する情報とに基づいて、前記ヘッドマウントディスプレイに表示される表示視差画像を生成するために用いられる仮想カメラの焦点距離を調整する焦点距離調整手段と、を有する
ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。 - ヘッドマウントディスプレイの姿勢情報を取得する姿勢情報取得ステップと、
入力視差画像に含まれる被写体までの距離情報を取得する距離情報取得ステップと、
前記入力視差画像を撮像した撮像装置に関する情報を取得する撮像情報取得ステップと、
前記姿勢情報と、前記距離情報と、前記撮像装置に関する情報とに基づいて、前記ヘッドマウントディスプレイに表示される表示視差画像を生成するために用いられる仮想カメラの画角を調整する画角調整ステップと、
前記姿勢情報と、前記調整された画角と、前記ヘッドマウントディスプレイの表示パラメータとに基づいて、前記入力視差画像から前記表示視差画像を生成する生成ステップと、を有する
ことを特徴とする画像処理方法。 - コンピュータを、請求項1から請求項13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017144516A JP2019029721A (ja) | 2017-07-26 | 2017-07-26 | 画像処理装置、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017144516A JP2019029721A (ja) | 2017-07-26 | 2017-07-26 | 画像処理装置、画像処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019029721A true JP2019029721A (ja) | 2019-02-21 |
Family
ID=65478761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017144516A Pending JP2019029721A (ja) | 2017-07-26 | 2017-07-26 | 画像処理装置、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019029721A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021002256A1 (ja) * | 2019-07-02 | 2021-01-07 | ソニー株式会社 | 情報処理システム、情報処理方法及びプログラム |
CN113906736A (zh) * | 2019-06-07 | 2022-01-07 | 索尼集团公司 | 视频分发系统、视频分发方法和显示终端 |
WO2022070270A1 (ja) * | 2020-09-29 | 2022-04-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
US11706396B2 (en) | 2020-09-10 | 2023-07-18 | Canon Kabushiki Kaisha | Image processing apparatus that performs processing concerning display of stereoscopic image, image processing method, and storage medium |
-
2017
- 2017-07-26 JP JP2017144516A patent/JP2019029721A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113906736A (zh) * | 2019-06-07 | 2022-01-07 | 索尼集团公司 | 视频分发系统、视频分发方法和显示终端 |
WO2021002256A1 (ja) * | 2019-07-02 | 2021-01-07 | ソニー株式会社 | 情報処理システム、情報処理方法及びプログラム |
CN114208143A (zh) * | 2019-07-02 | 2022-03-18 | 索尼集团公司 | 信息处理系统、信息处理方法和程序 |
US11706396B2 (en) | 2020-09-10 | 2023-07-18 | Canon Kabushiki Kaisha | Image processing apparatus that performs processing concerning display of stereoscopic image, image processing method, and storage medium |
WO2022070270A1 (ja) * | 2020-09-29 | 2022-04-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
US12125181B2 (en) | 2020-09-29 | 2024-10-22 | Sony Interactive Entertainment Inc. | Image generation device and image generation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113382168B (zh) | 用于存储成像数据的重叠区以产生优化拼接图像的设备及方法 | |
JP6808484B2 (ja) | 画像処理装置および画像処理方法 | |
US20200051269A1 (en) | Hybrid depth sensing pipeline | |
US8768043B2 (en) | Image display apparatus, image display method, and program | |
US8908011B2 (en) | Three-dimensional video creating device and three-dimensional video creating method | |
CN103839227B (zh) | 鱼眼图像校正方法和装置 | |
JP5666069B1 (ja) | 座標算出装置及び方法、並びに画像処理装置及び方法 | |
CN101843107A (zh) | Osmu(一源多用)式立体摄影机及制作其立体视频内容的方法 | |
JP5812716B2 (ja) | 画像処理装置および方法 | |
JP2008085446A (ja) | 画像生成装置および画像生成方法 | |
US8965105B2 (en) | Image processing device and method | |
JP2010072477A (ja) | 画像表示装置、画像表示方法及びプログラム | |
US11812009B2 (en) | Generating virtual reality content via light fields | |
WO2018032841A1 (zh) | 绘制三维图像的方法及其设备、系统 | |
JP2019029721A (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20190266802A1 (en) | Display of Visual Data with a Virtual Reality Headset | |
JP2015213299A (ja) | 画像処理装置および画像処理方法 | |
US10277891B2 (en) | Image processing apparatus, image processing method, and storage medium | |
EP3189493B1 (en) | Depth map based perspective correction in digital photos | |
JP2009212728A (ja) | 立体映像処理装置及び立体映像処理方法 | |
JPWO2018189880A1 (ja) | 情報処理装置、情報処理システム、および画像処理方法 | |
EP3190566A1 (en) | Spherical virtual reality camera | |
JP6700935B2 (ja) | 撮像装置、その制御方法、および制御プログラム | |
JP2011211551A (ja) | 画像処理装置および画像処理方法 | |
JP2019121945A (ja) | 撮像装置、その制御方法及びプログラム |