JP3561446B2 - 画像生成方法及びその装置 - Google Patents
画像生成方法及びその装置 Download PDFInfo
- Publication number
- JP3561446B2 JP3561446B2 JP23776699A JP23776699A JP3561446B2 JP 3561446 B2 JP3561446 B2 JP 3561446B2 JP 23776699 A JP23776699 A JP 23776699A JP 23776699 A JP23776699 A JP 23776699A JP 3561446 B2 JP3561446 B2 JP 3561446B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- image
- camera
- depth
- viewpoint position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
本発明は、異なる視点位置で撮像した複数の画像と、その視点位置から見た被写体の奥行情報とから、実際にはカメラの置かれていない視点位置から見た画像を生成する画像生成方法及びその装置に関する。
【0002】
【従来の技術】
従来、実写イメージを基に、撮像した位置とは異なる視点の画像を生成する方法として、例えば「多視点映像から任意視点映像の生成」(信学技報,IE96−121;91−98,1997.)に記載されている方法がある。この方法では、多視点画像から物体の奥行きマップを推定し、このマップを仮想的な視点の奥行きマップに変換した後、与えられた多視点画像を利用して仮想視点画像を生成する。
【0003】
図14に、この従来方法で用いる多眼カメラシステムのカメラ配置と仮想視点画像生成の概念を示す。図14において、91〜95はカメラ、96は生成する仮想視点画像の視点位置と視線方向を示したものである。
【0004】
この方法では、基準となるカメラ92で撮影した基準画像中のある点に対し、参照カメラ91,93,94,95で撮影した各参照画像のエピポーララインに沿ってマッチングウィンドウを1画素ずつ移動させながら、マッチングの尺度であるSSD(sum of squared−difference)を計算する。マッチングウィンドウをdだけ移動させた時、4つの方向からSSDの値が計算される。このうち、小さい方の2つの値を加算する。このような処理を探索範囲内にわたって行い、その最小値のところのdを視差として求める。視差dと奥行きzは、カメラの焦点距離fとカメラ間距離bと次式の関係がある。
【0005】
z=bf/d
この関係を用いて、基準カメラ92のカメラ位置から見た奥行きマップを生成する。次に、この奥行きマップを96に示す仮想視点位置から見た奥行きマップに変換する。基準カメラ92から観測できる領域は、同時に仮想視点画像に、基準カメラ92によって撮像された画像の色情報を描画して仮想視点画像を生成する。視点の移動に伴い新たに生じた領域は、奥行き値を線形補間し、参照画像の色情報を描画して、仮想視点画像を生成する。
【0006】
しかしこの従来方法では、使用する多眼画像の各画素について対応点を推定しなければならないため、基準カメラ92と参照カメラ91,93,94,95の間隔、すなわち基線長が制限される。仮想視点画像は、多視点画像の色情報を描画して生成されるので、自然な仮想視点画像が得られる仮想視点位置は図14の点線で示した範囲内に限られる。ゆえに仮想視点の置ける範囲が制限される問題がある。
【0007】
更に、この方法によって、仮想空間の中を自由に歩き回っているかのような連続した画像、すなわちウォークスルー画像を、実写画像をもとに生成する場合には、基準カメラ92の位置よりも被写体に近い視点位置での仮想視点画像の解像度が、画像のすべての領域で低下するという問題がある。
【0008】
このほかの従来技術として、例えば「View Generation for Three−Dimentional Scenes from Video Sequence」(IEEE Trans.Image Processing,vol.6 pp.584−598, Apr 1997)に記載されているような方法がある。これは、ビデオカメラで撮影した一連の映像シークエンスを基に、3次元空間における物体の位置および輝度の情報を取得し、これを生成しようとする画像の視点に合わせて3次元空間に幾何変換し、さらに2次元平面に射影する方法である。
【0009】
図15は、この従来方法の撮影方法を幾何学的に示したものである。図15において、101は被写体、102はビデオカメラ、103はビデオカメラ102で撮影するときの水平な軌道である。この方法では、ビデオカメラ102を手に持ち、軌道103に沿ってビデオカメラ102を移動しながら撮像した映像シークエンスを用いて、3次元空間における物体の位置および輝度の情報を取得する。
【0010】
図16は、図15の方法により撮影した映像シークエンスに含まれる個々の映像フレームの位置関係を示した図である。図16において、111〜115はビデオカメラ102で撮影した映像フレームである。この図に示すように、個々のフレームが視差像となるので、これらの画像間で対応点を抽出することにより、被写体の3次元空間における位置及び輝度の情報が求められる。
【0011】
この方法はビデオカメラ102を水平に移動しながら撮像した映像シークエンスを用いて仮想視点画像を生成するため、この方法によってビデオカメラ102の移動方向に対して垂直方向に移動するウォークスルー画像を生成する場合には、基準カメラ位置よりも被写体に近い仮想視点位置での仮想視点画像の解像度が、画像のすべての領域で低下するという問題がある。
【0012】
【発明が解決しようとする課題】
このような従来技術の問題点の解決を図るために、本発明者は、特願平11−12562号で、新たな仮想視点画像生成方法(装置)の発明を開示した。
【0013】
この本発明者が開示した発明では、複数の視点位置で撮像した画像と各視点位置から見た奥行きマップとを利用して、仮想視点画像を生成する方法を採っている。
【0014】
確かに、この本発明者が開示した発明によれば、従来技術の持つ問題点を解決できるようになるものの、仮想視点位置に最も近い視点位置で撮像した画像を優先的に用いて仮想視点画像を生成していくという方法を採っていることから、ウォークスルー画像を生成する場合には、その視点位置よりも被写体に近い仮想視点位置での仮想視点画像の解像度が、画像のすべての領域で低下するという問題が残されている。
【0015】
本発明は、上記問題点を解決するためのものである。本発明の目的は、実カメラ位置よりも被写体の近づいた位置における仮想視点画像の解像度の低下を画像の中心付近で回避し、ぼけや歪みが少なく、写実性が高く、仮想視点位置の移動範囲が広い、ウォークスルー等のアプリケーションにも適用可能な仮想視点画像を生成できるようにする新たな画像生成方法及びその装置を提供することにある。
【0016】
【課題を解決するための手段】
本発明の前記目的を達成するための代表的な手段の概要を以下に簡単に説明する。
【0017】
(1)被写体に対向して配置された複数のカメラによって撮像される画像を基に、実際にはカメラの置かれていない仮想視点位置で撮像したような画像を生成する画像生成方法において、
被写体に対向して左右方向、かつ光軸に対して前後方向に配置された複数のカメラにより撮像される実写画像の各画素について被写体までの奥行き値を保持する奥行きマップを生成する第1の処理過程と、
(i)光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、最も仮想視点位置に近いカメラを選択し、そのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、仮想視点位置から見た奥行きマップを生成し、( ii )光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、その次に仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの欠落部分を生成し、 (iii )光軸の向きに対して仮想視点位置よりも被写体から遠いカメラの中で、最も仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの残されている欠落部分を生成することで、仮想視点位置から見た奥行きマップを生成する第2の処理過程と、
生成した仮想視点奥行きマップを基に、その仮想視点奥行きマップの生成元となった奥行きマップに対応付けられる実写画像の画素の色情報を描画することで、仮想視点位置から見た画像を生成する第3の処理過程とを備えることを特徴とする。
【0018】
(2)(1)記載の画像生成方法において、
第1の処理過程で、多眼カメラにより撮像される実写画像の対応点を抽出し、ステレオ法により三角測量の原理を用いて奥行き値を推定することで奥行きマップを生成することを特徴とする。
【0019】
(3)(1)記載の画像生成方法において、
第1の処理過程で、レーザ光による画像パターンを被写体に照射することにより奥行き値を推定することで奥行きマップを生成することを特徴とする。
【0021】
(4)被写体に対向して配置された複数のカメラによって撮像される画像を基に、実際にはカメラの置かれていない仮想視点位置で撮像したような画像を生成する画像生成装置において、
被写体に対向して左右方向、かつ光軸に対して前後方向に配置された複数のカメラにより撮像される実写画像の各画素について被写体までの奥行き値を保持する奥行きマップを生成する手段と、
(i)光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、最も仮想視点位置に近いカメラを選択し、そのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、仮想視点位置から見た奥行きマップを生成し、( ii )光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、その次に仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの欠落部分を生成し、 (iii )光軸の向きに対して仮想視点位置よりも被写体から遠いカメラの中で、最も仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの残されている欠落部分を生成することで、仮想視点位置から見た奥行きマップを生成する手段と、
生成した仮想視点奥行きマップを基に、その仮想視点奥行きマップの生成元となった奥行きマップに対応付けられる実写画像の画素の色情報を描画することで、仮想視点位置から見た画像を生成する手段とを備えることを特徴とする。
【0022】
すなわち、本発明では、仮想視点位置よりも被写体に近いカメラの中で、仮想視点位置に最も近い視点位置(視点位置A)のカメラから見た奥行きマップを基に被写体の3次元空間中での形状及び位置を求め、この被写体の形状及び位置情報を基に仮想視点位置から見た奥行きマップを生成し、
上記視点位置Aからでは物体の影等によって隠されている仮想視点奥行きマップの領域を、その領域が隠されず、かつ仮想視点位置よりも被写体に近い他の視点位置(視点位置B:複数のこともある)のカメラから見た奥行きマップを基に補間し、
上記視点位置A,Bからでは撮像範囲外となる仮想視点奥行きマップの領域を、その領域が撮像範囲となる視点位置(仮想視点位置よりも被写体から遠い視点位置C:複数のこともある)のカメラから見た奥行きマップを基に補間することで、仮想視点奥行きマップを生成する。
【0023】
そして、生成した仮想視点奥行きマップの3次元情報に従って、上記視点位置Aで撮像された実写画像の色情報を描画することで、対応する仮想視点画像部分を生成し、
生成した仮想視点奥行きマップの3次元情報に従って、上記視点位置Bで撮像された実写画像の色情報を描画することで、上記視点位置Aからでは物体の影等によって隠されている仮想視点画像の領域を生成し、
生成した仮想視点奥行きマップの3次元情報に従って、上記視点位置Cで撮像された実写画像の色情報を描画することで、上記視点位置A,Bからでは撮像範囲外となる仮想視点画像の領域を生成することで、仮想視点画像を生成する。
【0024】
このように、本発明においては、生成しようとする仮想視点画像の撮像範囲を含むように配置した異なる複数の視点位置のカメラから見た奥行きマップを同時に取得し、これらを統合して仮想視点位置から見た奥行きマップを生成して、仮想視点画像を生成していくことを特徴とする。
【0025】
従来技術のように、多視点画像間の対応点を抽出して多視点画像間を補間する方法とは、本発明では、対応点抽出する多視点画像のカメラ位置の外側に仮想視点位置を置いても写実性の高い仮想視点画像を生成できるという点で異なる。また、本発明では、仮想視点位置をカメラの光軸方向に被写体に近づけても、仮想視点画像の中心部分付近では解像度の低下を抑えることができるという点で異なる。
【0026】
また、従来技術のように、ビデオカメラを移動しながら視差像を撮像する方法とは、本発明では、仮想視点位置をビデオカメラの移動方向に対して垂直方向に仮想視点位置を移動させても、仮想視点画像の中心部分付近では解像度の低下を抑えることができるという点で異なる。
【0027】
また、本発明者が先に開示した発明のように、複数の視点位置で撮像した画像と各視点位置から見た奥行きマップとを利用して仮想視点画像を生成する方法とは、本発明では、仮想視点位置をカメラの光軸方向に近づけても、仮想視点画像の中心部分付近では解像度の低下を抑えることができるという点で異なる。
【0028】
すなわち、本発明は、仮想視点位置よりも被写体に近い視点位置で撮像した奥行きデータおよび画像を優先的に選択して仮想視点画像を生成する手法であるため、仮想視点画像の解像度の低下を最小限に抑えることができる。
【0029】
また、本発明では、複数の奥行きマップを統合して1枚の仮想視点の奥行きマップを生成するため、奥行きマップの生成に関与しない画像間については対応点を推定する必要がない。従って、すべての多視点画像間の対応点が抽出されなくても、仮想視点画像を生成することができる。このため、多視点画像のカメラ間隔が離れている場合においても、滑らかな仮想視点画像を生成することができる。
【0030】
また、本発明では、仮想視点位置から見える範囲が、複数の視点位置のカメラの撮像範囲に含まれていれば、仮想視点画像を生成することができるため、カメラの配置にかかる制限を軽減することができる。
【0031】
また、本発明では、光軸に対して前後方向にもカメラを配置し、仮想視点画像の中心部分付近では仮想視点位置よりも被写体に近いカメラの画像を使って仮想視点画像を生成するため、仮想空間の中を自由に歩き回っているかのような連続した画像、すなわちウォークスルー動画像においてもフレーム間の切り替えが滑らかな動画像を生成することができる。
【0032】
【発明の実施の形態】
図1は、本発明で用いられるカメラ配置と仮想視点位置の一例を示す図である。
【0033】
図中、11〜16はカメラ位置、17は仮想視点位置の動く範囲である。11〜16のカメラ位置にはそれぞれ多眼カメラが配置されていて、画像を撮像するのと同時に、それぞれの場所から見た奥行きマップを取得することができる。すべてのカメラの光軸は、互いに平行になるように配置されている。また、すべてのカメラの3次元空間中の位置は既知とする。
【0034】
この図1のカメラ配置では、仮想視点位置17がカメラ位置11,12,15,16に囲まれた平面上にあり、視野範囲の領域がカメラの撮像範囲に含まれているような視線方向である場合に、欠損領域の少ない仮想視点画像が得られる。図1では6カ所の位置で、撮像画像と奥行きマップを取得する場合を示したが、撮像画像と奥行きマップを取得する視点位置の数に制約はない。
【0035】
図2は、本発明を実現するための機能構成の一実施例である。
【0036】
図中、21は上下左右のマトリックス状に配置された多眼カメラからなる多眼画像入力手段、22は多眼画像入力手段21で入力された多眼画像から奥行きデータを検出し、画像の各画素に奥行きデータを格納した奥行きマップを生成する奥行きマップ生成手段、25は仮想視点奥行きマップおよび仮想視点画像を生成するために用いるカメラの視点位置の順序を決定する視点位置選択手段、23は奥行きマップ生成手段22で生成された奥行きマップを基にして、視点位置選択手段25で決定された順序に従って仮想視点奥行きマップを生成する仮想視点奥行きマップ生成手段、24は多眼画像入力手段21で入力された多眼画像から、奥行きマップ生成手段22で生成された仮想視点奥行きマップの奥行きデータに基づいて仮想視点画像を生成する仮想視点画像生成手段である。
【0037】
ここで、奥行きマップ生成手段22では、例えば多眼カメラ画像の対応点を抽出してステレオ法により奥行きを推定する方法で奥行きマップを生成したり、レーザ光による画像パターンを照射することなどにより能動的に被写体の奥行きを得る方法(例えばレーザレンジファインダを用いる方法)で奥行きマップを生成する。
【0038】
次に、視点位置選択手段25において、仮想視点画像を生成する基となるカメラを選ぶ順序について説明する。
【0039】
視点位置選択手段25は、まず、光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、最も仮想視点位置に近いカメラを第1順位で用いるカメラ、その次に近いものを第2順位で用いるカメラとして選択する。前記光軸の向きに対して仮想視点位置よりも被写体に近い位置で撮像したカメラの画像は、被写体の詳細なデータを持つという特徴がある。
【0040】
視点位置選択手段25は、次に、その選択したカメラの視点位置からでは仮想視点画像で撮像範囲外となるような領域を撮像範囲に含むカメラの中で、最も仮想視点位置に近いカメラから順に第3順位で用いるカメラ、第4順位で用いるカメラを選択する。すなわち、光軸の向きに対して仮想視点位置よりも被写体から遠いカメラの中で、最も仮想視点位置に近いカメラを第3順位で用いるカメラ、その次に近いものを第4順位で用いるカメラとして選択する。前記光軸の向きに対して仮想視点位置よりも被写体から遠い位置で撮像したカメラの画像は、撮像範囲が広いという特徴がある。
【0041】
このカメラの選択順序について、図3を用いて具体的に説明する。図3において、51は被写体、52〜55はカメラ、56は仮想視点位置である。カメラ52〜55の光軸はZ軸に平行であり、仮想視点位置からZ軸に平行な視線方向で撮像したような仮想視点画像を生成するものとする。
【0042】
図3のような配置の場合、視点位置選択手段25は、仮想視点位置よりも被写体に近い位置にあるカメラの中で被写体に最も近いカメラ52を第1順位で用いるカメラとし、その次に近いカメラ53を第2順位で用いるカメラとして選択する。そして、仮想視点位置よりも被写体から遠い位置にあるカメラの中で被写体に最も近いカメラ54を第3順位で用いるカメラ、その次に近いカメラ55を第4順位で用いるカメラとして選択する。
【0043】
次に、奥行きマップ生成手段22の処理について説明する。
【0044】
上述したように、奥行きマップ生成手段22は、多眼カメラ画像の対応点を抽出してステレオ法により奥行きを推定する方法で奥行きマップを生成したり、レーザレンジファインダなどを用いる方法で奥行きマップを生成することになるが、ここでは、前者の方法で奥行きマップを生成することで説明する。
【0045】
この奥行きマップは、ある視点位置から撮影された画像中の各画素について、カメラから被写体までの距離の値を保持するものである。いわば、通常の画像は画像面上の各画素に輝度と色度とが対応しているものであるのに対し、奥行きマップは画像面上の各画素に奥行き値が対応しているのである。
【0046】
多眼カメラとして、図4に示すように、原点に基準カメラ61を置き、その周りの一定の距離Lに4つの参照カメラ62〜65を置くものを想定する。すべてのカメラの光軸は平行にする。また、すべてのカメラは同じ仕様のものを用い、仕様の違いはカメラの構成に応じて補正し、図4に示すような幾何学構成に補正する。
【0047】
図4の配置では、3次元空間の点P=(X,Y,Z)は、X−Y平面から焦点距離fの距離にある基準画像上の点p0 =(u0,v0 )に投影される。ここで、「u0 =fX/Z,v0 =fY/Z」である。また、点Pは、参照カメラCi (i=1〜4)の画像上の点pi =(ui,vi )にも投影される。ここで、
ui =f(X−Di,x )/Z vi =f(Y−Di,y )/Z
但し、D1 =(D1,x ,D1,y )=(L,0)
D2 =(D2,x ,D2,y )=(−L,0)
D3 =(D3,x ,D3,y )=(0,L)
D4 =(D4,x ,D4,y )=(0,−L)
である。
【0048】
すべての参照カメラ62〜65と基準カメラ61の基線長が等しい構成の下では、点Pの真の視差di は、すべてのiに対して、
di =fL/Z=|pi −p0 |
であることから、視差di を推定することによって奥行きZが取得できる。なお、視差から奥行きを求めるためには最低2台のカメラがあれば可能である。
【0049】
次に、仮想視点奥行きマップ生成手段23の処理について説明する。
【0050】
仮想視点奥行きマップ生成手段23は、奥行きマップ生成手段22で生成された奥行きマップとカメラの位置情報とから、仮想視点位置から見た奥行きマップを生成する。
【0051】
図5に、実写画像を撮影した視点と仮想視点のカメラ座標系と投影画像面の座標系とを示す。選択された奥行きマップのカメラ座標系を(X1,Y1,Z1 )T 、仮想視点位置のカメラ座標系を(X2,Y2,Z2 )T とする。
【0052】
この選択された奥行きマップ上の任意の点p1 =(u1,v1 )に投影された3次元空間の点P=(X1,Y1,Z1 )T のZ1 が求められているとき、実視点の座標系から見た点PのX,Y座標はそれぞれ
X1 =Z1 u1 /f (式1)
Y1 =Z1 v1 /f (式2)
で与えられる。ここで、fはカメラの焦点距離である。
【0053】
今、二つの座標系(X1,Y1,Z1 )T と(X2,Y2,Z2 )T とが、回転行列R21=〔rij〕∈R3*3 と並進行列T21=(Δx,Δy,Δz)T とを用いて
(X2,Y2,Z2 )T =R21(X1,Y1,Z1 )T +T21 (式3)
の関係で表せるとする。
【0054】
(式3)より得られた奥行き値Z2 は、仮想視点座標系(X2,Y2,Z2 )T で見た点Pの奥行き値である。点P=(X2,Y2,Z2 )T は、仮想視点奥行きマップ上の点p2 =(u2,v2 )に投影される。この(u2,v2 )は、(式3)により得られたX2,Y2 を用いて、次式により求められる。
【0055】
u2 =fX2 /Z2 (式4)
v2 =fY2 /Z2 (式5)
従って、仮想視点奥行きマップ上の点p2 =(u2,v2 )の奥行き値をZ2 と決定できる。
【0056】
以上の処理を、奥行きマップ中のすべての点(u1,v1 )について繰り返し行い、選択された奥行きマップの保持する奥行きの値を、仮想視点から見た奥行きマップ中の画素の奥行き値に変換する。
【0057】
このとき、同時に(u1,v1 )の画素の輝度値と色度値とを、仮想視点画像上の画素(u2,v2 )に描画すると、仮想視点画像を生成することができる。
【0058】
しかし、ここで生成される仮想視点奥行きマップには、奥行き値の欠損した画素や奥行き値にノイズが含まれる場合がある。このような場合は、奥行き値の欠損した画素を、周囲の画素の奥行き値を用いて線形に補間したり、奥行きマップを平滑化処理することにより、奥行き値の欠損部分やノイズの少ない仮想視点奥行きマップを生成することができる。
【0059】
次に、この補間処理及び平滑化処理について、図6を用いて説明する。ここで、図6(B)〜(E)は、図6(A)に示す球を撮像した画像を走査線A−Bで切断し、その走査線上の奥行きの値を縦軸に表したものである。
【0060】
この補間処理では、仮想視点奥行きマップ生成手段23で生成された(B)に示す仮想視点奥行きマップ中の、オクルージョンにより視差が推定できなかったために奥行き値を持たない画素71の奥行き値を、局所的な領域内では奥行きは急激に変化しないという仮定の下、奥行き値が既知である周囲の画素72の奥行き値等を用いて線形補間することで求める。その結果として、すべての画素の奥行き値を持つ(C)に示す仮想視点奥行きマップが生成される。
【0061】
一方、この平滑化処理では、補間処理により求められた(C)に示す仮想視点奥行きマップの奥行き値の平滑化処理を行う。まず、仮想視点奥行きマップの走査線上で奥行き値が急激に変換している画素73の奥行き値を除去し、局所的な領域内では奥行きは急激に変化しないという仮定の下、周囲の画素74の奥行き値を用いて線形補間処理を行い、(D)に示す仮想視点奥行きマップを生成する。更に、被写体の表面を滑らかな局面で近似するために、仮想視点奥行きマップ全体に対して平滑化処理を行い、(E)に示す仮想視点奥行きマップを得る。
【0062】
次に、仮想視点画像生成手段24の処理について、図7を用いて説明する。
【0063】
仮想視点画像生成手段24は、仮想視点奥行きマップ生成手段23で用いた座標変換の逆変換を行うことで、仮想視点奥行きマップ中の点p2 =(u2,v2 )に対応する実写画像上の点p3 =(u3,v3 )を求めて、この点(u3,v3 )の画素の輝度値と色度値を、仮想視点画像中の点(u2,v2 )に描画することで仮想視点画像を生成する。
【0064】
仮想視点画像生成手段24で用いる座標変換は、仮想視点奥行きマップ生成手段23で用いたものの逆変換にあたる。仮想視点奥行きマップ生成手段23の生成した仮想視点奥行きマップに線形補間処理や平滑化処理を加えたことにより、仮想視点奥行きマップの保持する奥行き値が変化しているため、もう一度新しい奥行き値を用いて座標変換を行う必要があることから、この逆変換を行うのである。
【0065】
ここで、仮想視点奥行きマップの座標系を(X2,Y2,Z2 )T 、多眼画像(図4に示したような多眼カメラにより撮像される画像)の中の任意の1枚の座標系を(X3,Y3,Z3 )T とする。
【0066】
仮想視点奥行きマップ中の任意の点p2 =(u2,v2 )の画素の奥行き値がZ2 であるとき、この画素p2 =(u2,v2 )に投影される被写体の3次元空間中の点P=(X2,Y2,Z2 )T の座標は、
X2 =Z2 u2 /f (式6)
Y2 =Z2 v2 /f (式7)
で与えられる。ここで、fはカメラの焦点距離である。
【0067】
今、二つの座標系(X2,Y2,Z2 )T と(X3,Y3,Z3 )T とが、回転行列R32=〔rij〕∈R3*3 と並進行列T32=(Δx,Δy,Δz)T を用いて
(X3,Y3,Z3 )T =R32(X2,Y2,Z2 )T +T32 (式8)
の関係で表せるとする。
【0068】
Z2 と(式6)により求まるX2 と(式7)により求まるY2 とを(式8)に代入すると、(X3,Y3,Z3 )T 系で見た、仮想視点画像中の点(u2,v2 )に投影される被写体の3次元空間中の点P=(X3,Y3,Z3 )T が計算される。この点Pは実写画像上の点p3 =(u3,v3 )に投影される。
【0069】
この(u3,v3 )は、(式8)式により得られたX3,Y3 を用いて、次式により計算することができる。
【0070】
u3 =fX3 /Z3 (式9)
v3 =fY3 /Z3 (式10)
この(式9)(式10)により計算された撮像画像中の点(u3,v3 )の画素の輝度値と色度値を、仮想視点画像中の点(u2,v2 )に描画する。この処理を撮像画像中のすべての点について繰り返し行うことで、仮想視点画像が生成されることになる。
【0071】
上述したように、視点位置選択手段25は、図3のようにカメラが配置される場合には、仮想視点位置よりも被写体に近い位置にあるカメラの中で仮想視点位置に最も近いカメラ52を第1順位で用いるカメラとし、その次に仮想視点位置に近いカメラ53を第2順位で用いるカメラとして選択する。そして、仮想視点位置よりも被写体から遠い位置にあるカメラの中で仮想視点位置に最も近いカメラ54を第3順位で用いるカメラとし、その次に仮想視点位置に近いカメラ55を第4順位で用いるカメラとして選択する。
【0072】
このようにして選択される4つのカメラからの奥行きマップと画像とを用いて仮想視点画像を生成する効果を、図8を用いて説明する。
【0073】
第1順位から第4順位のカメラからの奥行きマップと画像とから生成された仮想視点画像は、図8に示したようなa,b,c,dの4つの領域におおまかに分けることができる。a,b,c,dの4つの領域は、それぞれ52,53,54,55のカメラの奥行きマップと画像とを基に生成されたものである。
【0074】
カメラ54とカメラ55とで撮像される範囲を合わせると、仮想視点位置で撮像される範囲を十分に含んでいるため、カメラ54とカメラ55の奥行きマップと画像とから仮想視点画像を生成することができるが、生成される仮想視点画像の解像度は、もとの画像の解像度よりも粗くなる。そこで、仮想視点画像の中心部分についてはカメラ52とカメラ53の奥行きマップと画像とを用いることで、仮想視点画像の解像度の低下を抑えることができる。
【0075】
次に、図9〜図11に従って、本実施例の手順について詳細に説明する。
【0076】
図9(a)は第1順位のカメラ52の撮像した画像、図9(b)は第2順位のカメラ53の撮像した画像、図9(c)はカメラ52の撮像した画像(多眼画像)から生成された奥行きマップ、図9(d)はカメラ53の撮像した画像(多眼画像)から生成された奥行きマップである。
【0077】
図10(a)は第3順位のカメラ54の撮像した画像、図10(b)は第4順位のカメラ55の撮像した画像、図10(c)はカメラ54の撮像した画像(多眼画像)から生成された奥行きマップ、図10(d)はカメラ55の撮像した画像(多眼画像)から生成された奥行きマップである。
【0078】
ここで、これら奥行きマップでは、奥行き値が濃淡値で表されており、視点位置と被写体との間の距離が近づくほど、薄い色で示されている。
【0079】
図11(a)は、図9(c)(d)に示す奥行きマップをもとに生成された、図3に示す仮想視点位置56での仮想視点奥行きマップである。図11(a)の上下に現れている空白の領域は、カメラ52およびカメラ53での撮像範囲外の領域であるために、仮想視点奥行きマップ上では奥行き値が欠損している領域である。
【0080】
図11(b)は、図11(a)の仮想視点奥行きマップに図9(a)(b)の画像をマッピングして生成された仮想視点画像である。図11(b)の上下に現れている空白の領域は、図11(a)の仮想視点奥行きマップで奥行き値が欠損しているために、画像をマッピングすることができない領域である。
【0081】
このように、図11(b)は、仮想視点位置より被写体に近い視点位置で撮像された実写画像およびその視点位置から見た奥行きマップをもとに生成されているため、解像度の低下はないが、生成できる画像サイズがもとの画像サイズよりも小さい。
【0082】
図11(c)は、図11(a)の奥行きマップの欠損部分を、図10(c)(d)に示す奥行きマップの持つ奥行き情報をもとに補間した仮想視点奥行きマップである。
【0083】
図11(d)は、図11(b)の仮想視点画像の欠損部分に、図11(c)の奥行き情報をもとに図10(a)(b)の画像をマッピングして生成された仮想視点画像である。図11(d)で新たに生成された領域は、もとの画像より解像度が低下しているものの、画像の中心部分ではもとの画像の解像度が保たれている。
【0084】
このようにして、本発明では、仮想視点位置よりも被写体に近い視点位置で撮像した奥行きデータおよび画像を優先的に選択して仮想視点画像を生成する手法であるため、仮想視点画像の解像度の低下を最小限に抑えることができるのである。
【0085】
本発明で用いられるカメラ配置と仮想視点位置は、図1に示したものに限られるものではない。
【0086】
例えば、図12に示すようなカメラ配置と仮想視点位置に対しても、そのまま適用できる。
【0087】
図中、31〜36はカメラ位置、37は仮想視点位置の動く範囲である。31〜36のカメラ位置にはそれぞれ多眼カメラが配置されていて、画像を撮像するのと同時に、それぞれの場所から見た奥行きマップを取得することができる。すべてのカメラの光軸は、被写体に対向してy軸からθi (i=31〜36、添字iはカメラ位置を示す)回転した方向とする。
【0088】
この図12のカメラ配置では、仮想視点位置37がカメラ位置31,32,35,36に囲まれた平面上にあり、視野範囲の領域がカメラの撮像範囲に含まれているような視線方向である場合に、欠損領域の少ない仮想視点画像が得られる。
【0089】
図12に示した配置は、カメラの配置できる場所に制限がある場合に、仮想空間の中を自由に歩き回っているかのような連続した画像、すなわちウォークスルー画像を提供する場合に有効である。すべてのカメラの3次元空間中の位置は既知とする。図12では6カ所の位置で撮像した画像と奥行きマップを取得する場合を示したが、画像と奥行きマップを取得する視点位置の数に制約はない。
【0090】
また、図13に示すようなカメラ配置と仮想視点位置に対しても、そのまま適用できる。
【0091】
図中、41〜46はカメラ位置、47は仮想視点位置の動く範囲である。41〜46のカメラ位置にはそれぞれ多眼カメラが360度見回せるように配置されていて、画像を撮像するのと同時に、それぞれの場所から見た全周方向の奥行きマップを取得することができる。すべてのカメラの光軸は、被写体に対向してx軸からΦi (i=41〜46、添字iはカメラ位置を示す)y軸からθi (i=41〜46、添字iはカメラ位置を示す)回転した方向とする。
【0092】
この図13のカメラ配置では、仮想視点位置47がカメラ位置41,42,45,46に囲まれた平面よりも下部の領域(点線で囲まれた領域)にあり、視野範囲の領域がカメラの撮像範囲に含まれているような視線方向である場合に、欠損領域の少ない仮想視点画像が得られる。
【0093】
このような配置は、部屋の天井にカメラを配置した場合に、360度任意の視線方向も可能なウォークスルー画像を提供する場合に有効である。すべてのカメラの3次元空間中の位置は既知とする。図13では6カ所の位置で撮像した画像と奥行きマップを取得する場合を示したが、画像と奥行きマップを取得する視点位置の数に制約はない。
【0094】
図示実施例に従って本発明を説明したが、本発明はこれに限定されるものではない。例えば、実施例では、被写体に対向して前後左右に配置される6台のカメラを想定したが、カメラの台数や配置形態はこれに限られるものではない。
【0095】
また、実施例では、先ず最初に、仮想視点位置よりも被写体に近いカメラの中で、最も仮想視点位置に近いカメラを選択することで仮想視点奥行きマップの基本部分を生成し、それに続いて、仮想視点位置よりも被写体から遠いカメラの中で、被写体に近いカメラを優先的に選択していくことで、その仮想視点奥行きマップの欠落個所を生成して仮想視点奥行きマップを完成させていくという方法を用いたが、高速処理が要求される場合には、画質よりも処理速度を優先させて、そのような順番に従わずにカメラを選択していくことで、仮想視点奥行きマップを高速に完成させていくという方法を用いてもよい。
【0096】
【発明の効果】
以上説明したように、本発明では、仮想視点位置よりも被写体に近い視点位置で撮像した奥行きデータおよび画像を優先的に選択して仮想視点画像を生成する手法であるため、仮想視点画像の解像度の低下を最小限に抑えることができるようになる。
【0097】
また、本発明では、複数の奥行きマップを統合して1枚の仮想視点の奥行きマップを生成するため、奥行きマップの生成に関与しない画像間については対応点を推定する必要がない。従って、すべての多視点画像間の対応点が抽出されなくても、仮想視点画像を生成することができる。このため、多視点画像のカメラ間隔が離れている場合においても、滑らかな仮想視点画像を生成することができるようになる。
【0098】
また、本発明では、仮想視点位置から見える範囲が、複数の視点位置のカメラの撮像範囲に含まれていれば、仮想視点画像を生成することができるため、カメラの配置にかかる制限を軽減することができるようになる。
【0099】
また、本発明では、光軸に対して前後方向にもカメラを配置し、仮想視点画像の中心部分付近では仮想視点位置よりも被写体に近いカメラの画像を使って仮想視点画像を生成するため、ウォークスルー動画像においてもフレーム間の切り替えが滑らかな動画像を生成することができるようになる。
【図面の簡単な説明】
【図1】本発明で用いられるカメラ配置/仮想視点位置の一例である。
【図2】本発明を実現するための機能構成の一実施例である。
【図3】カメラの選択手順の説明図である。
【図4】多眼カメラシステムの一例である。
【図5】仮想視点奥行きマップ生成手段で用いる座標変換の説明図である。
【図6】補間処理/平滑化処理の説明図である。
【図7】仮想視点画像生成手段で用いる座標変換の説明図である。
【図8】本発明により生成される仮想視点画像の説明図である。
【図9】実施例の動作説明図である。
【図10】実施例の動作説明図である。
【図11】実施例の動作説明図である。
【図12】本発明で用いられるカメラ配置/仮想視点位置の他の例である。
【図13】本発明で用いられるカメラ配置/仮想視点位置の他の例である。
【図14】従来技術の説明図である。
【図15】従来技術の説明図である。
【図16】従来技術の説明図である。
【符号の説明】
21 多眼画像入力手段
22 奥行きマップ生成手段
23 仮想視点奥行きマップ生成手段
24 仮想視点画像生成手段
25 視点位置選択手段
Claims (4)
- 被写体に対向して配置された複数のカメラによって撮像される画像を基に、実際にはカメラの置かれていない仮想視点位置で撮像したような画像を生成する画像生成方法において、
被写体に対向して左右方向、かつ光軸に対して前後方向に配置された複数のカメラにより撮像される実写画像の各画素について被写体までの奥行き値を保持する奥行きマップを生成する第1の処理過程と、
(i)光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、最も仮想視点位置に近いカメラを選択し、そのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、仮想視点位置から見た奥行きマップを生成し、( ii )光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、その次に仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの欠落部分を生成し、 (iii )光軸の向きに対して仮想視点位置よりも被写体から遠いカメラの中で、最も仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの残されている欠落部分を生成することで、仮想視点位置から見た奥行きマップを生成する第2の処理過程と、
生成した仮想視点奥行きマップを基に、その仮想視点奥行きマップの生成元となった奥行きマップに対応付けられる実写画像の画素の色情報を描画することで、仮想視点位置から見た画像を生成する第3の処理過程とを備える
ことを特徴とする画像生成方法。 - 請求項1記載の画像生成方法において、
第1の処理過程で、多眼カメラにより撮像される実写画像の対応点を抽出し、ステレオ法により三角測量の原理を用いて奥行き値を推定することで奥行きマップを生成する
ことを特徴とする画像生成方法。 - 請求項1記載の画像生成方法において、
第1の処理過程で、レーザ光による画像パターンを被写体に照射することにより奥行き値を推定することで奥行きマップを生成する
ことを特徴とする画像生成方法。 - 被写体に対向して配置された複数のカメラによって撮像される画像を基に、実際にはカメラの置かれていない仮想視点位置で撮像したような画像を生成する画像生成装置において、
被写体に対向して左右方向、かつ光軸に対して前後方向に配置された複数のカメラにより撮像される実写画像の各画素について被写体までの奥行き値を保持する奥行きマップを生成する手段と、
(i)光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、最も仮想視点位置に近いカメラを選択し、そのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、仮想視点位置から見た奥行きマップを生成し、( ii )光軸の向きに対して仮想視点位置よりも被写体に近いカメラの中で、その次に仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの欠落部分を生成し、 (iii )光軸の向きに対して仮想視点位置よりも被写体から遠いカメラの中で、最も仮想視点位置に近いカメラから順に選択し、それらのカメラにより撮像される実写画像に対応付けられる奥行きマップを基に、前記奥行きマップの残されている欠落部分を生成することで、仮想視点位置から見た奥行きマップを生成する手段と、
生成した仮想視点奥行きマップを基に、その仮想視点奥行きマップの生成元となった奥行きマップに対応付けられる実写画像の画素の色情報を描画することで、仮想視点位置から見た画像を生成する手段とを備える
ことを特徴とする画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23776699A JP3561446B2 (ja) | 1999-08-25 | 1999-08-25 | 画像生成方法及びその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23776699A JP3561446B2 (ja) | 1999-08-25 | 1999-08-25 | 画像生成方法及びその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001067473A JP2001067473A (ja) | 2001-03-16 |
JP3561446B2 true JP3561446B2 (ja) | 2004-09-02 |
Family
ID=17020137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23776699A Expired - Fee Related JP3561446B2 (ja) | 1999-08-25 | 1999-08-25 | 画像生成方法及びその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3561446B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8928755B2 (en) | 2009-10-30 | 2015-01-06 | Canon Kabushiki Kaisha | Information processing apparatus and method |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
US7538774B2 (en) | 2003-06-20 | 2009-05-26 | Nippon Telegraph And Telephone Corporation | Virtual visual point image generating method and 3-d image display method and device |
JP4595313B2 (ja) * | 2003-11-14 | 2010-12-08 | ソニー株式会社 | 撮像表示装置及び方法、画像送受信システム |
JP4706068B2 (ja) * | 2007-04-13 | 2011-06-22 | 国立大学法人名古屋大学 | 画像情報処理方法及び画像情報処理システム |
RU2454721C2 (ru) | 2007-10-15 | 2012-06-27 | Ниппон Телеграф Энд Телефон Корпорейшн | Устройство и способ для формирования изображения, программа для его реализации и носитель информации, который хранит программу |
US8355596B2 (en) | 2007-10-15 | 2013-01-15 | Nippon Telegraph And Telephone Corporation | Image generation method and apparatus, program therefor, and storage medium which stores the program |
JP4838275B2 (ja) * | 2008-03-03 | 2011-12-14 | 日本電信電話株式会社 | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP5249114B2 (ja) * | 2009-04-03 | 2013-07-31 | Kddi株式会社 | 画像生成装置、方法及びプログラム |
JP5222205B2 (ja) * | 2009-04-03 | 2013-06-26 | Kddi株式会社 | 画像処理装置、方法及びプログラム |
WO2012063540A1 (ja) * | 2010-11-12 | 2012-05-18 | シャープ株式会社 | 仮想視点画像生成装置 |
JP5488929B2 (ja) * | 2011-02-23 | 2014-05-14 | 国立大学法人名古屋大学 | 画像情報処理方法及び画像情報処理システム |
JP5725953B2 (ja) * | 2011-04-13 | 2015-05-27 | キヤノン株式会社 | 撮像装置及びその制御方法、並びに情報処理装置 |
EP3383035A1 (en) * | 2017-03-29 | 2018-10-03 | Koninklijke Philips N.V. | Image generation from video |
WO2021215236A1 (ja) * | 2020-04-21 | 2021-10-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および記録媒体 |
WO2021220891A1 (ja) * | 2020-04-27 | 2021-11-04 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
-
1999
- 1999-08-25 JP JP23776699A patent/JP3561446B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8928755B2 (en) | 2009-10-30 | 2015-01-06 | Canon Kabushiki Kaisha | Information processing apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
JP2001067473A (ja) | 2001-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3593466B2 (ja) | 仮想視点画像生成方法およびその装置 | |
JP3561446B2 (ja) | 画像生成方法及びその装置 | |
US9438878B2 (en) | Method of converting 2D video to 3D video using 3D object models | |
JP4942221B2 (ja) | 高解像度仮想焦点面画像生成方法 | |
US6233004B1 (en) | Image processing method and apparatus | |
JP5011168B2 (ja) | 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP3524147B2 (ja) | 3次元画像表示装置 | |
Zhang et al. | Stereoscopic video synthesis from a monocular video | |
US8577202B2 (en) | Method for processing a video data set | |
KR20120072146A (ko) | 파노라마 영상을 이용한 입체 영상 생성 장치 및 방법 | |
US12026903B2 (en) | Processing of depth maps for images | |
JP2005235211A (ja) | 中間時点の画像合成方法及びそれを適用した3dディスプレイ装置 | |
EP3446283A1 (en) | Image stitching method and device | |
KR102723109B1 (ko) | 광각 이미지로부터의 디스패리티 추정 | |
Knorr et al. | Stereoscopic 3D from 2D video with super-resolution capability | |
JPH09245195A (ja) | 画像処理方法およびその装置 | |
Knorr et al. | An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion | |
JPH0981746A (ja) | 二次元表示画像生成方法 | |
US7064767B2 (en) | Image solution processing method, processing apparatus, and program | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
CN117196955A (zh) | 一种全景图像拼接方法及终端 | |
JPH07296195A (ja) | 画像処理装置及び方法 | |
JP3122629B2 (ja) | 任意視点画像生成装置 | |
CN109379577B (zh) | 一种虚拟视点的视频生成方法、装置及设备 | |
JPH08116556A (ja) | 画像処理方法および装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20031211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20031224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040528 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100604 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |