JP2001067473A - 画像生成方法及びその装置 - Google Patents
画像生成方法及びその装置Info
- Publication number
- JP2001067473A JP2001067473A JP23776699A JP23776699A JP2001067473A JP 2001067473 A JP2001067473 A JP 2001067473A JP 23776699 A JP23776699 A JP 23776699A JP 23776699 A JP23776699 A JP 23776699A JP 2001067473 A JP2001067473 A JP 2001067473A
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- image
- depth map
- viewpoint position
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
その奥行きマップとから、仮想視点位置から見た画像を
生成する構成を採るときにあって、写実性が高く、仮想
視点位置の移動が広く、ウォークスルー等のアプリケー
ションにも適用可能となる画像を生成できるようにする
ことを目的とする。 【解決手段】奥行きマップを生成する。そして、仮想視
点位置よりも被写体に近い中で仮想視点位置に最も近い
奥行きマップを選択して、仮想視点奥向きマップを生成
し、その欠落部分を生成可能とする仮想視点位置よりも
被写体に近い奥行きマップを選択して、その欠落部分を
生成し、残りの欠落部分を生成可能とする仮想視点位置
よりも被写体から遠い奥行きマップを選択して、その残
りの欠落部分を生成することで仮想視点奥向きマップを
生成する。そして、生成した仮想視点奥行きマップを基
に、対応する実写画像の画素の色情報を描画する。
Description
撮像した複数の画像と、その視点位置から見た被写体の
奥行情報とから、実際にはカメラの置かれていない視点
位置から見た画像を生成する画像生成方法及びその装置
に関する。
置とは異なる視点の画像を生成する方法として、例えば
「多視点映像から任意視点映像の生成」(信学技報,IE
96-121;91-98,1997.)に記載されている方法がある。こ
の方法では、多視点画像から物体の奥行きマップを推定
し、このマップを仮想的な視点の奥行きマップに変換し
た後、与えられた多視点画像を利用して仮想視点画像を
生成する。
ラシステムのカメラ配置と仮想視点画像生成の概念を示
す。図14において、91〜95はカメラ、96は生成
する仮想視点画像の視点位置と視線方向を示したもので
ある。
影した基準画像中のある点に対し、参照カメラ91,9
3,94,95で撮影した各参照画像のエピポーラライ
ンに沿ってマッチングウィンドウを1画素ずつ移動させ
ながら、マッチングの尺度であるSSD(sum of square
d-difference)を計算する。マッチングウィンドウをd
だけ移動させた時、4つの方向からSSDの値が計算さ
れる。このうち、小さい方の2つの値を加算する。この
ような処理を探索範囲内にわたって行い、その最小値の
ところのdを視差として求める。視差dと奥行きzは、
カメラの焦点距離fとカメラ間距離bと次式の関係があ
る。
た奥行きマップを生成する。次に、この奥行きマップを
96に示す仮想視点位置から見た奥行きマップに変換す
る。基準カメラ92から観測できる領域は、同時に仮想
視点画像に、基準カメラ92によって撮像された画像の
色情報を描画して仮想視点画像を生成する。視点の移動
に伴い新たに生じた領域は、奥行き値を線形補間し、参
照画像の色情報を描画して、仮想視点画像を生成する。
像の各画素について対応点を推定しなければならないた
め、基準カメラ92と参照カメラ91,93,94,9
5の間隔、すなわち基線長が制限される。仮想視点画像
は、多視点画像の色情報を描画して生成されるので、自
然な仮想視点画像が得られる仮想視点位置は図14の点
線で示した範囲内に限られる。ゆえに仮想視点の置ける
範囲が制限される問題がある。
自由に歩き回っているかのような連続した画像、すなわ
ちウォークスルー画像を、実写画像をもとに生成する場
合には、基準カメラ92の位置よりも被写体に近い視点
位置での仮想視点画像の解像度が、画像のすべての領域
で低下するという問題がある。
Generation for Three-Dimentional Scenes from Vide
o Sequence」(IEEE Trans.Image Processing,vol.6 p
p.584-598, Apr 1997)に記載されているような方法が
ある。これは、ビデオカメラで撮影した一連の映像シー
クエンスを基に、3次元空間における物体の位置および
輝度の情報を取得し、これを生成しようとする画像の視
点に合わせて3次元空間に幾何変換し、さらに2次元平
面に射影する方法である。
学的に示したものである。図15において、101は被
写体、102はビデオカメラ、103はビデオカメラ1
02で撮影するときの水平な軌道である。この方法で
は、ビデオカメラ102を手に持ち、軌道103に沿っ
てビデオカメラ102を移動しながら撮像した映像シー
クエンスを用いて、3次元空間における物体の位置およ
び輝度の情報を取得する。
像シークエンスに含まれる個々の映像フレームの位置関
係を示した図である。図16において、111〜115
はビデオカメラ102で撮影した映像フレームである。
この図に示すように、個々のフレームが視差像となるの
で、これらの画像間で対応点を抽出することにより、被
写体の3次元空間における位置及び輝度の情報が求めら
れる。
動しながら撮像した映像シークエンスを用いて仮想視点
画像を生成するため、この方法によってビデオカメラ1
02の移動方向に対して垂直方向に移動するウォークス
ルー画像を生成する場合には、基準カメラ位置よりも被
写体に近い仮想視点位置での仮想視点画像の解像度が、
画像のすべての領域で低下するという問題がある。
問題点の解決を図るために、本発明者は、特願平11-125
62号で、新たな仮想視点画像生成方法(装置)の発明を
開示した。
視点位置で撮像した画像と各視点位置から見た奥行きマ
ップとを利用して、仮想視点画像を生成する方法を採っ
ている。
れば、従来技術の持つ問題点を解決できるようになるも
のの、仮想視点位置に最も近い視点位置で撮像した画像
を優先的に用いて仮想視点画像を生成していくという方
法を採っていることから、ウォークスルー画像を生成す
る場合には、その視点位置よりも被写体に近い仮想視点
位置での仮想視点画像の解像度が、画像のすべての領域
で低下するという問題が残されている。
のである。本発明の目的は、実カメラ位置よりも被写体
の近づいた位置における仮想視点画像の解像度の低下を
画像の中心付近で回避し、ぼけや歪みが少なく、写実性
が高く、仮想視点位置の移動範囲が広い、ウォークスル
ー等のアプリケーションにも適用可能な仮想視点画像を
生成できるようにする新たな画像生成方法及びその装置
を提供することにある。
するための代表的な手段の概要を以下に簡単に説明す
る。
カメラによって撮像された画像を基に、実際にはカメラ
の置かれていない仮想視点位置で撮像したような画像を
生成する画像生成方法において、実写画像の各画素につ
いて被写体までの奥行き値を保持する奥行きマップを生
成する第1の処理過程と、仮想視点位置よりも被写体に
近いカメラにより撮像される1つ又は複数の実写画像
と、それに対応付けられる奥向きマップとを選択すると
ともに、仮想視点位置よりも被写体から遠いカメラによ
り撮像される1つ又は複数の実写画像と、それに対応付
けられる奥向きマップとを選択して、それらの奥行きマ
ップを基に、仮想視点位置から見た奥向きマップを生成
する第2の処理過程と、生成した仮想視点奥向きマップ
を基に、その仮想視点奥行きマップの生成元となった奥
行きマップに対応付けられる実写画像の画素の色情報を
描画することで、仮想視点位置から見た画像を生成する
第3の処理過程とを備えることを特徴とする。
て、第1の処理過程で、多眼カメラにより撮像される実
写画像の対応点を抽出し、ステレオ法により三角測量の
原理を用いて奥行き値を推定することで奥行きマップを
生成することを特徴とする。
て、第1の処理過程で、レーザ光による画像パターンを
被写体に照射することにより奥行き値を推定することで
奥行きマップを生成することを特徴とする。
れる画像生成方法において、第2の処理過程で、仮想視
点位置よりも被写体に近い中で仮想視点位置に最も近い
奥行きマップを選択して、それを基に、仮想視点位置か
ら見た奥向きマップを生成し、その仮想視点奥向きマッ
プの欠落部分の一部分を生成可能とする仮想視点位置よ
りも被写体に近い1つ又は複数の奥行きマップを選択し
て、それを基に、その欠落部分の一部分を生成し、残さ
れている欠落部分を生成可能とする仮想視点位置よりも
被写体から遠い1つ又は複数の奥行きマップを選択し
て、それを基に、その残されている欠落部分を生成する
ことで、仮想視点位置から見た奥向きマップを生成する
ことを特徴とする。
カメラによって撮像された画像を基に、実際にはカメラ
の置かれていない仮想視点位置で撮像したような画像を
生成する画像生成装置において、実写画像の各画素につ
いて被写体までの奥行き値を保持する奥行きマップを生
成する手段と、仮想視点位置よりも被写体に近いカメラ
により撮像される1つ又は複数の実写画像と、それに対
応付けられる奥向きマップとを選択するとともに、仮想
視点位置よりも被写体から遠いカメラにより撮像される
1つ又は複数の実写画像と、それに対応付けられる奥向
きマップとを選択して、それらの奥行きマップを基に、
仮想視点位置から見た奥向きマップを生成する手段と、
生成した仮想視点奥向きマップを基に、その仮想視点奥
行きマップの生成元となった奥向きマップに対応付けら
れる実写画像の画素の色情報を描画することで、仮想視
点位置から見た画像を生成する手段とを備えることを特
徴とする。
も被写体に近いカメラの中で、仮想視点位置に最も近い
視点位置(視点位置A)のカメラから見た奥行きマップ
を基に被写体の3次元空間中での形状及び位置を求め、
この被写体の形状及び位置情報を基に仮想視点位置から
見た奥行きマップを生成し、上記視点位置Aからでは物
体の影等によって隠されている仮想視点奥行きマップの
領域を、その領域が隠されず、かつ仮想視点位置よりも
被写体に近い他の視点位置(視点位置B:複数のことも
ある)のカメラから見た奥行きマップを基に補間し、上
記視点位置A,Bからでは撮像範囲外となる仮想視点奥
行きマップの領域を、その領域が撮像範囲となる視点位
置(仮想視点位置よりも被写体から遠い視点位置C:複
数のこともある)のカメラから見た奥行きマップを基に
補間することで、仮想視点奥行きマップを生成する。
3次元情報に従って、上記視点位置Aで撮像された実写
画像の色情報を描画することで、対応する仮想視点画像
部分を生成し、生成した仮想視点奥行きマップの3次元
情報に従って、上記視点位置Bで撮像された実写画像の
色情報を描画することで、上記視点位置Aからでは物体
の影等によって隠されている仮想視点画像の領域を生成
し、生成した仮想視点奥行きマップの3次元情報に従っ
て、上記視点位置Cで撮像された実写画像の色情報を描
画することで、上記視点位置A,Bからでは撮像範囲外
となる仮想視点画像の領域を生成することで、仮想視点
画像を生成する。
うとする仮想視点画像の撮像範囲を含むように配置した
異なる複数の視点位置のカメラから見た奥行きマップを
同時に取得し、これらを統合して仮想視点位置から見た
奥行きマップを生成して、仮想視点画像を生成していく
ことを特徴とする。
を抽出して多視点画像間を補間する方法とは、本発明で
は、対応点抽出する多視点画像のカメラ位置の外側に仮
想視点位置を置いても写実性の高い仮想視点画像を生成
できるという点で異なる。また、本発明では、仮想視点
位置をカメラの光軸方向に被写体に近づけても、仮想視
点画像の中心部分付近では解像度の低下を抑えることが
できるという点で異なる。
移動しながら視差像を撮像する方法とは、本発明では、
仮想視点位置をビデオカメラの移動方向に対して垂直方
向に仮想視点位置を移動させても、仮想視点画像の中心
部分付近では解像度の低下を抑えることができるという
点で異なる。
に、複数の視点位置で撮像した画像と各視点位置から見
た奥行きマップとを利用して仮想視点画像を生成する方
法とは、本発明では、仮想視点位置をカメラの光軸方向
に近づけても、仮想視点画像の中心部分付近では解像度
の低下を抑えることができるという点で異なる。
被写体に近い視点位置で撮像した奥行きデータおよび画
像を優先的に選択して仮想視点画像を生成する手法であ
るため、仮想視点画像の解像度の低下を最小限に抑える
ことができる。
統合して1枚の仮想視点の奥行きマップを生成するた
め、奥行きマップの生成に関与しない画像間については
対応点を推定する必要がない。従って、すべての多視点
画像間の対応点が抽出されなくても、仮想視点画像を生
成することができる。このため、多視点画像のカメラ間
隔が離れている場合においても、滑らかな仮想視点画像
を生成することができる。
る範囲が、複数の視点位置のカメラの撮像範囲に含まれ
ていれば、仮想視点画像を生成することができるため、
カメラの配置にかかる制限を軽減することができる。
にもカメラを配置し、仮想視点画像の中心部分付近では
仮想視点位置よりも被写体に近いカメラの画像を使って
仮想視点画像を生成するため、仮想空間の中を自由に歩
き回っているかのような連続した画像、すなわちウォー
クスルー動画像においてもフレーム間の切り替えが滑ら
かな動画像を生成することができる。
ラ配置と仮想視点位置の一例を示す図である。
想視点位置の動く範囲である。11〜16のカメラ位置
にはそれぞれ多眼カメラが配置されていて、画像を撮像
するのと同時に、それぞれの場所から見た奥行きマップ
を取得することができる。すべてのカメラの光軸は、互
いに平行になるように配置されている。また、すべての
カメラの3次元空間中の位置は既知とする。
17がカメラ位置11,12,15,16に囲まれた平
面上にあり、視野範囲の領域がカメラの撮像範囲に含ま
れているような視線方向である場合に、欠損領域の少な
い仮想視点画像が得られる。図1では6カ所の位置で、
撮像画像と奥行きマップを取得する場合を示したが、撮
像画像と奥行きマップを取得する視点位置の数に制約は
ない。
の一実施例である。
配置された多眼カメラからなる多眼画像入力手段、22
は多眼画像入力手段21で入力された多眼画像から奥行
きデータを検出し、画像の各画素に奥行きデータを格納
した奥行きマップを生成する奥行きマップ生成手段、2
5は仮想視点奥行きマップおよび仮想視点画像を生成す
るために用いるカメラの視点位置の順序を決定する視点
位置選択手段、23は奥行きマップ生成手段22で生成
された奥行きマップを基にして、視点位置選択手段25
で決定された順序に従って仮想視点奥行きマップを生成
する仮想視点奥行きマップ生成手段、24は多眼画像入
力手段21で入力された多眼画像から、奥行きマップ生
成手段22で生成された仮想視点奥行きマップの奥行き
データに基づいて仮想視点画像を生成する仮想視点画像
生成手段である。
例えば多眼カメラ画像の対応点を抽出してステレオ法に
より奥行きを推定する方法で奥行きマップを生成した
り、レーザ光による画像パターンを照射することなどに
より能動的に被写体の奥行きを得る方法(例えばレーザ
レンジファインダを用いる方法)で奥行きマップを生成
する。
想視点画像を生成する基となるカメラを選ぶ順序につい
て説明する。
きに対して仮想視点位置よりも被写体に近いカメラの中
で、最も仮想視点位置に近いカメラを第1順位で用いる
カメラ、その次に近いものを第2順位で用いるカメラと
して選択する。前記光軸の向きに対して仮想視点位置よ
りも被写体に近い位置で撮像したカメラの画像は、被写
体の詳細なデータを持つという特徴がある。
したカメラの視点位置からでは仮想視点画像で撮像範囲
外となるような領域を撮像範囲に含むカメラの中で、最
も仮想視点位置に近いカメラから順に第3順位で用いる
カメラ、第4順位で用いるカメラを選択する。すなわ
ち、光軸の向きに対して仮想視点位置よりも被写体から
遠いカメラの中で、最も仮想視点位置に近いカメラを第
3順位で用いるカメラ、その次に近いものを第4順位で
用いるカメラとして選択する。前記光軸の向きに対して
仮想視点位置よりも被写体から遠い位置で撮像したカメ
ラの画像は、撮像範囲が広いという特徴がある。
いて具体的に説明する。図3において、51は被写体、
52〜55はカメラ、56は仮想視点位置である。カメ
ラ52〜55の光軸はZ軸に平行であり、仮想視点位置
からZ軸に平行な視線方向で撮像したような仮想視点画
像を生成するものとする。
段25は、仮想視点位置よりも被写体に近い位置にある
カメラの中で被写体に最も近いカメラ52を第1順位で
用いるカメラとし、その次に近いカメラ53を第2順位
で用いるカメラとして選択する。そして、仮想視点位置
よりも被写体から遠い位置にあるカメラの中で被写体に
最も近いカメラ54を第3順位で用いるカメラ、その次
に近いカメラ55を第4順位で用いるカメラとして選択
する。
ついて説明する。
2は、多眼カメラ画像の対応点を抽出してステレオ法に
より奥行きを推定する方法で奥行きマップを生成した
り、レーザレンジファインダなどを用いる方法で奥行き
マップを生成することになるが、ここでは、前者の方法
で奥行きマップを生成することで説明する。
影された画像中の各画素について、カメラから被写体ま
での距離の値を保持するものである。いわば、通常の画
像は画像面上の各画素に輝度と色度とが対応しているも
のであるのに対し、奥行きマップは画像面上の各画素に
奥行き値が対応しているのである。
点に基準カメラ61を置き、その周りの一定の距離Lに
4つの参照カメラ62〜65を置くものを想定する。す
べてのカメラの光軸は平行にする。また、すべてのカメ
ラは同じ仕様のものを用い、仕様の違いはカメラの構成
に応じて補正し、図4に示すような幾何学構成に補正す
る。
(X,Y,Z)は、X−Y平面から焦点距離fの距離に
ある基準画像上の点p0 =(u0,v0 )に投影される。
ここで、「u0 =fX/Z,v0 =fY/Z」である。
また、点Pは、参照カメラCi (i=1〜4)の画像上
の点pi =(ui,vi )にも投影される。ここで、 ui =f(X−Di,x )/Z vi =f(Y−
Di,y )/Z 但し、D1 =(D1,x ,D1,y )=(L,0) D2 =(D2,x ,D2,y )=(−L,0) D3 =(D3,x ,D3,y )=(0,L) D4 =(D4,x ,D4,y )=(0,−L) である。
ラ61の基線長が等しい構成の下では、点Pの真の視差
di は、すべてのiに対して、 di =fL/Z=|pi −p0 | であることから、視差di を推定することによって奥行
きZが取得できる。なお、視差から奥行きを求めるため
には最低2台のカメラがあれば可能である。
の処理について説明する。
行きマップ生成手段22で生成された奥行きマップとカ
メラの位置情報とから、仮想視点位置から見た奥行きマ
ップを生成する。
点のカメラ座標系と投影画像面の座標系とを示す。選択
された奥行きマップのカメラ座標系を(X1,Y1,Z1 )
T 、仮想視点位置のカメラ座標系を(X2,Y2,Z2 )T
とする。
p1 =(u1,v1 )に投影された3次元空間の点P=
(X1,Y1,Z1 )T のZ1 が求められているとき、実視
点の座標系から見た点PのX,Y座標はそれぞれ X1 =Z1 u1 /f (式1) Y1 =Z1 v1 /f (式2) で与えられる。ここで、fはカメラの焦点距離である。
(X2,Y2,Z2 )T とが、回転行列R 21=〔rij〕∈R
3*3 と並進行列T21=(Δx,Δy,Δz)T とを用い
て (X2,Y2,Z2 )T =R21(X1,Y1,Z1 )T +T21 (式3) の関係で表せるとする。
想視点座標系(X2,Y2,Z2 )T で見た点Pの奥行き値
である。点P=(X2,Y2,Z2 )T は、仮想視点奥行き
マップ上の点p2 =(u2,v2 )に投影される。この
(u2,v2 )は、(式3)により得られたX2,Y2 を用
いて、次式により求められる。
2,v2 )の奥行き値をZ2 と決定できる。
点(u1,v1 )について繰り返し行い、選択された奥行
きマップの保持する奥行きの値を、仮想視点から見た奥
行きマップ中の画素の奥行き値に変換する。
度値と色度値とを、仮想視点画像上の画素(u2,v2 )
に描画すると、仮想視点画像を生成することができる。
マップには、奥行き値の欠損した画素や奥行き値にノイ
ズが含まれる場合がある。このような場合は、奥行き値
の欠損した画素を、周囲の画素の奥行き値を用いて線形
に補間したり、奥行きマップを平滑化処理することによ
り、奥行き値の欠損部分やノイズの少ない仮想視点奥行
きマップを生成することができる。
て、図6を用いて説明する。ここで、図6(B)〜
(E)は、図6(A)に示す球を撮像した画像を走査線
A−Bで切断し、その走査線上の奥行きの値を縦軸に表
したものである。
生成手段23で生成された(B)に示す仮想視点奥行き
マップ中の、オクルージョンにより視差が推定できなか
ったために奥行き値を持たない画素71の奥行き値を、
局所的な領域内では奥行きは急激に変化しないという仮
定の下、奥行き値が既知である周囲の画素72の奥行き
値等を用いて線形補間することで求める。その結果とし
て、すべての画素の奥行き値を持つ(C)に示す仮想視
点奥行きマップが生成される。
り求められた(C)に示す仮想視点奥行きマップの奥行
き値の平滑化処理を行う。まず、仮想視点奥行きマップ
の走査線上で奥行き値が急激に変換している画素73の
奥行き値を除去し、局所的な領域内では奥行きは急激に
変化しないという仮定の下、周囲の画素74の奥行き値
を用いて線形補間処理を行い、(D)に示す仮想視点奥
行きマップを生成する。更に、被写体の表面を滑らかな
局面で近似するために、仮想視点奥行きマップ全体に対
して平滑化処理を行い、(E)に示す仮想視点奥行きマ
ップを得る。
ついて、図7を用いて説明する。
行きマップ生成手段23で用いた座標変換の逆変換を行
うことで、仮想視点奥行きマップ中の点p2 =(u2,v
2 )に対応する実写画像上の点p3 =(u3,v3 )を求
めて、この点(u3,v3 )の画素の輝度値と色度値を、
仮想視点画像中の点(u2,v2 )に描画することで仮想
視点画像を生成する。
換は、仮想視点奥行きマップ生成手段23で用いたもの
の逆変換にあたる。仮想視点奥行きマップ生成手段23
の生成した仮想視点奥行きマップに線形補間処理や平滑
化処理を加えたことにより、仮想視点奥行きマップの保
持する奥行き値が変化しているため、もう一度新しい奥
行き値を用いて座標変換を行う必要があることから、こ
の逆変換を行うのである。
(X2,Y2,Z2 )T 、多眼画像(図4に示したような多
眼カメラにより撮像される画像)の中の任意の1枚の座
標系を(X3,Y3,Z3 )T とする。
(u2,v2 )の画素の奥行き値がZ 2 であるとき、この
画素p2 =(u2,v2 )に投影される被写体の3次元空
間中の点P=(X2,Y2,Z2 )T の座標は、 X2 =Z2 u2 /f (式6) Y2 =Z2 v2 /f (式7) で与えられる。ここで、fはカメラの焦点距離である。
(X3,Y3,Z3 )T とが、回転行列R 32=〔rij〕∈R
3*3 と並進行列T32=(Δx,Δy,Δz)T を用いて (X3,Y3,Z3 )T =R32(X2,Y2,Z2 )T +T32 (式8) の関係で表せるとする。
7)により求まるY2 とを(式8)に代入すると、(X
3,Y3,Z3 )T 系で見た、仮想視点画像中の点(u2,v
2 )に投影される被写体の3次元空間中の点P=(X3,
Y3,Z3 )T が計算される。この点Pは実写画像上の点
p3 =(u3,v3 )に投影される。
られたX3,Y3 を用いて、次式により計算することがで
きる。
(u3,v3 )の画素の輝度値と色度値を、仮想視点画像
中の点(u2,v2 )に描画する。この処理を撮像画像中
のすべての点について繰り返し行うことで、仮想視点画
像が生成されることになる。
は、図3のようにカメラが配置される場合には、仮想視
点位置よりも被写体に近い位置にあるカメラの中で仮想
視点位置に最も近いカメラ52を第1順位で用いるカメ
ラとし、その次に仮想視点位置に近いカメラ53を第2
順位で用いるカメラとして選択する。そして、仮想視点
位置よりも被写体から遠い位置にあるカメラの中で仮想
視点位置に最も近いカメラ54を第3順位で用いるカメ
ラとし、その次に仮想視点位置に近いカメラ55を第4
順位で用いるカメラとして選択する。
らの奥行きマップと画像とを用いて仮想視点画像を生成
する効果を、図8を用いて説明する。
きマップと画像とから生成された仮想視点画像は、図8
に示したようなa,b,c,dの4つの領域におおまか
に分けることができる。a,b,c,dの4つの領域
は、それぞれ52,53,54,55のカメラの奥行き
マップと画像とを基に生成されたものである。
囲を合わせると、仮想視点位置で撮像される範囲を十分
に含んでいるため、カメラ54とカメラ55の奥行きマ
ップと画像とから仮想視点画像を生成することができる
が、生成される仮想視点画像の解像度は、もとの画像の
解像度よりも粗くなる。そこで、仮想視点画像の中心部
分についてはカメラ52とカメラ53の奥行きマップと
画像とを用いることで、仮想視点画像の解像度の低下を
抑えることができる。
手順について詳細に説明する。
した画像、図9(b)は第2順位のカメラ53の撮像し
た画像、図9(c)はカメラ52の撮像した画像(多眼
画像)から生成された奥行きマップ、図9(d)はカメ
ラ53の撮像した画像(多眼画像)から生成された奥行
きマップである。
像した画像、図10(b)は第4順位のカメラ55の撮
像した画像、図10(c)はカメラ54の撮像した画像
(多眼画像)から生成された奥行きマップ、図10
(d)はカメラ55の撮像した画像(多眼画像)から生
成された奥行きマップである。
値が濃淡値で表されており、視点位置と被写体との間の
距離が近づくほど、薄い色で示されている。
行きマップをもとに生成された、図3に示す仮想視点位
置56での仮想視点奥行きマップである。図11(a)
の上下に現れている空白の領域は、カメラ52およびカ
メラ53での撮像範囲外の領域であるために、仮想視点
奥行きマップ上では奥行き値が欠損している領域であ
る。
奥行きマップに図9(a)(b)の画像をマッピングして
生成された仮想視点画像である。図11(b)の上下に
現れている空白の領域は、図11(a)の仮想視点奥行
きマップで奥行き値が欠損しているために、画像をマッ
ピングすることができない領域である。
置より被写体に近い視点位置で撮像された実写画像およ
びその視点位置から見た奥行きマップをもとに生成され
ているため、解像度の低下はないが、生成できる画像サ
イズがもとの画像サイズよりも小さい。
ップの欠損部分を、図10(c)(d)に示す奥行きマッ
プの持つ奥行き情報をもとに補間した仮想視点奥行きマ
ップである。
画像の欠損部分に、図11(c)の奥行き情報をもとに
図10(a)(b)の画像をマッピングして生成された仮
想視点画像である。図11(d)で新たに生成された領
域は、もとの画像より解像度が低下しているものの、画
像の中心部分ではもとの画像の解像度が保たれている。
置よりも被写体に近い視点位置で撮像した奥行きデータ
および画像を優先的に選択して仮想視点画像を生成する
手法であるため、仮想視点画像の解像度の低下を最小限
に抑えることができるのである。
位置は、図1に示したものに限られるものではない。
仮想視点位置に対しても、そのまま適用できる。
想視点位置の動く範囲である。31〜36のカメラ位置
にはそれぞれ多眼カメラが配置されていて、画像を撮像
するのと同時に、それぞれの場所から見た奥行きマップ
を取得することができる。すべてのカメラの光軸は、被
写体に対向してy軸からθi (i=31〜36、添字i
はカメラ位置を示す)回転した方向とする。
置37がカメラ位置31,32,35,36に囲まれた
平面上にあり、視野範囲の領域がカメラの撮像範囲に含
まれているような視線方向である場合に、欠損領域の少
ない仮想視点画像が得られる。
る場所に制限がある場合に、仮想空間の中を自由に歩き
回っているかのような連続した画像、すなわちウォーク
スルー画像を提供する場合に有効である。すべてのカメ
ラの3次元空間中の位置は既知とする。図12では6カ
所の位置で撮像した画像と奥行きマップを取得する場合
を示したが、画像と奥行きマップを取得する視点位置の
数に制約はない。
想視点位置に対しても、そのまま適用できる。
想視点位置の動く範囲である。41〜46のカメラ位置
にはそれぞれ多眼カメラが360度見回せるように配置
されていて、画像を撮像するのと同時に、それぞれの場
所から見た全周方向の奥行きマップを取得することがで
きる。すべてのカメラの光軸は、被写体に対向してx軸
からΦi (i=41〜46、添字iはカメラ位置を示
す)y軸からθi (i=41〜46、添字iはカメラ位
置を示す)回転した方向とする。
置47がカメラ位置41,42,45,46に囲まれた
平面よりも下部の領域(点線で囲まれた領域)にあり、
視野範囲の領域がカメラの撮像範囲に含まれているよう
な視線方向である場合に、欠損領域の少ない仮想視点画
像が得られる。
配置した場合に、360度任意の視線方向も可能なウォ
ークスルー画像を提供する場合に有効である。すべての
カメラの3次元空間中の位置は既知とする。図13では
6カ所の位置で撮像した画像と奥行きマップを取得する
場合を示したが、画像と奥行きマップを取得する視点位
置の数に制約はない。
本発明はこれに限定されるものではない。例えば、実施
例では、被写体に対向して前後左右に配置される6台の
カメラを想定したが、カメラの台数や配置形態はこれに
限られるものではない。
位置よりも被写体に近いカメラの中で、最も仮想視点位
置に近いカメラを選択することで仮想視点奥行きマップ
の基本部分を生成し、それに続いて、仮想視点位置より
も被写体から遠いカメラの中で、被写体に近いカメラを
優先的に選択していくことで、その仮想視点奥行きマッ
プの欠落個所を生成して仮想視点奥行きマップを完成さ
せていくという方法を用いたが、高速処理が要求される
場合には、画質よりも処理速度を優先させて、そのよう
な順番に従わずにカメラを選択していくことで、仮想視
点奥行きマップを高速に完成させていくという方法を用
いてもよい。
視点位置よりも被写体に近い視点位置で撮像した奥行き
データおよび画像を優先的に選択して仮想視点画像を生
成する手法であるため、仮想視点画像の解像度の低下を
最小限に抑えることができるようになる。
統合して1枚の仮想視点の奥行きマップを生成するた
め、奥行きマップの生成に関与しない画像間については
対応点を推定する必要がない。従って、すべての多視点
画像間の対応点が抽出されなくても、仮想視点画像を生
成することができる。このため、多視点画像のカメラ間
隔が離れている場合においても、滑らかな仮想視点画像
を生成することができるようになる。
る範囲が、複数の視点位置のカメラの撮像範囲に含まれ
ていれば、仮想視点画像を生成することができるため、
カメラの配置にかかる制限を軽減することができるよう
になる。
にもカメラを配置し、仮想視点画像の中心部分付近では
仮想視点位置よりも被写体に近いカメラの画像を使って
仮想視点画像を生成するため、ウォークスルー動画像に
おいてもフレーム間の切り替えが滑らかな動画像を生成
することができるようになる。
の一例である。
ある。
換の説明図である。
図である。
である。
置の他の例である。
置の他の例である。
Claims (5)
- 【請求項1】 被写体に対向して配置される複数のカメ
ラによって撮像された画像を基に、実際にはカメラの置
かれていない仮想視点位置で撮像したような画像を生成
する画像生成方法において、 実写画像の各画素について被写体までの奥行き値を保持
する奥行きマップを生成する第1の処理過程と、 仮想視点位置よりも被写体に近いカメラにより撮像され
る1つ又は複数の実写画像と、それに対応付けられる奥
向きマップとを選択するとともに、仮想視点位置よりも
被写体から遠いカメラにより撮像される1つ又は複数の
実写画像と、それに対応付けられる奥向きマップとを選
択して、それらの奥行きマップを基に、仮想視点位置か
ら見た奥向きマップを生成する第2の処理過程と、 生成した仮想視点奥向きマップを基に、その仮想視点奥
行きマップの生成元となった奥向きマップに対応付けら
れる実写画像の画素の色情報を描画することで、仮想視
点位置から見た画像を生成する第3の処理過程とを備え
ることを特徴とする画像生成方法。 - 【請求項2】 請求項1記載の画像生成方法において、 第1の処理過程で、多眼カメラにより撮像される実写画
像の対応点を抽出し、ステレオ法により三角測量の原理
を用いて奥行き値を推定することで奥行きマップを生成
することを特徴とする画像生成方法。 - 【請求項3】 請求項1記載の画像生成方法において、 第1の処理過程で、レーザ光による画像パターンを被写
体に照射することにより奥行き値を推定することで奥行
きマップを生成することを特徴とする画像生成方法。 - 【請求項4】 請求項1〜3のいずれかに記載される画
像生成方法において、 第2の処理過程で、仮想視点位置よりも被写体に近い中
で仮想視点位置に最も近い奥行きマップを選択して、そ
れを基に、仮想視点位置から見た奥向きマップを生成
し、その仮想視点奥向きマップの欠落部分の一部分を生
成可能とする仮想視点位置よりも被写体に近い1つ又は
複数の奥行きマップを選択して、それを基に、その欠落
部分の一部分を生成し、残されている欠落部分を生成可
能とする仮想視点位置よりも被写体から遠い1つ又は複
数の奥行きマップを選択して、それを基に、その残され
ている欠落部分を生成することで、仮想視点位置から見
た奥向きマップを生成することを特徴とする画像生成方
法。 - 【請求項5】 被写体に対向して配置される複数のカメ
ラによって撮像された画像を基に、実際にはカメラの置
かれていない仮想視点位置で撮像したような画像を生成
する画像生成装置において、 実写画像の各画素について被写体までの奥行き値を保持
する奥行きマップを生成する手段と、 仮想視点位置よりも被写体に近いカメラにより撮像され
る1つ又は複数の実写画像と、それに対応付けられる奥
向きマップとを選択するとともに、仮想視点位置よりも
被写体から遠いカメラにより撮像される1つ又は複数の
実写画像と、それに対応付けられる奥向きマップとを選
択して、それらの奥行きマップを基に、仮想視点位置か
ら見た奥向きマップを生成する手段と、 生成した仮想視点奥向きマップを基に、その仮想視点奥
行きマップの生成元となった奥向きマップに対応付けら
れる実写画像の画素の色情報を描画することで、仮想視
点位置から見た画像を生成する手段とを備えることを特
徴とする画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23776699A JP3561446B2 (ja) | 1999-08-25 | 1999-08-25 | 画像生成方法及びその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23776699A JP3561446B2 (ja) | 1999-08-25 | 1999-08-25 | 画像生成方法及びその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001067473A true JP2001067473A (ja) | 2001-03-16 |
JP3561446B2 JP3561446B2 (ja) | 2004-09-02 |
Family
ID=17020137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23776699A Expired - Fee Related JP3561446B2 (ja) | 1999-08-25 | 1999-08-25 | 画像生成方法及びその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3561446B2 (ja) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
JP2005149127A (ja) * | 2003-11-14 | 2005-06-09 | Sony Corp | 撮像表示装置及び方法、画像送受信システム |
JP2008263528A (ja) * | 2007-04-13 | 2008-10-30 | Univ Nagoya | 画像情報処理方法及び画像情報処理システム |
US7538774B2 (en) | 2003-06-20 | 2009-05-26 | Nippon Telegraph And Telephone Corporation | Virtual visual point image generating method and 3-d image display method and device |
JP2009212664A (ja) * | 2008-03-03 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2010244220A (ja) * | 2009-04-03 | 2010-10-28 | Kddi Corp | 画像処理装置、方法及びプログラム |
JP2010244221A (ja) * | 2009-04-03 | 2010-10-28 | Kddi Corp | 画像生成装置、方法及びプログラム |
JP4658223B2 (ja) * | 2007-10-15 | 2011-03-23 | 日本電信電話株式会社 | 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体 |
JP2011120283A (ja) * | 2011-02-23 | 2011-06-16 | Nagoya Univ | 画像情報処理方法及び画像情報受信システム |
WO2012063540A1 (ja) * | 2010-11-12 | 2012-05-18 | シャープ株式会社 | 仮想視点画像生成装置 |
JP2012222743A (ja) * | 2011-04-13 | 2012-11-12 | Canon Inc | 撮像装置 |
US8355596B2 (en) | 2007-10-15 | 2013-01-15 | Nippon Telegraph And Telephone Corporation | Image generation method and apparatus, program therefor, and storage medium which stores the program |
JP2020515977A (ja) * | 2017-03-29 | 2020-05-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ビデオからの画像生成 |
WO2021215236A1 (ja) * | 2020-04-21 | 2021-10-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および記録媒体 |
JPWO2021220891A1 (ja) * | 2020-04-27 | 2021-11-04 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011052064A1 (ja) | 2009-10-30 | 2011-05-05 | キヤノン株式会社 | 情報処理装置および方法 |
-
1999
- 1999-08-25 JP JP23776699A patent/JP3561446B2/ja not_active Expired - Fee Related
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100433625B1 (ko) * | 2001-11-17 | 2004-06-02 | 학교법인 포항공과대학교 | 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치 |
US7538774B2 (en) | 2003-06-20 | 2009-05-26 | Nippon Telegraph And Telephone Corporation | Virtual visual point image generating method and 3-d image display method and device |
JP2005149127A (ja) * | 2003-11-14 | 2005-06-09 | Sony Corp | 撮像表示装置及び方法、画像送受信システム |
JP4595313B2 (ja) * | 2003-11-14 | 2010-12-08 | ソニー株式会社 | 撮像表示装置及び方法、画像送受信システム |
JP2008263528A (ja) * | 2007-04-13 | 2008-10-30 | Univ Nagoya | 画像情報処理方法及び画像情報処理システム |
JP4706068B2 (ja) * | 2007-04-13 | 2011-06-22 | 国立大学法人名古屋大学 | 画像情報処理方法及び画像情報処理システム |
KR101134668B1 (ko) | 2007-10-15 | 2012-04-09 | 니폰덴신뎅와 가부시키가이샤 | 화상 생성 방법, 장치 및 그 프로그램과 프로그램을 기록한 기록매체 |
US8363985B2 (en) | 2007-10-15 | 2013-01-29 | Nippon Telegraph And Telephone Corporation | Image generation method and apparatus, program therefor, and storage medium which stores the program |
JP4658223B2 (ja) * | 2007-10-15 | 2011-03-23 | 日本電信電話株式会社 | 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体 |
US8355596B2 (en) | 2007-10-15 | 2013-01-15 | Nippon Telegraph And Telephone Corporation | Image generation method and apparatus, program therefor, and storage medium which stores the program |
JP2011118908A (ja) * | 2007-10-15 | 2011-06-16 | Nippon Telegr & Teleph Corp <Ntt> | 画像生成方法、装置、およびそのプログラム並びにプログラムを記録した記録媒体 |
JP2009212664A (ja) * | 2008-03-03 | 2009-09-17 | Nippon Telegr & Teleph Corp <Ntt> | 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2010244221A (ja) * | 2009-04-03 | 2010-10-28 | Kddi Corp | 画像生成装置、方法及びプログラム |
JP2010244220A (ja) * | 2009-04-03 | 2010-10-28 | Kddi Corp | 画像処理装置、方法及びプログラム |
US8548227B2 (en) | 2009-04-03 | 2013-10-01 | Kddi Corporation | Image processing apparatus and computer program |
US8687000B2 (en) | 2009-04-03 | 2014-04-01 | Kddi Corporation | Image generating apparatus and computer program |
WO2012063540A1 (ja) * | 2010-11-12 | 2012-05-18 | シャープ株式会社 | 仮想視点画像生成装置 |
JP2011120283A (ja) * | 2011-02-23 | 2011-06-16 | Nagoya Univ | 画像情報処理方法及び画像情報受信システム |
JP2012222743A (ja) * | 2011-04-13 | 2012-11-12 | Canon Inc | 撮像装置 |
JP2020515977A (ja) * | 2017-03-29 | 2020-05-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ビデオからの画像生成 |
JP7138653B2 (ja) | 2017-03-29 | 2022-09-16 | コーニンクレッカ フィリップス エヌ ヴェ | ビデオからの画像生成 |
WO2021215236A1 (ja) * | 2020-04-21 | 2021-10-28 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および記録媒体 |
JPWO2021220891A1 (ja) * | 2020-04-27 | 2021-11-04 | ||
WO2021220891A1 (ja) * | 2020-04-27 | 2021-11-04 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7467612B2 (ja) | 2020-04-27 | 2024-04-15 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3561446B2 (ja) | 2004-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3593466B2 (ja) | 仮想視点画像生成方法およびその装置 | |
US9288476B2 (en) | System and method for real-time depth modification of stereo images of a virtual reality environment | |
JP3420504B2 (ja) | 情報処理方法 | |
JP3561446B2 (ja) | 画像生成方法及びその装置 | |
EP1877982A1 (en) | 3d image generation and display system | |
JP3524147B2 (ja) | 3次元画像表示装置 | |
Maimone et al. | A first look at a telepresence system with room-sized real-time 3d capture and life-sized tracked display wall | |
JPWO2004114224A1 (ja) | 仮想視点画像生成方法及び3次元画像表示方法並びに装置 | |
Zhang et al. | Stereoscopic video synthesis from a monocular video | |
US8577202B2 (en) | Method for processing a video data set | |
US12026903B2 (en) | Processing of depth maps for images | |
KR102723109B1 (ko) | 광각 이미지로부터의 디스패리티 추정 | |
Knorr et al. | An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion | |
JP2003067784A (ja) | 情報処理装置 | |
JP4236705B2 (ja) | 直前の原フレームのみに基づく1つ以上の中間フレームを合成することにより原フレームの系列からディスプレイフレームを発生させる方法及びデバイス | |
JPH0981746A (ja) | 二次元表示画像生成方法 | |
CN117196955A (zh) | 一种全景图像拼接方法及终端 | |
CN112085777A (zh) | 六自由度vr眼镜 | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
Xu et al. | Computer vision for a 3-D visualisation and telepresence collaborative working environment | |
JPH07296195A (ja) | 画像処理装置及び方法 | |
KR102375135B1 (ko) | 구형 물체를 이용한 다시점 카메라 위치 보정 장치 및 방법 | |
Bajcsy et al. | 3D reconstruction of environments for virtual collaboration | |
Chiang et al. | A new image morphing technique for smooth vista transitions in panoramic image-based virtual environment | |
CN117061720B (zh) | 基于单目图像及深度图像渲染的立体图像对生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20031211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20031224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040528 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090604 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100604 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |