JP2008217593A - 被写体領域抽出装置及び被写体領域抽出プログラム - Google Patents
被写体領域抽出装置及び被写体領域抽出プログラム Download PDFInfo
- Publication number
- JP2008217593A JP2008217593A JP2007056112A JP2007056112A JP2008217593A JP 2008217593 A JP2008217593 A JP 2008217593A JP 2007056112 A JP2007056112 A JP 2007056112A JP 2007056112 A JP2007056112 A JP 2007056112A JP 2008217593 A JP2008217593 A JP 2008217593A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- moving
- area
- subject area
- imaging means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】撮影された映像から動く被写体領域の抽出時間を短縮させる。
【解決手段】複数の撮像手段により撮影された動く被写体を含む映像から被写体領域を抽出する被写体領域抽出装置において、前記複数の撮像手段により撮影した映像から動領域を抽出する動領域抽出手段と、前記動領域抽出手段により抽出された動領域と、予め蓄積された前記複数の撮像手段毎に設定される撮影パラメータとに基づいて動く被写体領域の3次元概形を求める3次元概形生成手段と、前記動く被写体の3次元概形を前記複数の撮像手段で撮影された画像に投影し、前記撮像手段により前記被写体の動領域マスク映像を取得する3次元概形投影手段とを有することにより、上記課題を解決する。
【選択図】図1
【解決手段】複数の撮像手段により撮影された動く被写体を含む映像から被写体領域を抽出する被写体領域抽出装置において、前記複数の撮像手段により撮影した映像から動領域を抽出する動領域抽出手段と、前記動領域抽出手段により抽出された動領域と、予め蓄積された前記複数の撮像手段毎に設定される撮影パラメータとに基づいて動く被写体領域の3次元概形を求める3次元概形生成手段と、前記動く被写体の3次元概形を前記複数の撮像手段で撮影された画像に投影し、前記撮像手段により前記被写体の動領域マスク映像を取得する3次元概形投影手段とを有することにより、上記課題を解決する。
【選択図】図1
Description
本発明は、被写体領域抽出装置及び被写体領域抽出プログラムに係り、特に撮影された映像から動く被写体領域の抽出時間を短縮させるための被写体領域抽出装置及び被写体領域抽出プログラムに関する。
従来、カメラで撮影した映像から特定の動く領域のみを抽出する技術として、例えば、背景差分法やフレーム間差分法が知られている(例えば、非特許文献1参照。)。
しかしながら、これらの手法では、実際に抽出したい被写体だけでなく、例えば抽出対象としている被写体以外に動いている映像中の観客や通行人等の人物や、野外で撮影している場合には、風等の影響により動いている木等が動く領域までもが誤って抽出されてしまう。そこで、複数台のカメラ映像を使用して、映像中から特定の動く領域のみを抽出する手法が幾つか開示されている(例えば、特許文献1、特許文献2等参照。)。
「ディジタル画像処理」、CG−ARTS協会、"14−1 差分画像を用いた移動物体検出"、p.238−p.242 特開平10−255057号公報
特開2001−357489号公報
「ディジタル画像処理」、CG−ARTS協会、"14−1 差分画像を用いた移動物体検出"、p.238−p.242
しかしながら、従来の手法では、複数台のカメラ映像毎に特定の動く領域を抽出するには、多くの処理時間を必要とする。したがって、例えばスポーツ中継等において、選手の動きを分かり易く表現することができるマルチモーション映像等においては、スポーツ中継中にある程度リアルタイムに撮影映像から動いている被写体領域を抜き出さなければならないため処理に対応することができない。
なお、マルチモーション映像は、複数の映像フレームの選手の領域を抽出し、これらを時間軸に沿って合成することで、選手の運動軌跡を1枚の映像で分かり易く表現することができるものである。
本発明は、上述した問題点に鑑みなされたものであり、撮影された映像から動く被写体領域の抽出時間を短縮させるための被写体領域抽出装置及び被写体領域抽出プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
請求項1に記載された発明は、複数の撮像手段により撮影された動く被写体を含む映像から被写体領域を抽出する被写体領域抽出装置において、前記複数の撮像手段により撮影した映像から動領域を抽出する動領域抽出手段と、前記動領域抽出手段により抽出された動領域と、予め蓄積された前記複数の撮像手段毎に設定される撮影パラメータとに基づいて動く被写体領域の3次元概形を求める3次元概形生成手段と、前記動く被写体の3次元概形を前記複数の撮像手段で撮影された画像に投影し、前記撮像手段により前記被写体の動領域マスク映像を取得する3次元概形投影手段とを有することを特徴とする。
請求項1記載の発明によれば、撮影された映像から動く被写体領域の抽出時間を短縮させることができる。
請求項2に記載された発明は、前記動領域抽出手段は、視体積交差法により表現されるVisual Hullを前記撮像手段により得られる映像に投影して被写体領域を抽出し、更に前記被写体領域の輪郭を抽出することを特徴とする。
請求項2記載の発明によれば、背景ノイズを除去した高精度な被写体領域のシルエット画像を取得することができる。
請求項3に記載された発明は、前記3次元概形生成手段は、前記複数の撮像手段のうち、最も離れた2つの撮像手段を用いて被写体の位置を取得し、取得した位置を基準にして前記被写体の3次元概形の生成を行うことを特徴とする。
請求項3記載の発明によれば、3次元概形の生成を行う空間の初期範囲を狭くすることができる。したがって、被写体領域の抽出時間を短縮することができる。
請求項4に記載された発明は、前記3次元概形生成手段は、前記2つの撮像手段におけるそれぞれの撮像範囲の4隅の3次元座標からX軸、Y軸、Z軸それぞれの最小の座標値及び最大の座標値を求め、求めた座標値を基準として前記被写体の3次元概形の生成を行うことを特徴とする。
請求項4記載の発明によれば、座標値を基準とすることで容易に3次元概形の生成を行う空間の初期範囲を狭くすることができる。したがって、被写体領域の抽出時間を短縮することができる。
請求項5に記載された発明は、複数の撮像手段により撮影された動く被写体を含む映像から被写体領域を抽出する被写体領域抽出処理をコンピュータに実行させるための被写体領域抽出プログラムにおいて、前記複数の撮像手段により撮影した映像から動領域を抽出する動領域抽出処理と、前記動領域抽出処理により抽出された動領域と、予め蓄積された前記複数の撮像手段毎に設定される撮影パラメータとに基づいて動く被写体領域の3次元概形を求める3次元概形生成処理と、前記動く被写体の3次元概形を前記複数の撮像手段で撮影された画像に投影し、前記撮像手段により前記被写体の動領域マスク映像を取得する3次元概形投影処理とをコンピュータに実行させる。
請求項5記載の発明によれば、撮影された映像から動く被写体領域の抽出時間を短縮させることができる。また、実行プログラムをコンピュータにインストールすることにより、容易に被写体領域の抽出を実現することができる。
本発明によれば、撮影された映像から動く被写体領域の抽出時間を短縮させることができる。
<本発明の概要>
本発明では、複数台のカメラで撮影した多視点映像と、複数台のカメラのカメラパラメータとを使用して、多視点映像からカメラ毎に、特定の動く領域を抽出することを目的とする。更に、従来の手法では、複数台のカメラ映像毎に特定の動く領域を抽出するには、多くの処理時間を必要とする。そこで、本発明では、短時間に複数台のカメラ映像から、カメラ毎に特定の動く領域を抽出する。
本発明では、複数台のカメラで撮影した多視点映像と、複数台のカメラのカメラパラメータとを使用して、多視点映像からカメラ毎に、特定の動く領域を抽出することを目的とする。更に、従来の手法では、複数台のカメラ映像毎に特定の動く領域を抽出するには、多くの処理時間を必要とする。そこで、本発明では、短時間に複数台のカメラ映像から、カメラ毎に特定の動く領域を抽出する。
具体的には、本発明では、基本的な動領域抽出手法によって得られる動領域のシルエット画像と、複数台のカメラのカメラパラメータ(撮影パラメータ)を使用して生成される被写体のVisual Hullを用いて、被写体領域を抽出する。
ここで、Visual Hullとは、動的領域に対する自由視点画像生成に用いられるもので、多視点から撮影された物体のシルエットと、カメラの光学中心によって形成される錐体の積集合空間を示す。なお、このVisual Hullを表現する手法としては、視体積交差法がある。つまり、複数のカメラのそれぞれから視体積(Visual Cone)が生成され、その交差領域がVisual Hullとなる。
<実施の形態>
次に、上述した特徴を有する本発明における被写体領域抽出装置及び被写体領域抽出プログラムを好適に実施した形態について、図面を用いて説明する。
次に、上述した特徴を有する本発明における被写体領域抽出装置及び被写体領域抽出プログラムを好適に実施した形態について、図面を用いて説明する。
<被写体領域抽出装置:機能構成例>
まず、本発明における被写体領域抽出装置の機能構成例について図を用いて説明する。図1は、本発明における被写体領域抽出装置の一構成例を示す図である。
まず、本発明における被写体領域抽出装置の機能構成例について図を用いて説明する。図1は、本発明における被写体領域抽出装置の一構成例を示す図である。
図1に示す被写体領域抽出装置10は、撮像手段11と、入力手段12と、出力手段13と、蓄積手段14と、動領域抽出手段15と、3次元概形生成手段16と、3次元概形投影手段17と、被写体領域映像生成手段18と、送受信手段19と、制御手段20とを有するよう構成されている。
撮像手段11は、何らかの動作を行う被写体を撮影し、その映像を取得する。また、撮像手段11は、取得した映像を蓄積手段14に蓄積する。ここで、撮像手段11は、例えば複数の高精細カメラや市販のデジタルビデオカメラ等を用いることができ、所定の位置に固定されているものとする。また、複数のカメラで撮影する場合は、それぞれが異なる位置から被写体の動きを撮影する。
更に、撮像手段11は、撮影したときの時間情報や、撮影したときのカメラの撮影位置、撮影方向、フォーカス調整等のカメラパラメータ等を取得する。
ここで、撮像手段11により取得できる複数のカメラのカメラパラメータ(撮影パラメータ)は、一般的に内部パラメータと外部パラメータより構成される。内部パラメータは、カメラの焦点距離、アスペクト比、画像中心、レンズ歪等の情報により構成される。また、外部パラメータは、カメラの姿勢情報と、位置情報等の情報により構成される。なお、上述したカメラパラメータ情報は、被写体の撮影前等に予め求めておき蓄積手段14等に蓄積しておくことができる。
入力手段12は、撮像手段11から得られる何らかの動作を行う被写体の映像の取得指示や、蓄積手段14から所定のデータを読み出したり、書き込むための指示、映像からの被写体領域を抽出するための指示、3次元概形生成や投影、被写体領域映像の生成等における各指示等の入力を受け付ける。なお、入力手段12は、例えばキーボードやマウス等のポインティングデバイス、マイク等の音声入力インターフェース等からなる。
また、出力手段13は、入力手段12により入力された指示内容や、指示内容に基づいて各構成より得られる実行された動領域抽出結果、3次元概形生成結果、3次元概形投影結果、被写体領域映像生成結果、撮像手段11により撮影された被写体映像等の各種データを表示及び/又は音声にて出力する。なお、出力手段13は、ディスプレイやスピーカ等からなる。
蓄積手段14は、撮像手段11により得られる映像やカメラパラメータ、動領域抽出手段15により抽出される動領域抽出結果、3次元概形生成手段16における3次元概形生成結果、3次元概形投影手段17における3次元概形投影結果、被写体領域映像生成手段18における被写体領域映像生成結果等の各種データを蓄積する。
動領域抽出手段15は、撮像手段11から得られる複数台のカメラのカメラ毎にカメラ映像と参照フレーム映像から、従来の背景差分法、及びフレーム間差分法等によって、カメラ映像の中から動領域を抽出する。なお、ここで、抽出される動領域には、目的とする動く被写体領域だけでなく、背景中の動く領域が背景ノイズとして混入する場合がある。
具体的には、動領域抽出手段15は、複数台のカメラについて、各々同様にして映像中の動領域を抽出し、動領域の画素に「1」を、それ以外の画素に「0」を格納した動領域マスク映像を生成する。なお、動領域抽出手法の具体的な説明は、後述する。
3次元概形生成手段16は、動領域抽出手段15により得られる複数台のカメラの動領域マスク映像と、複数台のカメラのカメラパラメータとから、動く被写体領域の3次元概形を生成する。
なお、3次元概形生成手段16は、予め蓄積手段14に蓄積されたカメラパラメータ情報を利用して、被写体が存在する実空間の3次元座標系[X,Y,Z]と、カメラで撮影した画像面上での画像座標系[x,y]は以下に示す変換式(式(1)等)によって変換することができる。
ここで、ωは画像距離、Aは内部パラメータ行列、Rは回転行列、Tは並進ベクトル、aはアスペクト比、Fは焦点距離、(Cx、Cy)は画像中心を示す。
3次元概形生成手段16では、複数台のカメラのカメラパラメータ毎に得られる上述した各カメラの画像座標系と実空間の3次元座標系の変換式(式(1))と、複数台のカメラの動領域マスク映像とにより、例えば従来の視体積交差法(例えば、“冨山仁博、他4名「視体積交差法とステレオマッチング法を用いた多視点映像からの3次元動オブジェクト生成手法」、映像情報メディア学会誌Vol.58,No.6,pp797−806 2004年6月.”等)を用いて、動く被写体領域の3次元概形を生成する。この3次元概形は、それぞれ実空間の3次元座標を持つ頂点の集合によって構成することができる。
3次元概形投影手段17は、3次元概形生成手段16により生成した3次元概形を構成する各頂点を、各カメラの変換式(式(1))を用いて、各カメラの動領域マスク映像に投影する。また、3次元概形投影手段17は、3次元概形の頂点が投影された画素に「1」を、それ以外の画素に「0」を格納した被写体の動領域マスク映像をカメラ毎に生成し、生成した被写体の動領域マスク映像を出力する。
被写体領域映像生成手段18は、撮影手段11により得られる複数台のカメラ映像と、3次元概形投影手段17により得られる複数台のカメラの被写体の動領域マスク映像から、被写体領域映像をカメラ毎に生成し、生成した被写体領域映像を出力する。
具体的には被写体領域映像生成手段18は、被写体の動領域マスク映像の画素値が「1」の値を持つ画素にはカメラ映像の該当画素の色情報を格納し、被写体の動領域マスク映像の画素値が「0」の値を持つ画素には色情報「0」を格納した被写体領域映像をカメラ毎に生成し、生成した被写体領域映像を出力する。
<カメラ配置>
ここで、本実施形態におけるカメラ配置について、図を用いて説明する。図2は、カメラの配置と対象領域との関係を説明するための図である。図2に示すように、複数の撮像手段としての複数のカメラ11−1〜11−5により対象領域に対して同期撮影した映像を収録する。つまり、カメラ台数分の収録映像から同時刻における撮影したフレームを取得することで、多視点映像を生成することができる。
ここで、本実施形態におけるカメラ配置について、図を用いて説明する。図2は、カメラの配置と対象領域との関係を説明するための図である。図2に示すように、複数の撮像手段としての複数のカメラ11−1〜11−5により対象領域に対して同期撮影した映像を収録する。つまり、カメラ台数分の収録映像から同時刻における撮影したフレームを取得することで、多視点映像を生成することができる。
<動領域抽出手段15における被写体領域の抽出例>
ここで、上述した動領域抽出手段15における被写体領域の抽出例について説明する。図3は、本実施形態における動領域抽出処理手順の一例を示すフローチャートである。
ここで、上述した動領域抽出手段15における被写体領域の抽出例について説明する。図3は、本実施形態における動領域抽出処理手順の一例を示すフローチャートである。
図3に示すように、まず、一般的な背景差分、又はフレーム間差分を用いて、映像中から動領域を抽出する(S01)。次に、細かいノイズ除去と、穴埋めのために例えばモルフォロジーフィルタ処理(所定の画素サイズに画像領域を膨張された後、元のサイズに収縮する)を行う(S02)。ここで、映像中に被写体以外の動領域が存在しない場合には、この時点で精度よく被写体の領域のみが抽出される場合もあるが、そうでない場合には、背景に存在する動領域もノイズとして抽出されてしまう。
図4は、背景ノイズの一例を示す図である。なお、図4(a)は、図2に示すカメラ11−1により撮影された動領域のマスク映像を示し、図4(b)は、カメラ11−5により撮影された動領域のマスク映像を示している。
図4に示すような背景領域の背景ノイズ30をVisual Hullを求めることによって除去する。具体的には、例えば視体積交差法によるVisual Hullの生成を行う(S03)。なお、この処理は、カメラ台数分行う。なお、S03における視体積交差法によるVisual Hullの生成方法については後述する。
また、Visual Hullをカメラに投影し、被写体領域を抽出し(S04)、被写体領域の輪郭を抽出する(S05)。これにより、背景ノイズを除去した高精度な被写体領域のシルエット画像を取得することができる。
<S03:視体積交差法によるVisual Hullの生成>
次に、上述したS03の処理における視体積交差法によるVisual Hullの生成について、図を用いて説明する。
次に、上述したS03の処理における視体積交差法によるVisual Hullの生成について、図を用いて説明する。
図5は、視体積交差法によるVisual Hullの生成方法について説明するための一例の図である。視体積交差法は、カメラの撮影映像から抽出した被写体のシルエットをVoxel(3次元世界を構成する最小単位の立方体)頂点空間に逆投影し、カメラの光学中心を頂点とし、被写体のシルエットを断面形状とする視体積(Visual Cone)の共通領域から、被写体の近似形状であるVisual Hullを求める手法である。
3次元概形生成手段16では、図5に示すように生成されたVisual Hullは、全てのカメラ映像で共通に抽出されている被写体シルエット部分の3次元概形のみとなる。したがって、全てのカメラで共有に映っていない背景ノイズが除去された被写体領域を抽出することができる。
ここで、本実施例では、このVisual Hullをできるだけ短時間に求めるために以下の手順でVisual Hull生成処理を行う。
図6は、本実施形態におけるVisual Hull生成手順の一例を示すフローチャートである。図6において、まずVoxel頂点空間を定義する初期領域の決定し(S11)、次に、初期領域内で粗いVoxel解像度の初期Voxel頂点空間を定義する(S12)。また、初期Voxel頂点空間内で視体積交差法を行い、解像度の粗い初期Visual Hullを求める(S13)。
また、初期Visual Hullに外接する領域を2次領域とし、2次領域内で細かいVoxel解像度の2次Voxel頂点空間を定義する(S14)。また、2次Voxel頂点空間内で視体積交差法を行い、解像度の細かい2次Visual Hullを求める(S15)。
ここで、S11の処理における初期領域は、撮影方向に90度ほどの差がある2台のカメラの共通撮影空間を、上述した図5に示すそれぞれのカメラ11−1及びカメラ11−5の映像の4隅を通る光学直線の近接点を求めることによって決定する。
このようにして、上述の手順で求めたVisual Hullを各カメラに投影し、被写体領域を抽出したシルエット画像を生成する。
ここで、Visual Hullを投影するカメラまでの距離に対してVoxelの解像度が粗い場合に投影した映像に穴が観測される問題がある。そこで、投影するカメラまでの距離に応じて、1つのボクセル(Voxel)が投影される画素数を変更することで、穴の無い投影映像を生成している。最終的に得られる被写体領域のシルエット画像を図7に示す。
図7は、本実施形態における最終的な被写体領域のシルエット画像の一例を示す図である。なお、図7(a)は、図5に示すカメラ11−1により撮影された動領域のマスク映像を示し、図7(b)は、図5に示すカメラ11−5により撮影された動領域のマスク映像を示している。図7に示すように、背景ノイズ30を除去した高精度な画像を生成することができる。
つまり、対象となる被写体が存在すると思われる空間をVoxelに分割し、各Voxelについて、“そのVoxelを撮像面に投影したとき、対象領域(シルエット)内に投影されるか否か”を各撮影視点で調べ、全ての視点でシルエット内であるものを残すことで、視体積(Visual Cone)の交差領域(Visual Hull)が得られる。
<3次元概形の生成方法>
次に、本実施形態における3次元概形生成方法について説明する。具体的には、複数のカメラから撮影された被写体の3次元概形を取得する際、カメラの画角等により設定される被写体よりも大きな領域で設定する必要がある。その場合は、処理時間がかなり大きくなるため、本発明では、被写体を撮影している複数のカメラのうち、最も離れた2台のカメラを用いて被写体のおおよその位置を取得し、その位置を初期範囲として基準にし、3次元概形の生成処理を行うようにする。
次に、本実施形態における3次元概形生成方法について説明する。具体的には、複数のカメラから撮影された被写体の3次元概形を取得する際、カメラの画角等により設定される被写体よりも大きな領域で設定する必要がある。その場合は、処理時間がかなり大きくなるため、本発明では、被写体を撮影している複数のカメラのうち、最も離れた2台のカメラを用いて被写体のおおよその位置を取得し、その位置を初期範囲として基準にし、3次元概形の生成処理を行うようにする。
ここで、図8は、3次元概形生成における初期範囲を設定するための一例を示す図である。図8の例では、2台のカメラが存在しCam1は上述したカメラ11−1に相当し、Cam2は上述したカメラ11−5に相当しているものとする。また、図8において、L1_camNはcamNの画像面左上端を通る直線を示し、L2_camNはcamNの画像面右上端を通る直線を示し、L3_camNはcamNの画像面右下端を通る直線を示し、L4_camNはcamNの画像面左下端を通る直線を示すものとする。また、Pijは、Li_cam1とLj_cam2が最も近接する3次元空間点を示すものとする。
このとき、初期範囲の設定方法としては、図4に示すP11〜P44の3次元座標からX軸、Y軸、Z軸それぞれの、最小の座標値と最大の座標値を求める。
例えば、(X_min,Y_min,Z_min)=(P43のX座標、P33のY座標,P33のZ座標)、(X_max,Y_max,Z_max)=(P34のX座標、P21のY座標,P34のZ座標)となる。
このとき、3次元概形を求める範囲は、X_min〜X_max,Y_min〜Y_max,Z_min〜Z_maxの範囲の3次元座標空間中で行う。
<Pijの算出方法>
ここで、上述した各点Pijの算出方法について、P11(i=1,j=1)を例に説明する。図9は、P11の算出方法を説明するための一例の図である。ここで、図9に示す「×」は直線上の3次元点の座標(X,Y,Z)を示し、「○」は直線上の3次元点をCam1に投影した座標(u,v)を示している。
ここで、上述した各点Pijの算出方法について、P11(i=1,j=1)を例に説明する。図9は、P11の算出方法を説明するための一例の図である。ここで、図9に示す「×」は直線上の3次元点の座標(X,Y,Z)を示し、「○」は直線上の3次元点をCam1に投影した座標(u,v)を示している。
算出方法は、以下に示すP11に対するCam2のカメラ画像座標と3次元座標の変換式(式(2))を利用して、距離ω2に初期値0を与え、Cam2の画像面左上端の点(x1,y1)を通る直線L1_cam2上の点の3次元座標(X,Y,Z)を求める。
これを同様にして上述したP12〜P44の3次元空間点の座標を求めることができ、この座標に基づいて、3次元概形の初期範囲を設定する。これにより、3次元概形の生成を行う空間の初期範囲を狭くすることができる。したがって、被写体領域の抽出時間を短縮することができる。
<3次元概形生成手法17における投影範囲の画素数の計算方法>
ここで、3次元概形生成手法17における投影範囲の画素数の計算方法について説明する。3次元概形の重心からカメラまでの距離をdepth(m)とし、カメラの焦点距離をf(m)とし、カメラ撮像面の画素ピッチのサイズをp(m/pixel)とし、3次元概形の頂点解像度(頂点の間隔)をv(m)とした場合、3次元概形を構成する各頂点を、カメラに投影する際の投影範囲ip(pixel)は以下の式(5)によって求めることができる。
ip=v×f/depth×p ・・・(5)
したがって、水平、垂直方向にそれぞれip(pixel)の範囲で投影する。
ここで、3次元概形生成手法17における投影範囲の画素数の計算方法について説明する。3次元概形の重心からカメラまでの距離をdepth(m)とし、カメラの焦点距離をf(m)とし、カメラ撮像面の画素ピッチのサイズをp(m/pixel)とし、3次元概形の頂点解像度(頂点の間隔)をv(m)とした場合、3次元概形を構成する各頂点を、カメラに投影する際の投影範囲ip(pixel)は以下の式(5)によって求めることができる。
ip=v×f/depth×p ・・・(5)
したがって、水平、垂直方向にそれぞれip(pixel)の範囲で投影する。
上述したように、被写体領域抽出装置10により、撮影された映像から動く被写体領域の抽出時間を短縮させることができる。また、複数台のカメラ映像の中から、動く被写体領域を効率的に抽出することができ、様々な映像コンテンツ制作に応用することが期待できる。
<本実施形態により抽出した被写体領域の利用例>
ここで、上述した本実施形態により抽出した被写体領域の利用例としてマルチモーション映像の生成について説明する。
ここで、上述した本実施形態により抽出した被写体領域の利用例としてマルチモーション映像の生成について説明する。
マルチモーション映像は、複数の映像フレームから抽出した被写体領域の映像を1枚の映像に合成することで得られる。なお、多視点マルチモーションの場合、被写体の動きを様々な方向から撮影しているため、カメラ位置に応じて、複数の映像フレームを合成する順序を変更する必要がある。そこで、各カメラから各フレームの被写体領域までのおおよその距離を計算し、カメラから距離が近い被写体領域の映像が前面になるような順序で合成する。
具体的には、2台のカメラの被写体領域のシルエット画像から、シルエットの重心の座標を計算し、三角測量の原理でシルエット重心の3次元座標を計算する。
フレーム毎に求めたシルエット重心の3次元座標から、各カメラの光学中心までの距離を求めることで、カメラから各フレームの被写体領域までのおおよその距離を計算する。また、求めた距離に基づき、距離が遠い被写体領域の映像から順に、距離が近い被写体領域の映像が前面になるように合成することで、カメラ毎に自然なレイヤー構成のマルチモーション映像を生成することができる。
ここで、図10は、マルチモーション映像の一例を示す図である。なお、図10では、マルチモーション映像の1フレームを示している。図10に示す例では、5台のカメラで撮影されたそれぞれの画像から抽出された被写体41−1〜41−5が、その5台のうちのあるカメラにより撮影された映像のうちのあるフレーム画像40に含まれる背景画像42上に合成されて出力されている。また、合成時に被写体領域映像の輪郭部分を背景映像と合成することで、輪郭部分のちらつきが目立たないようにしている。
<実行プログラム>
ここで、上述した被写体領域抽出装置10は、上述した専用の装置構成等を用いて本発明における映像生成を行うこともできるが、各構成における処理をコンピュータに実行させるための実行プログラムを生成し、例えば汎用のパーソナルコンピュータ、サーバ等にそのプログラムをインストールすることにより、本発明に係る被写体領域の抽出を実現することができる。
ここで、上述した被写体領域抽出装置10は、上述した専用の装置構成等を用いて本発明における映像生成を行うこともできるが、各構成における処理をコンピュータに実行させるための実行プログラムを生成し、例えば汎用のパーソナルコンピュータ、サーバ等にそのプログラムをインストールすることにより、本発明に係る被写体領域の抽出を実現することができる。
<ハードウェア構成>
ここで、本発明における被写体領域抽出処理が実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図11は、本発明における被写体領域抽出処理が実現可能なハードウェア構成の一例を示す図である。
ここで、本発明における被写体領域抽出処理が実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図11は、本発明における被写体領域抽出処理が実現可能なハードウェア構成の一例を示す図である。
図11におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
入力装置51は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスや音声入力デバイス等を有しており、ユーザ等からのプログラムの実行指示等、各種操作信号、音声信号を入力する。出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイやスピーカ等を有し、CPU56が有する制御プログラムにより実行経過や結果等を表示又は音声出力することができる。
ここで、本発明において、コンピュータ本体にインストールされる実行プログラムは、例えばCD−ROMやDVD等の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。
また、ドライブ装置53は、本発明に係る実行プログラムを記録媒体58に記録することができる。これにより、その記録媒体58を用いて、他の複数のコンピュータに容易にインストールすることができ、容易に被写体領域抽出処理を実現することができる。
補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
また、補助記憶装置54は、上述した動領域の抽出結果や、3次元概形生成結果、3次元概形投影結果、被写体領域抽出映像、カメラパラメータ、ディスプレー等の出力手段等に出力される各種表示画面等を蓄積する蓄積手段として用いることもできる。
メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。
CPU56は、OS(Operating System)等の制御プログラム、及び補助記憶装置54から読み出されメモリ装置55に格納されている実行プログラム等に基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、被写体領域抽出等における各処理を実現することができる。また、プログラムの実行中に必要な各種情報等は、補助記憶装置54から取得することができ、また格納することもできる。
ネットワーク接続装置57は、電話回線やLAN(Local Area Network)ケーブル等の通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラムを他の端末等に提供することができる。
上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで被写体領域抽出処理を実現することができる。また、プログラムをインストールすることにより、容易に被写体領域抽出処理を実現することができる。次に、本発明における実行プログラムを用いた処理手順についてフローチャートを用いて説明する。
<被写体領域抽出処理>
図12は、本発明における被写体領域抽出処理手順の一例を示すフローチャートである。図12において、まず撮像手段としてのカメラ等を用いて動く被写体を撮影した映像を取得する(S21)。なお、S21の処理では、設置位置の異なる複数のカメラから撮影された映像を用いるものとする。また、S21の処理では、映像(画像)そのもののデータ(フレーム)だけでなく、撮影時間、各カメラのカメラパラメータ等を取得する。
図12は、本発明における被写体領域抽出処理手順の一例を示すフローチャートである。図12において、まず撮像手段としてのカメラ等を用いて動く被写体を撮影した映像を取得する(S21)。なお、S21の処理では、設置位置の異なる複数のカメラから撮影された映像を用いるものとする。また、S21の処理では、映像(画像)そのもののデータ(フレーム)だけでなく、撮影時間、各カメラのカメラパラメータ等を取得する。
次に、各カメラから撮影により得られた映像から動領域を抽出する(S22)。このとき、上述した動領域抽出手法を用いることにより、短時間で正確な所望する被写体のマスク(シルエット)画像を生成することができる。
更に、抽出した複数のカメラの動領域マスク映像から複数のカメラのカメラパラメータに基づいて被写体の3次元概形を生成し(S23)、その3次元概形情報、複数のカメラのカメラパラメータから3次元概形を投影し、被写体の動領域マスク映像を生成する(S24)。
更に、複数のカメラの被写体領域映像を生成し(S25)、生成した映像を出力する(S26)。上述した処理により、迅速に動領域を抽出することができる。
上述したように本発明によれば、撮影された映像から動く被写体領域の抽出時間を短縮させることができる。具体的には、映像中の背景にいる観客や通行人等の人物や動いている木等の背景ノイズを排除し、対象となる被写体領域のみを精度よく抽出することができる。また、本発明によれば、カメラ台数分の複数フレームの領域抽出処理を短時間に行うことができる。更に、各カメラと被写体との位置関係に応じて、複数の映像フレームの被写体領域映像を合成する順序を決めることができる。
また、本発明によれば、例えばスポーツ選手等の時間経過に沿った動きを、様々な視点から見ることができるため、スポーツ中継や運動解析等において視覚的にわかりやすい運動情報の提示を行うことができる。
以上本発明の好ましい実施の形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
10 被写体領域抽出装置
11 撮像手段
12 入力手段
13 出力手段
14 蓄積手段
15 動領域抽出手段
16 3次元概形生成手段
17 3次元概形投影手段
18 被写体領域映像生成手段
19 送受信手段
20 制御手段
30 ノイズ
40 フレーム画像
41 被写体
42 背景画像
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
11 撮像手段
12 入力手段
13 出力手段
14 蓄積手段
15 動領域抽出手段
16 3次元概形生成手段
17 3次元概形投影手段
18 被写体領域映像生成手段
19 送受信手段
20 制御手段
30 ノイズ
40 フレーム画像
41 被写体
42 背景画像
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
Claims (5)
- 複数の撮像手段により撮影された動く被写体を含む映像から被写体領域を抽出する被写体領域抽出装置において、
前記複数の撮像手段により撮影した映像から動領域を抽出する動領域抽出手段と、
前記動領域抽出手段により抽出された動領域と、予め蓄積された前記複数の撮像手段毎に設定される撮影パラメータとに基づいて動く被写体領域の3次元概形を求める3次元概形生成手段と、
前記動く被写体の3次元概形を前記複数の撮像手段で撮影された画像に投影し、前記撮像手段により前記被写体の動領域マスク映像を取得する3次元概形投影手段とを有することを特徴とする被写体領域抽出装置。 - 前記動領域抽出手段は、
視体積交差法により表現されるVisual Hullを前記撮像手段により得られる映像に投影して被写体領域を抽出し、更に前記被写体領域の輪郭を抽出することを特徴とする請求項1に記載の被写体領域抽出装置。 - 前記3次元概形生成手段は、
前記複数の撮像手段のうち、最も離れた2つの撮像手段を用いて被写体の位置を取得し、取得した位置を基準にして前記被写体の3次元概形の生成を行うことを特徴とする請求項1又は2に記載の被写体領域抽出装置。 - 前記3次元概形生成手段は、
前記2つの撮像手段におけるそれぞれの撮像範囲の4隅の3次元座標からX軸、Y軸、Z軸それぞれの最小の座標値及び最大の座標値を求め、求めた座標値を基準として前記被写体の3次元概形の生成を行うことを特徴とする請求項3に記載の被写体領域抽出装置。 - 複数の撮像手段により撮影された動く被写体を含む映像から被写体領域を抽出する被写体領域抽出処理をコンピュータに実行させるための被写体領域抽出プログラムにおいて、
前記複数の撮像手段により撮影した映像から動領域を抽出する動領域抽出処理と、
前記動領域抽出処理により抽出された動領域と、予め蓄積された前記複数の撮像手段毎に設定される撮影パラメータとに基づいて動く被写体領域の3次元概形を求める3次元概形生成処理と、
前記動く被写体の3次元概形を前記複数の撮像手段で撮影された画像に投影し、前記撮像手段により前記被写体の動領域マスク映像を取得する3次元概形投影処理とをコンピュータに実行させるための被写体領域抽出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007056112A JP2008217593A (ja) | 2007-03-06 | 2007-03-06 | 被写体領域抽出装置及び被写体領域抽出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007056112A JP2008217593A (ja) | 2007-03-06 | 2007-03-06 | 被写体領域抽出装置及び被写体領域抽出プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008217593A true JP2008217593A (ja) | 2008-09-18 |
Family
ID=39837536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007056112A Pending JP2008217593A (ja) | 2007-03-06 | 2007-03-06 | 被写体領域抽出装置及び被写体領域抽出プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008217593A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011048627A (ja) * | 2009-08-27 | 2011-03-10 | Kddi Corp | マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム |
JP2017152800A (ja) * | 2016-02-22 | 2017-08-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2018163468A (ja) * | 2017-03-24 | 2018-10-18 | Kddi株式会社 | 前景抽出装置及びプログラム |
JP2019121216A (ja) * | 2018-01-09 | 2019-07-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2019153863A (ja) * | 2018-03-01 | 2019-09-12 | ソニー株式会社 | 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 |
JP2020086700A (ja) * | 2018-11-20 | 2020-06-04 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、及び、表示装置 |
KR102416218B1 (ko) * | 2022-02-04 | 2022-07-05 | 국방과학연구소 | 영상 프레임에 포함된 객체에 대한 세그멘테이션을 획득하는 방법 및 장치 |
US11494971B2 (en) | 2019-02-12 | 2022-11-08 | Canon Kabushiki Kaisha | Material generation apparatus, image generation apparatus, and image processing apparatus |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000268179A (ja) * | 1999-01-14 | 2000-09-29 | Oojisu Soken:Kk | 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体 |
JP2001357489A (ja) * | 2000-06-14 | 2001-12-26 | Public Works Research Institute Ministry Of Land Infrastructure & Transport | 走行車両検出装置 |
JP2003271928A (ja) * | 2002-03-13 | 2003-09-26 | Nippon Hoso Kyokai <Nhk> | 三次元モデリング装置及びその方法及びそのプログラム |
JP2005322002A (ja) * | 2004-05-07 | 2005-11-17 | Kazuo Iwane | 複合人工知能装置 |
JP2006118914A (ja) * | 2004-10-20 | 2006-05-11 | West Japan Railway Co | 物体検出装置 |
-
2007
- 2007-03-06 JP JP2007056112A patent/JP2008217593A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000268179A (ja) * | 1999-01-14 | 2000-09-29 | Oojisu Soken:Kk | 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体 |
JP2001357489A (ja) * | 2000-06-14 | 2001-12-26 | Public Works Research Institute Ministry Of Land Infrastructure & Transport | 走行車両検出装置 |
JP2003271928A (ja) * | 2002-03-13 | 2003-09-26 | Nippon Hoso Kyokai <Nhk> | 三次元モデリング装置及びその方法及びそのプログラム |
JP2005322002A (ja) * | 2004-05-07 | 2005-11-17 | Kazuo Iwane | 複合人工知能装置 |
JP2006118914A (ja) * | 2004-10-20 | 2006-05-11 | West Japan Railway Co | 物体検出装置 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011048627A (ja) * | 2009-08-27 | 2011-03-10 | Kddi Corp | マスク画像を抽出する方法及びプログラム並びにボクセルデータを構築する方法及びプログラム |
JP2017152800A (ja) * | 2016-02-22 | 2017-08-31 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2018163468A (ja) * | 2017-03-24 | 2018-10-18 | Kddi株式会社 | 前景抽出装置及びプログラム |
JP2019121216A (ja) * | 2018-01-09 | 2019-07-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP7191514B2 (ja) | 2018-01-09 | 2022-12-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
CN111788601A (zh) * | 2018-03-01 | 2020-10-16 | 索尼公司 | 图像处理设备、编码装置、解码装置、图像处理方法、程序、编码方法和解码方法 |
JP7119425B2 (ja) | 2018-03-01 | 2022-08-17 | ソニーグループ株式会社 | 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 |
US11508123B2 (en) | 2018-03-01 | 2022-11-22 | Sony Corporation | Image processing device, encoding device, decoding device, image processing method, program, encoding method, and decoding method for processing multiple video camera image streams to generate stroboscopic images |
JP2019153863A (ja) * | 2018-03-01 | 2019-09-12 | ソニー株式会社 | 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法 |
JP2020086700A (ja) * | 2018-11-20 | 2020-06-04 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、及び、表示装置 |
CN113170233A (zh) * | 2018-11-20 | 2021-07-23 | 索尼集团公司 | 图像处理装置、图像处理方法、程序以及显示装置 |
US11494971B2 (en) | 2019-02-12 | 2022-11-08 | Canon Kabushiki Kaisha | Material generation apparatus, image generation apparatus, and image processing apparatus |
KR102416218B1 (ko) * | 2022-02-04 | 2022-07-05 | 국방과학연구소 | 영상 프레임에 포함된 객체에 대한 세그멘테이션을 획득하는 방법 및 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109615703B (zh) | 增强现实的图像展示方法、装置及设备 | |
US10785469B2 (en) | Generation apparatus and method for generating a virtual viewpoint image | |
US11151787B2 (en) | Generation device, generation method and storage medium for three-dimensional model from object images and structure images | |
JP2008217593A (ja) | 被写体領域抽出装置及び被写体領域抽出プログラム | |
WO2011121117A1 (en) | Virtual camera system | |
US20220005276A1 (en) | Generation device, generation method and storage medium for three-dimensional model | |
WO2018101652A1 (ko) | 실감형 미디어 영상을 제공하는 장치 | |
KR102067823B1 (ko) | 비디오 영상기반 2d/3d ar 실감체험 방법 및 장치 | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JPWO2019186787A1 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
WO2018052100A1 (ja) | 画像処理装置、画像処理方法、画像処理プログラム | |
JP6403862B1 (ja) | 3次元モデルの生成装置、生成方法及びプログラム | |
JP6812181B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP6799468B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
CN113763544A (zh) | 图像确定方法、装置、电子设备和计算机可读存储介质 | |
JP2017156880A (ja) | 画像処理装置および画像処理方法 | |
US10902554B2 (en) | Method and system for providing at least a portion of content having six degrees of freedom motion | |
CN109961395B (zh) | 深度图像的生成及显示方法、装置、系统、可读介质 | |
JP2020173726A (ja) | 仮想視点変換装置及びプログラム | |
JP7265825B2 (ja) | 生成装置、生成方法およびプログラム | |
JP7278720B2 (ja) | 生成装置、生成方法及びプログラム | |
CN113763545A (zh) | 图像确定方法、装置、电子设备和计算机可读存储介质 | |
JP7353527B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP7536531B2 (ja) | 画像処理装置、画像処理方法、画像処理システム及びプログラム。 | |
JP7498616B2 (ja) | Vr映像生成装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110802 |