[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017156880A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2017156880A
JP2017156880A JP2016037954A JP2016037954A JP2017156880A JP 2017156880 A JP2017156880 A JP 2017156880A JP 2016037954 A JP2016037954 A JP 2016037954A JP 2016037954 A JP2016037954 A JP 2016037954A JP 2017156880 A JP2017156880 A JP 2017156880A
Authority
JP
Japan
Prior art keywords
image
subject
unit
billboard
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016037954A
Other languages
English (en)
Other versions
JP6555755B2 (ja
JP2017156880A5 (ja
Inventor
敬介 野中
Keisuke Nonaka
敬介 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016037954A priority Critical patent/JP6555755B2/ja
Publication of JP2017156880A publication Critical patent/JP2017156880A/ja
Publication of JP2017156880A5 publication Critical patent/JP2017156880A5/ja
Application granted granted Critical
Publication of JP6555755B2 publication Critical patent/JP6555755B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract


【課題】自由視点映像において仮想視点が任意の方向に移動した場合でも自然な表示を行う。
【解決手段】画像処理装置は、実空間内に定義された基準面に接する被写体を複数の視点から撮像することにより得られる画像を取得する取得部と、取得部によって取得された画像から、基準面と被写体とが接する基準面上の位置を算出する算出部と、取得部によって取得された画像から複数の視点に含まれない視点に対応する合成画像を合成する際に、算出部によって算出された位置に基づいて、取得部によって取得された画像に含まれる被写体の像を変形する変形部と、を備える。
【選択図】図2

Description

本発明は、画像処理装置および画像処理方法に関する。
従来、スポーツシーンなどを対象として、カメラ視点以外の自由な視点からの映像(以下、自由視点映像と称す)を生成する技術が提案されている。この技術は、複数のカメラで撮影された映像を基に、それらの配置されていない仮想的な視点の映像を合成し、その結果を画面上に表示することでさまざまな視点での映像観賞を可能とするものである。
ここで、自由視点映像を合成する技術のうち、ビルボードと呼ばれる簡易なモデルを利用して高速に自由視点映像を合成する技術が存在する(非特許文献1参照)。このビルボードを利用した技術では、映像からモデル化対象のオブジェクトのテクスチャを正確に切り出し、それを厚みのないビルボードモデルとして仮想空間の地面に立たせることで、自由視点映像を生み出す。
ここで、一般にビルボード方式では、あるビルボードの最下点(例えば、人物の足先)が仮想空間の地面に接するようにビルボードが配置される。また、仮想視点が水平方向に移動する際はその仮想視点の移動に合わせてビルボードを回転させ、垂直方向に移動する際はビルボードの方向を変化させない。
Hayashi, K.; Saito, H., "Synthesizing Free-Viewpoing Images from Multiple View Videos in Soccer StadiumADIUM," in Computer Graphics, Imaging and Visualisation, 2006 International Conference on , vol., no., pp.220-225, 26-28 July 2006
非特許文献1に記載の方式は、品質の高い自由視点映像を高速に合成可能であるという点において優れている。しかしながら、ビルボード(厚みのないテクスチャだけのモデル)を利用していることによって、対象人物の姿勢を適切に表現できない。
本発明はこうした課題に鑑みてなされたものであり、その目的は、自由視点映像において仮想視点が任意の方向に移動した場合でも自然な表示を行うことができる技術の提供にある。
本発明のある態様は、画像処理装置に関する。この画像処理装置は、実空間内に定義された基準面に接する被写体を複数の視点から撮像することにより得られる画像を取得する取得部と、取得部によって取得された画像から、基準面と被写体とが接する基準面上の位置を算出する算出部と、取得部によって取得された画像から複数の視点に含まれない視点に対応する合成画像を合成する際に、算出部によって算出された位置に基づいて、取得部によって取得された画像に含まれる被写体の像を変形する変形部と、を備える。
なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、自由視点映像において仮想視点が任意の方向に移動した場合でも自然な表示を行うことができる。
実施の形態に係る画像処理装置を備える自由視点画像配信システムを示す模式図である。 実施の形態に係る画像処理装置の機能および構成を示すブロック図である。 カメラの画像平面上の座標とフィールド座標との対応関係を示す説明図である。 図4(a)〜(c)は、背景差分部における処理の例を示す説明図である。 ビルボード制御点決定部におけるスケルトンの抽出処理を示す説明図である。 ビルボード制御点決定部における制御点の特定処理を示す説明図である。 図7(a)〜(f)は、ビルボード姿勢推定部における接地位置の推定処理を示す説明図である。 原画像に対する姿勢の推定結果を示すイメージ図である。 ビルボード基準図形に関する変数を示す説明図である。 ビルボード再構成部におけるビルボードの再構成処理を示す説明図である。 図1の画像処理装置における一連の処理の流れを示すフローチャートである。 カメラ視点での画像とカメラ視点から垂直方向に移動した仮想視点での画像とを示す図である。
以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。
非特許文献1に記載の方式では、例えば、腕立て伏せのようなポーズを取った際に、仮想視点を垂直方向に移動させると、人物の姿勢を適切に表現できずあたかも手(ビルボードの最下点)で地面に立ち,足が浮いているように合成される場合がある。図12は、カメラ視点での画像102とカメラ視点から垂直方向に移動した仮想視点での画像104とを示す図である。カメラ視点での画像102では人物は両手両足で地面に接しているように映っている。しかしながら、仮想視点での画像104では、ビルボード自体の表示は変わらず、また人物が手で地面に立っていると解釈されるので、人物の足が浮いているように見える(符号103)。
この原因としては、従来の方式は遠方から人物を撮影した映像(例えば、サッカーのスタジアム席からの映像)を対象としたものであり、人物の姿勢によって生じる奥行きの差を考慮しないことと、人物が地面に1点(足)で立っていることを前提としていることと、が挙げられる。
これに対して、実施の形態では、事前に計測された複数のカメラのキャリブレーションデータを用いて人物のビルボードの姿勢を簡易に推定し、その情報を用いて擬似的にビルボードを変形させることで、自由視点映像において仮想視点が移動した場合でも適応的な表示を行う。
図1は、実施の形態に係る画像処理装置200を備える自由視点画像配信システム110を示す模式図である。自由視点画像配信システム110は、複数のカメラ116、118、120と、それらのカメラと接続された画像処理装置200と、携帯電話やタブレットやスマートフォンやHMD(Head Mounted Display)などの携帯端末114と、を備える。画像処理装置200と携帯端末114とはインターネットなどのネットワーク112を介して接続される。自由視点画像配信システム110では、例えばスタジオ内に配置された複数のカメラ116、118、120が地面126に立つダンサー124を撮像する。複数のカメラ116、118、120は撮った映像を画像処理装置200に送信し、画像処理装置200はそれらの映像を処理する。携帯端末114のユーザは画像処理装置200に対して希望の視点を指定し、画像処理装置200は指定された視点(仮想視点)からダンサー124を見た場合の画像を合成し、ネットワーク112を介して携帯端末114に配信する。
なお、図1ではスタジオ内のダンサーを撮像する場合を説明したが、これに限られず、例えばフィットネスのインストラクタを撮像する場合やテニスの試合を撮像する場合やサッカーの試合を撮像する場合などの、実空間内の基準面と接する被写体を撮像する場合に、本実施の形態の技術的思想を適用できる。また、携帯端末114の代わりに、デスクトップPCやラップトップPC、TV受像機等の据え置き型端末が使用されてもよい。
図2は、実施の形態に係る画像処理装置200の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPU(Central Processing Unit)をはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。
画像処理装置200は、複数のカメラにて撮影された画像から任意の仮想視点の画像を合成する。画像処理装置200は、画像読み込み部202、204、206と、背景差分部208、210、212と、カメラキャリブレーション部214、216、218(カメラキャリブレーション部220と総称されてもよい)と、ビルボード制御点決定部222、224、226と、ビルボード姿勢推定部228と、ビルボード再構成部230、232、234と、合成映像出力部236と、を備える。N台(Nは2以上の自然数)のカメラのそれぞれについて、画像読み込み部、背景差分部、カメラキャリブレーション部、ビルボード制御点決定部、ビルボード再構成部、が設けられている。
画像処理装置200は、同一の被写体を撮影した複数のカメラ映像を基に、ビルボード方式に則った自由視点映像の生成を行う。従来のビルボード方式では垂直方向の仮想視点の移動に対してビルボードの変形(回転なども含む)は行っていなかったが、本実施の形態に係る画像処理装置200では垂直方向の仮想視点の移動に対して、その仮想視点に合わせたビルボードの生成を行う。
以下では、複数カメラ間の時刻同期は事前に行われているとする。また、以下では主に人物のモデル化を仮定するがその他の被写体のモデル化についても本実施の形態の技術的思想を適用可能である。また、仮想視点は例えばユーザが任意に指定可能な仮想的な視点であり、カメラ1〜Nが配置される実際の複数の視点には含まれない。
[画像処理装置200の概要]
画像処理装置200における画像処理では、地表面(地面)や床面や壁面などの実空間内の表面を基準面として定義する。例えば、地面は2次元の面としてモデル化される。画像読み込み部202、204、206は、地面に接する人物を複数の異なる視点に配置されたカメラ1〜Nで撮像することにより得られる画像を取得する取得部として機能する。
カメラキャリブレーション部220は複数のカメラで撮影した画像を入力として、カメラごとに実空間の地面(フィールドと称す場合がある)とカメラ画像との対応付けを取り、出力する。このキャリブレーション操作は、固定カメラを前提とした場合、ひとつのカメラについてのみ行えばよく、他のカメラについてはカメラ間の既知の位置関係を利用することで算出することができる。背景差分部208、210、212は背景差分法を用いて画像内の背景と前景とを分離し、2値化した画像を出力する。
ビルボード制御点決定部222、224、226は、背景差分部208、210、212において得られた人物ビルボードを基に、最終的な合成結果を得るために制御するビルボード内の画素を決定する。ビルボード姿勢推定部228は、カメラキャリブレーション部220で得られた実空間との対応付け情報を利用して人物の接地位置を推定し、実際に人物が3次元の実空間でどのような姿勢を取っているかを推定する。また、ビルボード姿勢推定部228はそれを表す多角形(ビルボード基準図形と称す)を算出する。ビルボード再構成部230、232、234は、背景差分部208、210、212で得られたビルボード、ビルボード制御点決定部222、224、226で得られた制御点、ビルボード姿勢推定部228で得られたビルボード基準図形、およびユーザ選択による仮想視点の情報を基に、その仮想視点に最適なビルボードを構成する。
[カメラキャリブレーション部220]
カメラキャリブレーション部220は、ある時刻に撮影された画像におけるフィールド像の特徴的な点(例えば、テニスコートやサッカーグラウンドの白線の交点など)と実際の実空間におけるフィールド上の対応する点との対応付けを行う。ここで、被写体が一般的なスポーツ映像に含まれる場合は、コート等のサイズが規格化されているため、画像平面上の点が実空間内のフィールド上(世界座標系)のどの座標に対応するかを計算することが可能である。
図3は、カメラ402の画像平面上の座標とフィールド座標との対応関係を示す説明図である。カメラ402の2次元画像平面上の座標を(u、v)、世界座標系のフィールド平面上の座標(フィールド座標)を(x’、y’)としたときに、両者の対応関係はホモグラフィ行列
とスカラー値sとを用いて次の通りに表すことができる。
…(式1)
式1に上記の対応点の組を入力することでsおよびHを求めることが可能となり、画像平面上の任意の画素の座標とフィールド座標との相互変換が可能となる。ここで、i番目のカメラの画像平面上の座標とフィールド座標との対応関係を表すホモグラフィ行列を
とする。
なお、フィールドに対するカメラキャリブレーションの手法は上記のものに限られない。
次に、時刻tに撮像された画像
(m、nはそれぞれi番目のカメラの画像の幅、高さ)に対して、カメラごとに独立に以下の処理を行う。
[背景差分部208、210、212]
背景差分部208、210、212は、I の各画素を背景と前景との2つに分類することで、I を背景と前景とに分離する。本実施の形態では、この分離は、例えば公知の背景差分法を使用して実現されてもよい。背景差分部208、210、212は、背景、前景とされた画素の値にそれぞれ0、1を割り当てる。この背景と前景との分離を行うことによって、人物を含むおおまかな領域が抽出可能である。背景差分部208、210、212は、前景として抽出された画素集合のうち連結する画素集合をマスクとして画像から抜き出すことでテクスチャを生成する。背景差分部208、210、212は、生成されたテクスチャをビルボードとして出力する。出力されるビルボードは、カメラで撮像された画像に含まれる人物の像に対応する。
図4(a)〜(c)は、背景差分部208、210、212における処理の例を示す説明図である。図4(a)はi番目のカメラにより撮像された時刻tの画像I を示す。背景差分部208、210、212はこの画像をI を原画像として処理する。図4(b)は図4(a)の原画像に対して背景差分法を適用した結果を示す。黒色の部分は背景と判定され、0が割り当てられている。白色の部分は前景と判定され、1が割り当てられている。図4(c)は背景差分部208、210、212が図4(a)の原画像を処理して出力するビルボードを示す。
[ビルボード制御点決定部222、224、226]
ビルボード制御点決定部222、224、226は、各カメラのビルボードから、仮想視点に合わせたビルボード再構成のために利用するビルボード内部の画素(制御点)を設定または決定する。まずビルボード制御点決定部222、224、226は、ビルボードを抽象化した抽象化像を生成する。具体的には、ビルボード制御点決定部222、224、226は、ビルボードを構成するテクスチャの画素集合に対して公知の縮小処理を適用し、ビルボード内の人物の骨組みを、連結された画素集合(スケルトン)で表現する。
図5は、ビルボード制御点決定部222、224、226におけるスケルトンの抽出処理を示す説明図である。ビルボード502は「縮小」され、最終的に連結された線の集合すなわちスケルトン504となる。符号506は得られたスケルトン504を元のビルボード502に重ね合わせた状態を示す。
ビルボード制御点決定部222、224、226は、得られたスケルトンに含まれる画素集合のうち、所定の条件を満たす画素を制御点として特定する。所定の条件は、例えば連結数が2ではないことである。連結数は、得られたスケルトンに含まれる画素集合のある画素について、その画素の周囲の8画素のうち該画素集合に属する画素の数である。このように選択された画素はスケルトンの端部またはスケルトンの分岐部となる。すなわち、スケルトンの端部およびスケルトンの分岐部が制御点として利用される。
図6は、ビルボード制御点決定部222、224、226における制御点の特定処理を示す説明図である。制御点については、動画内でビルボードが動いた場合も人物の同様の箇所を指すほうが望ましい。そのため、ビルボード内の特徴点のうち制御点に最も近いものを利用することができる(制御点の座標の多少の誤差は結果に大きな影響を与えない)。また、制御点の初期値を手動で与えることも可能である。
[ビルボード姿勢推定部228]
ビルボード姿勢推定部228は、背景差分部208、210、212で得られた人物領域の2値マスク(例えば、図4(b)に示される画像)から、フィールドと人物とが接するフィールド上の位置を算出する算出部として機能する。言い換えると、ビルボード姿勢推定部228は、2値マスクを利用して人物の姿勢を推定する。
まず、ビルボード姿勢推定部228は、以下の処理によって人物がフィールド上に実際に接地している箇所を抽出する。i番目のカメラにより撮像された時刻tの画像I に対応する2値マスクをJ と表記する。i番目のカメラの画像平面上の座標とフィールド座標との対応関係は、カメラキャリブレーション部220により式1にしたがい算出されたホモグラフィ行列Hを使用して、
…(式2)
と表される。
ビルボード姿勢推定部228は、全てのカメラの時刻tにおける2値マスクについて、式2を用いて、以下のとおりフィールド座標への射影および積算を行う。
…(式3)
ここで、Fはフィールド座標のそれぞれにおける値を保持する行列であり、F(x”、y”)はフィールド座標(x”、y”)における値である。
上記の射影操作では、カメラの画像平面上の画素のうち、実空間において人物がフィールド平面に接地している箇所に対応するものは、カメラによらず同じフィールド座標へ射影される。そのため、射影されたすべての値を積算することで、人物が接地している大まかな位置を算出できる。
図7(a)〜(f)は、ビルボード姿勢推定部228における接地位置の推定処理を示す説明図である。図7(a)は1番目のカメラにより撮像された時刻tの画像I に対応する2値マスクJ を示す。図7(b)は2番目のカメラにより撮像された時刻tの画像I に対応する2値マスクJ を示す。図7(c)は3番目のカメラにより撮像された時刻tの画像I に対応する2値マスクJ を示す。図7(d)は3つの2値マスクJ 、J 、J をフィールドに射影して積算した結果得られるマスクを示す。人物がフィールドに接している箇所710のFはより大きい値として算出される(図7(d)では色が黒色に近いほどFの値が大きい)。
ビルボード姿勢推定部228は、このFに対して以下のしきい値処理を行うことで、人物がフィールドと接するフィールド上の位置の候補を推定する。
…(式4)
図7(e)は式4によって得られたfを、あるカメラの画像平面へ射影したものを示す。黒色画素の集合712が人物の接地位置に相当する。図7(f)は接地点および外接多角形を示す。上記操作によって、人物の接地位置であると判定された画像平面上の画素の集合712が得られる。ビルボード姿勢推定部228は、この画素の集合712について、連結している画素の集合の重心を実際に人物が接地している箇所(接地点)702、704、706、708として決定する。この接地点702、704、706、708について完全グラフを構成して得られる外接多角形αはその人物のおおまかな姿勢を示す。図8(a)は、図4(a)の原画像に対する姿勢の推定結果を示すイメージ図である。図8(b)は、図12の原画像に対する姿勢の推定結果を示すイメージ図である。図8(b)において4つの接地点802、804、806、808が得られている。
図9は、ビルボード基準図形に関する変数を示す説明図である。ビルボード姿勢推定部228は、得られた外接多角形αを画像平面上のy方向に平行移動することで、おおよそ人物を包含する図形Θを生成する。この図形Θのうち、平行移動における外接多角形αの頂点の軌跡である線分を2つ含む(画像上では側面のように見える)平行四辺形を
とする。Mは自然数である。この平行四辺形θに対して膨張処理を行った結果得られる平行四辺形をζと表すとき、ビルボード姿勢推定部228は、ζの和集合
が人物のビルボードに外接するようにζを決定する。このように決定されたζをビルボード基準図形と称す。ビルボード基準図形ζはビルボード再構成部230、232、234にてビルボードを変形する際の基準となる。
[ビルボード再構成部230、232、234]
ビルボード再構成部230は、背景差分部208で得られたビルボードとビルボード制御点決定部222で得られた制御点とビルボード姿勢推定部228で得られたビルボード基準図形とユーザ選択による仮想視点の情報とを基に、その仮想視点に最適なビルボードを構成する。ビルボード再構成部230は、画像読み込み部202によって取得された画像から仮想視点に対応する合成画像を合成する際に、ビルボード姿勢推定部228によって算出された接地位置に基づいて、ビルボードを変形する変形部として機能する。ビルボード再構成部232、234についても同様である。なお、本明細書では仮想視点を実際の視点から垂直方向に動かす場合について説明し、仮想視点の水平方向の移動については従来の手法と同様にビルボードの回転によって対応する。
図10は、ビルボード再構成部230、232、234におけるビルボードの再構成処理を示す説明図である。符号154で示される画像は、あるカメラにより撮像された時刻tの画像である。符号156で示される画像は、仮想視点から撮像された時刻tの画像として合成された合成画像である。
ビルボード姿勢推定部228で得られた個々のビルボード基準図形ζに内包される制御点の画像平面上の座標を
とする。
ζはその定義から明らかに接地点を2つもつ。ビルボード姿勢推定部228において接地点が対応するフィールド座標は算出されており、当然ながら仮想視点の移動によって当該フィールド座標は変わらない。この性質を利用し、ビルボード再構成部230は、垂直に移動した仮想視点とフィールドとの位置関係に基づいて、仮想視点の画像平面上に当該フィールド座標を射影する。これによりビルボード再構成部230は、当該フィールド座標に対応する接地点が仮想視点の画像上のどの位置に表示されるべきか(例えば、符号152の点の位置)を算出する。つまり、ビルボード再構成部230は、カメラから撮影した画像から得られたビルボード基準図形ζが、仮想視点においてどのように見えるべきかについての情報を算出する。
新たに現在の仮想視点で得られる変形後のビルボード基準図形をηとする。ビルボード再構成部230は、写像
によって仮想視点の画面上に射影される
(仮想視点の画像平面上の座標を指す)を用いてビルボードの変形を行う。ここで、制御点の座標以外には写像Xは適用されないことに注意されたい。ビルボード基準図形の境界における不自然さを抑制するためである。
ビルボード再構成部230は、最終的には、接地点を含むビルボード上の制御点を動かすことでビルボードの変形を行う。この変形では、2次元画像をトライアングルメッシュとして扱い、制御点の移動に応じて変形させつつ、元の構造を崩さないようにする。この操作によって変形されたビルボードを仮想視点の画像に合成するビルボードとして採用する。なお、動かされた後の制御点のうちのいくつかの位置は、仮想視点の画像上の接地位置(例えば、符号152の点の位置)を含む。
合成映像出力部236は、ビルボード再構成部230、232、234によるビルボードの変形の結果得られる変形後のビルボードを、仮想視点の合成画像に合成する合成部として機能する。合成映像出力部236は、変形後のビルボードが合成された合成画像を、仮想視点からの画像として生成し、ネットワーク112を介して携帯端末114に送信する。
以上の構成による画像処理装置200の動作を説明する。
図11は、画像処理装置200における一連の処理の流れを示すフローチャートである。画像処理装置200は、地面と接する人物の周りに設定された複数の視点のそれぞれに配置されたカメラなどの撮像装置から、人物の像を含む画像を取得する(S12)。画像処理装置200は、取得された画像のそれぞれから人物領域の2値マスクを抽出する(S14)。画像処理装置200は、抽出された2値マスクのそれぞれを実空間内のフィールドに射影する(S16)。画像処理装置200は、射影された像同士の重なりがより大きい部分の位置を接地位置として推定する(S18)。画像処理装置200は、カメラから取得した画像からビルボードを切り出し、そのビルボードに制御点を設定する(S20)。画像処理装置200は、推定された接地位置に基づいて、制御点の動かし方を決定する(S22)。画像処理装置200は、決定された動かし方で制御点を動かすことでビルボードを変形する(S24)。画像処理装置200は、変形後のビルボードを画像に合成し、仮想視点からの画像として出力する(S26)。
上述の実施の形態において、保持部の例は、ハードディスクや半導体メモリである。また、本明細書の記載に基づき、各部を、図示しないCPUや、インストールされたアプリケーションプログラムのモジュールや、システムプログラムのモジュールや、ハードディスクから読み出したデータの内容を一時的に記憶する半導体メモリなどにより実現できることは本明細書に触れた当業者には理解される。
本実施の形態に係る画像処理装置200によると、従来のビルボード方式で仮想視点を垂直方向に移動させた際に問題となる、不自然な表示を解消することができる。また、本実施の形態ではビルボードを変形するために人物の姿勢を推定しているが、実際の正確な3次元モデル(厚みのあるモデル)を必要としないため、そのような3次元モデル構築を行う手法に比べて計算コストが低い。
以上、実施の形態に係る画像処理装置200の構成と動作について説明した。この実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。
実施の形態では、制御点を使用してビルボードを変形する場合について説明したが、これに限られず、例えばビルボード基準図形ζに含まれる画素全てに写像Xを適用してもよい。
110 自由視点画像配信システム、 112 ネットワーク、 114 携帯端末、 200 画像処理装置。

Claims (10)

  1. 実空間内に定義された基準面に接する被写体を複数の視点から撮像することにより得られる画像を取得する取得部と、
    前記取得部によって取得された画像から、前記基準面と前記被写体とが接する前記基準面上の位置を算出する算出部と、
    前記取得部によって取得された画像から前記複数の視点に含まれない視点に対応する合成画像を合成する際に、前記算出部によって算出された位置に基づいて、前記取得部によって取得された画像に含まれる前記被写体の像を変形する変形部と、を備えることを特徴とする画像処理装置。
  2. 前記変形部による変形の結果得られる像を前記合成画像に合成する合成部をさらに備えることを特徴とする請求項1に記載の画像処理装置。
  3. 前記変形部は、前記複数の視点に含まれない視点と前記基準面との位置関係に基づいて、前記算出部によって算出された位置に対応する前記合成画像上の対応位置を算出し、算出された対応位置に基づいて前記被写体の像を変形することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記被写体の像に少なくともひとつの制御点を設定する設定部をさらに備え、
    前記変形部は、前記設定部によって設定された少なくともひとつの制御点を動かすことで前記被写体の像を変形し、
    動かされた後の少なくともひとつの制御点の位置は算出された対応位置を含むことを特徴とする請求項3に記載の画像処理装置。
  5. 前記基準面は前記実空間内の表面であることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記被写体の像を抽象化した抽象化像を生成する抽象化部をさらに備え、
    前記設定部は、前記抽象化部により生成された抽象化像に対して制御点を設定することを特徴とする請求項4に記載の画像処理装置。
  7. 前記設定部は、前記抽象化部により生成された抽象化像の分岐部または端部もしくはその両方を制御点として設定することを特徴とする請求項6に記載の画像処理装置。
  8. 前記算出部は、前記複数の視点のそれぞれから前記被写体を撮像することにより得られる画像と前記基準面との対応関係に基づいて、前記基準面と前記被写体とが接する前記基準面上の位置を算出することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 実空間内に定義された基準面に接する被写体を複数の視点から撮像することにより得られる画像を取得することと、
    前記取得された画像から、前記基準面と前記被写体とが接する前記基準面上の位置を算出することと、
    前記取得された画像から前記複数の視点に含まれない視点に対応する合成画像を合成する際に、前記算出された位置に基づいて、前記取得された画像に含まれる前記被写体の像を変形することと、を含むことを特徴とする画像処理方法。
  10. 実空間内に定義された基準面に接する被写体を複数の視点から撮像することにより得られる画像を取得する機能と、
    前記取得された画像から、前記基準面と前記被写体とが接する前記基準面上の位置を算出する機能と、
    前記取得された画像から前記複数の視点に含まれない視点に対応する合成画像を合成する際に、前記算出された位置に基づいて、前記取得された画像に含まれる前記被写体の像を変形する機能と、をコンピュータに実現させるためのコンピュータプログラム。
JP2016037954A 2016-02-29 2016-02-29 画像処理装置、画像処理方法および画像処理プログラム Active JP6555755B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016037954A JP6555755B2 (ja) 2016-02-29 2016-02-29 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016037954A JP6555755B2 (ja) 2016-02-29 2016-02-29 画像処理装置、画像処理方法および画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2017156880A true JP2017156880A (ja) 2017-09-07
JP2017156880A5 JP2017156880A5 (ja) 2018-05-31
JP6555755B2 JP6555755B2 (ja) 2019-08-07

Family

ID=59809748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016037954A Active JP6555755B2 (ja) 2016-02-29 2016-02-29 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6555755B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019053790A1 (ja) * 2017-09-12 2019-03-21 株式会社Splyza 位置座標算出方法及び位置座標算出装置
JP2020136754A (ja) * 2019-02-14 2020-08-31 Kddi株式会社 共有システム
CN112313704A (zh) * 2018-05-22 2021-02-02 索尼公司 基于地平面检测从图像序列中恢复人类对象的缺失脚部
JP2022048963A (ja) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232310A (ja) * 2008-03-25 2009-10-08 Fujitsu Ltd 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
JP2009236569A (ja) * 2008-03-26 2009-10-15 Zynas Corp 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2014126906A (ja) * 2012-12-25 2014-07-07 Casio Comput Co Ltd 表示制御装置、表示制御システム、表示制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232310A (ja) * 2008-03-25 2009-10-08 Fujitsu Ltd 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
JP2009236569A (ja) * 2008-03-26 2009-10-15 Zynas Corp 接地点推定装置、接地点推定方法、動線表示システムおよびサーバ
JP2011170487A (ja) * 2010-02-17 2011-09-01 Kddi Corp 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP2014126906A (ja) * 2012-12-25 2014-07-07 Casio Comput Co Ltd 表示制御装置、表示制御システム、表示制御方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
原 健翔、外2名: ""多視点映像における人物行動認識 ハフ変換に基づく投票処理を用いた行動認識と位置推定の同時処理"", 画像ラボ, vol. 25, no. 11, JPN6019006171, 10 November 2014 (2014-11-10), JP, pages 14 - 20, ISSN: 0003984149 *
大城 英裕、外4名: ""フィールド補助平面上の多視点投影交差領域生成からの選手位置推定"", 電気学会研究会資料, JPN6019006172, 20 February 2009 (2009-02-20), JP, pages 47 - 52, ISSN: 0003984150 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019053790A1 (ja) * 2017-09-12 2019-03-21 株式会社Splyza 位置座標算出方法及び位置座標算出装置
JPWO2019053790A1 (ja) * 2017-09-12 2020-11-12 株式会社Splyza 位置座標算出方法及び位置座標算出装置
JP6989877B2 (ja) 2017-09-12 2022-01-12 株式会社Splyza 位置座標算出方法及び位置座標算出装置
CN112313704A (zh) * 2018-05-22 2021-02-02 索尼公司 基于地平面检测从图像序列中恢复人类对象的缺失脚部
JP2021526254A (ja) * 2018-05-22 2021-09-30 ソニーグループ株式会社 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復
JP7152705B2 (ja) 2018-05-22 2022-10-13 ソニーグループ株式会社 地面検出に基づく画像シーケンスからの人間オブジェクトの消失している足の回復
CN112313704B (zh) * 2018-05-22 2024-10-22 索尼公司 基于地平面检测从图像序列中恢复人类对象的缺失脚部
JP2020136754A (ja) * 2019-02-14 2020-08-31 Kddi株式会社 共有システム
JP7064456B2 (ja) 2019-02-14 2022-05-10 Kddi株式会社 共有システム及び遠隔側装置
JP2022048963A (ja) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム
US11694445B2 (en) 2020-09-15 2023-07-04 Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
JP7422105B2 (ja) 2020-09-15 2024-01-25 阿波▲羅▼智▲聯▼(北京)科技有限公司 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム

Also Published As

Publication number Publication date
JP6555755B2 (ja) 2019-08-07

Similar Documents

Publication Publication Date Title
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
CN110889890A (zh) 图像处理方法及装置、处理器、电子设备及存储介质
JP7080586B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP3091510B1 (en) Method and system for producing output images
CN109906600B (zh) 模拟景深
JP6555755B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10453244B2 (en) Multi-layer UV map based texture rendering for free-running FVV applications
JP2020008972A (ja) 情報処理装置、情報処理方法及びプログラム
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
KR20210032549A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
CN113393566A (zh) 使用先验深度场景进行的基于深度的3d重建
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
JP2016071682A (ja) オブジェクト配置装置、オブジェクト配置方法、及び、プログラム
JP6799468B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
CN114399610B (zh) 基于引导先验的纹理映射系统和方法
US10902554B2 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
Inamoto et al. Free viewpoint video synthesis and presentation of sporting events for mixed reality entertainment
Dayrit et al. Increasing pose comprehension through augmented reality reenactment
US20220309733A1 (en) Surface texturing from multiple cameras
WO2022091811A1 (ja) 画像処理装置、画像処理方法、画像処理システム
KR20120118462A (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2019057070A (ja) 画像処理装置、画像処理方法、およびプログラム
Calagari et al. Sports VR content generation from regular camera feeds

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190704

R150 Certificate of patent or registration of utility model

Ref document number: 6555755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150