JP2023169697A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2023169697A JP2023169697A JP2022080977A JP2022080977A JP2023169697A JP 2023169697 A JP2023169697 A JP 2023169697A JP 2022080977 A JP2022080977 A JP 2022080977A JP 2022080977 A JP2022080977 A JP 2022080977A JP 2023169697 A JP2023169697 A JP 2023169697A
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- information
- switching
- information processing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 108
- 238000003672 processing method Methods 0.000 title claims description 3
- 230000033001 locomotion Effects 0.000 claims description 118
- 238000000034 method Methods 0.000 claims description 54
- 238000003384 imaging method Methods 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 31
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 12
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 12
- 239000000203 mixture Substances 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 13
- 238000004091 panning Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000000449 premovement Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
Abstract
【課題】仮想視点の位置を切り替えた後の仮想視点の操作をスムーズに開始する。【解決手段】仮想視点画像を生成するための仮想視点に関する指示を受け付ける。受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する。生成した切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する。変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する。【選択図】図9
Description
本開示は、仮想視点画像を生成するための技術に関する。
複数の撮像装置を異なる位置に設置して同期撮像し、当該撮像により得られた複数の撮像画像を用いて、ユーザの操作で指定された仮想的な視点からの見えを表す画像(仮想視点画像)を生成する技術がある。ユーザは、例えば、所望の被写体(注目オブジェクト)を捉える仮想視点に対応した仮想視点画像を参照しながら、当該仮想視点を切り替えたり、当該仮想視点からの視線方向を変えたりする操作を行っている。特許文献1では、ユーザの操作で仮想視点が切り替えられた後の仮想視点の動き方を、当該切り替え前に受け付けたユーザの操作に応じた仮想視点の動き方に基づき、決定する技術を開示している。
しかしながら、特許文献1では、同一撮像空間にいる第2の注目オブジェクトを撮像するために仮想視点を切り替えると、切り替え後の仮想視点と第2の注目オブジェクトの動きが相違する場合があった。このような動きの相違があると、仮想視点を切り替えた後に第2の注目オブジェクトを見失い、切り替え後の仮想視点の操作に影響を及ぼす可能性があった。例えば、切替前の仮想視点が特定の方向に直進運動していると、切り替え後の仮想視点も切替前の仮想視点と同様、前記特定の方向に直進運動することになる。このとき、第2の注目オブジェクトが前記特定の方向と逆方向に直進運動していると、切り替え後の仮想視点と第2の注目オブジェクトは互いに反対方向に直進運動することになる。そのため、第2の注目オブジェクトが切り替え後の仮想視点からの撮像範囲外へすぐに移動して、切替後の仮想視点に対応する仮想視点画像で第2の注目オブジェクトを見失ってしまう場合があった。また、仮想視点を切り替える前の仮想視点画像では第1の注目オブジェクトが中心に映っているが、切替後の仮想視点画像では第2の注目オブジェクトが右端などに映っていることがあった。このように仮想視点画像にて第1及び第2の注目オブジェクトが映る位置等が異なると、仮想視点を切替後直ちに、ユーザが切替後の仮想視点からの視線方向等を適切に把握できず方向感覚を見失い、切替後の仮想視点の操作を円滑に開始できない可能性があった。また、切替前後の仮想視点で捉える注目オブジェクトが同じであるときにも、切替前後の仮想視点で捉えるオブジェクトが異なる場合と同様な課題を生じ得た。
本開示の一態様に係る画像処理装置は、仮想視点画像を生成するための仮想視点に関する指示を受け付ける受付手段と、前記受付手段で受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する生成手段と、前記切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する変更手段と、変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する画像生成手段と、を有することを特徴とする。
本開示によれば、仮想視点を切り替えた後の仮想視点の操作をスムーズに開始することができる。
まず、本開示の実施形態を説明する前に、仮想視点画像の概要について説明する。仮想視点画像を用いたサービスによれば、例えば、サッカーまたはバスケットボールなどの試合における特定シーン(例えばゴールシーンなど)を様々な角度から視聴できるため、通常の撮像画像と比較して視聴者に高臨場感を与えることができる。仮想視点画像を生成する際には、サーバなどの情報処理装置(画像処理装置)は、撮像対象である空間内の特定の位置を複数の撮像装置で撮像することにより得られた複数の撮像画像のデータ(以下、複数視点画像データという。)を集約する。そして、情報処理装置は、複数視点画像データを用いて、三次元形状データの生成およびレンダリング処理などを行って仮想視点画像を生成して、生成した仮想視点画像のデータ(以下「仮想視点画像データ」という。)をユーザ端末に伝送する。これにより、ユーザは、仮想視点画像データを基にユーザ端末の表示装置に表示された仮想視点画像を閲覧することができる。
また、ユーザは、仮想視点の位置と、パン、チルト、またはロールなどの仮想視点からの視線の方向とを操作でき、閲覧を所望する第1の注目オブジェクトを好みの視点で閲覧することができる。例えば、あるサッカー選手がドリブルシュートを決めるシーンの場合、この選手の後方を仮想視点で追従し、シュートを放つタイミングでこの選手前方へ仮想視点を旋回させるなどの操作を行うことができる。なお、以下、上述した一例のような、ユーザが操作することにより指定された時系列の仮想視点の位置および仮想視点からの視線の方向を示すデータを仮想視点操作情報と定義して説明する。
以下、添付図面を参照して本開示の技術の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本開示の技術を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本開示の技術の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
<実施形態1>
[システム構成]
図1は、本実施形態に係る画像処理システム100の概略構成例を示す図である。画像処理システム100は、サッカー場などのスタジアム101に設置された複数の撮像装置104を有する。スタジアム101は、実際に競技等が行われるフィールド103と、フィールド103を取り囲む観客席102とを含む。複数の撮像装置104は、観客席102とフィールド103とを囲むように配置される。
[システム構成]
図1は、本実施形態に係る画像処理システム100の概略構成例を示す図である。画像処理システム100は、サッカー場などのスタジアム101に設置された複数の撮像装置104を有する。スタジアム101は、実際に競技等が行われるフィールド103と、フィールド103を取り囲む観客席102とを含む。複数の撮像装置104は、観客席102とフィールド103とを囲むように配置される。
本実施形態では、世界座標系(X軸、Y軸、Z軸)を次に示すように定義して説明する。すなわち、フィールド103の中心を原点とし、フィールドの長辺方向をX軸とし、フィールドの短辺方向をY軸とし、X軸およびY軸に対して直交方向をZ軸とする。また、世界座標系のX軸、Y軸、Z軸をそれぞれ、Xw、Yw、Zwと表示する。図1に示すXw、Yw、Zwそれぞれの軸の矢印の向きがプラス方向を表すものとする。
また、本実施形態では、仮想カメラ110から見た方向を決めるために、仮想カメラ座標系を次に示すように定義して説明する。すなわち、仮想カメラ110の光学中心を原点とし、光軸方向をZ軸とし、仮想カメラ110の横方向(左右方向)をX軸とし、仮想カメラ110の縦方向(上下方向)をY軸とする。また、仮想カメラ座標系のX軸、Y軸、Z軸をそれぞれ、Xc、Yc、Zcと表示する。図1に示すXc、Yc、Zcそれぞれの軸の矢印の向きがプラス方向を表すものとする。
なお、上述の世界座標系および仮想カメラ座標系の定義は一例であり、他の手法により定義されてもよい。
仮想カメラ110の方向は、仮想カメラの姿勢に対する上下方向を軸とした回転(パン)、仮想カメラの姿勢に対する左右方向を軸とした回転(チルト)、仮想カメラの姿勢に対する前後方向を軸とした回転(ロール)で表される。すなわち、パンPは、仮想カメラ110の光軸を左右方向に回転させることを表すパラメータであり、パン軸周りの仮想カメラ110の回転である。チルトTは、仮想カメラ110の光軸を上下に回転させることを表すパラメータであり、チルト軸周りの仮想カメラ110の回転である。ロールRは、仮想カメラ110の光軸を中心にした回転を示すパラメータであり、ロール軸周りの仮想カメラの回転である。
図2は、画像処理システムの詳細構成例を示す図である。画像処理システム100は、スタジアム101に設置された複数の撮像装置104と、情報処理装置201と、ユーザ端末202とを有する。
複数の撮像装置104は、それぞれが撮像対象領域であるフィールド103の少なくとも一部またはすべての範囲を撮像するように、かつ、少なくとも2つの撮像装置の画角に重なりが生じるように配置され、例えば伝送ケーブルを介して相互に接続される。また、撮像装置104は、予め設定された1又は複数の実撮像装置の注視点に向けて設置される。つまり、1又は複数の実撮像装置の注視点のそれぞれは2以上の撮像装置104により異なる方向から撮像される。複数の撮像装置104は、情報処理装置201にも接続され、フィールド103を撮像することにより取得した画像を情報処理装置201へ伝送する。
なお、複数の撮像装置104は、静止画像を撮像する撮像装置であってもよいし、動画像を撮像する撮像装置であってもよいし、静止画像および動画像を撮像する撮像装置であってもよい。また、本実施形態において、特に断りがない限り、画像という用語「画像」は、静止画と動画との両方を含むものとする。
情報処理装置201は、仮想視点画像を生成する装置である。本実施形態における仮想視点画像とは、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像である。ただしこれに限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。また、仮想視点の指定は、ユーザ操作により行われてもよいし、装置によって自動で行われてもよい。本実施形態においては、後述する情報処理装置が仮想視点を変更する例について説明する。
ユーザ端末202は、例えば、ユーザ端末202を操作する視聴者など、画像処理システム100を利用するユーザが所持する情報処理装置である。ユーザ端末202は、例えば、パーソナルコンピュータや、スマートフォンやタブレットなどの携帯端末などである。ユーザ端末202は、マウス、キーボード、ジョイスティック、及び、タッチパネルの少なくとも1つ等のユーザ操作を受け付けるためのインターフェースを有する。また、ユーザ端末202は、情報処理装置201から仮想視点画像を受信し、内蔵の(場合によっては外部の)表示装置に表示する。
図3は、ユーザ端末202の表示装置の表示例を示す図である。ユーザ端末202は、スマートフォンやタブレットなどの携帯端末である。ユーザ端末202は、表示装置301を有し、情報処理装置201から受信した仮想視点画像を表示する。表示装置301は、切り替え画面302と操作画面303との2画面を表示する。
切り替え画面302は、フィールド103を真上から俯瞰した仮想視点画像(以下、俯瞰画像と称する場合がある。)を表示する。俯瞰画像は、対象となる選手および審判員およびサッカーボールの全てが映った画像であってもよいし、審判員およびサッカーボールおよび主要な選手が映った画像であってもよい。ユーザは、切り替え画面302にて俯瞰画像を見ることで、フィールド内において、選手310a~選手310j、ボール311および仮想視点312それぞれの位置を把握することができる。また、各選手の周辺には、各選手に対応した選手名が表示され、選手の動きに合わせて選手に対応して表示される選手名の位置も動く。仮想視点312は、撮像装置のアイコンで表示されている。ユーザは、切り替え画面302に表示される俯瞰画像上の選手を指などで指示(タップ)し選択することで、選択した選手を切り替え後の主被写体である第2のオブジェクトとして撮像する位置へ仮想視点312を瞬時に移動(切り替え)できる。すなわち、主被写体である第1のオブジェクトを捉える、切り替え前の仮想視点312から、主被写体である第2のオブジェクトを捉える、切り替え後の仮想視点に切り替えることができる。
操作画面303は、切り替え画面302に表示される俯瞰画像における仮想視点312の位置および当該仮想視点312からの視線方向に基づき生成され、仮想視点312の視野範囲を示す仮想視点画像(以後、操作画像と呼ぶ場合がある。)303である。ユーザは、操作画面303に表示される操作画像に対してタッチ操作することで仮想視点312の位置や仮想視点312からの視線方向を制御できる。
ユーザは、このユーザ端末202を使用することで、例えば、選手310iを狙って仮想視点312で撮像している最中に、仮想視点312を選手310bへ瞬時に移動させ、移動後、選手310bを狙って仮想視点で撮像する、といった操作をできる。すなわち、ユーザは、切り替え画面302と操作画面303を表示するユーザ端末202を使用することで、選手310iを捉える切り替え前の仮想視点312を、選手310bを捉える切り替え後の仮想視点に切り替える操作を行うことができる。
なお、ユーザ端末202の表示装置が2画面である場合について説明したが、これに限定されない。例えば、デュアルディスプレイであってもよい。その場合、一方のディスプレイに切り替え画面を表示し、他方のディスプレイに操作画面を表示する態様で使用してもよい。また、切り替え画面302にフィールドを真上から俯瞰した俯瞰画像を表示し、俯瞰画像にて所望する選手を選択する態様について説明したが、これに限定されない。例えば、切り替え後の仮想視点に対応可能な選手の選手名の一覧を示すリスト表を表示し、リスト表の中から所望する選手を選択する態様であってもよい。
ユーザ端末202は、操作画面303に対するユーザ操作(ユーザ入力)に基づいて、仮想視点の位置および仮想視点からの視線方向に関わる操作指示を受け付ける。ユーザ端末202は、仮想視点の位置および仮想視点からの視線方向に変化が生じる度に、操作指示の内容を示す仮想視点操作情報を情報処理装置201へ伝送する。
<仮想視点操作情報>
仮想視点操作情報の詳細について、図を用いて説明する。図4は、仮想視点操作情報の構成例を示す図である。仮想視点操作情報400は、時刻情報401と、位置情報402と、視線情報403とを含む。なお、以後、位置情報402と視線情報403とを纏めて、位置視線情報と呼ぶ場合がある。時刻情報401は、撮像装置で撮像したときの撮像時刻と同じ時刻を示す情報である。時刻情報401は、HH(時間):MM(分):SS(秒).FF(フレーム)で表される、ある時点における時刻を示す情報である。位置情報402は、時刻情報401が示す時刻における仮想視点の位置を示す情報である。位置情報は、互いに軸の方向が異なる3つの座標軸(例えば、X軸、Y軸、およびZ軸)が原点で直交するように交わる座標系における3次元直交座標によって表現される、仮想視点の位置を示す情報である。原点には、例えば、フィールド103のセンターサークルの中心位置などの、複数の撮像装置の撮像対象の空間内における任意の位置が指定される。視線情報403は、時刻情報401が示す時刻における、仮想視点からの視線方向を示す情報である。視線情報403は、パン(水平方向)、チルト(垂直方向)、およびロール(撮像装置の光学系が光軸に直交する平面で回転する方向)の3軸に対する角度により表現される、仮想視点からの視線方向などを示す情報である。
仮想視点操作情報の詳細について、図を用いて説明する。図4は、仮想視点操作情報の構成例を示す図である。仮想視点操作情報400は、時刻情報401と、位置情報402と、視線情報403とを含む。なお、以後、位置情報402と視線情報403とを纏めて、位置視線情報と呼ぶ場合がある。時刻情報401は、撮像装置で撮像したときの撮像時刻と同じ時刻を示す情報である。時刻情報401は、HH(時間):MM(分):SS(秒).FF(フレーム)で表される、ある時点における時刻を示す情報である。位置情報402は、時刻情報401が示す時刻における仮想視点の位置を示す情報である。位置情報は、互いに軸の方向が異なる3つの座標軸(例えば、X軸、Y軸、およびZ軸)が原点で直交するように交わる座標系における3次元直交座標によって表現される、仮想視点の位置を示す情報である。原点には、例えば、フィールド103のセンターサークルの中心位置などの、複数の撮像装置の撮像対象の空間内における任意の位置が指定される。視線情報403は、時刻情報401が示す時刻における、仮想視点からの視線方向を示す情報である。視線情報403は、パン(水平方向)、チルト(垂直方向)、およびロール(撮像装置の光学系が光軸に直交する平面で回転する方向)の3軸に対する角度により表現される、仮想視点からの視線方向などを示す情報である。
また、ユーザ端末202は、切り替え画面302を介して仮想視点(仮想カメラ)の切替指示を受け付けた場合、切替要求(切替指示)とともに、次に示す情報を情報処理装置201へ伝送する。すなわち、ユーザ端末202は、切り替え後の仮想視点(仮想カメラ)が捉える第2の注目オブジェクトに関する情報である被写体識別情報(オブジェクト識別情報)を情報処理装置201へ伝送する。オブジェクト識別情報は、被写体(オブジェクト)の名称と被写体識別ID(オブジェクト識別ID)で構成される。オブジェクト識別IDは、アルファベットや数字で構成され、それぞれのオブジェクトを区別できるように割り振られた識別記号である。
また、情報処理装置201は、複数の撮像装置104により撮像された画像(以下、この撮像された画像を「撮像画像」と呼ぶ場合がある。)を蓄積する。情報処理装置201は、複数の撮像装置104による撮像で得られた画像を用いて仮想視点画像を生成する。
情報処理装置201は、フィールド103を真上から俯瞰した俯瞰画像を生成する。情報処理装置201は、仮想視点の位置を示す撮像装置のアイコンを俯瞰画像に重畳して表示する。情報処理装置201は、ユーザ端末202から受信した仮想視点操作情報に基づいて撮像装置のアイコンを移動する。また、情報処理装置201は、俯瞰画像上の選手の周辺に当該選手に対応した選手名を重畳して表示する。情報処理装置201は、選手の動きに追従するように当該選手に対応した選手名の移動を制御する。
情報処理装置201は、ユーザ端末202から受信した仮想視点操作情報に基づいて、ユーザが操作する仮想視点の視野範囲を示す仮想視点画像(操作画像)を生成する。操作画像は、俯瞰画像上の撮像装置のアイコンが位置する仮想視点の視野範囲に対応した画像である。情報処理装置201は、ユーザ端末202から切替要求(切替指示)を受信した場合、切替要求に付随するオブジェクト識別情報を取得する。なお、ユーザ操作で所望の選手ではなくフィールドの特定の場所を指定された場合、指定された特定の場所を基に所定の条件を満たす選手に対応したオブジェクト識別情報が切替要求に付随することになる。この場合のオブジェクト識別情報は、例えば、指定された特定の場所に最も近い選手(オブジェクト)に対応した情報としてもよい。また、指定された特定の場所に最も近い選手(オブジェクト)が複数人であるときには、予め決められた優先順位の高い選手(オブジェクト)に対応したオブジェクト識別情報としてもよい。情報処理装置201は、オブジェクト識別情報が示す被写体(オブジェクト)の位置情報を取得し、位置情報が示す位置へ移動した仮想視点の操作画面に切り替える。このとき、情報処理装置201は、切り替え前の選手(第1のオブジェクト)を捉える仮想視点の見え方と、切り替え後の別の選手(第2のオブジェクト)を捉える仮想視点の見え方が同じになるように、切り替え後の仮想視点の位置及び視線方向を自動設定する。すなわち、切り替え後の仮想視点による仮想視点画像が、切り替え前の仮想視点による仮想視点画像の構図と同様な構図である画像となるように、切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向を自動設定する。また、情報処理装置201は、自動設定した仮想視点の位置および自動設定した仮想視点からの視線方向に対応した仮想視点画像(操作画像)を生成する。
情報処理装置201は、生成した俯瞰画像と操作画像をユーザ端末202へ伝送する。
情報処理装置201は、例えばサーバ装置であり、複数の撮像画像や、生成した仮想視点画像を記憶するデータベース機能と、仮想視点画像を生成するための画像処理機能とを有する。また、スタジアム101内の複数の撮像装置104と情報処理装置201とは、有線または無線の通信ネットワーク回線、またはSDI(Serial Digital Interface)等のケーブル回線によって接続される。情報処理装置201は、前述の回線を通じて、複数の撮像装置104で撮像して得た画像を受信し、受信した画像をデータベースに格納する。
情報処理装置201及びユーザ端末202は、例えば、インターネットなどのネットワークを介して相互に情報の送受信が可能となるように構成される。なお、装置間の通信は、無線通信と有線通信とのいずれか又はこれらを組み合わせて行われてもよい。
<装置のハードウェア構成>
続いて、上述の各装置のハードウェア構成例について、図を用いて説明する。図5は、情報処理装置201およびユーザ端末202のハードウェア構成例を示す図である。各装置は、共通のハードウェア構成を有し、コントローラユニット500、操作ユニット509、および表示装置510を有する。
続いて、上述の各装置のハードウェア構成例について、図を用いて説明する。図5は、情報処理装置201およびユーザ端末202のハードウェア構成例を示す図である。各装置は、共通のハードウェア構成を有し、コントローラユニット500、操作ユニット509、および表示装置510を有する。
コントローラユニット500は、CPU501、ROM502、RAM503、HDD504、操作部I/F(インターフェース)505、表示部I/F506、および通信I/F507を有する。なお、これらは、システムバス508を介して、相互に接続される。
CPU(Central Processing Unit)501は、システムバス508を介して、ROM502、RAM503、HDD504、操作部I/F505、表示部I/F506および通信I/F507の動作を制御する。CPU501は、ROM(Read Only Memory)502に格納されているブートプログラムによりOS(Operating System)を起動する。CPU501は、その起動したOS上で、例えばHDD(Hard Disk Drive)504に格納されているアプリケーションプログラムを実行する。CPU501がアプリケーションプログラムを実行することによって、各装置の各種処理が実現される。RAM(Random Access Memory)503は、CPU501の主メモリ、ワークエリアなどの一時記憶領域として用いられる。HDD504は、上述のようにアプリケーションプログラムなどを格納する。また、CPU501は、1つプロセッサで構成されても、複数のプロセッサで構成されてもよい。
操作部I/F505は、操作ユニット509とのインターフェースである。操作部I/F505は、操作ユニット509においてユーザにより入力された情報をCPU501に送出する。操作ユニット509は、例えば、マウス、キーボード、タッチパネル等の、ユーザ操作を受付可能な機器を有する。表示部I/F506は、表示装置510とのインターフェースである。表示部I/F506は、例えば、表示装置510に表示する画像データを表示装置510に出力する。表示装置510は、液晶ディスプレイなどのディスプレイを有する。
通信I/F507は、例えば、イーサネット(登録商標)などの通信を行うためのインターフェースである。通信I/F507は、伝送ケーブルに接続され、その伝送ケーブルを受け付けるためのコネクタなどを含む。通信I/F507は、伝送ケーブルを介して、外部装置との間で情報の入出力を行う。なお、通信I/F507は、例えば、ベースバンド回路またはRF回路などの無線通信を行う回路またはアンテナであってもよい。また、コントローラユニット500は、ケーブルまたはネットワークを介して接続された外部の表示装置510に画像を表示させる制御を行うことも可能である。この場合、コントローラユニット500は、表示データを外部の表示装置510に出力することで表示制御を実現する。なお、図5の構成は一例であり、その一部が省略され又は図示されていない構成が追加され、さらに、図示された構成が組み合わされてもよい。例えば、情報処理装置201は、表示装置510を有しなくてもよい。
以上、図5を用いて情報処理装置201、ユーザ端末202のハードウェア構成について説明したが、図5に示される構成は、いずれも必須の構成ではない。また、上述の説明では、コントローラユニット500がCPU501を有するものとして説明したが、必ずしもこれに限定されない。例えば、コントローラユニット500は、CPU501の代わりに、または、CPU501に加えて、次に示すハードウェアを有していてもよい。すなわち、コントローラユニット500は、ASIC(Application Specific Integrated Circuit)、DSP、またはFPGA(フィールドプログラマブルゲートアレイ)などのハードウェアを有していてもよい。ASIC、DSP(デジタルシグナルプロセッサ)、FPGA(Field Programmable Gate Array)などのハードウェアが、CPU501が行う処理の一部または全てを行ってもよい。
<情報処理装置の機能構成>
図6は、情報処理装置201の機能構成例を示す図である。なお、図6に示す各機能は、例えば、情報処理装置201のCPU501がROM502に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。図6に示す各機能部は、他の機能部が実行する処理の一部または全部を担ってもよい。また、図6に示す構成の一部またはすべてを例えば、ASICやFPGAなどの専用のハードウェアにより実現してもよい。
図6は、情報処理装置201の機能構成例を示す図である。なお、図6に示す各機能は、例えば、情報処理装置201のCPU501がROM502に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。図6に示す各機能部は、他の機能部が実行する処理の一部または全部を担ってもよい。また、図6に示す構成の一部またはすべてを例えば、ASICやFPGAなどの専用のハードウェアにより実現してもよい。
情報処理装置201は、図6に示すように、制御部601、情報記憶部602、撮像画像入力部603、画像記憶部604、被写体情報取得部605、切替前情報生成部606、位置視線変更部607、移動制御部608、画像生成部609を有する。情報処理装置201は、さらに、ユーザ指示入力部610、画像出力部611を有する。また、これらの機能部は、内部バス612によって相互に接続され、制御部601による制御の下で、相互にデータを送受信することができる。
制御部601は、情報記憶部602に格納されているコンピュータプログラムに従って、情報処理装置201全体の動作を制御する。情報記憶部602は、ハードディスクなどの不揮発性の記憶装置を有する。情報記憶部602は、情報処理装置201全体の動作を制御するコンピュータプログラム等を格納する。
撮像画像入力部603は、スタジアム101に設置された複数の撮像装置104が撮像して得た撮像画像を所定のフレームレートで取得し、画像記憶部604に出力する。例えば、撮像装置1、撮像装置2、・・・、撮像装置nそれぞれが撮像して得た撮像画像1、撮像画像2、・・・、撮像画像nを所定のフレームレートで取得し、画像記憶部604に出力する。所定のフレームレートは、例えば、60フレーム/秒のフレームレートであるとするが、これに限定されない。なお、撮像画像入力部603は、有線もしくは無線の通信モジュール、またはSDIなどの画像伝送モジュールにより、撮像装置104から撮像画像を取得する。
画像記憶部604は、例えば、磁気ディスク、光ディスク、半導体メモリなどの大容量の記憶装置である。画像記憶部604は、撮像画像入力部603が取得した撮像画像と、それらの撮像画像に基づいて生成された仮想視点画像群とを記憶する。なお、画像記憶部604は、情報処理装置201に対して物理的に外部に設けてもよい。また、画像記憶部604に記憶される撮像画像、およびそれらの撮像画像に基づいて生成された仮想視点画像群は、画像フォーマットとして例えば、MXF(Material eXchange Format)形式などで記憶される。加えて、画像記憶部604に記憶されている撮像画像、およびそれらの撮像画像に基づいて生成された仮想視点画像群は、例えば、MPEG2形式などで圧縮される。ただし、データの形式は、必ずしもこれらに限定されない。任意の画像フォーマットおよびデータ圧縮方式が用いられてもよい。また、圧縮符号化しなくてもよい。
被写体情報取得部605は、被写体情報を図示しない外部装置から取得する。外部装置は、例えば、選手やボールに取り付けられたGPS情報を収集するトラッキングシステムを用いてもよい。図7は、オブジェクト情報(被写体情報)の構成例を示す。オブジェクト情報700は、例えば、時刻情報701と、位置情報702とで構成される。時刻情報701は、HH(時間):MM(分):SS(秒).FF(フレーム)で構成される。位置情報702は、時刻情報701で示される時刻に対応した情報であって、3次元直交座標を用いて、被写体(例えば、ボール、選手、審判)の位置を示す情報である。オブジェクト名(被写体名)は、任意の名称と被写体識別IDで構成される。被写体識別IDは、アルファベットや数字で構成され、それぞれのオブジェクト(被写体)を区別できるように割り振られた識別記号である。オブジェクト情報は、外部データベースから周期的に、例えば毎秒送られてくるが、これに限定されない。オブジェクト情報は、例えば、外部データベースから一定間隔で送られてきてもよいし、被写体情報取得部605を介して画像記憶部604に一時的に記憶されてもよい。また、上記説明のトラッキングシステムは、GPS情報を用いてオブジェクトの位置を特定しているが、これに限定されない。例えば、ビジュアルハルなどの技術を用いて、オブジェクトの位置を特定してもよい。オブジェクト情報は、上記構成の他に、オブジェクトごとの身体情報を含んでもよい。身体情報は、オブジェクトの身長を計測して得た身長の大きさを示す情報を含んでもよいし、これに加えて、体重および胸囲などを計測して得た体重を示す情報および胸囲を示す情報をさらに含んでもよい。
切替前情報生成部606は、ユーザ端末202から切替要求(切替指示)を受け付けた際に、移動前の仮想視点の位置及び視線方向と、当該仮想視点が捉える被写体(以後、移動前主被写体と呼ぶ場合がある)の位置に基づき切替前情報(切替情報)を生成する。切替前情報生成部606は、ユーザ指示入力部610で受け付けたユーザ指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と第1のオブジェクトとの位置関係を示す切替情報を生成する。
切替前情報は、角度、距離、高さ、視線方向で構成される。角度は、移動前主被写体の進行方向と、移動前主被写体から見て仮想視点が位置する方向との為す角度である。距離は、移動前主被写体と仮想視点との距離である。高さは、地面からの仮想視点の高さである。視線方向は、仮想視点からの視線方向(パン、チルト、ロール)である。
<仮想視点の切り替え処理>
情報処理装置201が実行する仮想視点の切り替え処理について、図を用いて説明する。図9は、情報処理装置が実行する仮想視点の切り替え処理の流れを示すフローチャートである。なお、フローチャートの説明における記号「S」は、ステップを表すものとする。この点、以下のフローチャートの説明においても同様とする。
情報処理装置201が実行する仮想視点の切り替え処理について、図を用いて説明する。図9は、情報処理装置が実行する仮想視点の切り替え処理の流れを示すフローチャートである。なお、フローチャートの説明における記号「S」は、ステップを表すものとする。この点、以下のフローチャートの説明においても同様とする。
S801では、情報処理装置201(ユーザ指示入力部610)は、ユーザ操作による仮想視点の位置を切り替える切替要求(切り替え指示)を受け付ける。切り替え指示は、切替前情報生成部606に送られる。
<仮想視点の位置の切り替え>
図9は、仮想視点の位置の切り替えを説明するための図である。図9では、フィールド901において自陣のペナルティキックエリア付近にいる選手902(第1のオブジェクト)が相手陣営にいる選手904(第2のオブジェクト)に対してパスを行った場面を示している。仮想視点の位置を切り替える前にあっては、切り替え前の仮想カメラ911は、センターサークルに向けて移動する選手902(第1のオブジェクト)を後方側から捉えるようにA地点に配置されているとする。選手902から相手陣営のペナルティキックエリア付近に蹴られたサッカーボール903を受けようと、サッカーボール903に向けて移動する選手904(第2のオブジェクト)を捉えるように仮想カメラの位置を切り替えるユーザ操作を受け付けたとする。この場合、次に示すように仮想カメラ912の位置が切り替えられる。すなわち、仮想視点の位置を切り替えた後にあっては、切り替え後の仮想カメラ912は、選手904(第2のオブジェクト)との位置関係が、切り替え前の仮想カメラ911と選手902との位置関係と同じとなるようにB地点に配置される。
図9は、仮想視点の位置の切り替えを説明するための図である。図9では、フィールド901において自陣のペナルティキックエリア付近にいる選手902(第1のオブジェクト)が相手陣営にいる選手904(第2のオブジェクト)に対してパスを行った場面を示している。仮想視点の位置を切り替える前にあっては、切り替え前の仮想カメラ911は、センターサークルに向けて移動する選手902(第1のオブジェクト)を後方側から捉えるようにA地点に配置されているとする。選手902から相手陣営のペナルティキックエリア付近に蹴られたサッカーボール903を受けようと、サッカーボール903に向けて移動する選手904(第2のオブジェクト)を捉えるように仮想カメラの位置を切り替えるユーザ操作を受け付けたとする。この場合、次に示すように仮想カメラ912の位置が切り替えられる。すなわち、仮想視点の位置を切り替えた後にあっては、切り替え後の仮想カメラ912は、選手904(第2のオブジェクト)との位置関係が、切り替え前の仮想カメラ911と選手902との位置関係と同じとなるようにB地点に配置される。
S802では、情報処理装置201(切替前情報生成部606)は、ユーザ指示入力部610から送られた切り替え指示を受け付けると、切替前情報を生成する。切替前情報の生成処理の詳細については、後述する。切替前情報は、位置視線変更部607に送られる。
S803では、情報処理装置201(位置視線変更部607)は、切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向を変更する。切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向の変更処理の詳細については、後述する。切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向を示す切替後情報は、移動制御部608に送られる。
S804では、情報処理装置201(移動制御部608)は、切り替え後の仮想視点の移動を制御する処理を実行する。切り替え後の仮想視点の移動の制御処理の詳細については、後述する。
S805では、情報処理装置201(画像生成部609)は、カメラパスを受け取り、受け取ったカメラパスに従って仮想視点画像を生成する。生成した仮想視点画像は、画像出力部611に送られる。そして、情報処理装置201(画像出力部611)は、画像生成部609から送られた仮想視点画像をユーザ端末202に出力して、ユーザ端末202に切り替え後の仮想視点に対応した仮想視点画像を表示させる。
<切り替え前後の仮想視点画像>
図19は、ユーザ端末に表示される切り替え前後の仮想視点画像例を説明するための図であり、図19(a)に切り替え前の仮想視点画像例を示し、図19(b)に切り替え後の仮想視点画像例を示す。なお、切り替え前の仮想視点画像は、図9に示すA地点に配置された仮想カメラ911による画像に対応し、切り替え後の仮想視点画像は、図9に示すB地点に配置された仮想カメラ912による画像に対応する。
図19は、ユーザ端末に表示される切り替え前後の仮想視点画像例を説明するための図であり、図19(a)に切り替え前の仮想視点画像例を示し、図19(b)に切り替え後の仮想視点画像例を示す。なお、切り替え前の仮想視点画像は、図9に示すA地点に配置された仮想カメラ911による画像に対応し、切り替え後の仮想視点画像は、図9に示すB地点に配置された仮想カメラ912による画像に対応する。
切り替え前の仮想視点画像1911にあっては、中央にて選手1912(第1の注目オブジェクト)の後ろ姿が映った画像となる。また、切り替え後の仮想視点画像1921にあっては、中央にて選手1922(第2の注目オブジェクト)の後ろ姿が映った画像となる。
すなわち、ユーザ端末202は、切り替え前の仮想視点画像と同様の構図である切り替え後の仮想視点画像を表示することになる。
<切替前情報の生成処理>
図10は、情報処理装置201(切替前情報生成部606)が実行する処理の流れを示すフローチャートである。
図10は、情報処理装置201(切替前情報生成部606)が実行する処理の流れを示すフローチャートである。
S1001では、切替前情報生成部606は、ユーザによる切り替え操作が行われる直前の仮想視点の位置を示す情報と、当該仮想視点からの視線方向を示す情報とを含む仮想視点操作情報をユーザ端末202から取得する。仮想視点操作情報は、切替要求を受け付ける際に、ユーザ端末202から受信した情報である。
S1002では、切替前情報生成部606は、S1001で取得した仮想視点操作情報で示される仮想視点の位置と仮想視点からの視線方向とに基づいて移動前主被写体(切り替え操作直前の第1の主オブジェクト)を特定する。例えば、切替前情報生成部606は、仮想視点の位置と視線とに基づいて仮想視点からの視線方向を求め、その視線方向と重なる位置にいる被写体(オブジェクト)である選手を移動前主被写体として特定してもよい。その他、複数のオブジェクトのうち、視線方向に最も近い被写体(オブジェクト)を移動前主被写体として特定してもよい。なお、主被写体(オブジェクト)の特定方法はこれに限定せず、別の方法であってもよい。
S1003では、切替前情報生成部606は、S1002で特定した移動前主被写体の位置情報を取得する。切替前情報生成部606は、被写体情報取得部605で取得した複数の被写体の位置情報のうち、S1002で特定した移動前主被写体の位置情報を取得する。このとき、切替前情報生成部606は、切替要求(切替指示)を受け付けた時間から過去に遡った時間までの所定時間における位置情報を取得する。S1003での所定時間は、例えば、数秒であり、S1003の処理に続く処理であるS1004にて、移動前主被写体の進行方向を特定することができる時間であればよい。
S1004では、切替前情報生成部606は、移動前主被写体の進行方向を検出する。切替前情報生成部606は、S1003で取得した所定時間における位置情報に基づいて、移動前主被写体の位置が遷移する軌跡から進行方向を検出する。なお、S1004では、主被写体の進行方向を、位置が遷移する軌跡から検出する方法を用いて説明したが、これに限定しない。例えば、顔認識技術を用いて主被写体の顔を特定し、顔が向く方向を前方として検出してもよい。また、画像解析技術を用いて背番号を特定し、背番号がある方向を後方として検出してもよい。主被写体を基準として、前方または後方のどちらか一方の特定方向を検出し、検出結果に基づき移動前主被写体の進行方向を特定できればよい。
S1005では、切替前情報生成部606は、S1004で検出した移動前主被写体の進行方向と、移動前主被写体から見て仮想視点が位置する方向(以後、仮想視点方向と呼ぶ場合がある)との為す角度を算出する。仮想視点方向は、S1001で取得した仮想視点操作情報に含まれる仮想視点の位置と、S1003で取得したオブジェクトの位置情報に含まれる移動前主被写体の位置に基づいて算出される。このときに使用するオブジェクト情報は、切替要求を受け付けた時間のオブジェクト情報のみである。
<進行方向と仮想視点方向との為す角度の算出方法>
図11は、第1の主オブジェクトの進行方向と切り替え前の仮想視点方向との為す角度の算出方法を説明するため模式図である。切り替え前の仮想視点1101は、被写体の斜め後方から主被写体1102を狙って撮像するように配置されている。進行方向1103は、主被写体1102が進行する方向を示している。仮想視点方向1104は、主被写体1102から見た仮想視点1101が位置する方向である。角度1105は、進行方向1103と仮想視点方向1104との為す角度である。
図11は、第1の主オブジェクトの進行方向と切り替え前の仮想視点方向との為す角度の算出方法を説明するため模式図である。切り替え前の仮想視点1101は、被写体の斜め後方から主被写体1102を狙って撮像するように配置されている。進行方向1103は、主被写体1102が進行する方向を示している。仮想視点方向1104は、主被写体1102から見た仮想視点1101が位置する方向である。角度1105は、進行方向1103と仮想視点方向1104との為す角度である。
進行方向1103と仮想視点方向1104との為す角度は、例えば、以下に示す(1)式を用いて算出する。例えば、進行方向1103をベクトルaとし、仮想視点方向1104をベクトルbとする。(1)式では、ベクトルaを(a1,a2,a3)とし、ベクトルbを(b1,b2,b3)とし、ベクトルaとベクトルbの為す角の角度をθ(0≦θ≦180)とする。
S1006では、切替前情報生成部606は、移動前主被写体と仮想視点との距離を算出する。切替前情報生成部606は、S1001で取得した仮想視点操作情報で示される仮想視点の位置と、S1003で取得した位置情報で示される第1の注目オブジェクトの位置とに基づいて、移動前主被写体と切り替え前の仮想視点との距離を算出する。このときに使用する移動前主被写体の位置は、切替要求(切替指示)を受け付けた時間の位置である。
S1007では、切替前情報生成部606は、切り替え前の仮想視点の高さを算出する。切替前情報生成部606は、S1001で取得した仮想視点操作情報に含まれる位置情報からz方向の値を抽出する。切替前情報生成部606は、抽出したz方向の値を切り替え前の仮想視点の高さとして設定する。
S1008では、切替前情報生成部606は、切り替え前の仮想視点からの視線方向を補正する。すなわち、切替前情報生成部606は、S1001で取得した仮想視点操作情報に含まれるパン方向の角度を補正する。切替前情報生成部606は、パン方向の角度を計測する際の基準線(角度が0度の線)を、移動前主被写体の方向へ向けるように変更する。その後、変更した基準線から角度を求め、パン方向の角度として置き換える。なお、チルト方向およびロール方向の角度については、S1001で取得した仮想視点操作情報に含まれる角度が使用される。そのため、チルト方向およびロール方向の角度に対しては補正処理を実行しない。
<パン方向の角度の補正方法>
図12は、切り替え前の仮想視点のパン方向の角度の補正方法を説明するための模式図であって、図12(a)にパン方向の角度の補正前の状態を示し、図12(b)にパン方向の角度の補正後の状態を示す。仮想視点1201は、仮想視点1201からの視線方向1202を主被写体1203へ向けて撮像する位置に配置される。視線方向1202は、パン軸1204を軸の中心として左右方向へ動かすことができる。
図12は、切り替え前の仮想視点のパン方向の角度の補正方法を説明するための模式図であって、図12(a)にパン方向の角度の補正前の状態を示し、図12(b)にパン方向の角度の補正後の状態を示す。仮想視点1201は、仮想視点1201からの視線方向1202を主被写体1203へ向けて撮像する位置に配置される。視線方向1202は、パン軸1204を軸の中心として左右方向へ動かすことができる。
図12(a)に示すように、補正前にあっては、角度1206は、S1001で取得した仮想視点操作情報に含まれるパン方向の角度と同じ角度となる。角度1206は、基準線1205と視線方向1202との為す角度である。基準線1205は、主被写体1203以外の方向を指している状態であり、例えば、フィールドのセンターサークルの中心を指している。基準線が被写体(第1の主オブジェクト)と異なっている場合、切替前情報生成部606は、補正前の基準線1205を、図12(b)に示すように、仮想視点1201と主被写体(第1の主オブジェクト)1203とを結ぶ線である基準線1215へ変更する。変更後(補正後)の基準線1215は、パン軸1204と主被写体(主オブジェクト)1203とを結ぶ直線である。切替前情報生成部606は、補正後の基準線1215と視線方向1202との為す角度を求め、求めた角度をパン方向の角度として補正する。なお、図12(b)に示す例では、補正後の基準線1215と視線方向1202とが一致しているため、パン方向の角度が0度となる。
S1009では、切替前情報生成部606は、S1005からS1008の処理で得られた角度、距離、高さ、および視線方向それぞれの情報を記録した切替前情報を位置視線変更部607へ送信する。
位置視線変更部607は、切替前情報生成部606から受信した切替前情報に基づいて、移動後(切り替え後)の仮想視点の位置および移動後(切り替え後)の仮想視点からの視線方向を変更する。すなわち、位置視線変更部607は、切替情報に基づいて、前記第2の仮想視点と第2のオブジェクトとの位置関係が前記第1の仮想視点と第1のオブジェクトとの位置関係と同等となるように変更する。
<仮想視点の位置視線方向の変更処理>
図13は、情報処理装置201(位置視線変更部607)が実行する処理の流れを示すフローチャートである。このフローチャートは、切替前情報を受信した際に実行を開始する。この処理を実行することにより、切り替え後の仮想視点の位置および仮想視点からの視線方向が変更される。
図13は、情報処理装置201(位置視線変更部607)が実行する処理の流れを示すフローチャートである。このフローチャートは、切替前情報を受信した際に実行を開始する。この処理を実行することにより、切り替え後の仮想視点の位置および仮想視点からの視線方向が変更される。
S1301では、位置視線変更部607は、切替前情報生成部606からS802で生成した切替前情報を取得する。切替前情報は、例えば、移動前の仮想視点の角度、距離、高さ、および視線方向を示す情報を含む。
S1302では、位置視線変更部607は、移動後の仮想視点が捉える被写体(以後、移動後主被写体と呼ぶ場合がある)の位置情報を取得する。位置視線変更部607は、ユーザ端末202から受信した切替要求に付随する被写体識別情報を取得する。位置視線変更部607は、被写体識別情報に含まれる被写体識別IDを使って、被写体情報取得部605から移動後主被写体の位置情報を取得する。このとき、位置視線変更部607は、ユーザ端末202から切替要求を受信した時間から過去に遡った時間までの所定時間における位置情報を取得する。S1302での所定時間は、例えば、数秒であり、S1302の処理に続く処理であるS1303にて、移動後主被写体の進行方向を特定することができる時間であればよい。
S1303では、位置視線変更部607は、移動後主被写体の進行方向を検出する。位置視線変更部607は、S1302で取得した所定時間における位置情報に基づいて、移動後主被写体の位置が遷移する軌跡から進行方向を検出する。なお、S1303では、主被写体の進行方向を検出する態様について説明したが、これに限定されない。例えば、顔認識技術を用いて主被写体の顔を特定し、顔が向く方向を前方として検出し、この検出結果に基に移動後主被写体の進行方向を検出してもよい。また、画像解析技術を用いて背番号を特定し、背番号がある方向を後方として検出し、この検出結果を基に移動後主被写体の進行方向を検出してもよい。主被写体を基準として、前方または後方のどちらか一方の特定方向を検出できればよい。ただし、S1303での進行方向の検出方法は、上述したS1004での進行方向の検出方法と同じ方法であるとする。
S1304では、位置視線変更部607は、移動後の仮想視点の位置を変更する。位置視線変更部607は、S1303で検出した進行方向を基準として、S1301で取得した切替前情報に含まれる角度、距離と高さを適用し、移動後の仮想視点の位置を変更する。
<移動後の仮想視点の位置の変更方法>
図14は、移動後の仮想視点の位置を変更する方法を説明するための模式図である。主被写体(第2の主オブジェクト)1401は、移動後主被写体を示している。移動方向1402は、S1303で検出された主被写体1401が移動する(進行する)方向を示している。
図14は、移動後の仮想視点の位置を変更する方法を説明するための模式図である。主被写体(第2の主オブジェクト)1401は、移動後主被写体を示している。移動方向1402は、S1303で検出された主被写体1401が移動する(進行する)方向を示している。
位置視線変更部607は、移動方向1402を基準とし、切替前情報に含まれる角度1403を適用することにより、仮想視点からの視線方向1404を変更する。更に、位置視線変更部607は、主被写体1401から仮想視点の方向1404へ向けて、切替前情報に含まれる距離と高さを適用することにより、仮想視点1405の位置を変更する。
S1305では、位置視線変更部607は、移動後の仮想視点からの視線方向を変更する。位置視線変更部607は、図14で示す仮想視点の方向1404を、パン方向の角度を計測する際の基準線(角度が0度の線)とする。位置視線変更部607は、この基準線に対してS1301で取得した切替前情報に含まれる視線方向を適用することにより、移動後の仮想視点からの視線方向を変更する。
S1306では、位置視線変更部607は、S1305で変更した移動後の仮想視点の位置および移動後の仮想視点からの視線方向を補正する。位置視線変更部607は、被写体情報取得部605から被写体情報に含まれる身体情報を取得する。位置視線変更部607は、移動前主被写体の身体情報と、移動後主被写体の身体情報を取得し、これら身体情報の差分に基づいて移動後の仮想視点の位置および視線方向を補正する。
<移動後の仮想視点の位置視線方向の補正方法>
図15は、移動後の仮想視点の位置および仮想視点からの視線方向を補正する方法を説明するための模式図である。主被写体1501は、仮想視点を、第1のオブジェクトを捉える位置から第2のオブジェクトを捉える位置に切り替えた後の移動後主被写体を示している。仮想視点1502は、S1304の処理で変更した切り替え後の仮想視点の位置、およびS1305の処理で変更した切り替え後の仮想視点からの視線方向を示す移動後の仮想視点を示している。
図15は、移動後の仮想視点の位置および仮想視点からの視線方向を補正する方法を説明するための模式図である。主被写体1501は、仮想視点を、第1のオブジェクトを捉える位置から第2のオブジェクトを捉える位置に切り替えた後の移動後主被写体を示している。仮想視点1502は、S1304の処理で変更した切り替え後の仮想視点の位置、およびS1305の処理で変更した切り替え後の仮想視点からの視線方向を示す移動後の仮想視点を示している。
例えば、主被写体1501(第2のオブジェクト)の身長が180センチであり、移動前主被写体(第1のオブジェクト)の身長160センチより大きい場合、次に示す状態となる可能性がある。すなわち、切替前の仮想視点と第1のオブジェクトとの位置関係と同じになる様に、第2のオブジェクトに対して切り替え後の仮想視点1502の位置が変更されると、主被写体1501が仮想視点1502の視野範囲から見切れてしまう可能性がある。その場合、位置視線変更部607は、主被写体1501が仮想視点1502の視野範囲内に入る様に、仮想視点1502を主被写体1501から遠ざけた位置を変更して、後退させる。
これとは反対に、主被写体1501の身長が移動前主被写体の身長より小さい場合、次に示す状態となる可能性がある。すなわち、切替前の仮想視点と第1のオブジェクトとの位置関係と同じになる様に、第2のオブジェクトに対して切替後の仮想視点1502の位置が変更されると、主被写体1501が仮想視点1502から遠い位置となり小さくなってしまう可能性がある。その場合、位置視線変更部607は、仮想視点1502を主被写体1501に近づけるように、第2のオブジェクトに対して切替後の仮想視点1502の位置を変更して、前進させる。
<切り替え後の仮想視点の位置および視線方向の補正>
図16は、切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向の補正を説明するための図である。図16(a)に第1および第2の主オブジェクトの身長を示し、図16(b)に切り替え前の仮想視点画像例を示す。図16(c)に、主オブジェクトの身体情報を用いない場合の切り替え後の仮想視点画像例を示し、図16(d)に主オブジェクトの身体情報を用いた場合の切り替え後の仮想視点画像例を示す。
図16は、切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向の補正を説明するための図である。図16(a)に第1および第2の主オブジェクトの身長を示し、図16(b)に切り替え前の仮想視点画像例を示す。図16(c)に、主オブジェクトの身体情報を用いない場合の切り替え後の仮想視点画像例を示し、図16(d)に主オブジェクトの身体情報を用いた場合の切り替え後の仮想視点画像例を示す。
図16(a)に示すように、切り替え前の仮想カメラが捉える、背番号が5である選手1601(第1の主オブジェクト)の身長がH1であるとする。また、切り替え後の仮想カメラが捉える、背番号が10である選手1602(第2の主オブジェクト)の身長が、選手1601の身長より高いH2であるとする。
切り替え前の仮想カメラによる仮想視点画像は次に示す画像であるとする。すなわち、図16(b)に示すように、切り替え前の仮想カメラによる仮想視点画像1611は、その中央に選手1612(第1の主オブジェクト)の全身が映った画像であるとする。
選手1601(第1の主オブジェクト)および選手1602(第2の主オブジェクト)の身体情報を用いず、切り替え後の仮想カメラの位置および姿勢(視線方向)を補正しない場合、切り替え後の仮想カメラによる仮想視点画像は次に示すような画像となる。すなわち、図16(c)に示すように、切り替え後の仮想カメラによる仮想視点画像1621は、その中央に選手1622(第2の主オブジェクト)が映った画像となるものの、選手1622の頭部の上部側と足の下部側とが見切れた状態の画像となる。
これに対し、選手1601(第1の主オブジェクト)及び選手1602(第2の主オブジェクト)の身体情報を用いて、切り替え後の仮想カメラの位置及び姿勢(視線方向)を補正した場合、切り替え後の仮想カメラによる仮想視点画像は次に示す画像となる。すなわち、図16(d)に示すように、切り替え後の仮想カメラによる仮想視点画像1631は、その中央に選手1632(第2の主オブジェクト)の全身が映った画像となる。
このように、第1および第2のオブジェクトの身長情報を用いて、仮想カメラの位置および姿勢(視線方向)を補正することにより、切り替え後の仮想視点画像の構図を、切り替え前の仮想視点画像とほぼ同じ構図とすることができる。
図13の説明に戻る。S1307では、位置視線変更部607は、S1306で補正した移動後の仮想視点の位置および移動後の仮想視点からの視線方向に関する情報(切替後情報)を移動制御部608へ送信する。
移動制御部608は、位置視線変更部607から受信した切替後情報を用いて、位置視線変更部607で変更した位置および視線方向に基づいて移動後の仮想視点を配置し、配置後の仮想視点を自動制御する。
<仮想視点の移動制御処理>
図17は、情報処理装置201(移動制御部608)が実行する処理の流れを示すフローチャートである。このフローチャートは、位置視線変更部607から移動後の位置および視線情報を受信した際に実行を開始する。
図17は、情報処理装置201(移動制御部608)が実行する処理の流れを示すフローチャートである。このフローチャートは、位置視線変更部607から移動後の位置および視線情報を受信した際に実行を開始する。
S1701では、移動制御部608は、位置視線変更部607からS803で生成した切替後情報を取得する。切替後情報は、例えば、移動後の仮想視点の位置および移動後の仮想視点からの視線方向を示す情報を含む。
S1702では、移動制御部608は、移動後主被写体の位置情報を取得する。移動制御部608は、ユーザ端末202から受信した切替要求(切替指示)に付随する被写体識別情報を取得する。移動制御部608は、被写体識別情報に含まれる被写体識別IDを使って、被写体情報取得部605から移動後主被写体の位置情報を取得する。このとき、移動制御部608は、ユーザ端末202から切替要求を受信した時間から過去に遡った時間までの所定時間における位置情報を取得する。S1702での所定時間は、例えば、数秒であり、S1702の処理に続く処理であるS1703にて、移動後主被写体の移動方向(進行方向)を特定することができる時間であればよい。
S1703では、移動制御部608は、移動後主被写体の移動方向と移動速度を算出する。移動方向は、S1702で取得した所定時間における位置情報に基づいて、移動後主被写体の位置が遷移する軌跡から移動方向を検出できる。移動方向としては、例えば、直線的な進行方向、弧線的な進行方向などが挙げられる。移動速度は、移動後主被写体の移動距離を、所定時間で割ることで算出できる。
S1704では、移動制御部608は、S1701で取得した移動後の仮想視点の位置および移動後の仮想視点からの視線方向を、カメラパス(仮想視点パス)の初期値として設定する。
S1705では、移動制御部608は、画像生成部609へカメラパスを送信する。
S1706では、移動制御部608は、ユーザ指示入力部610を介して、ユーザ端末202からユーザによる仮想視点の手動操作があるか否かを判定する。手動操作の検出方法は、例えば、操作画面303に対するユーザ操作を検出したときに、手動操作を検出したと判定してもよい。手動操作を検出したとの判定結果を得た場合(S1706のYES)、仮想視点の自動制御を終了させるために、処理がS1708に移行される。手動操作を検出しないとの判定結果を得た場合(S1706のNO)、仮想視点の自動制御を継続するために、処理がS1707に移行される。なお、S1706による判定処理は、例えば、フレーム単位で実行する。
S1707では、移動制御部608は、移動後の仮想視点を自動制御する。移動制御部608は、S1704で初期化したカメラパスに対して、S1703で算出した移動方向と移動速度を適用し、仮想視点の位置を移動させたカメラパスに更新する。更新したカメラパスは、一時的に保持し次回の処理で使用される。S1707の処理が完了した後、処理がS1705に戻される。
S1708では、移動制御部608は、移動後の仮想視点の制御を、自動制御から手動制御へ切り替える。切り替え後、移動制御部608は、ユーザ指示入力部610を介して、仮想視点操作情報を常時受信し、カメラパスとして画像生成部609へ送信する。
<自動制御による仮想視点の遷移>
図18は、自動制御による仮想視点(仮想カメラ)の遷移を説明するための模式図である。主被写体の位置1801a~1801dは、移動後主被写体の位置である。仮想視点の位置1802a~1802dは、移動後(切替後)の仮想視点の位置である。移動方向1803a~1803dは、S1703で算出した移動方向および移動速度である。なお、移動方向1803a~1803cは、すべて同じ方向であり、同じ速度であるとする。移動方向1803dは、移動方向1803a~1803cの場合と、方向および速度が異なるとする。
図18は、自動制御による仮想視点(仮想カメラ)の遷移を説明するための模式図である。主被写体の位置1801a~1801dは、移動後主被写体の位置である。仮想視点の位置1802a~1802dは、移動後(切替後)の仮想視点の位置である。移動方向1803a~1803dは、S1703で算出した移動方向および移動速度である。なお、移動方向1803a~1803cは、すべて同じ方向であり、同じ速度であるとする。移動方向1803dは、移動方向1803a~1803cの場合と、方向および速度が異なるとする。
図18では、S1707の処理が行われると、第2の主オブジェクトおよび切り替え後の仮想視点の位置が位置1801aおよび位置1802aから位置1801bおよび位置1802bに移動することを示している。さらに、S1707の処理が行われると、第2の主オブジェクトおよび切り替え後の仮想視点の位置が位置1801bおよび位置1802bから位置1801cおよび位置1802cに移動することを示している。さらに、S1707の処理が行われると、第2の主オブジェクトおよび切り替え後の仮想視点の位置が位置1801cおよび位置1802cから位置1801dおよび位置1802dに移動することを示している。すなわち、S1707の処理が行われるたびに、第2の主オブジェクトおよび切り替え後の仮想視点の位置が位置1801aおよび位置1802aから順次移動し、位置1801dおよび位置1802dに移動する様子を示している。
上述の仮想視点の位置1802aは、S1704で初期化したカメラパスが示す仮想視点の位置および仮想視点からの視線方向であって、移動後(切替後)の仮想視点の開始地点である。この仮想視点の位置1802aに対して移動方向1803aを適用することで、仮想視点の位置1802bへ移動する。次に、仮想視点の位置1802bに対して移動方向1803bを適用することで、仮想視点の位置1802cへ移動する。移動制御部608は、同様の処理を繰り返しながら仮想視点を移動させる自動制御を実行する。
なお、第1の主オブジェクトの位置1811aから、位置1811b、位置1811cを経て位置1811dに至るまでの第1の主オブジェクトの位置情報を取得し、取得した位置情報を基に、第2の主オブジェクトの自動移動制御が行われることになる。
すなわち、第2の主オブジェクトを捉える切り替え後の仮想カメラは、切替要求T1を受け付けてから、自動制御(直進運動)1822が適用されることになる。また、手動操作検出T2を受け付けると、第2の主オブジェクトを捉える切り替え後の仮想カメラは、手動制御1823が適用されることになる。
画像生成部609は、移動制御部608から受信したカメラパスと、画像記憶部604に記憶された複数の撮像画像とを用いて仮想視点画像(操作画像)を生成する。画像生成部609は、位置視線変更部607で変更された第2の仮想視点と第2のオブジェクトとの位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成するともいえる。また、画像生成部609は、撮像空間を真上から俯瞰したカメラパスと、画像記憶部604に記憶された複数の撮像画像とを用いて仮想視点画像(俯瞰画像)を生成する。操作画像はユーザ端末の操作画面に表示される。また、俯瞰画像はユーザ端末の切り替え画面に表示される。
仮想視点画像は、例えば、イメージベースレンダリングを用いて生成される。イメージベースレンダリングは、モデリング(幾何学図形を使用して物体の形状を作成する過程)を行わず、複数の実際の視点から撮像された画像から仮想視点画像を生成するレンダリング方法である。ただし、イメージベースレンダリングによらずに仮想視点画像を生成してもよく、例えば、モデルベースレンダリング(Model-Based Rendering:MBR)を用いて仮想視点画像を生成してもよい。上述のMBRは、複数の方向からオブジェクト(被写体)を撮像して得た複数の撮像画像に基づき生成される三次元モデルを用いて、仮想視点画像を生成する方式である。上述のMBRは、例えば、視体積交差法、Multi-View-Stereo(MVS)などの三次元形状の復元手法で得られた対象シーンの三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像(仮想視点画像)として生成する。また、情報処理装置201は、仮想視点画像に代えて、例えば、三次元形状データ等の三次元モデルを示す情報、またはその情報が示す三次元モデルにマッピングするための画像等の、仮想視点画像を生成するための情報を生成してもよい。
ユーザ指示入力部610は、ユーザ端末202から、仮想視点画像を生成するための仮想視点に関するユーザ指示であって、操作指示や操作指示に付随する付随情報を受信する。ユーザ指示入力部610は、例えば、仮想視点画像の切替要求(切替指示)、または切替要求に付随する被写体識別情報を受信する。受信した切替指示や付随情報は、切替前情報生成部606など情報処理装置201の各処理部へ送信される。
画像出力部611は、画像生成部609が生成した仮想視点画像をユーザ端末202へ出力する。
以上、説明した通り、本実施形態によれば、切り替え前の第1の主オブジェクトを捉える仮想視点の見え方と、切り替え後の第2の主オブジェクトを捉える仮想視点の見え方が同じになるように、切り替え後の仮想視点の位置および視線方向を自動設定する。すなわち、仮想視点画像の構図が仮想視点の位置の切り替え前後で同じとなるように、切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向を自動設定する。これにより、ユーザは、切り替え後の仮想視点画像において、方向感覚を見失うこと無く、切り替え後の仮想視点の位置および切り替え後の仮想視点からの視線方向を容易に把握することができ、切り替え後の仮想視点の操作をスムーズに開始することができる。
また、切り替え後の仮想視点の移動を、切り替え前の仮想視点と第1の主オブジェクトとの位置関係を保持するように自動制御することにより、仮想視点の位置の切り替え直後の仮想視点の移動をサポートすることになる。これにより、切り替え後の仮想視点が捉える第2の主オブジェクトが、切り替え後の仮想視点画像内から外側にすぐに出てしまうなど切り替え後の第2の主オブジェクトを見失うことが無くなり、切り替え後の仮想視点の操作をスムーズに開始することができる。
また、切り替え前の仮想視点が捉える第1の主オブジェクトと、切り替え後の仮想視点が捉える第2の主オブジェクトとが同じ態様に適用することも可能である。
上記では、仮想視点の切り替え、仮想視点の移動の自動制御、仮想視点の手動制御を行う態様について説明したが、これに限定されない。例えば、仮想視点の切り替え、仮想視点の手動制御を行うようにしてもよい。この場合、切り替え前後の仮想視点画像の構図を同じにするため、移動情報の代わりに、第1及び第2の注目オブジェクトの向きを示す向き情報を取得すればよい。
上述の実施形態では、手動操作中に同一撮像空間にいる別の被写体を撮像するために仮想視点を切り替える想定で説明したが、これに限定しない。例えば、複数の仮想視点があって、それぞれが別々の被写体を撮像している場合があるとする。このときに、ユーザ端末に表示している仮想視点から、別の仮想視点へ切り替えた場合でも本実施形態を適用することができる。その場合も同様に、切り替え前の主被写体を捉える仮想視点の見え方と、切り替え後の別の主被写体を捉える仮想視点の見え方が同じになるように、切り替え後の仮想視点の位置や切り替え後の仮想視点からの視線方向を自動設定できる。
仮想視点の位置を切り替えるときに、切り替え後の仮想カメラが捉える第2のオブジェクトに対して予め決められた位置を選択することも可能である。例えば、切り替え前の仮想カメラが第1のオブジェクトを後ろ側から捉えている場合、切り替え後の仮想カメラが第2のオブジェクトを前側から捉える位置を選択するようにしてもよい。
また、上述の実施形態では、サッカーの試合を撮像する場合を例示したが、撮像対象は必ずしもこれに限定されない。例えば、ラグビー、テニス、アイススケート、バスケットボール等の他のスポーツの試合や、ライブ、コンサート等の演奏の撮像にも、本実施形態を適用することができる。
本実施形態の開示は、以下の構成例、方法例およびプログラム例を含む。
(構成1)
仮想視点画像を生成するための仮想視点に関する指示を受け付ける受付手段と、
前記受付手段で受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する生成手段と、
前記切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する変更手段と、
変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する画像生成手段と、
を有する、ことを特徴とする情報処理装置。
(構成1)
仮想視点画像を生成するための仮想視点に関する指示を受け付ける受付手段と、
前記受付手段で受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する生成手段と、
前記切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する変更手段と、
変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する画像生成手段と、
を有する、ことを特徴とする情報処理装置。
(構成2)
前記生成手段は、前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向を示す位置視線情報を用いて前記切替情報を生成する、ことを特徴とする構成1に記載の情報処理装置。
前記生成手段は、前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向を示す位置視線情報を用いて前記切替情報を生成する、ことを特徴とする構成1に記載の情報処理装置。
(構成3)
前記切替情報は、前記第1のオブジェクトを基準とした特定方向と、前記第1のオブジェクトから見て前記第1の仮想視点が位置する方向とがなす角度を示す角度情報を含む、ことを特徴とする構成1または2に記載の情報処理装置。
前記切替情報は、前記第1のオブジェクトを基準とした特定方向と、前記第1のオブジェクトから見て前記第1の仮想視点が位置する方向とがなす角度を示す角度情報を含む、ことを特徴とする構成1または2に記載の情報処理装置。
(構成4)
前記切替情報は、前記第1のオブジェクトと前記第1の仮想視点との距離を示す距離情報を含む、ことを特徴とする構成3に記載の情報処理装置。
前記切替情報は、前記第1のオブジェクトと前記第1の仮想視点との距離を示す距離情報を含む、ことを特徴とする構成3に記載の情報処理装置。
(構成5)
前記切替情報は、前記特定方向を基準とした前記第1の仮想視点からの視線方向を示す視線情報を含む、ことを特徴とする構成3または4に記載の情報処理装置。
前記切替情報は、前記特定方向を基準とした前記第1の仮想視点からの視線方向を示す視線情報を含む、ことを特徴とする構成3または4に記載の情報処理装置。
(構成6)
前記変更手段は、前記第2のオブジェクトの特定方向を基準とし、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向を変更する
ことを特徴とする構成1から5の何れか一つに記載の情報処理装置。
前記変更手段は、前記第2のオブジェクトの特定方向を基準とし、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向を変更する
ことを特徴とする構成1から5の何れか一つに記載の情報処理装置。
(構成7)
前記変更手段は、前記第1のオブジェクトの身体の大きさを示す第1のオブジェクト情報と、前記第2のオブジェクトの身体の大きさを示す第2のオブジェクト情報とを用いて前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向を変更する
ことを特徴とする構成2に記載の情報処理装置。
前記変更手段は、前記第1のオブジェクトの身体の大きさを示す第1のオブジェクト情報と、前記第2のオブジェクトの身体の大きさを示す第2のオブジェクト情報とを用いて前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向を変更する
ことを特徴とする構成2に記載の情報処理装置。
(構成8)
前記指示は、前記第2の仮想視点の位置を示す位置情報と、前記第2のオブジェクトの識別情報とを含む、ことを特徴とする構成1に記載の情報処理装置。
前記指示は、前記第2の仮想視点の位置を示す位置情報と、前記第2のオブジェクトの識別情報とを含む、ことを特徴とする構成1に記載の情報処理装置。
(構成9)
前記第2のオブジェクトの識別情報は、前記第2の仮想視点に基づき決定されたオブジェクトに対応した識別情報である
ことを特徴とする構成8に記載の情報処理装置。
前記第2のオブジェクトの識別情報は、前記第2の仮想視点に基づき決定されたオブジェクトに対応した識別情報である
ことを特徴とする構成8に記載の情報処理装置。
(構成10)
前記第2のオブジェクトの識別情報は、前記第2の仮想視点の位置に最も近いオブジェクトに対応した識別情報である
ことを特徴とする構成9に記載の情報処理装置。
前記第2のオブジェクトの識別情報は、前記第2の仮想視点の位置に最も近いオブジェクトに対応した識別情報である
ことを特徴とする構成9に記載の情報処理装置。
(構成11)
前記第2の仮想視点の位置に最も近いオブジェクトが複数の場合、予め決められた優先順位に従い決定されたオブジェクトに対応した識別情報である
ことを特徴とする構成10に記載の情報処理装置。
前記第2の仮想視点の位置に最も近いオブジェクトが複数の場合、予め決められた優先順位に従い決定されたオブジェクトに対応した識別情報である
ことを特徴とする構成10に記載の情報処理装置。
(構成12)
前記第2の仮想視点に対応した仮想視点画像を第1の表示手段に表示する表示制御手段を有する
ことを特徴とする構成1から11の何れか一つに記載の情報処理装置。
前記第2の仮想視点に対応した仮想視点画像を第1の表示手段に表示する表示制御手段を有する
ことを特徴とする構成1から11の何れか一つに記載の情報処理装置。
(構成13)
前記第2の仮想視点に対応した仮想視点画像は、前記第1の仮想視点に対応した仮想視点画像の構図と同様の画像である
ことを特徴とする構成12に記載の情報処理装置。
前記第2の仮想視点に対応した仮想視点画像は、前記第1の仮想視点に対応した仮想視点画像の構図と同様の画像である
ことを特徴とする構成12に記載の情報処理装置。
(構成14)
前記受付手段は、複数の撮像装置による撮像対象を俯瞰した俯瞰画像、または前記第2の仮想視点に対応可能なオブジェクトの一覧を示すリスト表に対する前記指示を受け付ける、ことを特徴とする構成12または13に記載の情報処理装置。
前記受付手段は、複数の撮像装置による撮像対象を俯瞰した俯瞰画像、または前記第2の仮想視点に対応可能なオブジェクトの一覧を示すリスト表に対する前記指示を受け付ける、ことを特徴とする構成12または13に記載の情報処理装置。
(構成15)
前記俯瞰画像または前記リスト表は、前記第2の仮想視点に対応した仮想視点画像と重ならないように前記第1の表示手段に表示される、または、前記第1の表示手段と異なる第2の表示手段に表示される
ことを特徴とする構成14に記載の情報処理装置。
前記俯瞰画像または前記リスト表は、前記第2の仮想視点に対応した仮想視点画像と重ならないように前記第1の表示手段に表示される、または、前記第1の表示手段と異なる第2の表示手段に表示される
ことを特徴とする構成14に記載の情報処理装置。
(構成16)
前記切替情報を用いて、前記第2の仮想視点の移動を制御する移動制御手段をさらに有する、ことを特徴とする構成1から15の何れか一つに記載の情報処理装置。
前記切替情報を用いて、前記第2の仮想視点の移動を制御する移動制御手段をさらに有する、ことを特徴とする構成1から15の何れか一つに記載の情報処理装置。
(構成17)
前記移動制御手段は、前記指示を受け付ける前の所定時間における第1のオブジェクト情報を用いて当該第1のオブジェクトの移動方向および移動速度を算出し、算出結果に基づき、前記第2の仮想視点を自動制御する
ことを特徴とする構成16に記載の情報処理装置。
前記移動制御手段は、前記指示を受け付ける前の所定時間における第1のオブジェクト情報を用いて当該第1のオブジェクトの移動方向および移動速度を算出し、算出結果に基づき、前記第2の仮想視点を自動制御する
ことを特徴とする構成16に記載の情報処理装置。
(構成18)
前記移動制御手段は、前記自動制御中に、前記受付手段が、前記指示による手動操作を検出したときに、前記仮想視点の制御を手動制御に切り替える
ことを特徴とする構成16または17に記載の情報処理装置。
前記移動制御手段は、前記自動制御中に、前記受付手段が、前記指示による手動操作を検出したときに、前記仮想視点の制御を手動制御に切り替える
ことを特徴とする構成16または17に記載の情報処理装置。
(構成19)
前記第1のオブジェクトと前記第2のオブジェクトは同じである
ことを特徴とする構成1から18の何れか一つに記載の情報処理装置。
前記第1のオブジェクトと前記第2のオブジェクトは同じである
ことを特徴とする構成1から18の何れか一つに記載の情報処理装置。
(構成20)
前記第1のオブジェクトと前記第2のオブジェクトは異なる
ことを特徴とする構成1から18の何れか一つに記載の情報処理装置。
前記第1のオブジェクトと前記第2のオブジェクトは異なる
ことを特徴とする構成1から18の何れか一つに記載の情報処理装置。
(方法1)
仮想視点画像を生成するための仮想視点に関する指示を受け付ける受付工程と、
前記受付工程で受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する生成工程と、
前記切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する変更工程と、
変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する画像生成工程と、
を含む、ことを特徴とする情報処理方法。
仮想視点画像を生成するための仮想視点に関する指示を受け付ける受付工程と、
前記受付工程で受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する生成工程と、
前記切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する変更工程と、
変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する画像生成工程と、
を含む、ことを特徴とする情報処理方法。
(プログラム)
コンピュータを、構成1から20の何れか一つに記載の情報処理装置の各手段として機能させるためのプログラム。
コンピュータを、構成1から20の何れか一つに記載の情報処理装置の各手段として機能させるためのプログラム。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
606 切替前情報生成部
607 位置視線変更部
609 画像生成部
610 ユーザ指示入力部
607 位置視線変更部
609 画像生成部
610 ユーザ指示入力部
Claims (22)
- 仮想視点画像を生成するための仮想視点に関する指示を受け付ける受付手段と、
前記受付手段で受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する生成手段と、
前記切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する変更手段と、
変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する画像生成手段と、
を有する、ことを特徴とする情報処理装置。 - 前記生成手段は、前記第1の仮想視点の位置および前記第1の仮想視点からの視線方向を示す位置視線情報を用いて前記切替情報を生成する、ことを特徴とする請求項1に記載の情報処理装置。
- 前記切替情報は、前記第1のオブジェクトを基準とした特定方向と、前記第1のオブジェクトから見て前記第1の仮想視点が位置する方向とがなす角度を示す角度情報を含む、ことを特徴とする請求項1に記載の情報処理装置。
- 前記切替情報は、前記第1のオブジェクトと前記第1の仮想視点との距離を示す距離情報を含む、ことを特徴とする請求項3に記載の情報処理装置。
- 前記切替情報は、前記特定方向を基準とした前記第1の仮想視点からの視線方向を示す視線情報を含む、ことを特徴とする請求項3に記載の情報処理装置。
- 前記変更手段は、前記第2のオブジェクトの特定方向を基準とし、前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向を変更する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記変更手段は、前記第1のオブジェクトの身体の大きさを示す第1のオブジェクト情報と、前記第2のオブジェクトの身体の大きさを示す第2のオブジェクト情報とを用いて前記第2の仮想視点の位置および前記第2の仮想視点からの視線方向を変更する
ことを特徴とする請求項2に記載の情報処理装置。 - 前記指示は、前記第2の仮想視点の位置を示す位置情報と、前記第2のオブジェクトの識別情報とを含む、ことを特徴とする請求項1に記載の情報処理装置。
- 前記第2のオブジェクトの識別情報は、前記第2の仮想視点に基づき決定されたオブジェクトに対応した識別情報である
ことを特徴とする請求項8に記載の情報処理装置。 - 前記第2のオブジェクトの識別情報は、前記第2の仮想視点の位置に最も近いオブジェクトに対応した識別情報である
ことを特徴とする請求項9に記載の情報処理装置。 - 前記第2の仮想視点の位置に最も近いオブジェクトが複数の場合、予め決められた優先順位に従い決定されたオブジェクトに対応した識別情報である
ことを特徴とする請求項10に記載の情報処理装置。 - 前記第2の仮想視点に対応した仮想視点画像を第1の表示手段に表示する表示制御手段を有する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第2の仮想視点に対応した仮想視点画像は、前記第1の仮想視点に対応した仮想視点画像の構図と同様の画像である
ことを特徴とする請求項12に記載の情報処理装置。 - 前記受付手段は、複数の撮像装置による撮像対象を俯瞰した俯瞰画像、または前記第2の仮想視点に対応可能なオブジェクトの一覧を示すリスト表に対する前記指示を受け付ける、ことを特徴とする請求項12に記載の情報処理装置。
- 前記俯瞰画像または前記リスト表は、前記第2の仮想視点に対応した仮想視点画像と重ならないように前記第1の表示手段に表示される、または、前記第1の表示手段と異なる第2の表示手段に表示される
ことを特徴とする請求項14に記載の情報処理装置。 - 前記切替情報を用いて、前記第2の仮想視点の移動を制御する移動制御手段をさらに有する、ことを特徴とする請求項1に記載の情報処理装置。
- 前記移動制御手段は、前記指示を受け付ける前の所定時間における第1のオブジェクト情報を用いて当該第1のオブジェクトの移動方向および移動速度を算出し、算出結果に基づき、前記第2の仮想視点を自動制御する
ことを特徴とする請求項16に記載の情報処理装置。 - 前記移動制御手段は、前記自動制御中に、前記受付手段が、前記指示による手動操作を検出したときに、前記仮想視点の制御を手動制御に切り替える
ことを特徴とする請求項16に記載の情報処理装置。 - 前記第1のオブジェクトと前記第2のオブジェクトは同じである
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第1のオブジェクトと前記第2のオブジェクトは異なる
ことを特徴とする請求項1に記載の情報処理装置。 - 仮想視点画像を生成するための仮想視点に関する指示を受け付ける受付工程と、
前記受付工程で受け付けた指示において、第1の仮想視点から第2の仮想視点へ切り替える指示が含まれる場合、前記第1の仮想視点と当該第1の仮想視点に対応する仮想視点画像に含まれる第1のオブジェクトとの位置関係を示す切替情報を生成する生成工程と、
前記切替情報に基づいて、前記第2の仮想視点と当該第2の仮想視点に対応する仮想視点画像に含まれる第2のオブジェクトとの位置関係が前記第1の仮想視点と前記第1のオブジェクトとの位置関係と同等となるように変更する変更工程と、
変更された前記位置関係に従って変更された前記第2の仮想視点に対応する仮想視点画像を生成する画像生成工程と、
を含む、ことを特徴とする情報処理方法。 - コンピュータを、請求項1に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022080977A JP2023169697A (ja) | 2022-05-17 | 2022-05-17 | 情報処理装置、情報処理方法およびプログラム |
US18/307,899 US20240078687A1 (en) | 2022-05-17 | 2023-04-27 | Information processing apparatus, information processing method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022080977A JP2023169697A (ja) | 2022-05-17 | 2022-05-17 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023169697A true JP2023169697A (ja) | 2023-11-30 |
Family
ID=88924107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022080977A Pending JP2023169697A (ja) | 2022-05-17 | 2022-05-17 | 情報処理装置、情報処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20240078687A1 (ja) |
JP (1) | JP2023169697A (ja) |
-
2022
- 2022-05-17 JP JP2022080977A patent/JP2023169697A/ja active Pending
-
2023
- 2023-04-27 US US18/307,899 patent/US20240078687A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240078687A1 (en) | 2024-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10821347B2 (en) | Virtual reality sports training systems and methods | |
CN109889914B (zh) | 视频画面推送方法、装置、计算机设备及存储介质 | |
JP7132730B2 (ja) | 情報処理装置および情報処理方法 | |
EP2044503B1 (en) | Apparatus and method of interaction with a data processor | |
US11189077B2 (en) | View point representation for 3-D scenes | |
JP7207913B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20010074508A (ko) | 스포츠 경기의 가상시야를 생성하기 위한 방법 및 장치 | |
JP2020086983A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2019114147A (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JPH06105231A (ja) | 画像合成装置 | |
JP7446754B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
EP3836081B1 (en) | Data processing method and apparatus | |
JP2022073651A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2023169697A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2020184150A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2022094789A (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP7530206B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2022171436A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20240144613A1 (en) | Augmented reality method for monitoring an event in a space comprising an event field in real time | |
JP7581002B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、およびプログラム | |
JP2023154667A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP7458731B2 (ja) | 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム | |
US20230291883A1 (en) | Image processing system, image processing method, and storage medium | |
Inamoto et al. | Arbitrary viewpoint observation for soccer match video | |
JP2022077380A (ja) | 画像処理装置、画像処理方法、およびプログラム |