[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7132730B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP7132730B2
JP7132730B2 JP2018047183A JP2018047183A JP7132730B2 JP 7132730 B2 JP7132730 B2 JP 7132730B2 JP 2018047183 A JP2018047183 A JP 2018047183A JP 2018047183 A JP2018047183 A JP 2018047183A JP 7132730 B2 JP7132730 B2 JP 7132730B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
information
image
information processing
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018047183A
Other languages
English (en)
Other versions
JP2019159950A5 (ja
JP2019159950A (ja
Inventor
智昭 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018047183A priority Critical patent/JP7132730B2/ja
Priority to US16/294,175 priority patent/US11006089B2/en
Publication of JP2019159950A publication Critical patent/JP2019159950A/ja
Publication of JP2019159950A5 publication Critical patent/JP2019159950A5/ja
Application granted granted Critical
Publication of JP7132730B2 publication Critical patent/JP7132730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Generation (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理装置および情報処理方法に関する。
複数のカメラを異なる位置に設置して多視点で同期撮影し、撮影により得られた複数視点画像を用いて、任意に指定された仮想視点に応じた仮想視点画像を生成する技術が注目されている。上記の技術によれば、例えば、サッカーやバスケットボールなどにおける特定シーン(例えばゴールシーンなど)を様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることができる。また、サーバなどの画像処理装置は、撮影対象の空間内の特定の位置に紐付けられた(例えば当該特定の位置に向けられた)複数のカメラが撮影した画像を集約し、三次元モデル生成及びレンダリングなどの処理を行い、生成した仮想視点画像をユーザ端末に伝送する。これにより、複数視点画像に基づく仮想視点画像の生成及び閲覧を実現できる。なお、特定の位置とは、サッカーで例えると、フィールド中央、ゴール前、ペナルティマークなどフィールド上の所定の位置のことである。なお、以降、複数のカメラが向けられる特定の位置を注視点と称する場合がある。
特許文献1には、ユーザ端末の位置及び方向に基づいて仮想視点の位置及び方向を決定する技術が開示されている。
特開2015-225529号公報
しかしながら、複数視点画像の撮影に用いられるカメラが、異なる特定位置に向けられる複数のカメラ群に分かれている場合、仮想視点画像を高画質に生成することができない場合が考えられる。例えば撮影対象がサッカーの試合であり、設置されたカメラの半分が一方のゴール前に向けられており、残りの半分が他方のゴール前に向けられている場合を考える。この場合に、一方のゴールの周辺の領域を含む仮想視点画像を、他方のゴール前の特定位置に向けられたカメラ群による撮影画像を用いて生成しようとすると、仮想視点画像の生成に失敗するか、あるいは生成される仮想視点画像の画質が低くなってしまう虞がある。なお、スポーツ競技に限らず、コンサートや他のイベントの視聴においても同様な問題が生じ得る。
本発明はこうした課題に鑑みてなされたものであり、その目的は、仮想視点画像の生成のために撮影を行う複数のカメラが、異なる特定位置に向けられる複数のカメラ群に分かれる場合に、高画質の仮想視点画像を生成することができる技術の提供にある。
本発明のある態様は情報処理装置に関する。この情報処理装置は、複数の特定位置に対応する複数のカメラ群であって、対応する特定位置をそれぞれ異なる方向から撮影する複数のカメラを有するカメラ群の中から、1以上のカメラ群を選択する選択手段と、選択手段により選択されたカメラ群による撮影に基づく画像を、指定された仮想視点に応じた仮想視点画像の生成に用いる画像として決定する決定手段と、オブジェクトの軌跡の情報を取得する手段と、を備え、選択手段は、軌跡の情報から導かれる起点の位置に対応するカメラ群を選択する
本発明によれば、仮想視点画像の生成のために撮影を行う複数のカメラが、異なる特定位置に向けられる複数のカメラ群に分かれる場合に、高画質の仮想視点画像を生成することができる。
実施の形態に係る画像処理システムの概略の一例を示す図。 実施の形態に係る画像処理システムの概略構成図。 図2の画像生成装置のハードウエアの構成の一例を示す図。 図2の情報処理装置の機能および構成の一例を示すブロック図。 イベント情報の構成を示すデータ構造図。 オブジェクト位置情報の構成を示すデータ構造図。 図2の画像生成装置の機能および構成の一例を示すブロック図。 注視点データの構成を示すデータ構造図。 図4の注視点決定部における一連の処理の流れを示すフローチャート。 注視点ユニット配置図の一例を示す模式図。 変形例に係る注視点データの構成を示すデータ構造図。 変形例に係る情報処理装置における一連の処理の流れを示すフローチャート。
以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。
実施の形態では、複数の撮影装置により撮影(撮像)された画像群を用いて仮想視点画像を生成する。この際、それぞれに対して複数のカメラが紐づく(向けられる)複数の特定位置(注視点)の中からひとつを選出して決定し、決定された特定位置に紐付く撮影装置で撮影された画像群を用いて仮想視点画像を生成する。これにより、決定された特定位置の周辺の領域を含む仮想視点画像を高画質に生成することができる。
図1は、実施の形態に係る画像処理システム2の概略の一例を示す図である。図1に示される通り、観客席14と競技等を実際に行うフィールド16とを有するスタジアム12に、複数のカメラ18が設置されている。複数のカメラ18は、それぞれのカメラ18が撮影対象であるフィールド16の少なくとも一部を撮影するように、かつ、画角に重なりができるように、配置される。例えば、複数のカメラ18は、フィールド16と観客席14とを囲むように設置される。また、ユーザ10は観客席14から競技を観戦している。ユーザ10はユーザ端末を所持し、ライブ観戦を楽しむと共に、必要に応じてユーザ端末を操作してシュートや反則やゴールなどのイベントシーンを再生して確認する。本実施の形態では、この再生の指示に応じて、適切なイベントシーンの仮想視点画像が提供される。なお、仮想視点画像の再生のための操作は、撮影対象の競技場とは別の場所に存在するユーザ端末により行われてもよいし、競技の終了後に行われてもよい。
図2は、本実施の形態に係る画像処理システム2の概略構成図である。図2に示されるように、画像処理システム2は、スタジアム12に設置された複数のカメラ18と、画像生成装置200と、情報処理装置100と、ユーザ端末300と、を有する。複数のカメラ18は、伝送ケーブルを介して相互に接続され、かつ、画像生成装置200とも接続される。複数のカメラ18はそれぞれ、そのカメラ18がフィールド16を撮影することにより得られる画像を画像生成装置200に伝送する。
図1に示す例では、サッカー場などのスタジアム12の全てまたは一部の範囲が複数のカメラ18で撮影されるように、複数のカメラ18が配置される。複数のカメラ18は、静止画像を取得するカメラであっても、動画像を取得するカメラであっても、静止画像および動画像の双方を取得するカメラであってもよい。本実施の形態では、画像という用語は、特に断りがない限り、静止画または動画のいずれであってもよいものとして説明を行う。
画像生成装置200は、仮想視点画像を生成する装置である。画像生成装置200は、複数のカメラ18により撮影された画像(以下、撮影画像と称する場合がある)を蓄積する。画像生成装置200は、複数のカメラ18からの撮影画像を用いて、仮想視点画像群を生成する。仮想視点画像群は、それぞれが異なる仮想視点に対応する複数の仮想視点画像を含む。画像生成装置200は、生成した仮想視点画像群と、注視点データと、を情報処理装置100に伝送する。注視点データは、撮影対象のスタジアム12内(撮影対象内)に設定された複数の注視点の位置などを示す情報である。各カメラ18は設定された注視点の何れかに向けて設置され、各注視点は2以上のカメラ18によりそれぞれ異なる方向から撮影される。画像生成装置200は、例えば、サーバ装置であり、複数の撮影画像や生成した仮想視点画像群を記憶するデータベース機能と、仮想視点画像を生成するための画像処理機能と、を有する。また、スタジアム12内の複数のカメラ18と画像生成装置200とは、有線もしくは無線の通信ネットワーク回線や、SDI(Serial Digital Interface)などのケーブル回線で接続されている。画像生成装置200は、この回線を通じて複数のカメラ18から撮影画像を受信してデータベースに格納する。なお、注視点データの詳細については後述する。
情報処理装置100は、画像生成装置200で生成される仮想視点画像群から、ユーザ端末300に提供する仮想視点画像を選択する。即ち、情報処理装置100は、ユーザ端末300に出力する仮想視点画像に係る仮想視点や該仮想視点からの視線の方向を決定する装置である。情報処理装置100は、画像生成装置200から取得した注視点データが示す複数の注視点の中から1つの注視点を選択する。情報処理装置100は、選択した注視点と、ユーザ端末300から取得したユーザ端末情報と、に基づいて、生成すべき仮想視点画像の仮想視点や視線の方向を決定する。ユーザ端末情報は、例えば操作内容を示す端末操作情報や端末の位置を示す位置情報などを含む。端末操作情報は、仮想視点の指定や仮想視点画像の再生などの操作を示す情報を含む。情報処理装置100は、決定した仮想視点画像の仮想視点および視線の方向に基づいて、仮想視点画像を画像生成装置200により生成された仮想視点画像群から選択し、ユーザ端末300へ出力する。なお、これに限らず、情報処理装置100が決定した注視点と仮想視点を示す情報を画像生成装置200へ送信してもよい。そして画像生成装置200は、スタジアム12に設置された複数のカメラ18による撮影画像の中から、情報処理装置100により決定された注視点に対応するカメラ群による撮影画像を選択する。そして画像生成装置200は、選択された撮影画像を、指定された仮想視点に基づいて処理することで、仮想視点に応じた仮想視点画像を生成して情報処理装置100へ出力してもよい。
情報処理装置100は、例えば、パーソナルコンピュータである。なお、情報処理装置100は、画像生成装置200に組み込まれていてもよく、また、ユーザ端末300に組み込まれていてもよい。即ち、情報処理装置100は、画像生成装置200と一体の装置であってもよいし、ユーザ端末300と一体の装置であってもよい。
ユーザ端末300は、本実施の形態に係る画像処理システム2を利用するユーザ10が所持する情報処理装置である。なお、ユーザ端末300は、ユーザ10のIDと関連付けられている情報処理装置であってもよい。ユーザ端末300は、情報処理装置100から出力される仮想視点画像をユーザ端末300が備える表示画面に表示させる。また、ユーザ端末300は、ユーザ10による入力に基づいて、例えば、仮想視点の位置の移動や仮想視点の視線方向の変更や仮想視点の切り替えの指示を受け付ける。ユーザ端末300は、受け付けた指示の内容を示す仮想視点情報を含む伝送信号を生成し、情報処理装置100へ伝送する。また、ユーザ端末300は、位置情報に基づく仮想視点の自動設定を情報処理装置100に要求する。
ユーザ端末300は、例えば、パーソナルコンピュータであってもよく、あるいはスマートフォンやタブレットなどの携帯端末であってもよい。ユーザ端末300は、例えば、マウス、キーボード、6軸コントローラおよびタッチパネルのうちの少なくとも1つを有する。ユーザ端末300は、GPS(Global Positioning System)などの測位手段により位置情報を取得する機能を有する。
画像生成装置200、情報処理装置100及びユーザ端末300は、例えば、インターネットなどのネットワークを介して相互に接続され、相互に情報のやり取りが可能なように構成される。装置間の通信は、無線通信であってもよいし有線通信であってもよいしそれらの組み合わせであってもよい。
図3は、画像生成装置200のハードウエアの構成の一例を示す図である。情報処理装置100、ユーザ端末300はいずれも図3に示されるハードウエア構成と同様のハードウエア構成を有する。画像生成装置200は、コントローラユニット500と、操作ユニット509と、表示装置510と、を含む。
コントローラユニット500は、CPU501を有する。CPU501は、ROM502に格納されているブートプログラムによりOS(OPERATING SYSTEM)を起動する。CPU501は、このOS上で、HDD(HARD DISK DRIVE)504に格納されているアプリケーションプログラムを実行する。CPU501は、アプリケーションプログラムの実行によって各種処理を実現する。CPU501の作業領域としてはRAM503が用いられる。HDD504は、アプリケーションプログラムなどを格納する。なお、CPU501は、1つのプロセッサであっても、複数のプロセッサであってもよい。
CPU501は、システムバス508を介して、ROM502、RAM503、HDD504、操作部I/F505、表示部I/F506、および通信I/F507と相互に接続される。操作部I/F505は、操作ユニット509とのインタフェースである。操作部I/F505は、操作ユニット509によってユーザにより入力された情報をCPU501に送出する。操作ユニット509は、例えば、マウスおよびキーボードを有する。操作ユニット509はタッチパネルであってもよい。表示部I/F506は、表示装置510に表示すべき画像データを表示装置510に対して出力する。表示装置510は、液晶ディスプレイなどのディスプレイを有する。通信I/F507は、例えばイーサネット(登録商標)インタフェースなどの通信を行うためのインタフェースであり、伝送ケーブル(不図示)に接続される。通信I/F507は、伝送ケーブルを介して、外部装置との間で情報の入出力を行う。なお、通信I/F507は、無線通信を行うための回路やアンテナを含んでもよい。また、画像生成装置200は、ケーブルやネットワークを介して接続された外部の表示装置に画像を表示させる表示制御を行うことも可能である。この場合、画像生成装置200は、表示データを表示装置に出力することで表示制御を実現する。なお、図3で示された構成はいずれも必須の構成であるとは限らない。例えば画像生成装置200において、表示装置510は必須の構成ではない。なお、上記ではコントローラユニット500がCPU501を有するものとして説明したが、これに限らない。例えば、コントローラユニット500は、CPU501の代わりに、または、CPU501と共に、ASICやFPGAなどのハードウエアを有していてもよい。この場合、ASICやFPGAなどのハードウエアが、CPU501が行うべき処理の一部または全てを行ってもよい。
<情報処理装置100>
図4は、本実施の形態に係る情報処理装置100の機能および構成の一例を示すブロック図である。図4に示す各構成は、図3のCPU501がROM502に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。なお、図4に示す構成の一部またはすべてを、専用のハードウエアにより実現してもよい。専用のハードウエアは、例えば、ASICやFPGAである。
情報処理装置100は、制御部101と、記憶部102と、分離部103と、取得部104と、注視点決定部105と、仮想視点決定部106と、画像取得部107と、画像出力部108と、を有する。これらの部材は内部バス109によって相互に接続され、制御部101による制御の下、相互にデータを送受信することができる。
制御部101は、記憶部102に格納されているコンピュータプログラムに従って情報処理装置100全体の動作を制御する。記憶部102は、ハードディスクなどの不揮発性メモリを有する。記憶部102の不揮発性メモリには、情報処理装置100全体の動作を制御するコンピュータプログラム等が格納されている。分離部103は、画像生成装置200から取得した仮想視点画像群と、注視点データと、を分離して出力する。
取得部104は、ユーザ10に関する位置情報や端末操作情報をユーザ端末300から取得する。取得部104は、ユーザ端末300がGPSで取得した位置情報をユーザ10の位置情報としてユーザ端末300から取得してよい。また、取得部104は、スタジアム12の観客席14の席番号などの位置を示す情報をユーザ端末300から取得し、取得した情報に基づいてユーザ10の位置情報を特定してもよい。位置情報の他に、取得部104(イベント取得手段)は、イベント情報およびオブジェクト位置情報を図示しない外部データベースから取得する。
図5は、イベント情報の構成を示すデータ構造図である。例えば、インベント情報は、事象(イベント)と、時間情報と、位置情報と、選手IDと、で構成される。事象は、シュートや反則などといった選手が起こす事象である。時間情報は、HH(時間):MM(分):SS(秒)で構成され、事象が発生した時刻を示す。位置情報は、緯度経度のDegree形式を用いて、事象が発生した位置を示す。選手IDは、アルファベットや数字で構成され、すべての選手に割り振られた識別番号である。イベント情報は、事象が発生した際、外部データベースから送られてくる。
図6は、オブジェクト位置情報の構成を示すデータ構造図である。オブジェクト位置情報は、時間情報と、位置情報と、で構成される。時間情報は、HH(時間):MM(分):SS(秒)で構成される。位置情報は、緯度経度のDegree形式を用いて、オブジェクト(例えば、ボールや選手)の位置を示す。オブジェクト位置情報は、外部データベースから周期的に、例えば毎秒、送られてくる。但し、これに限定されるものではなく、オブジェクト位置情報は一定間隔で外部データベースから送られてきてもよいし、何らかのイベントに応じて送られてきてもよい。また、イベント情報およびオブジェクト位置情報は、取得部104を介して記憶部102に蓄積されてもよい。なお、情報処理装置100は、複数のカメラ18による撮影に基づく画像を取得し、取得した画像に基づいてイベント情報及びオブジェクト位置情報の少なくとも何れかを生成してもよい。
図4に戻り、注視点決定部105は、画像生成装置200から取得した注視点データの中から1つの注視点を決定する。その際、注視点決定部105は取得部104が取得したイベント情報および/またはオブジェクト位置情報を用いて注視点を決定してもよい。また注視点決定部105は、ユーザ端末300から入力される操作情報(例えばユーザによる注視点の選択操作に応じた情報や、ユーザによる仮想視点の指定操作に応じた情報など)に基づいて注視点を決定してもよい。
仮想視点決定部106は、ユーザ端末300へ出力する仮想視点画像に係る仮想視点の位置および視線の方向を決定する。以下、仮想視点決定部106は、仮想視点画像に係る仮想視点の位置として三次元座標上の位置を決定するものとして説明を行う。しかしながら、他の実施の形態では、仮想視点決定部106は二次元平面上の位置を決定してもよい。この場合、仮想視点決定部106は、仮想視点画像に係る仮想視点の位置の高さを、取得部104が取得した位置情報を用いることなく、任意の値または固定値に決定してもよい。
仮想視点決定部106は、取得部104がユーザ端末300からユーザ端末情報を取得した場合、注視点決定部105で決定した注視点と、ユーザ端末情報に含まれる位置情報と、に基づいて、ユーザ端末300へ出力する仮想視点画像の仮想視点の位置や視線の方向を決定してもよい。あるいは仮想視点決定部106は、ユーザによる仮想視点の指定操作に応じた情報をユーザ端末300から取得し、その情報に基づいて仮想視点の位置や方向を決定してもよい。
画像取得部107は、仮想視点決定部106で決定した仮想視点および視線の方向に対応する仮想視点画像を取得する。なお、画像取得部107は、画像生成装置200から受信した情報に基づいて仮想視点画像をレンダリングにより生成する機能を有していてもよい。
画像出力部108は、画像取得部107によって取得された仮想視点画像を、ユーザ端末300に出力する。
<画像生成装置200>
図7は、本実施の形態に係る画像生成装置200の機能および構成の一例を示すブロック図である。画像生成装置200は、制御部201と、記憶部202と、撮影画像入力部203と、画像記憶部204と、仮想視点画像生成部205と、注視点データ生成部206と、画像解析部207と、データ出力部208と、を有する。これらの部材は内部バス209によって相互に接続され、制御部201による制御の下、相互にデータを送受信することができる。
制御部201は、記憶部202に格納されているコンピュータプログラムに従って画像生成装置200全体の動作を制御する。記憶部202は、ハードディスクなどの不揮発性メモリを有する。記憶部202の不揮発性メモリには、画像生成装置200全体の動作を制御するコンピュータプログラム等が格納されている。
撮影画像入力部203はスタジアム12に設置された複数のカメラ18が撮影した画像を所定のフレームレートで取得し、画像記憶部204へ出力する。撮影画像入力部203は、有線もしくは無線の通信モジュール、或いはSDI等の画像伝送モジュールにより撮影画像を取得する。
画像記憶部204は、撮影画像入力部203より取得した撮影画像、及びそれらを元に生成された仮想視点画像群を記憶する大容量の記憶装置である。画像記憶部204としては、たとえば、磁気ディスク、光ディスク、半導体メモリ、等が使用される。なお、画像記憶部204は、画像生成装置200に対して物理的に外部にあってもよい。また、画像記憶部204に記憶されている撮影画像及びそれを元に生成された仮想視点画像群は、画像フォーマットとして例えば、MXF形式(Material eXchange Format)で記憶される。画像記憶部204に記憶されている撮影画像及びそれを元に生成された仮想視点画像群は、例えば、MPEG2形式で圧縮される。ただしデータの形式はこれらに限定されない。
仮想視点画像生成部205は、画像記憶部204に記憶される複数の撮影画像から仮想視点画像群を生成する。仮想視点画像群を生成する方式として、例えば、イメージベースレンダリングを用いる方式が挙げられる。イメージベースレンダリングは、モデリング(幾何学図形を使用して物体の形状を作成する過程)をしないで、複数の実際の視点から撮影された画像から仮想視点画像を生成するレンダリング方法である。また、仮想視点画像群を生成する方法は、イメージベースレンダリングに限られず、モデルベースレンダリング(MODEL-BASED RENDERING:MBR)を用いてもよい。MBRとは、被写体を複数の方向から撮影することにより得られる複数の撮影画像に基づいて生成される三次元モデルを用いて仮想視点画像を生成する方式である。具体的にMBRは、視体積交差法、MULTI-VIEW-STEREO(MVS)などの三次元形状復元手法により得られた対象シーンの三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像として生成する技術である。また、仮想視点画像生成部205は、生成した仮想視点画像群に含まれる各仮想視点画像に、対応する仮想視点と、対応する視線の方向と、後述する注視点データ生成部206で生成される注視点を示すデータと、を付与する。例えば、仮想視点画像生成部205は、仮想視点(の位置)と視線の方向と注視点を示すデータとを含むメタデータを仮想視点画像に付与してもよい。
ここで、仮想視点画像生成部205が生成する仮想視点画像群は様々な仮想視点の位置や視線の方向の仮想視点画像を含んでおり、そのような仮想視点画像群が1つの画像ストリームとして空間方向及び時間方向に圧縮符号化されているものとする。しかしながら、他の実施の形態では、仮想視点画像群は、1つの画像ストリームではなく、それぞれが独立した複数の画像から構成されてもよい。あるいはまた、仮想視点画像群は、圧縮符号化されていなくてもよい。
また、画像生成装置200は、仮想視点画像群に代えて、例えば、三次元モデルを示す情報や該情報が示す三次元モデルにマッピングするための画像などの仮想視点画像を生成するための情報を生成してもよい。即ち、仮想視点画像生成部205は、レンダリングされた仮想視点画像を生成することに代えて、情報処理装置100またはユーザ端末300で仮想視点画像をレンダリングするために必要な情報を生成してもよい。
注視点データ生成部206は、画像解析部207によって取得される特定のオブジェクトまたは所定の位置の位置情報を用いて注視点データを生成し、仮想視点画像生成部205へ出力する。
図8は、注視点データの構成を示すデータ構造図である。注視点データは、例えば注視点IDと、位置情報と、半径と、で構成される。ただし、注視点データは注視点の位置を特定可能な情報であればよく、具体的な内容はこれに限定されない。注視点IDは、アルファベットや数字で構成され、すべての注視点に割り振られた識別番号である。位置情報は、緯度経度のDegree形式を用いて、注視点の中心座標を示す。半径は、中心座標からの距離であり、仮想視点画像を生成する際に有効な範囲を示す。なお、この中心座標と半径で規定される有効な範囲を示す円系の領域を注視点ユニットと呼ぶ。ある1つの注視点に向けられた複数のカメラ18による撮影画像を用いて仮想視点画像を生成する場合、生成対象がその注視点に対応する注視点ユニットに含まれる領域の仮想視点画像であれば特に高画質に生成することが可能である。なお、注視点データは、画像解析部207による撮影画像の解析により取得されるものに限定されず、画像生成装置200や情報処理装置100に事前に登録されていてもよい。
図7に戻り、画像解析部207は、撮影画像入力部203に入力された撮影画像を解析し、注視点の位置情報を取得する。画像解析部207は、例えば、ビジュアルハルなどの技術を用いて、特定のオブジェクトまたは特定の位置の位置情報を注視点の位置情報として取得する。特定のオブジェクトとは、スポーツ競技の場合、特定の選手や審判などの人物、またはボールなどである。また、注視点は、フィールド中央、ゴール前、ペナルティマーク等のフィールド16上の所定の位置であってもよい。また、複数のカメラ18の光軸を共通の位置に向けるようにカメラ18を設置した場合、注視点はその共通の位置であってもよい。
データ出力部208は、仮想視点画像生成部205で生成された仮想視点画像群を情報処理装置100へ所定のフレームレートで出力する。
<注視点決定処理>
図9は、注視点決定部105における一連の処理の流れを示すフローチャートである。このフローチャートは、画像生成装置200から取得した注視点データが示す複数の注視点の中から1つの注視点を決定する処理を示す。また、このフローチャートは、情報処理装置100がユーザ端末300から仮想視点画像の再生要求を受け付けた際に実施される。
S901で、注視点決定部105は、分離部103を介して注視点データを取得する。また、注視点決定部105は、取得部104を介してイベント情報とオブジェクト位置情報とを取得する。
S902で、注視点決定部105は、S901で取得した注視点データを用いて注視点ユニット配置図を生成する。図10は、注視点ユニット配置図の一例を示す模式図である。図10の1001から1007までは注視点を、1011から1017までは注視点ユニットを、それぞれ示す。注視点ユニットとは、注視点を中心とした円であり、仮想視点画像を生成する際に有効な範囲を示す。注視点決定部105は、注視点データに含まれる各注視点の中心座標と半径とを用いて注視点ユニットを生成し、生成された注視点ユニットをスタジアム12の俯瞰図に配置した注視点ユニット配置図を生成する。なお、注視点ユニットは上記のものに限定されず、注視点を基準とする所定範囲であってもよい。また、注視点ユニットの形状は円に限定せず、多角形などの他の形状であってもよい。
図9に戻り、S903で、注視点決定部105は、S901で取得したイベント情報を用いて直近に発生した事象の有無を判定する。注視点決定部105は、仮想視点画像の再生要求を受け付けた時刻と当該時刻から一定時間だけ遡った時刻との間に事象が発生したか否かを判定する。例えば、一定時間が30秒として、再生要求を18:42:15に受け付けた場合、イベント情報が図5で示す内容であれば、「シュート2」が直近に発生した事象であると判定する。事象が有ると判定した場合(S903のYes)、S904へ進み、事象が無いと判定した場合(S903のNo)、S905へ進む。
S904で、注視点決定部105は、S903で有ると判定された直近に発生した事象に基づいて、複数の注視点ユニットの中から特定の注視点ユニットを選択する。注視点決定部105は、直近に発生した事象の位置情報をS901で取得したイベント情報の中から抽出し、抽出された位置情報に基づく事象の位置をS902で生成した注視点ユニット配置図に重畳させ、重畳させた位置が含まれる注視点ユニットを選択する。もし、事象の位置が何れの注視点ユニットにも含まれない場合、事象の位置に最も近い注視点ユニットが選択されてもよい。また、注視点決定部105は、事象に係る選手の一連の軌跡を解析し、軌跡の起点が含まれる注視点ユニットを特定の注視点ユニットとして選択してもよい。その場合、注視点決定部105は、直近に発生した事象に係る選手の選手IDをS901で取得したイベント情報の中から抽出し、S901で取得したオブジェクト位置情報に基づいて選手IDの軌跡を解析する。なお、解析の範囲は、事象が発生した時刻から一定時間だけ遡った時刻までであり、例えば、仮想視点画像の再生時間内のものであってもよい。ただし、注視点ユニットの選択に係る事象の抽出対象となる期間は上記に限定されない。例えば、受け付けられた再生要求が過去の特定の期間に対応する撮影画像に基づく仮想視点画像の再生に係るものである場合、当該特定の期間やその前後で発生した事象の位置に対応する注視点ユニットが選択されてもよい。
S905で、注視点決定部105は、S901で取得したオブジェクト位置情報を用いたイベント発生の予測に基づいて、複数の注視点ユニットの中から特定の注視点ユニットを選択する。注視点ユニットの選択は、例えば、ボールと選手とが含まれる注視点ユニットを特定の注視点ユニットとして選択するもの、または、ボールから最も近い注視点ユニットを選択するものであってもよい。あるいはまた、注視点ユニットの選択は、ボールから最も近い選手が含まれる注視点ユニットを選択するもの、または、ユーザにより指定された選手が含まれる注視点ユニットを選択するものであってもよい。あるいはまた、注視点ユニットの選択は、選手が密集している注視点ユニットを選択するものであってもよい。
なお、図9では所定期間におけるイベント発生の有無に基づいてS904の処理とS905の処理の何れかが選択されて実行されるものとしたが、これに限らない。例えば、常にS904の処理が行われてもよいし、常にS905の処理が行われてもよいし、S904の処理を行うかS905の処理を行うかを予め設定可能であってもよい。また、イベントの発生位置とオブジェクトの位置の両方に基づいて注視点ユニットが選択されてもよい。S906で、注視点決定部105は、S904またはS905で選択された注視点ユニットの中心座標である注視点を仮想視点決定部106へ出力する。
本実施の形態に係る画像処理システム2によると、所定のイベントの発生位置や所定のオブジェクトの位置に基づいて複数の注視点の中から特定の注視点を決定し、当該注視点に対応するカメラの撮影画像を用いて仮想視点画像を生成することができる。したがって、仮想視点画像を視聴するユーザにとって重要な領域(イベントの発生位置や所定のオブジェクトの位置を含む領域)の仮想視点画像を高画質に生成することができる。また、設置されたすべてのカメラの撮影画像を合成して仮想視点画像を生成する場合と比較して、仮想視点画像の生成に係る処理負荷やシステム内の伝送データ量を削減できる。また、本実施の形態によれば、直近に発生したイベントが無くても、イベント発生の予測に基づいて特定の注視点を決定することができるので、更なる利便性向上に繋がる。
(変形例)
以上、実施の形態に係る画像処理システム2の構成と動作について説明した。この実施の形態は例示であり、その各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上述の実施の形態では、ユーザ端末300から仮想視点画像の再生要求を受け付けた際に図9に示すフローチャートの処理を実施する場合を説明したが、これに限られない。注視点決定部105は、取得部104を介して最新のイベント情報を取得する度に、図9に示される処理を実施してもよい。この場合、情報処理装置100は、その都度、ユーザ端末300へ仮想視点画像を送信する。仮想視点画像を受信したユーザ端末300は、表示を仮想視点画像の再生に切り替える。あるいはまた、ユーザ端末300は、仮想視点画像の再生を促す通知を画面に表示してもよい。このようにすることで、直近に発生したイベントに係る仮想視点画像を見逃さずに視聴できる。
また上述の実施の形態では、イベントやオブジェクトの位置に基づいて特定の注視点を決定する場合を説明したが、これに限られない。例えば、ユーザが注視点を選択してもよい。この場合、情報処理装置100は、注視点決定部105が生成した注視点ユニット配置図をユーザ端末300へ送信する。注視点ユニット配置図を受信したユーザ端末300は、ユーザに所望の注視点ユニットを選択させるために、注視点ユニット配置図をディスプレイに表示させる。情報処理装置100は、表示された配置図に対するユーザ操作により決定された注視点ユニットをユーザ端末300から受信し、その注視点ユニットに基づいて仮想視点画像を生成する。ただし、上述した実施形態のように、イベントの発生位置や所定のオブジェクトの位置に基づいて注視点を決定することで、注視点の選択に係るユーザの手間の削減や、ユーザ操作の誤りの回避が可能となる。また例えば、ユーザによる仮想視点の指定に基づいて注視点が選択されてもよい。この場合、情報処理装置100は、ユーザ操作により指定された仮想視点を示す情報をユーザ端末300から受信し、その仮想視点の位置を含む注視点ユニットに対応する注視点や、仮想視点に最も近い注視点を選択する。このような方法によれば、ユーザにより指定された仮想視点に応じた仮想視点画像を高画質に生成できる。ただし、上述した実施形態のように、イベントの発生位置などに基づいて注視点を決定することで、複数のユーザによりそれぞれ異なる仮想視点が指定される場合にも単一の注視点を適用して、画像生成装置200から出力されるデータ量を削減できる。
また上述の実施の形態では、サッカーの試合を撮影する場合の例を説明したが、これに限られず、例えばラグビー、テニス、アイススケート、バスケットボール等の他のスポーツの試合や、ライブやコンサートなどの演奏の撮影にも、本実施の形態に係る技術的思想を適用できる。
また、情報処理装置100により決定された注視点に基づいて、仮想視点画像の生成に係る仮想視点が決定されてもよい。例えば、決定された注視点に向くように仮想視点の方向が自動で決定されてもよいし、決定された注視点の近傍の位置になるように仮想視点の位置が自動で決定されてもよい。
また、注視点の選択に用いられる注視点データは図8に示すものに限定されない。図11は、注視点データの構成の変形例を示すデータ構造図である。注視点データは、注視点IDと、位置情報と、半径と、当該注視点に向けられる(当該注視点の位置をその画角に含む)少なくともひとつのカメラのIDである関連カメラIDと、を対応付けて保持する。図11の例では、関連カメラID「C01」、「C02」で特定される2台のカメラの画角はそれぞれ、注視点ID「01」で特定される注視点の位置を含む。
また、情報処理装置100が、決定した注視点と仮想視点に基づいて仮想視点画像を生成して出力してもよい。図12は、この場合の画像処理システム2における一連の処理の流れを示すフローチャートである。S121で、画像生成装置200はスタジアム12に設置されている複数のカメラ18から撮影画像を取得する。S122で、情報処理装置100はユーザ端末300からの再生指示を待ち受ける。再生指示があると(S122のYES)、S123で情報処理装置100は注視点を決定する。S123における注視点の決定処理は、図9に示される注視点決定部105における一連の処理に倣う。S124で、情報処理装置100は注視点データを参照し、S123で決定された注視点に対応するカメラからなるカメラ群を特定する。具体的には、情報処理装置100は、図11に示す注視点データにおいて、決定された注視点の注視点IDに対応して保持されている関連カメラIDを特定する。なお、情報処理装置100は、S123において複数の注視点を決定し、S124において当該複数の注視点に対応する複数のカメラ群の関連カメラIDを特定してもよい。
S125で、情報処理装置は、S124で特定されたカメラ群により撮影された画像を画像生成装置200から取得する。S126で、情報処理装置100は、S125で取得された画像から仮想視点画像を生成する。この際、情報処理装置は、ユーザ端末300から再生指示と共に受信した仮想視点の位置及び方向を示す情報を用いる。S127で、情報処理装置は、生成された仮想視点画像をユーザ端末300に出力する。
上記の処理によれば、決定された注視点に関連するカメラの撮影画像のみが画像生成装置200から情報処理装置100へ出力される。したがって、画像生成装置200や情報処理装置100の処理負荷を低減できる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 情報処理装置、 200 画像生成装置、 300 ユーザ端末、 105 注視点決定部。

Claims (13)

  1. 複数の特定位置に対応する複数のカメラ群であって、対応する特定位置をそれぞれ異なる方向から撮影する複数のカメラを有するカメラ群の中から、1以上のカメラ群を選択する選択手段と、
    前記選択手段により選択されたカメラ群による撮影に基づく画像を、指定された仮想視点に応じた仮想視点画像の生成に用いる画像として決定する決定手段と
    オブジェクトの軌跡の情報を取得する手段と、を備え、
    前記選択手段は、軌跡の情報から導かれる起点の位置に対応するカメラ群を選択する、情報処理装置。
  2. 前記選択手段は、前記複数の特定位置から1以上の特定位置を選択し、当該特定位置の選択に基づいて前記1以上のカメラ群を選択する請求項1に記載の情報処理装置。
  3. ネットワークを介してユーザ端末から、指定された仮想視点の位置を示す情報を取得する手段と、
    前記決定手段による決定に応じた画像と取得された前記情報とに基づいて、前記仮想視点の位置に対応する仮想視点画像を取得する請求項1または2に記載の情報処理装置。
  4. 前記複数のカメラ群の撮影対象に係るイベントの情報を取得するイベント取得手段をさらに備え、
    前記選択手段は、取得されたイベントの情報に基づいて前記1以上のカメラ群を選択する請求項1から3のいずれか一項に記載の情報処理装置。
  5. ネットワークを介してユーザ端末から、再生指示を受け付ける手段をさらに備え、
    前記イベント取得手段は、前記再生指示を受け付けた時刻または当該時刻の直近で発生したイベントの情報を取得する請求項に記載の情報処理装置。
  6. 前記イベント取得手段により取得されるイベントの情報は、当該イベントが発生した時刻と、当該イベントが発生した位置と、当該イベントに関わるオブジェクトと、を含む請求項4または5に記載の情報処理装置。
  7. 前記選択手段により選択されるカメラ群に対応する特定位置を基準とする所定範囲は、取得されたイベントが発生した位置を含む請求項4に記載の情報処理装置。
  8. 前記選択手段により選択されるカメラ群に対応する特定位置を基準とする所定範囲は、軌跡の情報から導かれる起点を含む請求項に記載の情報処理装置。
  9. 前記オブジェクトは、人物またはボールである請求項1から8の何れか一項に記載の情報処理装置。
  10. オブジェクトの位置の情報を取得する手段をさらに備え、
    前記選択手段は、取得されたオブジェクトの位置の情報に基づいて前記1以上のカメラ群を選択する請求項1から3のいずれか一項に記載の情報処理装置。
  11. 複数の撮影装置のそれぞれが撮影対象の少なくとも一部を撮影することにより得られる画像群を用いて仮想視点画像を生成する情報処理装置であって、
    前記撮影対象内の位置を決定する決定手段と、
    決定された位置をその画角に含む少なくともひとつの撮影装置で撮影された画像を用いて生成された仮想視点画像を取得する取得手段と、
    オブジェクトの軌跡の情報を取得する手段と、を備え、
    前記少なくともひとつの撮影装置は、前記複数の撮影装置の中から、前記軌跡の情報から導かれる基点の位置に対応する撮影装置として選択される、情報処理装置。
  12. 複数の特定位置に対応する複数のカメラ群であって、対応する特定位置をそれぞれ異なる方向から撮影する複数のカメラを有するカメラ群の中から、オブジェクトの軌跡の情報から導かれる起点の位置に対応する1以上のカメラ群を選択することと、
    選択されたカメラ群による撮影に基づく画像を、指定された仮想視点に応じた仮想視点画像の生成に用いる画像として決定することと、
    前記軌跡の情報を取得することと、を含む情報処理方法。
  13. コンピュータを請求項1乃至11のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2018047183A 2018-03-14 2018-03-14 情報処理装置および情報処理方法 Active JP7132730B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018047183A JP7132730B2 (ja) 2018-03-14 2018-03-14 情報処理装置および情報処理方法
US16/294,175 US11006089B2 (en) 2018-03-14 2019-03-06 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047183A JP7132730B2 (ja) 2018-03-14 2018-03-14 情報処理装置および情報処理方法

Publications (3)

Publication Number Publication Date
JP2019159950A JP2019159950A (ja) 2019-09-19
JP2019159950A5 JP2019159950A5 (ja) 2021-04-30
JP7132730B2 true JP7132730B2 (ja) 2022-09-07

Family

ID=67904565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047183A Active JP7132730B2 (ja) 2018-03-14 2018-03-14 情報処理装置および情報処理方法

Country Status (2)

Country Link
US (1) US11006089B2 (ja)
JP (1) JP7132730B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN107924690B (zh) * 2015-09-02 2021-06-25 交互数字Ce专利控股公司 用于促进扩展场景中的导航的方法、装置和系统
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10841509B2 (en) * 2018-10-22 2020-11-17 At&T Intellectual Property I, L.P. Camera array orchestration
CN113508604B (zh) 2019-02-28 2023-10-31 斯塔特斯公司 从广播视频生成可跟踪视频帧的系统及方法
US20220262142A1 (en) * 2019-08-14 2022-08-18 Intel Corporation Automatic generation of 3d bounding boxes from multi-camera 2d image data
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
JP7322191B2 (ja) * 2020-01-22 2023-08-07 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
WO2021248462A1 (en) * 2020-06-12 2021-12-16 Intel Corporation Systems and methods for virtual camera highlight creation
NO346392B1 (en) * 2020-08-05 2022-07-04 Muybridge As Multiple camera sensor system and method of providing a target image by a virtual camera
JP2022073651A (ja) 2020-11-02 2022-05-17 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN114640800B (zh) * 2020-12-16 2023-10-27 虫极科技(北京)有限公司 摄像头布置的方法及系统
CN113794844B (zh) * 2021-09-09 2023-05-26 北京字节跳动网络技术有限公司 自由视角视频采集系统、方法、装置、服务器和介质
US12086301B2 (en) 2022-06-01 2024-09-10 Sphere Entertainment Group, Llc System for multi-user collaboration within a virtual reality environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120057852A1 (en) 2009-05-07 2012-03-08 Christophe Devleeschouwer Systems and methods for the autonomous production of videos from multi-sensored data
JP2015225529A (ja) 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017012397A (ja) 2015-06-30 2017-01-19 株式会社セガゲームス プログラム
WO2017154606A1 (ja) 2016-03-10 2017-09-14 ソニー株式会社 情報処理装置および情報処理方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP2001008232A (ja) * 1999-06-25 2001-01-12 Matsushita Electric Ind Co Ltd 全方位映像出力方法と装置
AU2001250802A1 (en) * 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
US6778171B1 (en) * 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
JP3495011B2 (ja) * 2000-11-21 2004-02-09 株式会社ソニー・コンピュータエンタテインメント 情報処理方法及びプログラム実行装置、コンピュータに実行させるための情報処理プログラム及びコンピュータに実行させるための情報処理プログラムを記録した記録媒体
US7203693B2 (en) * 2001-06-12 2007-04-10 Lucent Technologies Inc. Instantly indexed databases for multimedia content analysis and retrieval
JP4928275B2 (ja) * 2007-01-10 2012-05-09 キヤノン株式会社 カメラ制御装置及びその制御方法
US8466913B2 (en) * 2007-11-16 2013-06-18 Sportvision, Inc. User interface for accessing virtual viewpoint animations
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
CN102598652B (zh) * 2009-10-30 2015-08-12 佳能株式会社 信息处理设备和方法
JP5514147B2 (ja) * 2011-04-12 2014-06-04 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、サーバ、端末及びネットワークシステム
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置
AU2011202182B1 (en) * 2011-05-11 2011-10-13 Frequency Ip Holdings, Llc Creation and presentation of selective digital content feeds
JP5822655B2 (ja) * 2011-10-28 2015-11-24 任天堂株式会社 ゲーム処理システム、ゲーム処理方法、ゲーム処理装置およびゲーム処理プログラム
US8953024B2 (en) * 2012-02-21 2015-02-10 Intellectual Ventures Fund 83 Llc 3D scene model from collection of images
US9832447B2 (en) * 2013-04-04 2017-11-28 Amatel Inc. Image processing system and image processing program
EP3061241A4 (en) * 2013-08-20 2017-04-05 Smarter TV Ltd. System and method for real-time processing of ultra-high resolution digital video
US10176496B2 (en) * 2016-06-27 2019-01-08 Adobe Inc. Audience segmentation based on viewing angle of a user viewing a video of a multi-angle viewing environment
JP5979396B2 (ja) * 2014-05-27 2016-08-24 パナソニックIpマネジメント株式会社 画像撮影方法、画像撮影システム、サーバ、画像撮影装置及び画像撮影プログラム
CN106464847B (zh) * 2014-06-20 2019-06-25 歌乐株式会社 影像合成系统和用于其的影像合成装置与影像合成方法
JP6460105B2 (ja) * 2014-06-30 2019-01-30 パナソニックIpマネジメント株式会社 撮影方法、撮影システムおよび端末装置
WO2016014233A1 (en) * 2014-07-25 2016-01-28 mindHIVE Inc. Real-time immersive mediated reality experiences
US20160140733A1 (en) * 2014-11-13 2016-05-19 Futurewei Technologies, Inc. Method and systems for multi-view high-speed motion capture
EP3170539B1 (en) * 2014-11-21 2020-03-04 Sony Interactive Entertainment Inc. Program and information processing device
JP6548900B2 (ja) * 2015-01-20 2019-07-24 株式会社デンソーテン 画像生成装置、画像生成方法及びプログラム
US10257490B2 (en) * 2016-04-28 2019-04-09 Verizon Patent And Licensing Inc. Methods and systems for creating and providing a real-time volumetric representation of a real-world event
JP6429829B2 (ja) * 2016-05-25 2018-11-28 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
US10887571B2 (en) * 2016-07-29 2021-01-05 Sony Corporation Image processing apparatus and image processing method
JP6882868B2 (ja) * 2016-08-12 2021-06-02 キヤノン株式会社 画像処理装置、画像処理方法、システム
JP6539253B2 (ja) * 2016-12-06 2019-07-03 キヤノン株式会社 情報処理装置、その制御方法、およびプログラム
US10413803B2 (en) * 2016-12-20 2019-09-17 Canon Kabushiki Kaisha Method, system and apparatus for displaying a video sequence
CN107370994B (zh) * 2017-08-15 2018-11-02 深圳云天励飞技术有限公司 海域全景监控方法、装置、服务器及系统
CN111095920A (zh) * 2017-09-04 2020-05-01 梶田大树 多视点影像观看系统及照相机系统
US10953322B2 (en) * 2018-02-28 2021-03-23 Sony Interactive Entertainment LLC Scaled VR engagement and views in an e-sports event
JP2019161462A (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120057852A1 (en) 2009-05-07 2012-03-08 Christophe Devleeschouwer Systems and methods for the autonomous production of videos from multi-sensored data
JP2015225529A (ja) 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017012397A (ja) 2015-06-30 2017-01-19 株式会社セガゲームス プログラム
WO2017154606A1 (ja) 2016-03-10 2017-09-14 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US11006089B2 (en) 2021-05-11
JP2019159950A (ja) 2019-09-19
US20190289275A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7132730B2 (ja) 情報処理装置および情報処理方法
US10771760B2 (en) Information processing device, control method of information processing device, and storage medium
JP6621063B2 (ja) カメラ選択方法及び映像配信システム
US10805592B2 (en) Apparatus and method for gaze tracking
US11399170B2 (en) Image processing apparatus, image processing method, and storage medium
JP7207913B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN107852476B (zh) 动画播放装置、动画播放方法、动画播放系统以及动画发送装置
JP2012209943A (ja) アノテーション方法、アノテーション装置、および携帯電話機
JP2019114147A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP7423974B2 (ja) 情報処理システム、情報処理方法及びプログラム
US20210168411A1 (en) Storage medium, video image generation method, and video image generation system
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2024124469A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2022073651A (ja) 情報処理装置、情報処理方法およびプログラム
WO2024084943A1 (ja) 情報処理装置、情報処理方法、プログラム
KR20190019407A (ko) 타임 슬라이스 영상을 제공하는 서버, 방법 및 사용자 단말
WO2018004933A1 (en) Apparatus and method for gaze tracking
CN111669569A (zh) 一种视频生成方法及装置、介质、终端
KR20150066941A (ko) 선수 정보 제공 장치 및 이를 이용한 선수 정보 제공 방법
JP2022094789A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7282519B2 (ja) 画像処理装置または画像処理サーバー
JP2020067716A (ja) 情報処理装置、制御方法、及びプログラム
JP7530206B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7289630B2 (ja) 画像処理装置
US20230291883A1 (en) Image processing system, image processing method, and storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220826

R151 Written notification of patent or utility model registration

Ref document number: 7132730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151