[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7512896B2 - 情報処理装置、情報処理方法、プログラム、および、情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラム、および、情報処理システム Download PDF

Info

Publication number
JP7512896B2
JP7512896B2 JP2020561306A JP2020561306A JP7512896B2 JP 7512896 B2 JP7512896 B2 JP 7512896B2 JP 2020561306 A JP2020561306 A JP 2020561306A JP 2020561306 A JP2020561306 A JP 2020561306A JP 7512896 B2 JP7512896 B2 JP 7512896B2
Authority
JP
Japan
Prior art keywords
image
information processing
frame
user
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020561306A
Other languages
English (en)
Other versions
JPWO2020129696A1 (ja
Inventor
真之介 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020129696A1 publication Critical patent/JPWO2020129696A1/ja
Application granted granted Critical
Publication of JP7512896B2 publication Critical patent/JP7512896B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Circuits (AREA)

Description

本技術は、情報処理装置、情報処理方法、プログラム、および、情報処理システムに関し、特に、バレットタイム動画を簡単に生成することができるようにした情報処理装置、情報処理方法、プログラム、および、情報処理システムに関する。
バレットタイム(Bullet Time)撮影と称される撮影技術が知られている。バレットタイム撮影では、例えば、被写体を複数のカメラで同期して撮影し、各カメラで撮影された画像を編集機器に送信して、編集機器において、撮影方向を順次切り替えたような一連の画像(動画)が生成される。
バレットタイム動画の生成には、複数の方向から被写体を撮影した画像が必要であるが、例えば、特許文献1には、例えば、任意の位置、方向、移動速度を自由に設定した自由視点画像を生成する画像処理装置が提案されている。
特開2018-46448号公報
従来、バレットタイム動画を生成するためには、複数のカメラで撮影した全ての画像を編集機器に送信する必要があった。
本技術は、このような状況に鑑みてなされたものであり、バレットタイム動画を簡単に生成することができるようにするものである。
本技術の第1の側面の情報処理装置は、表示装置に、複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像を表示させる制御部と、前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作を受け付けるユーザ選択部と、を備え、前記制御部は、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する装置に対して、特定された当該撮像画像を要求する。
本技術の第1の側面の情報処理方法およびプログラムは、第1の側面の情報処理装置に対応する情報処理方法およびプログラムである。
本技術の第1の側面においては、表示装置に、複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像が表示され、前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作が受け付けられ、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する装置に対して、特定された当該撮像画像が要求される。
本技術の第1の側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術の第2の側面の情報処理システムは、複数の撮像装置に対応して設けられる複数の第1情報処理装置と、第2情報処理装置とからなり、前記複数の第1情報処理装置のうちのいずれか1つの第1情報処理装置は、対応する前記撮像装置で得られた撮像画像に関連する関連画像を前記第2情報処理装置に送信し、前記第2情報処理装置は、表示装置に、前記関連画像を表示させる制御部と、前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作を受け付けるユーザ選択部と、を備え、前記制御部は、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する第1情報処理装置に対して、特定された当該撮像画像を要求する。
本技術の第2の側面においては、複数の撮像装置に対応して設けられる複数の第1情報処理装置と、第2情報処理装置とからなり、前記複数の第1情報処理装置のうちのいずれか1つの第1情報処理装置では、対応する前記撮像装置で得られた撮像画像に関連する関連画像が前記第2情報処理装置に送信され、前記第2情報処理装置では、表示装置に、前記関連画像が表示され、前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作が受け付けられ、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する第1情報処理装置に対して、特定された当該撮像画像が要求される。
情報処理装置および情報処理システムは、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本技術を適用した撮影システムの構成例を示す図である。 撮影システムで実行される処理の概要について説明する図である。 カメラと制御装置の構成例を示すブロック図である。 編集用統合機器としてのコンピュータのハードウエアの構成例を示すブロック図である。 バレットタイム編集画面の画面例を示す図である。 自由指定のフレーム選択モードを説明する図である。 バレットタイム動画生成の一連の流れを説明する図である。 撮影システムによるバレットタイム動画生成の処理を説明するフローチャートである。 間引き処理されたライブビュー画像を説明する図である。 複数のカメラを2次元配置とした場合のユーザI/Fを説明する図である。 カメラと制御装置の機能を集約したカメラの構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.撮影システムの構成例
2.撮影システムの概要
3.ブロック図
4.画面例
5.バレットタイム動画生成の一連の流れ
6.変形例
<1.撮影システムの構成例>
図1は、本技術を適用した撮影システムの構成例を示している。
図1の撮影システム1は、撮影方向を順次切り替えたような一連の画像(動画)であるバレットタイム動画の撮影および生成に好適なシステムであり、8台のカメラ11A乃至11Hと、8台の制御装置12A乃至12Hと、編集用統合機器13と、表示装置14とを含んで構成される。
なお、以下の説明では、カメラ11A乃至11Hを特に区別する必要がない場合、単にカメラ11と称する。また、制御装置12A乃至12Hを特に区別する必要がない場合には、単に制御装置12と称する。撮影システム1では、カメラ11と制御装置12とが対で構成される。図1の例では、撮影システム1が8台のカメラ11と制御装置12で構成される例を説明するが、カメラ11と制御装置12の台数は8台に限られず、任意の台数でスケーラブルに構成することができる。
カメラ11は、制御装置12の制御に従い、被写体21を撮像し、その結果得られる撮像画像(動画像)を制御装置12に供給する。カメラ11と制御装置12とは、所定の通信ケーブルで接続されている。複数台(8台)のカメラ11は、例えば、図1に示されるように、被写体21の周囲に円弧状に配置され、同期して撮像を行う。複数台のカメラ11の相互の位置関係は、キャリブレーション処理を行うことで既知であるとする。
制御装置12は、制御対象のカメラ11と接続され、カメラ11に撮像の指示を出力するとともに、カメラ11から供給される動画像を構成する1以上の撮像画像を取得し、バッファリングする(一時的に保存する)。制御装置12は、所定のネットワーク22を介した編集用統合機器13からの要求に応じて、1以上の撮像画像を編集用統合機器13へ送信したり、撮像画像に関連する関連画像を編集用統合機器13へ送信する。ここで、関連画像とは、バッファリングした撮像画像に対して、解像度変換、フレームレート変換(フレーム間引き)、圧縮処理等の所定の画像処理を施して得られる画像である。関連画像は、例えば、動画撮影中の画像確認用(後述するライブビュー画像)や、撮像画像選択中の画像確認用(後述する停止画)として利用される。したがって、制御装置12は、バッファリングした撮像画像に対して、解像度変換、圧縮処理等の画像処理を必要に応じて実行する。以下では、カメラ11から得られた撮像画像を、関連画像と区別して、フレーム画像と称して説明する。
ネットワーク22は、例えば、インターネット、電話回線網、衛星通信網、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)とすることができる。その他、ネットワーク22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網などでもよい。また、ネットワーク22は、有線による通信網に限らず、無線による通信網であってもよい。
編集用統合機器13は、バレットタイム動画の生成を行うユーザが操作する操作端末であり、例えば、パーソナルコンピュータやスマートフォン等で構成される。編集用統合機器13は、バレットタイム動画の撮影および編集を行うアプリケーションプログラム(以下、適宜、バレットタイム動画生成アプリと称する。)を実行する。編集用統合機器13は、バレットタイム動画生成アプリにおいて、ユーザの操作を受け付け、ユーザの指示に基づいて、バレットタイム動画の撮影および編集を行う。例えば、編集用統合機器13は、被写体21の撮像の開始および停止を、各制御装置12へ指示する。また、編集用統合機器13は、バレットタイム動画に必要なフレーム画像を制御装置12へ要求して取得し、取得したフレーム画像を用いて、バレットタイム動画を生成する。
表示装置14は、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示デバイスであり、バレットタイム動画生成アプリの画面を表示したり、制御装置12から取得した被写体21のフレーム画像などを表示する。なお、編集用統合機器13が、例えば、スマートフォンや、携帯型のパーソナルコンピュータなど、ディスプレイと一体とされている場合には、表示装置14は、編集用統合機器13の一部として構成される。
<2.撮影システムの概要>
次に、図2を参照して、撮影システム1で実行される処理の概要について説明する。
各カメラ11は、ユーザの操作に基づく制御装置12からの指令に基づき、他のカメラ11と同期したタイミングで被写体21を撮像し、その結果得られるフレーム画像(動画像)を制御装置12に供給する。各カメラ11で撮像されたフレーム画像には、同一の被写体21が含まれる。
各制御装置12は、対となるカメラ11から供給されるフレーム画像をバッファリングする。ここで、各カメラ11において、6枚のフレーム画像が時系列に撮像され、対応する制御装置12にバッファリングされたとする。具体的には、図2に示されるように、制御装置12Aには、カメラ11Aで撮像された6枚のフレーム画像A1乃至A6がバッファリングされている。制御装置12Bには、カメラ11Bで撮像された6枚のフレーム画像B1乃至B6がバッファリングされている。以下、同様に、制御装置12Gには、カメラ11Gで撮像された6枚のフレーム画像G1乃至G6がバッファリングされ、制御装置12Hには、カメラ11Hで撮像された6枚のフレーム画像H1乃至H6がバッファリングされている。
編集用統合機器13は、図2に示されるように、カメラ11の配置に合わせた空間方向(カメラ11の配列方向)を横軸(X軸)とし、フレーム画像の撮像時刻(撮像時間)に合わせた時間方向を縦軸(Y軸)とする2次元空間上に、各制御装置12にバッファリングされているフレーム画像を配置した表現形式でフレーム画像を管理し、バレットタイム動画に必要なフレーム画像を、ユーザに選択させるユーザI/F(ユーザインタフェイス)を用いる。このようなユーザI/Fを用いることで、撮像されたフレーム画像間の時間関係や位置関係(被写体の撮像方向の関係)を直観的に認識しやすくし、ユーザが、必要なフレーム画像の選択を容易に行うことができる。
例えば、編集用統合機器13のユーザI/Fにおいて、図中、ハッチングが付され、太枠で囲まれたフレーム画像A1、B1、C1、D1、E1、F1、G1、H1乃至H6、G6、F6、E6、D6、C6、B6、および、A6が選択されたとすると、選択されたフレーム画像のみが、ネットワーク22を介して、制御装置12から編集用統合機器13へ供給される。編集用統合機器13は、取得したフレーム画像を所定の順番でエンコードすることにより、バレットタイム動画を生成する。バレットタイム動画のフレームレートは、初期設定により予め決定されるか、動画生成時に決定される。選択されたフレーム画像をエンコードする際のフレーム画像の順番も、初期設定により予め決定することができ、動画生成時に決定することもできる。
このように、編集用統合機器13では、バレットタイム動画の生成に必要なフレーム画像のみを各制御装置12から取得して、バレットタイム動画の生成に使用しないフレーム画像はダウンロードしないようにすることで、フレーム画像の取得に使用するネットワーク帯域を削減することができ、使用する編集用統合機器13のメモリ領域も少なくすることができる。
なお、各カメラ11の配置が、図1に示したように列状ではなく、被写体21を中心とする略円状である場合には、所定の1つのカメラ11を起点とする列状の配置と考えて、空間方向と時間方向の2次元空間上でフレーム画像を管理することができる。
<3.ブロック図>
図3は、カメラ11と制御装置12の構成例を示すブロック図である。
カメラ11は、イメージセンサ41、CPU(Central Processing Unit)42、メモリ43、画像処理部44、USB(Universal Serial Bus) I/F45、および、HDMI(High-Definition Multimedia Interface)(登録商標) I/F46などを有する。イメージセンサ41、CPU42、メモリ43、画像処理部44、USB I/F45、および、HDMI I/F46は、バス47を介して相互に接続されている。
イメージセンサ41は、例えば、CCD(Charge Coupled Device)や、CMOS (Complementary Metal Oxide Semiconductor)センサなどで構成され、図示せぬ撮像レンズを介して入射される被写体からの光(像光)を受光(撮像)する。イメージセンサ41は、被写体を撮像して得られる撮像信号を、バス47を介してメモリ43に供給する。
CPU42は、不図示のROM(Read Only Memory)に記憶されたプログラムにしたがって、カメラ11全体の動作を制御する。CPU42は、例えば、USB I/F45を介して、制御装置12から供給される制御信号にしたがって、イメージセンサ41に撮像を行わせたり、メモリ43に記憶されている撮像信号の画像処理を画像処理部44に行わせる。
メモリ43は、例えば、RAM(Random Access Memory)で構成され、各種の処理で用いるデータやパラメータなどを一時的に記憶する。例えば、メモリ43は、イメージセンサ41から供給される撮像信号を記憶したり、画像処理部44で処理された後の画像データなどを記憶する。
画像処理部44は、イメージセンサ41で撮像され、メモリ43に記憶されている撮像信号を用いて、デモザイク処理等の画像処理を実行し、フレーム画像を生成する。
USB I/F45は、USB端子を有し、USBケーブルを介して接続される制御装置12との間で、カメラ11を制御する制御信号やデータなどを送受信する。HDMI(R)I/F46は、HDMI(R)端子を有し、HDMI(R)ケーブルを介して接続される制御装置12との間で、カメラ11を制御する制御信号やデータなどを送受信する。USB I/F45とHDMI(R)I/F46の2つの通信I/Fの使用方法は、特に限定されないが、例えば、カメラ11を制御する制御信号が、USB I/F45を介して制御装置12からカメラ11に入力され、非圧縮のフレーム画像の画像データが、HDMI(R)I/F46を介して、カメラ11から制御装置12へ高速伝送される。
制御装置12は、CPU61、メモリ62、画像処理部63、USB I/F64、HDMI(R) I/F65、および、ネットワークI/F66などを有する。CPU61、メモリ62、画像処理部63、USB I/F64、HDMI(R) I/F65、および、ネットワークI/F66は、バス67を介して相互に接続されている。
CPU61は、不図示のROMに記憶されたプログラムにしたがって、制御装置12全体の動作を制御する。例えば、CPU61は、編集用統合機器13からのカメラ11の制御信号にしたがって、カメラ11を制御する制御信号を、USB I/F45を介して、制御装置12に出力する。また、CPU61は、HDMI(R) I/F65を介してカメラ11から高速伝送されてきた非圧縮のフレーム画像をメモリ62に記憶させたり、メモリ62に記憶されている非圧縮のフレーム画像の画像処理を画像処理部63に行わせる。
メモリ62は、例えば、RAMで構成され、各種の処理で用いるデータやパラメータなどを一時的に記憶する。メモリ62は、カメラ11から供給される非圧縮のフレーム画像や、非圧縮のフレーム画像を画像処理部63で画像処理した処理後の画像などを、所定枚数記憶する記憶容量を有している。
画像処理部63は、メモリ62に記憶されている非圧縮のフレーム画像に対して、例えば、解像度変換処理や、圧縮処理、フレームレートを変換するフレームレート変換処理等の画像処理を実行する。
USB I/F64は、USB端子を有し、USBケーブルを介して接続されるカメラ11との間で、カメラ11を制御する制御信号やデータなどを送受信する。HDMI(R)I/F65は、HDMI(R)端子を有し、HDMI(R)ケーブルを介して接続されるカメラ11との間で、カメラ11を制御する制御信号やデータなどを送受信する。本実施の形態では、上述したように、例えば、USB I/F64からは、カメラ11を制御する制御信号が、カメラ11へ出力され、HDMI(R)I/F65からは、非圧縮のフレーム画像の画像データがカメラ11から入力される。
ネットワークI/F66は、例えば、Ethernet(登録商標)に準拠したネットワーク22を介して通信を行う通信I/Fである。ネットワークI/F66は、ネットワーク22を介して、編集用統合機器13と通信を行う。例えば、ネットワークI/F66は、編集用統合機器13から供給されるカメラ11の制御信号を取得してCPU61へ供給したり、非圧縮のフレーム画像の画像データを編集用統合機器13へ送信する。
以上のように、カメラ11と制御装置12との間では、USB I/Fと、HDMI(R)I/Fの2つの通信手段を用いて、制御信号やデータなどを送受信するように構成されるが、1つの通信手段のみで、制御信号やデータを送受信する構成としてもよい。また、通信手段の通信方式は、USB I/FとHDMI(R)I/Fに限らず、その他の通信方式でもよい。さらには、有線通信に限らず、Wi-fiや、Bluetooth(登録商標)等の無線通信でもよい。制御装置12と編集用統合機器13との間の通信についても、有線通信または無線通信のどちらでもよいし、通信手段の種類は問わない。
図4は、編集用統合機器13としてのコンピュータのハードウエアの構成例を示すブロック図である。
編集用統合機器13において、CPU101、ROM102、および、RAM103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。入力部106は、ユーザが行う選択や指示など、ユーザの操作を受け付ける受付部として機能する。出力部107は、ディスプレイ、スピーカ、出力端子などよりなる。記憶部108は、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部109は、ネットワークI/Fなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
以上のように構成される編集用統合機器13では、バレットタイム動画生成アプリが、例えば、記憶部108に記憶されている。CPU101が、記憶部108に記憶されているバレットタイム動画生成アプリを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、ユーザに、バレットタイム動画の撮影および編集を行わせることができる。例えば、CPU101は、図5のバレットタイム編集画面を表示装置14に表示させたり、各制御装置12からダウンロードした複数のフレーム画像をエンコードしてバレットタイム動画を生成する処理を行う。各制御装置12からダウンロードした画像が圧縮符号化されている場合には、CPU101は、圧縮画像の伸長処理も行うことができる。バレットタイム動画生成アプリを実行するCPU101は、バレットタイム動画用の撮影および編集を制御する制御部に相当する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
バレットタイム動画生成アプリを含む、CPU101が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
プログラムは、リムーバブル記録媒体111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
<4.画面例>
図5は、編集用統合機器13上でバレットタイム動画生成アプリが実行されることにより表示装置14に表示された、バレットタイム編集画面の画面例を示している。
バレットタイム編集画面151には、“バレットタイム編集”のタイトルとともに、カメラ11で撮像された画像を表示する画像表示部161が設けられている。画像表示部161は、各カメラ11がバレットタイム動画用の撮像を行っている最中には(後述する“ライブビュー”ステート)、所定の1台のカメラ11(以下、代表カメラ11とも称する。)で撮像されたフレーム画像の関連画像であるライブビュー画像を表示する。ライブビュー画像は、例えば、制御装置12にバッファリングされているフレーム画像よりも、解像度を落とした画像とされる。
また、画像表示部161は、バレットタイム動画の生成に使用するフレーム画像を選択する際には(後述する“フレーム選択”ステート)、フレーム選択のためのプレビュー用の画像(静止画)である停止画を画像表示部161に表示する。停止画も、例えば、制御装置12にバッファリングされているフレーム画像よりも、解像度を落とした画像であり、フレーム画像の関連画像である。
ライブビュー画像や停止画を、フレーム画像よりも解像度を低下させた画像とすることで、ネットワーク帯域を節約するとともに、撮像中およびフレーム選択中の高速伝送および高速表示を実現することができる。なお、勿論、編集用統合機器13の処理能力が高く、ネットワーク帯域に余裕がある場合などにおいては、制御装置12にバッファリングされているフレーム画像を、ライブビュー画像や停止画として、そのまま編集用統合機器13に伝送して、表示するようにしてもよい。
バレットタイム編集画面151の画像表示部161の下方には、複数のフレーム選択モードに対応するフレーム選択モードボタン162乃至166が表示されている。
フレーム選択モードボタン162乃至166は、各カメラ11で撮像されたフレーム画像を、各カメラ11の空間方向を横軸とし、フレーム画像の撮像時刻に合わせた時間方向を縦軸とする2次元空間上に配列したフレーム画像の配置を基に、バレットタイム動画に使用するフレーム画像の選択方法を指定するためのボタンである。以下では、各カメラ11の空間方向を横軸とし、フレーム画像の撮像時刻に合わせた時間方向を縦軸とする2次元空間上に、各カメラ11で撮像された複数のフレーム画像が配置された空間を、フレーム配置2次元空間とも称する。
フレーム選択モードボタン162乃至165は、バレットタイム動画に使用するフレーム画像の選択方法が、キータイミングKTを基点として予め規定されている(プリセットされている)フレーム選択モードのボタンである。
フレーム選択モードボタン162乃至165のフレーム選択モードでは、ユーザがキータイミングKTを指定することで、キータイミングKTを基点に、フレーム配置2次元空間上に配列された複数のフレーム画像のなかの所定のフレーム画像が、バレットタイム動画に使用するフレーム画像として(自動的に)選択される。キータイミングKTの指定とは、フレーム配置2次元空間上に配列されたフレーム画像のうち、バレットタイム動画に使用するフレーム画像の時間方向を特定する操作である。
フレーム選択モードボタン162で実行されるフレーム選択モード(プリセット1)では、キータイミングKTが決定されると、フレーム配置2次元空間上に配列された複数のフレーム画像のうち、キータイミングKTを基点として、行L1の各フレーム画像と、行L2の各フレーム画像とが、バレットタイム動画に使用するフレーム画像として選択される。行L1の各フレーム画像は、フレーム配置2次元空間上の縦軸が示す撮像時刻がキータイミングKTと同じ時刻で、最左端のカメラ11Aから最右端のカメラ11Hまでのフレーム画像に対応する。行L2の各フレーム画像は、フレーム配置2次元空間上の縦軸が示す撮像時刻がキータイミングKTと同じ時刻で、最右端のカメラ11Hから最左端のカメラ11Aまでのフレーム画像に対応する。
フレーム選択モードボタン163で実行されるフレーム選択モード(プリセット2)では、キータイミングKTが決定されると、フレーム配置2次元空間上に配列された複数のフレーム画像のうち、キータイミングKTを基点として、行L1の各フレーム画像と、列L2の各フレーム画像と、行L3の各フレーム画像とが、バレットタイム動画に使用するフレーム画像として選択される。行L3の各フレーム画像は、縦軸が示す撮像時刻がキータイミングKTと同じ時刻で、最右端のカメラ11Hから最左端のカメラ11Aまでのフレーム画像に対応する。列L2は、終点の撮像時刻がキータイミングKTと同じ時刻で、最右端のカメラ11Hの撮像時刻が、所定の時刻からキータイミングKTと同じ時刻までのフレーム画像に対応する。行L1は、撮像時刻が列L2の始点の撮像時刻と同じで、最左端のカメラ11Aから最右端のカメラ11Hまでのフレーム画像に対応する。列L2の長さ(フレーム数)は、ユーザ設定により適宜変更することができる。
なお、図2で示したフレーム画像の選択例は、フレーム選択モードボタン163で実行されるフレーム選択モードに対応する。
フレーム選択モードボタン164で実行されるフレーム選択モード(プリセット3)では、キータイミングKTが決定されると、フレーム配置2次元空間上に配列された複数のフレーム画像のうち、キータイミングKTを基点として、列L1の各フレーム画像と、行L2の各フレーム画像と、行L3の各フレーム画像とが、バレットタイム動画に使用するフレーム画像として選択される。行L3の各フレーム画像は、縦軸が示す撮像時刻がキータイミングKTと同じ時刻で、最右端のカメラ11Hから最左端のカメラ11Aまでのフレーム画像に対応する。行L2の各フレーム画像は、縦軸が示す撮像時刻がキータイミングKTと同じ時刻で、最左端のカメラ11Aから最右端のカメラ11Hまでのフレーム画像に対応する。列L1の各フレーム画像は、終点の撮像時刻がキータイミングKTと同じ時刻で、最左端のカメラ11Aの撮像時刻が所定の時刻からキータイミングKTと同じ時刻までのフレーム画像に対応する。列L1の長さ(フレーム数)は、ユーザ設定により適宜変更することができる。
フレーム選択モードボタン165で実行されるフレーム選択モード(プリセット4)では、キータイミングKTが決定されると、フレーム配置2次元空間上に配列された複数のフレーム画像のうち、キータイミングKTを基点として、列L1の各フレーム画像と、行L2の各フレーム画像と、列L3の各フレーム画像と、行L4の各フレーム画像と、列L5の各フレーム画像とが、バレットタイム動画に使用するフレーム画像として選択される。行L4の各フレーム画像は、縦軸が示す撮像時刻がキータイミングKTと同じ時刻で、所定のカメラ11から最左端のカメラ11Hまでのフレーム画像に対応する。列L5の各フレーム画像は、最右端のカメラ11Hの、撮像時刻がキータイミングKTと同じ時刻から最後の時刻までのフレーム画像に対応する。列L3の各フレーム画像は、行L4の始点のフレーム画像と同じカメラ11の、撮像時刻が所定の時刻からキータイミングKTと同じ時刻までのフレーム画像に対応する。行L2の各フレーム画像は、撮像時刻が列L3の始点のフレーム画像と同じ時刻で、最右端のカメラ11Aから、列L3の始点のフレーム画像と同じカメラ11までのフレーム画像に対応する。列L1の各フレーム画像は、最右端のカメラ11Aで、撮像時刻が最初から行L2の始点と同じ時刻までのフレーム画像に対応する。列L1、行L2、列L3、行L4、および列L5の長さ(フレーム数)は、ユーザ設定により適宜変更することができる。
フレーム選択モードボタン166は、バレットタイム動画に使用するフレーム画像を、ユーザが自由に指定するフレーム選択モードのボタンである。フレーム選択モードボタン166が選択(押下)されると、図6のフレーム選択画面201が表示される。フレーム選択画面201では、フレーム配置2次元空間上に配列した各フレーム画像に対応する矩形領域の所望の領域を、ユーザがクリックまたはタッチ操作で選択することで、バレットタイム動画に使用するフレーム画像を選択することができる。例えば、フレーム画像に対応する矩形領域を選択した順番が、バレットタイム動画として表示するフレーム画像の順番となる。図6では、バレットタイム動画に使用するフレーム画像として選択された領域が、グレーで着色されている。決定ボタン211により、フレーム画像の選択が確定して、画面は図5のバレットタイム編集画面151に戻る。キャンセルボタン212により、フレーム画像の選択がキャンセルされて、画面は図5のバレットタイム編集画面151に戻る。
図5のバレットタイム編集画面151には、さらに、開始ボタン171、停止ボタン172、上下左右の方向キー173、決定ボタン174、ダウンロードボタン175、および、バレットタイム動画生成ボタン176が設けられている。
開始ボタン171は、バレットタイム動画用の撮像を行うとき、操作(押下)される。停止ボタン172は、バレットタイム動画用の撮像を停止(終了)するとき、操作される。停止ボタン172は、キーボードのスペースキーとも対応しており、スペースキーを押下することでも同様に、撮像の停止を指定することができる。
上下左右の方向キー173は、画像表示部161に表示されるライブビュー画像または停止画を変更する際に操作されるボタンである。方向キー173には、上方向キー173U、下方向キー173D、右方向キー173R、および、左方向キー173Lがある。上下左右の方向は、フレーム配置2次元空間上の各方向に対応している。したがって、画像表示部161に表示されるライブビュー画像を、上方向キー173Uと下方向キー173Dで、時間方向に切り替えができ、右方向キー173Rと左方向キー173Lで、空間方向に切り替えができる。
例えば、上方向キー173Uが押下されると、現在、画像表示部161に表示されているライブビュー画像(以下、現ライブビュー画像という。)と同じカメラ11で、表示中のライブビュー画像よりも1つ前の時刻に撮像されたフレーム画像のライブビュー画像が、画像表示部161に表示される(画像表示部161の表示が更新される)。
下方向キー173Dが押下されると、現ライブビュー画像と同じカメラ11で、表示中の現ライブビュー画像よりも1つ後の時刻に撮像されたフレーム画像のライブビュー画像が、画像表示部161に表示される。
右方向キー173Rが押下されると、現ライブビュー画像を撮像したカメラ11の右隣りのカメラ11で、現ライブビュー画像と同じ時刻に撮像されたフレーム画像のライブビュー画像が、画像表示部161に表示される。
左方向キー173Lが押下されると、現ライブビュー画像を撮像したカメラ11の左隣りのカメラ11で、現ライブビュー画像と同じ時刻に撮像されたフレーム画像のライブビュー画像が、画像表示部161に表示される。
なお、上方向キー173Uと下方向キー173Dを用いた時間方向の切り替えは、図7で後述する“ライブビュー”ステートでは行うことができず、右方向キー173Rと左方向キー173Lを用いたカメラ11の切り替えのみが可能となる。後述する“フレーム選択”ステートでは、時間方向の切り替えと空間方向(のカメラ11)の切り替えの両方が可能である。上方向キー173U、下方向キー173D、右方向キー173R、および、左方向キー173Lは、キーボードの方向キーとも対応しており、キーボードの方向キーを押下することでも同様に指定することができる。
決定ボタン174は、キータイミングKTの設定を行うとき、操作される。決定ボタン174が操作されたとき、画像表示部161に表示されている画像(停止画)に対応する撮像時刻が、キータイミングKTに設定される。決定ボタン174は、キーボードのEnterキーとも対応しており、Enterキーを押下することでも同様に、キータイミングKTを指定することができる。
キータイミングKTは、バレットタイム動画に使用するフレーム画像の時間方向のタイミングを特定するので、横軸のカメラ11の空間方向は、キータイミングKTの決定に影響しない。例えば、プリセット1のフレーム選択モードボタン162では、行L1の左端近傍に、キータイミングKTを表す星印が表示されているが、縦軸の時間方向だけが特定されるので、行L1の横方向の位置は問わない。したがって、行L1の星印に相当するカメラ11の画像(停止画)が表示されている状態で、キータイミングKTを設定する必要はなく、行L2上の複数のカメラ11A乃至11Hのどの画像が表示されている状態で、キータイミングKTを指定してもよい。
なお、本実施の形態では、キータイミングKTは、フレーム配置2次元空間上の縦軸である時間方向のタイミングを特定することとするが、フレーム配置2次元空間上の横軸であるカメラ11の空間方向のタイミングを特定するようにしてもよい。また、本実施の形態では、キータイミングKTの指定個数は1個であるが、複数個を指定するようにしてもよい。キータイミングKTの指定方法(時間方向の指定または空間方向の指定、キータイミングKTの指定個数)を、設定画面で適宜設定できるようにしてもよい。
ダウンロードボタン175は、バレットタイム動画に使用するフレーム画像を、各制御装置12からダウンロード(取得)する際に、操作されるボタンである。ダウンロードボタン175は、例えば、フレーム選択モードとキータイミングKTが決定され、バレットタイム動画に使用するフレーム画像が確定した状態となったとき、操作(押下)可能となる。
バレットタイム動画生成ボタン176は、ダウンロードされた複数のフレーム画像をエンコードしてバレットタイム動画を生成する処理を実行する際に、操作されるボタンである。バレットタイム動画生成ボタン176は、バレットタイム動画に使用する複数のフレーム画像のダウンロードが完了したとき、操作(押下)可能となる。
バレットタイム編集画面151の右上には、キャリブレーションボタン181と終了ボタン182が配置されている。
キャリブレーションボタン181は、複数台のカメラ11の相互の位置関係を設定するキャリブレーション処理を実行する際に、操作されるボタンである。複数台のカメラ11の位置および姿勢の算出には、例えば、複数の視点位置で撮像されたフレーム画像から、被写体の3次元形状と、カメラ11の位置と姿勢を同時に復元する手法であるストラクチャフロムモーションと称される技術を用いることができる。
終了ボタン182は、バレットタイム動画生成アプリを終了する際に、操作されるボタンである。
<5.バレットタイム動画生成の一連の流れ>
次に、図7を参照して、撮影システム1によるバレットタイム動画生成の一連の流れを説明する。
図7には、ユーザの操作と、それに対応する制御装置12および編集用統合機器13の処理と、撮影システム1のシステムステートが示されている。
バレットタイム動画生成を開始する場合、初めに、ユーザは、バレットタイム編集画面151の開始ボタン171を操作する(“開始”操作)。
編集用統合機器13は、ユーザによる開始ボタン171の押下を受け付けると、撮影システム1のシステムステートが、“ライブビュー”ステートに遷移する。“ライブビュー”ステートは、ユーザがバレットタイム編集画面151の停止ボタン172を操作するまで継続する。
“ライブビュー”ステートでは、開始ボタン171の操作に応じて、カメラ11の撮像と、制御装置12へのバッファリングの開始を要求する開始要求が、編集用統合機器13から、各制御装置12へ送信される。
各制御装置12は、開始要求を受信し、撮像を開始させる制御信号を、接続されているカメラ11に供給して、カメラ11に被写体の撮像を開始させる。また、各制御装置12は、カメラ11から順次供給されるフレーム画像を取得し、バッファリング(記憶)する。各制御装置12は、カメラ11から順次供給されるフレーム画像をメモリ62にバッファリングする際、フレーム画像を識別するフレームIDを付与して記憶する。フレームIDは、例えば、カメラ11間の同期信号に基づくタイムコード等とすることができる。この場合、同期した各カメラ11で同時刻に撮像されたフレーム画像には、フレームIDとして、同一のタイムコードが付与される。
撮影システム1を構成する複数の制御装置12のうち、代表カメラ11と接続された制御装置12(以下、代表制御装置12と称する。)は、バッファリングしたフレーム画像に、解像度を落とす解像度変換処理を施して生成したライブビュー画像を、そのフレームIDとともに、所定のネットワーク22を介して編集用統合機器13へ供給する。ライブビュー画像は、解像度変換処理に加えて圧縮処理を行うことで、生成するようにしてもよい。
編集用統合機器13は、代表制御装置12から順次送信されてくるライブビュー画像を、画像表示部161に表示する。ユーザは、右方向キー173Rと左方向キー173Lを押下することで、代表カメラ11を切替えることが可能である。代表カメラ11の切替えに応じて、バレットタイム編集画面151の画像表示部161に表示されるライブビュー画像の視点が変更される。初期値としての代表カメラ11は、例えば、設定画面で予め設定することができる。
ユーザは、画像表示部161に表示されるライブビュー画像を監視し、所定のタイミングで、バレットタイム編集画面151の停止ボタン172を押下する(“停止”操作)。
停止ボタン172の押下が検出されると、撮影システム1のシステムステートが、それまでの“ライブビュー”ステートから、“フレーム選択”ステートに遷移する。“フレーム選択”ステートでは、編集用統合機器13が、ユーザの方向キー173の操作に応じて、画像表示部161に表示するライブビュー画像を切替える。
まず、編集用統合機器13は、停止ボタン172の押下を受け付けると、停止画を要求する停止画要求を、停止ボタン172が押下された直後に受信したフレームIDとともに、各制御装置12に送信する。停止画とは、撮影システム1のシステムステートが、それまでの“ライブビュー”ステートから、“フレーム選択”ステートに移行した後に、フレーム選択のため、画像表示部161に表示させるプレビュー画像(静止画)である。停止画も、フレーム画像の関連画像であり、フレーム画像に対して解像度を落としたり、圧縮処理等の画像処理を施すことにより得られる。
停止画要求を受信した各制御装置12は、撮像を停止させる制御信号を、接続されているカメラ11に供給し、カメラ11に被写体の撮像を停止させる。
また、各制御装置12では、タイムラグ等により、停止画要求とともに受信したフレームIDよりも時間的に後のフレーム画像がメモリ62にバッファリングされている場合には、そのフレーム画像が削除される。これにより、複数の制御装置12それぞれのメモリ62には、同一時刻に撮像された同一枚数のフレーム画像が格納される。
さらに、代表カメラ11と接続された代表制御装置12は、停止画要求に応じて、受信したフレームIDの停止画を編集用統合機器13に送信する。編集用統合機器13は、受信した停止画を、画像表示部161に表示する。したがって、停止画要求を受信した全ての制御装置12は、バッファリングを停止する処理を実行し、さらに、代表制御装置12のみが、停止画要求に応じて停止画を編集用統合機器13に送信する処理も行う。
“フレーム選択”ステートでは、編集用統合機器13が、画像表示部161に表示する停止画を、ユーザの方向キー173の操作に応じて切替える。上方向キー173Uと下方向キー173Dで、停止画を時間方向に切り替えができ、右方向キー173Rと左方向キー173Lで、停止画を空間方向に切り替え(代表カメラ11の切り替え)ができる。
ユーザの方向キー173の押下に応じて、編集用統合機器13から代表制御装置12へ、停止画要求とフレームIDとが送信される。停止画要求とフレームIDとを受信した代表制御装置12は、受信したフレームIDの停止画を生成して編集用統合機器13に送信する。編集用統合機器13は、受信した停止画を、画像表示部161に表示する。
ユーザは、方向キー173の押下に応じて画像表示部161に更新表示される停止画を確認し、ダウンロードするフレーム画像の選択、および、キータイミングKTの決定の参考とする。ユーザの方向キー173の操作に応じて、停止画要求とフレームIDの送信、および、停止画の表示が、任意の回数、繰り返し実行される。停止画要求とフレームIDは、例えば、代表制御装置12のMACアドレスを宛先MACアドレスとして、Ethernet(登録商標)フレームに格納されて、ネットワーク22を介して伝送される。
“フレーム選択”ステートで、代表制御装置12と編集用統合機器13との間で伝送される停止画は、バッファリングしたフレーム画像に対して、解像度を落としたり、圧縮処理を行ったものとすることで、ネットワーク帯域を節約することができる。
フレーム選択モードボタン162乃至165によるフレーム選択モードの決定と、決定ボタン174によるキータイミングKTの決定がユーザによってなされると、バレットタイム動画に使用するフレーム画像が確定する。あるいはまた、フレーム選択モードボタン166が押下され、フレーム配置2次元空間上に配列した各フレーム画像に対応する矩形領域の所望の領域が選択されると、バレットタイム動画に使用するフレーム画像が確定する。
バレットタイム動画に使用するフレーム画像が確定された後、ダウンロードボタン175が押下されると(“ダウンロード”操作)、撮影システム1のシステムステートが、“フレーム選択”ステートから“フレームダウンロード”ステートに遷移する。“フレームダウンロード”ステートは、ユーザがバレットタイム編集画面151のバレットタイム動画生成ボタン176を押下するまで継続する。
“フレームダウンロード”ステートでは、バレットタイム動画への使用が決定された複数のフレーム画像を要求するフレーム要求が、フレームIDとともに、編集用統合機器13から、フレーム画像をバッファリングしている制御装置12へ送信される。1つの制御装置12へ、複数のフレーム画像を要求する場合には、編集用統合機器13は、複数のフレームIDを付加して、フレーム要求を送信することができる。例えば、制御装置12Aには、フレームID=1,5,6とフレーム要求とを送信し、制御装置12Bには、フレームID=1とフレーム要求とを送信し、制御装置12Cには、フレームID=1,2,3,4とフレーム要求とを送信することができる。フレーム要求の送信先は、例えば、Ethernet(登録商標)フレームの宛先MACアドレスで指定される。
バレットタイム動画に使用する全てのフレーム画像のダウンロード(取得)が完了すると、バレットタイム動画生成ボタン176が押下可能となる。
そして、ユーザによってバレットタイム動画生成ボタン176が押下されると(“動画生成”操作)、撮影システム1のシステムステートが、それまでの“フレームダウンロード”ステートから、“バレットタイム動画生成”ステートに遷移する。
“バレットタイム動画生成”ステートでは、編集用統合機器13が、ダウンロードした全てのフレーム画像を所定の順番で配列し、エンコード処理を行うことにより、バレットタイム動画を生成する。生成されたバレットタイム動画は、記憶部108に記憶される。
図8のフローチャートを参照して、撮影システム1によるバレットタイム動画生成の処理について、さらに詳細に説明する。
初めに、ステップS11において、ユーザは、撮像の開始操作を行う。すなわち、ユーザは、バレットタイム編集画面151の開始ボタン171を押下する。
編集用統合機器13(のバレットタイム動画生成アプリ)は、ステップS12において、ユーザによる開始ボタン171の押下を受け付け、カメラ11の撮像と、制御装置12へのバッファリングの開始を要求する開始要求を、各制御装置12へ送信する。
各制御装置12は、ステップS13において、開始要求を受信し、撮像を開始させる制御信号を、接続されているカメラ11に供給して、カメラ11に被写体の撮像を開始させる。各カメラ11は、ステップS14において、撮像を開始し、ステップS15において、撮像により得られたフレーム画像を、制御装置12に送信する。ステップS16において、制御装置12は、カメラ11から供給されたフレーム画像を取得し、バッファリング(記憶)する。ステップS14乃至S16の処理は、撮像を停止させる制御信号が制御装置12からカメラ11へ送信されるまで(後述するステップS23の処理)、各カメラ11と、対応する制御装置12との間で、繰り返し実行される。
また、画像表示部161への表示対象となる代表カメラ11と接続された代表制御装置12では、ステップS16の処理に続いて、次のステップS17およびS18の処理も実行される。ステップS17において、代表制御装置12は、バッファリングしたフレーム画像に、解像度を落とす解像度変換処理を施し、ライブビュー画像を生成する。そして、ステップS18において、代表制御装置12は、生成したライブビュー画像と、そのフレームIDを、所定のネットワーク22を介して編集用統合機器13へ送信する。編集用統合機器13は、ステップS19において、代表制御装置12から送信されてきたライブビュー画像を、画像表示部161に表示する。ステップS17乃至S19の処理は、代表制御装置12のメモリ62にフレーム画像をバッファリングする毎に実行される。ステップS17乃至S19の処理において、右方向キー173Rまたは左方向キー173Lの操作により、代表制御装置12とそれに接続された代表カメラ11は変わり得る。
ステップS21において、ユーザは、撮像の停止操作を行う。すなわち、ユーザは、バレットタイム編集画面151の停止ボタン172またはスペースキーを押下する。
編集用統合機器13(のバレットタイム動画生成アプリ)は、ステップS22において、ユーザによる開始ボタン171の押下を受け付け、停止画を要求する停止画要求と、停止ボタン172が押下された直後に受信したフレームIDを、各制御装置12へ送信する。
各制御装置12は、ステップS23において、停止画要求を受信し、バッファリングを停止するとともに、撮像を停止させる制御信号を、接続されているカメラ11に供給し、カメラ11に被写体の撮像を停止させる。また、ステップS23において、各制御装置12は、停止画要求とともに受信したフレームIDよりも時間的に後のフレーム画像がメモリ62にバッファリングされている場合、そのフレーム画像を削除する。カメラ11は、ステップS24において、被写体の撮像を停止する。
さらに、代表制御装置12は、ステップS25の処理も行う。ステップS25において、代表制御装置12は、受信したフレームIDの停止画を、編集用統合機器13に送信し、ステップS26において、編集用統合機器13は、代表制御装置12から受信した停止画を、画像表示部161に表示する。
ステップS31において、ユーザは、画像切替操作を行う。すなわち、ユーザは、上下左右のいずれかの方向キー173を押下する。
編集用統合機器13は、ステップS32において、ユーザによる方向キー173の押下を受け付け、表示対象の停止画(に対応するフレーム画像)を有する代表制御装置12へ、停止画要求とフレームIDとを送信する。ステップS33において、代表制御装置12は、停止画要求とフレームIDとを受信し、ステップS34において、受信したフレームIDの停止画を生成して、編集用統合機器13に送信する。編集用統合機器13は、ステップS35において、代表制御装置12からの停止画を受信し、画像表示部161に表示する。
ステップS31乃至S35の一連の処理は、ユーザによって、上下左右のいずれかの方向キー173が押下されるごとに、繰り返し実行される。
ステップS41において、ユーザは、キータイミングKTを決定する決定操作を行う。すなわち、ユーザは、バレットタイム編集画面151の決定ボタン174またはEnterキーを押下する。
編集用統合機器13は、ステップS42において、ユーザによる決定ボタン174またはEnterキーの押下を受け付け、キータイミングKT、即ち、バレットタイム動画に使用するフレーム画像の時間方向の基点となるタイミングを決定する。
ステップS51において、ユーザは、フレーム選択モードを選択する。すなわち、ユーザは、バレットタイム編集画面151のフレーム選択モードボタン162乃至166のいずれかを押下する。
編集用統合機器13は、ステップS52において、フレーム選択モードボタン162乃至166のいずれかの押下を受け付け、フレーム選択モードを決定する。
ステップS41およびS42のキータイミングKTの決定と、ステップS51およびS52のフレーム選択モードの決定は、どちらを先に行ってもよい。また、フレーム選択モードボタン166が選択され、各フレーム画像に対応する矩形領域の所望の領域が選択された場合には、ステップS41およびS42のキータイミングKTの決定は省略される。フレーム選択モードボタン162乃至166のいずれかを使用して、バレットタイム動画に使用するフレーム画像が確定すると、ダウンロードボタン175が押下可能に表示される。
ステップS61において、ユーザは、ダウンロード操作を行う。すなわち、ユーザは、バレットタイム編集画面151のダウンロードボタン175を押下する。
編集用統合機器13は、ステップS62において、バレットタイム動画に使用するフレーム画像をバッファリングしている制御装置12へ、フレーム画像を要求するフレーム要求と、フレームIDを送信する。フレームIDは、複数指定することができる。制御装置12は、ステップS63において、編集用統合機器13からのフレーム要求とフレームIDを受信し、ステップS64において、受信したフレームIDのフレーム画像を、編集用統合機器13へ送信する。編集用統合機器13は、ステップS65において、制御装置12から送信されてきたフレーム画像を受信し、記憶部108に記憶させる。
ステップS62乃至S65の処理は、編集用統合機器13と、バレットタイム動画に使用するフレーム画像をバッファリングしている全ての制御装置12との間で、並行して実行される。バレットタイム動画に使用する全てのフレーム画像のダウンロードが完了すると、バレットタイム動画生成ボタン176が押下可能となる。
ステップS71において、ユーザは、バレットタイム動画生成操作を行う。すなわち、ユーザは、バレットタイム編集画面151のバレットタイム動画生成ボタン176を押下する。
編集用統合機器13は、ステップS72において、ユーザによるバレットタイム動画生成ボタン176の押下を受け付け、バレットタイム動画を生成する。具体的には、編集用統合機器13は、ダウンロードした全てのフレーム画像を所定の順番で配列し、エンコード処理を行うことにより、バレットタイム動画を生成する。生成されたバレットタイム動画は、記憶部108に記憶され、バレットタイム動画生成の処理が終了する。
撮影システム1によるバレットタイム動画生成の処理によれば、“ライブビュー”ステートにおいては、各カメラ11が撮像して得られたフレーム画像が、対応する制御装置12へ非圧縮で高速伝送され、バッファリングされるとともに、代表制御装置12から、プレビュー用のライブビュー画像が、編集用統合機器13へ送信され、表示される。また、“フレーム選択”ステートにおいても、方向キー173を用いて選択されたプレビュー用の停止画が、編集用統合機器13へ送信され、表示される。代表制御装置12と編集用統合機器13との間で、バッファリングされたフレーム画像に関連する関連画像として伝送されるライブビュー画像および停止画は、バッファリングしたフレーム画像に対して、解像度を落としたり、圧縮処理を行ったものとすることで、ネットワーク帯域を節約することができる。
“フレーム選択”ステートにおいて、フレーム選択モードボタン162乃至165によるフレーム選択モードでは、ユーザは、画像表示部161に表示された停止画を見ながらキータイミングKTを決定することによりバレットタイム動画に使用するフレーム画像を決定する。フレーム選択モードボタン166によるフレーム選択モードでは、ユーザは、フレーム配置2次元空間上に配列した各フレーム画像に対応する矩形領域の所望の領域を選択することにより、バレットタイム動画に使用するフレーム画像を決定する。フレーム選択モードボタン162乃至166は、バレットタイム動画に使用するフレーム画像に関し、画像表示部161に表示された停止画に基づいて、複数のカメラ11の配置を示す空間方向とフレーム画像の撮像時間を示す時間方向に対するユーザの選択を受け付けるユーザ選択部として機能する。バレットタイム動画に使用するフレーム画像が決定されると、ユーザは、ダウンロードボタン175を押下することで、編集用統合機器13から各制御装置12に対してダウンロードが要求される(フレーム要求が送信される)。
“フレーム選択”ステートでは、カメラ11の空間方向(カメラ11の配列方向)を横軸(X軸)とし、フレーム画像の撮像時刻に合わせた時間方向を縦軸(Y軸)とする2次元空間上に、各制御装置12にバッファリングされているフレーム画像を配置した表現形式でフレーム画像を管理し、バレットタイム動画に必要なフレーム画像を、ユーザに選択させるユーザI/F(ユーザインタフェイス)が採用される。時間方向は、フレーム画像のフレームIDに対応する。これにより、バレットタイム動画に必要なフレーム画像の選択を直観的に少ない手順で行うことができ、フレーム選択時間を削減することができる。
そして、バレットタイム動画に必要なフレーム画像のみが、各制御装置12から編集用統合機器13へダウンロードされるので、フレーム画像の取得に使用するネットワーク帯域を削減することができ、フレーム画像の伝送時間も削減することができる。また、使用する編集用統合機器13のメモリ領域も少なくすることができる。
“ライブビュー”ステートや“フレーム選択”ステートにおいて画像表示部161に表示されるライブビュー画像または停止画は、制御装置12で予め解像度変換処理等の画像処理を行ったものが伝送されてくるので、編集用統合機器13の処理負荷を低減することができる。
編集用統合機器13は、ダウンロードしたフレーム画像をエンコードしてバレットタイム動画を生成する処理が主な処理であり、スマートフォンやパーソナルコンピュータなどで一般的なコンピュータデバイスで実現可能である。
<6.変形例>
撮影システム1は、上述した実施の形態に限らず、例えば、以下のような変形例も可能である。
<変形例1>
上述した実施の形態では、“ライブビュー”ステートにおいて、代表制御装置12が、メモリ62にバッファリングしたフレーム画像の解像度を低くしたライブビュー画像を生成し、編集用統合機器13に送信するようにしたが、フレームレートを低下させるフレームレート変換処理も実行するようにしてもよい。この場合、代表制御装置12は、バッファリングしたフレーム画像を所定のフレーム間隔で間引き、間引き後のフレーム画像を解像度変換した画像を、ライブビュー画像として、編集用統合機器13に送信することができる。
なお、“ライブビュー”ステートにおいて、フレーム間引きしたライブビュー画像を画像表示部161に表示する場合であっても、“フレーム選択”ステートにおいて、方向キー173の押下に応じてバレットタイム編集画面151の画像表示部161に更新表示される停止画は、間引き処理されない、解像度のみを変換した画像とすることができる。
あるいはまた、“フレーム選択”ステートにおいても、“ライブビュー”ステートと同様に、方向キー173の押下に応じて画像表示部161に更新表示される停止画を、間引き処理した画像としてもよい。間引き処理した停止画を画像表示部161に表示する場合には、“フレームダウンロード”ステートにおいて、編集用統合機器13が制御装置12へフレーム画像を要求する場合、図9に示されるように、間引き処理により表示されないフレーム画像のフレームIDも指定する必要がある。
図9は、間引き処理された停止画を画像表示部161に表示する場合の“フレームダウンロード”ステートにおけるフレーム画像の要求を説明する図である。
図9の例では、時間方向に1枚間隔で間引かれた停止画が画像表示部161に表示される。例えば、画像表示部161に、フレーム画像D1の停止画D1’が表示されている状態において、下方向キー173Dを押下して時間方向の切り替えを行うと、停止画D3’、停止画D5’、停止画D7’の順に、停止画が表示される。
そして、図2の例と同様に、プリセット2のフレーム選択モード(フレーム選択モードボタン163)が選択され、図中、太枠で囲まれた停止画が、バレットタイム動画の生成に必要なフレーム画像として選択されるとすると、編集用統合機器13は、図9に示されるように、カメラ11Hに対応する制御装置12Hに対しては、フレーム画像H1、H3、H5、H7、H9、および、H11だけでなく、その間の間引きされたフレーム画像H2、H4、H6、H8、および、H10も、フレームIDを指定して、フレーム要求を送信する。
<変形例2>
上述した実施の形態では、被写体21に対して水平方向に並べて配置したカメラ11の配列方向(空間方向)を横軸(X軸)として、フレーム画像の撮像時刻に合わせた時間方向を、横軸(X軸)に直交する縦軸(Y軸)とする2次元空間上に、各制御装置12にバッファリングされているフレーム画像を配置した表現形式でフレーム画像を管理し、ユーザに、バレットタイム動画に必要なフレーム画像を選択させるユーザI/Fとした。
これに対して、バレットタイム撮影では、被写体21に対して複数のカメラ11を水平方向と垂直方向(仰角方向)の2次元に並べて配置して撮影する方法もあり得る。
図10は、複数のカメラ11を2次元配置として撮影した場合のフレーム画像の管理方法およびユーザI/Fを説明する図である。
複数のカメラ11が2次元に配置された場合には、第1の空間方向である水平方向の空間方向と、第2の空間方向である垂直方向(仰角方向)の空間方向とを直交する方向とし、さらに、撮像時刻に合わせた時間方向を、それら複数の空間方向(第1および第2の空間方向)と直交する方向とした3次元空間上に、各制御装置12にバッファリングされているフレーム画像を配置した表現形式を採用することができる。具体的には、例えば、カメラ11の水平方向の空間方向を横軸(X軸)とし、カメラ11の垂直方向(仰角方向)の空間方向を縦軸(Y軸)とし、フレーム画像の撮像時刻に合わせた時間方向を奥行き方向(Z軸)とする3次元空間上に、フレーム画像を配置した表現形式でフレーム画像を管理し、ユーザに、バレットタイム動画に必要なフレーム画像を選択させるユーザI/Fとすることができる。
バレットタイム編集画面151の画像表示部161に表示させるライブビュー画像(のカメラ11)の切り替えは、例えば、次のように行うことができる。右方向キー173Rと左方向キー173Lで、第1の空間方向のカメラ11を切り替え、上方向キー173Uと下方向キー173Dで、第2の空間方向のカメラ11を切り替え、シフトキーを押しながら上方向キー173Uと下方向キー173Dを押下することで、時間方向を切り替えることができる。
<変形例3>
上述した実施の形態では、被写体21を撮像するカメラ11と、撮像により得られたフレーム画像をバッファリングする制御装置12とが、別々に構成されていたが、これらは一体化された1つの装置で構成することができる。
図11は、上述したカメラ11と制御装置12の機能を集約したカメラの構成例を示すブロック図である。
図11のカメラ311は、イメージセンサ321、CPU322、メモリ323、画像処理部324、USB I/F325、HDMI(R) I/F326、および、ネットワークI/F327などを有する。イメージセンサ321、CPU322、メモリ323、画像処理部324、USB I/F325、HDMI(R) I/F326、および、ネットワークI/F327は、バス328を介して相互に接続されている。
イメージセンサ321は、例えば、CCDや、CMOSセンサなどで構成され、図示せぬ撮像レンズを介して入射される被写体からの光(像光)を受光(撮像)する。イメージセンサ321は、被写体を撮像して得られる撮像信号を、バス328を介してメモリ323に供給する。
CPU322は、不図示のROMに記憶されたプログラムにしたがって、カメラ311全体の動作を制御する。CPU322は、上述したカメラ11のCPU42と、制御装置12のCPU61と同様の処理を実行する。
メモリ323は、上述したカメラ11のメモリ43と、制御装置12のメモリ62と同様の処理を実行する。具体的には、イメージセンサ321から供給される撮像信号や、デモザイク処理後の非圧縮のフレーム画像などを記憶する。
画像処理部324は、上述したカメラ11の画像処理部44と、制御装置12の画像処理部63と同様の処理を実行する。具体的には、画像処理部324は、例えば、デモザイク処理、解像度変換処理、圧縮処理、フレームレート変換処理等の画像処理を実行する。
USB I/F325は、USB端子を有し、USBケーブルを介して接続される外部装置との間で、制御信号やデータなどを送受信する。HDMI(R)I/F326は、HDMI(R)端子を有し、HDMI(R)ケーブルを介して接続される外部装置との間で、制御信号やデータなどを送受信する。
ネットワークI/F327は、例えば、Ethernet(登録商標)に準拠したネットワーク22を介して通信を行う通信I/Fである。ネットワークI/F327は、ネットワーク22を介して、編集用統合機器13と通信を行う。例えば、ネットワークI/F327は、編集用統合機器13から供給されるカメラ11の制御信号を取得してCPU322へ供給したり、非圧縮のフレーム画像の画像データを編集用統合機器13へ送信する。
<変形例4>
上述した実施の形態では、複数の制御装置12から取得した複数のフレーム画像のみを用いてバレットタイム動画を生成するようにしたが、例えば、複数の制御装置12から取得した複数のフレーム画像から、仮想視点におけるフレーム画像を生成し、その生成した仮想視点のフレーム画像(仮想視点フレーム画像)も含めて、バレットタイム動画を静止するようにしてもよい。
例えば、編集用統合機器13のCPU101(上で実行されるバレットタイム動画生成アプリ)は、制御装置12X(X=A,B,C,・・・,H)から取得したフレーム画像X1と制御装置12Y(Y=A,B,C,・・・,H,X≠Y)から取得したフレーム画像Y1とを用いて、画像フレーム補間処理を行うことで、カメラ11Xの視点と、カメラ11Yとの視点との間の所定の視点(仮想視点)におけるフレーム画像Z1を生成する。そして、例えば、フレーム画像X1、Z1、およびY1を含めてエンコードすることにより、フレーム画像X1、Z1、Y1の順に、空間方向に視点を移動したようなバレットタイム動画を生成することができる。
なお、仮想視点におけるフレーム画像の生成方法については、特に限定されず、任意の生成方法を用いることができる。例えば、上記のように実カメラで得られたフレーム画像(2次元画像)から補間処理で生成してもよいし、カメラ11A乃至11Hで得られたフレーム画像から3Dモデルを生成し、生成した3Dモデルを任意の視点から見たフレーム画像を生成することで、カメラ11Xとカメラ11Yとの間に相当する仮想視点のフレーム画像を生成してもよい。
また、上記は、物理的に設置されたカメラ11の間に仮想的な視点を補間する、すなわち、取得した複数のフレーム画像の空間方向を補間する例であるが、時間方向を補間したフレーム画像を生成し、それを含めたバレットタイム動画を生成してよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本技術は、以下の構成を取ることができる。
(1)
複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像に基づいて、前記複数の撮像装置の配置を示す空間方向と撮像画像の撮像時間を示す時間方向に対するユーザの選択を受け付けるユーザ選択部と、
前記ユーザの選択に対応する撮像画像を保持する処理装置に対して、撮像画像を要求する制御部と
を備える情報処理装置。
(2)
前記制御部は、前記関連画像を、前記空間方向と前記時間方向とに対応させて表示部に表示させるように制御し、
前記ユーザ選択部は、前記表示部に表示された前記関連画像に対する前記ユーザの選択を受け付ける
前記(1)に記載の情報処理装置。
(3)
前記ユーザ選択部は、前記ユーザが選択操作を行った時に、前記表示部に表示されている前記関連画像を、前記ユーザが選択した前記関連画像として受け付ける
前記(2)に記載の情報処理装置。
(4)
前記制御部は、前記空間方向と前記時間方向とを異なる方向として、前記関連画像を前記表示部に表示させるように制御する
前記(2)または(3)に記載の情報処理装置。
(5)
前記異なる方向は、直交する方向である
前記(4)に記載の情報処理装置。
(6)
前記空間方向は、複数の方向を有する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記時間方向は、フレームIDに対応する方向である
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記ユーザ選択部は、1つの前記関連画像の選択を受け付け、
前記制御部は、前記ユーザにより選択された前記関連画像を基点として、前記空間方向と前記時間方向との配置によって予め決められた複数の撮像画像を、前記複数の撮像画像を保持する1以上の前記処理装置に対して要求する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記制御部は、前記ユーザにより選択された前記関連画像を用いて、前記時間方向のタイミングを特定し、前記複数の撮像画像を、前記複数の撮像画像を保持する1以上の前記処理装置に対して要求する
前記(8)に記載の情報処理装置。
(10)
前記ユーザ選択部は、前記空間方向と前記時間方向に対する前記ユーザの複数の選択を受け付け、
前記制御部は、前記ユーザの複数の選択に対応する複数の前記撮像画像を、1以上の前記処理装置に対して要求する
前記(1)に記載の情報処理装置。
(11)
前記関連画像は、前記撮像画像の解像度またはフレームレートの少なくとも一方を変更した画像である
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記ユーザ選択部は、前記撮像画像をフレーム間引きした前記関連画像に対する前記ユーザの選択を受け付け、
前記制御部は、フレーム間引きされた前記関連画像に対応する前記撮像画像も要求する
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記ユーザ選択部は、1つの前記関連画像の選択を受け付け、
前記制御部は、前記ユーザにより選択された前記関連画像に対応して、複数の前記撮像画像を、1以上の前記処理装置に対して要求し、
複数の前記撮像画像には、同一の被写体が含まれる
前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記制御部は、さらに、要求に応じて前記処理装置から取得した複数の前記撮像画像をエンコードし、動画を生成する
前記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)
複数の前記撮像画像のうちの、第1の撮像画像と第2の撮像画像は異なる視点の画像であり、
前記制御部は、前記第1の撮像画像の視点と、前記第2の撮像画像の視点との間の仮想視点における第3の撮像画像を生成し、前記第3の撮像画像を含めてエンコードして、前記動画を生成する
前記(14)に記載の情報処理装置。
(16)
情報処理装置が、
複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像に基づいて、前記複数の撮像装置の配置を示す空間方向と撮像画像の撮像時間を示す時間方向に対するユーザの選択を受け付け、
前記ユーザの選択に対応する撮像画像を保持する処理装置に対して、撮像画像を要求する
情報処理方法。
(17)
コンピュータを、
複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像に基づいて、前記複数の撮像装置の配置を示す空間方向と撮像画像の撮像時間を示す時間方向に対するユーザの選択を受け付けるユーザ選択部と、
前記ユーザの選択に対応する撮像画像を保持する処理装置に対して、撮像画像を要求する制御部
として機能させるためのプログラム。
(18)
複数の撮像装置に対応して設けられる複数の第1情報処理装置と、第2情報処理装置とからなり、
前記複数の第1情報処理装置のうちのいずれか1つの第1情報処理装置は、
対応する前記撮像装置で得られた撮像画像に関連する関連画像を前記第2情報処理装置に送信し、
前記第2情報処理装置は、
前記関連画像に基づいて、前記複数の撮像装置の配置を示す空間方向と撮像画像の撮像時間を示す時間方向に対するユーザの選択を受け付けるユーザ選択部と、
前記ユーザの選択に対応する撮像画像を保持する前記第1情報処理装置に対して、撮像画像を要求する制御部と
を備える
情報処理システム。
(19)
前記1つの第1情報処理装置は、前記撮像画像の解像度またはフレームレートの少なくとも一方を変更した前記関連画像を生成して、前記第2情報処理装置に送信する
前記(18)に記載の情報処理システム。
(20)
前記1つの第1情報処理装置は、前記撮像画像をフレーム間引きした前記関連画像を生成して、前記第2情報処理装置に送信し、
前記制御部は、フレーム間引きされた前記関連画像に対応する前記撮像画像も要求する
前記(18)に記載の情報処理システム。
1 撮影システム, 11A乃至11H カメラ, 12A乃至12H 制御装置, 13 編集用統合機器, 14 表示装置, 41 イメージセンサ, 44 画像処理部, 61 CPU, 62 メモリ, 63 画像処理部, 101 CPU, 102 ROM, 103 RAM, 106 入力部, 107 出力部, 108 記憶部, 109 通信部, 110 ドライブ, 151 バレットタイム編集画面, 161 画像表示部, 162乃至165 フレーム選択モードボタン, 171 開始ボタン, 172 停止ボタン, 173 方向キー, 174 決定ボタン, 175 ダウンロードボタン, 176 バレットタイム動画生成ボタン, 311 カメラ, 322 CPU, 324 画像処理部

Claims (17)

  1. 表示装置に、複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像を表示させる制御部と、
    前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作を受け付けるユーザ選択部と、
    を備え、
    前記制御部は、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する装置に対して、特定された当該撮像画像を要求する、
    情報処理装置。
  2. 前記ユーザ選択部は、前記表示装置に表示された前記関連画像を、前記空間方向または前記時間方向に切り替える前記ユーザの操作をさらに受け付け、
    前記制御部は、前記空間方向または前記時間方向に切り替える操作に応じた前記関連画像を前記表示装置に表示させる
    請求項1に記載の情報処理装置。
  3. 前記ユーザ選択部は、前記表示装置に表示されている前記関連画像を選択する前記ユーザの操作をさらに受け付け、
    前記ユーザが選択した前記関連画像は、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像の基点とされる
    請求項1に記載の情報処理装置。
  4. 前記制御部は、前記空間方向と前記時間方向とを異なる方向として、前記表示装置に表示された前記関連画像を切り替えて表示させる
    請求項2に記載の情報処理装置。
  5. 前記異なる方向は、直交する方向である
    請求項4に記載の情報処理装置。
  6. 前記空間方向は、2軸とされる
    請求項1に記載の情報処理装置。
  7. 前記時間方向は、フレームIDに対応する方向である
    請求項1に記載の情報処理装置。
  8. 前記制御部は、前記ユーザにより選択された前記関連画像を用いて、前記時間方向のタイミングを特定し、当該時間方向のタイミングと、前記ユーザが選択した選択モードボタンの示す選択方法とに基づいて、選択の対象となる撮像画像を特定する
    請求項3に記載の情報処理装置。
  9. 前記関連画像は、前記撮像画像の解像度およびフレームレートの少なくとも一方を変更した画像である
    請求項1に記載の情報処理装置。
  10. 前記制御部は、前記表示装置に、前記撮像画像をフレーム間引きした前記関連画像を表示させ、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて、フレーム間引きされた前記関連画像に対応する前記撮像画像も前記装置に対して要求する
    請求項1に記載の情報処理装置。
  11. 前記制御部は、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて、複数の撮像画像を特定し、
    前記複数の撮像画像には、同一の被写体が含まれる
    請求項1に記載の情報処理装置。
  12. 前記制御部は、さらに、要求に応じて前記装置から取得した前記撮像画像に基づいて、動画を生成する
    請求項1に記載の情報処理装置。
  13. 表示装置に、複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像を表示させることと、
    前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作を受け付けることと、
    前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する装置に対して、特定された当該撮像画像を要求することと、
    を含む、
    情報処理方法。
  14. 表示装置に、複数の撮像装置のいずれかで得られた撮像画像に関連する関連画像を表示させることと、
    前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作を受け付けることと、
    前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する装置に対して、特定された当該撮像画像を要求することと、
    を含む、
    処理をコンピュータに実行させるプログラム。
  15. 複数の撮像装置に対応して設けられる複数の第1情報処理装置と、第2情報処理装置とからなり、
    前記複数の第1情報処理装置のうちのいずれか1つの第1情報処理装置は、
    対応する前記撮像装置で得られた撮像画像に関連する関連画像を前記第2情報処理装置に送信し、
    前記第2情報処理装置は、
    表示装置に、前記関連画像を表示させる制御部と、
    前記複数の撮像装置の配置を示す空間方向を1軸または2軸とし、撮像画像が撮像された時間を示す時間方向1軸と合わせた2軸または3軸の空間における画像の選択方法を示す選択モードボタンを選択するユーザの操作を受け付けるユーザ選択部と、
    を備え、
    前記制御部は、前記ユーザが選択した選択モードボタンの示す選択方法に基づいて特定される撮像画像を保持する第1情報処理装置に対して、特定された当該撮像画像を要求する、
    情報処理システム。
  16. 前記1つの第1情報処理装置は、前記撮像画像の解像度およびフレームレートの少なくとも一方を変更した前記関連画像を生成して、前記第2情報処理装置に送信する
    請求項15に記載の情報処理システム。
  17. 前記1つの第1情報処理装置は、前記撮像画像をフレーム間引きした前記関連画像を生成して、前記第2情報処理装置に送信し、
    前記制御部は、フレーム間引きされた前記関連画像に対応する前記撮像画像も要求する
    請求項15に記載の情報処理システム。
JP2020561306A 2018-12-21 2019-12-06 情報処理装置、情報処理方法、プログラム、および、情報処理システム Active JP7512896B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018239330 2018-12-21
JP2018239330 2018-12-21
PCT/JP2019/047780 WO2020129696A1 (ja) 2018-12-21 2019-12-06 情報処理装置、情報処理方法、プログラム、および、情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2020129696A1 JPWO2020129696A1 (ja) 2021-11-04
JP7512896B2 true JP7512896B2 (ja) 2024-07-09

Family

ID=71101715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020561306A Active JP7512896B2 (ja) 2018-12-21 2019-12-06 情報処理装置、情報処理方法、プログラム、および、情報処理システム

Country Status (3)

Country Link
US (1) US20210409613A1 (ja)
JP (1) JP7512896B2 (ja)
WO (1) WO2020129696A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114070995A (zh) * 2020-07-30 2022-02-18 北京小米移动软件有限公司 图像处理方法、图像处理装置以及移动终端

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197831A (ja) 2013-03-08 2014-10-16 パナソニック株式会社 カメラシステムおよび切替装置
WO2017119034A1 (ja) 2016-01-06 2017-07-13 ソニー株式会社 撮影システム、撮影方法およびプログラム
JP2018011291A (ja) 2016-05-16 2018-01-18 アクシス アーベー カメラネットワークシステムにおける方法及びデバイス
JP2018046448A (ja) 2016-09-15 2018-03-22 キヤノン株式会社 画像処理装置および画像処理方法
US10074401B1 (en) 2014-09-12 2018-09-11 Amazon Technologies, Inc. Adjusting playback of images using sensor data
JP2018186455A (ja) 2017-04-27 2018-11-22 キヤノン株式会社 撮像装置、撮像システム、移動体、チップ
WO2019059325A1 (ja) 2017-09-20 2019-03-28 Amatelus 株式会社 映像配信装置、映像配信システム、映像配信方法並びに映像配信プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7187182B2 (ja) * 2018-06-11 2022-12-12 キヤノン株式会社 データ生成装置、方法およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014197831A (ja) 2013-03-08 2014-10-16 パナソニック株式会社 カメラシステムおよび切替装置
US10074401B1 (en) 2014-09-12 2018-09-11 Amazon Technologies, Inc. Adjusting playback of images using sensor data
WO2017119034A1 (ja) 2016-01-06 2017-07-13 ソニー株式会社 撮影システム、撮影方法およびプログラム
JP2018011291A (ja) 2016-05-16 2018-01-18 アクシス アーベー カメラネットワークシステムにおける方法及びデバイス
JP2018046448A (ja) 2016-09-15 2018-03-22 キヤノン株式会社 画像処理装置および画像処理方法
JP2018186455A (ja) 2017-04-27 2018-11-22 キヤノン株式会社 撮像装置、撮像システム、移動体、チップ
WO2019059325A1 (ja) 2017-09-20 2019-03-28 Amatelus 株式会社 映像配信装置、映像配信システム、映像配信方法並びに映像配信プログラム

Also Published As

Publication number Publication date
JPWO2020129696A1 (ja) 2021-11-04
WO2020129696A1 (ja) 2020-06-25
US20210409613A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP6756269B2 (ja) 通信端末、画像通信システム、通信方法、及びプログラム
WO2013132828A1 (ja) 通信システムおよび中継装置
US8988558B2 (en) Image overlay in a mobile device
US9413941B2 (en) Methods and apparatus to compensate for overshoot of a desired field of vision by a remotely-controlled image capture device
JP6019729B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7101525B2 (ja) 電子機器およびその制御方法、並びに、プログラム
US12075167B2 (en) Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller
US9584746B2 (en) Image processing device and imaging method for obtaining a high resolution image and efficient speed for a feedback control signal
JP2018026676A (ja) マルチカメラシステム、カメラ、カメラの処理方法、確認装置および確認装置の処理方法
JP2014116686A (ja) 情報処理装置、情報処理方法、出力装置、出力方法、プログラム、および情報処理システム
JP4583717B2 (ja) 撮像装置及び方法、画像情報提供システム、プログラム、並びに制御装置
JP2018082298A (ja) 画像表示システム、通信システム、画像表示方法、及びプログラム
JP7512896B2 (ja) 情報処理装置、情報処理方法、プログラム、および、情報処理システム
CN110870293B (zh) 视频拍摄处理方法、设备以及视频拍摄处理系统
CN112788198B (zh) 摄影装置、传送系统及方法、记录介质和计算机装置
JP2015162117A (ja) サーバ装置、プログラム、及び情報処理方法
JP7064373B2 (ja) 通信装置およびその制御方法、並びにプログラム
TW201734569A (zh) 移動主體上的影像捕獲裝置
WO2007017987A1 (ja) 携帯端末からのパン&チルト機能搭載型ネットワークカメラ画像の閲覧方法及びパン&チルト機能搭載型ネットワークカメラ
JP2019004422A (ja) 通信装置、制御方法およびプログラム
JP2016009942A (ja) 撮像装置、端末装置および通信システム
JP7277173B2 (ja) 動画配信機能を有する撮像装置
JP2004096258A (ja) 画像撮影装置および画像撮影システム
KR20130078557A (ko) 영상표시장치 및 그 장치의 구동방법, 영상변환장치 및 방법
JP2006013983A (ja) ビデオカメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240610

R150 Certificate of patent or registration of utility model

Ref document number: 7512896

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150