JPWO2017134770A1 - 映像同期装置 - Google Patents
映像同期装置 Download PDFInfo
- Publication number
- JPWO2017134770A1 JPWO2017134770A1 JP2016542285A JP2016542285A JPWO2017134770A1 JP WO2017134770 A1 JPWO2017134770 A1 JP WO2017134770A1 JP 2016542285 A JP2016542285 A JP 2016542285A JP 2016542285 A JP2016542285 A JP 2016542285A JP WO2017134770 A1 JPWO2017134770 A1 JP WO2017134770A1
- Authority
- JP
- Japan
- Prior art keywords
- video
- image
- unit
- videos
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims description 18
- 230000001360 synchronised effect Effects 0.000 abstract description 19
- 239000000203 mixture Substances 0.000 description 62
- 238000000034 method Methods 0.000 description 48
- 238000012545 processing Methods 0.000 description 40
- 238000001514 detection method Methods 0.000 description 26
- 230000002194 synthesizing effect Effects 0.000 description 16
- 230000015572 biosynthetic process Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 10
- 239000002131 composite material Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
複数の映像を同期させる場合、映像を撮影する際に、それぞれの映像に撮影時刻を同期させる同期信号を付与するための装置、あるいは複数のカメラに同期信号を送信する装置等のように、映像を撮影する際にカメラなどの撮影装置において同期を取るための装置を設けることが必要であった。したがって、このような装置を持たない撮影装置で撮影した映像を同期することができなかった。本発明によれば、撮影した複数の映像の重畳領域における動体の情報に基づいて複数の映像の撮影時刻を同期するようにしたので、複数の映像を撮影する際に映像を同期させるための装置が設けられていない撮影装置で撮影した映像の撮影時刻を同期することができる。
Description
本発明は、撮影された複数の映像間で撮影時刻を同期させる映像同期装置に関するものである。
異なるカメラで撮影した複数の映像を一つの映像に合成する映像合成システムがある。このシステムにおいて、カメラから映像合成サーバへ映像情報を伝送する時間が複数のカメラそれぞれで異なる場合に、そのまま映像を合成すると、それぞれのカメラで撮影した時刻が異なる映像を1つの画像に合成した画像となってしまい、合成映像を視聴するユーザにとって違和感を与える原因となる。この違和感がないように合成するためには複数の映像を撮影した時刻を同期させる必要がある。複数の映像を同期させる方法として、従来は、映像を撮影する際に例えばストロボ光や音を加えこれらを撮影時刻の情報として映像内や音声に埋め込んで付与し、合成の際にはこれらの埋め込んだ撮影時刻情報を抽出して同期に用いていた。
また、別の方法として、特許文献1の監視システムのように、複数の監視カメラが映像を撮影する際に、同期信号発生回路により撮影時刻の同期信号を発生させ、これにより複数の監視カメラを同期させていた。
上記のようにして複数の映像を同期させる場合、映像を撮影する際に、それぞれの映像に撮影時刻を同期させる同期信号を付与するための装置、あるいは複数のカメラに同期信号を送信する装置等のように、映像を撮影する際にカメラなどの撮影装置において同期を取るための装置を設けることが必要であった。したがって、このような装置を持たない撮影装置で撮影した映像を同期することができなかった。
本発明は、上述したような問題点を解決するためになされたものであり、同期信号発生装置により同期信号が付与されていなくても複数の映像の撮影時刻を同期することができる映像同期装置を得ることを目的とする。
この発明に係る映像同期装置は、互いに重畳した重畳領域を有する撮影領域をそれぞれ撮影した複数の映像を記憶する映像記憶部と、映像記憶部が記憶した複数の映像の前記重畳領域において撮影された対象物を検出し、対象物の動きを示す動体情報を生成する動体情報生成部と、動体情報生成部が生成した動体情報に基づいて複数の映像の撮影時刻を同期させる映像同期部とを備えたものである。
本発明によれば、撮影した複数の映像の重畳領域における動体の情報に基づいて複数の映像の撮影時刻を同期するので、複数の映像を撮影する際に映像を同期させるための装置が設けられていない撮影装置で撮影した映像の撮影時刻を同期することができる。
実施の形態1.
本実施の形態では、2つの映像が重畳領域を有するように2台のカメラ101、102を配置し、これらカメラ101、102で撮影した映像を映像合成サーバ200内の映像同期装置300にて同期し、1つの映像に合成して表示装置400に表示する場合について説明する。
図1は、実施の形態1における映像合成サーバ200の構成例を示す構成図である。映像合成サーバ200は、外部のカメラ101、102から撮影された映像を受信し、カメラ101、102によって撮影された映像の時刻を同期する映像同期装置300と、映像同期装置300から出力される映像情報に基づいて映像を合成する映像合成部60と、合成された映像を表示装置400に出力する映像出力部70を有して構成されている。また、映像同期装置300は、カメラ101、102からの映像を受信する映像受信部10と、受信した映像を記憶する映像記憶部20と、映像記憶部20に記憶された映像の重畳領域における対象物を検出する対象物検出部30と、対象物検出部30にて検出された対象物の動きを検出して動体情報を生成する動体情報生成部40と、動体情報生成部が生成した動体情報に基づいてカメラ101、102で撮影された映像の撮影時刻を同期させる映像同期部50とから構成される。
本実施の形態では、2つの映像が重畳領域を有するように2台のカメラ101、102を配置し、これらカメラ101、102で撮影した映像を映像合成サーバ200内の映像同期装置300にて同期し、1つの映像に合成して表示装置400に表示する場合について説明する。
図1は、実施の形態1における映像合成サーバ200の構成例を示す構成図である。映像合成サーバ200は、外部のカメラ101、102から撮影された映像を受信し、カメラ101、102によって撮影された映像の時刻を同期する映像同期装置300と、映像同期装置300から出力される映像情報に基づいて映像を合成する映像合成部60と、合成された映像を表示装置400に出力する映像出力部70を有して構成されている。また、映像同期装置300は、カメラ101、102からの映像を受信する映像受信部10と、受信した映像を記憶する映像記憶部20と、映像記憶部20に記憶された映像の重畳領域における対象物を検出する対象物検出部30と、対象物検出部30にて検出された対象物の動きを検出して動体情報を生成する動体情報生成部40と、動体情報生成部が生成した動体情報に基づいてカメラ101、102で撮影された映像の撮影時刻を同期させる映像同期部50とから構成される。
カメラ101、102は映像を撮影し、カメラ101が撮影した映像は映像110、カメラ102が撮影した映像は映像120として映像合成サーバ200の映像同期装置300の映像受信部10に送信する。
カメラ101及びカメラ102は、撮影する映像110、120が互いに重畳領域を有するように配置されている。図2は、本実施の形態の例としてカメラ101が撮影した映像110とカメラ102が撮影した映像120から合成映像130を作成する場合を説明した説明図である。2つのカメラで撮影している映像領域のうちの一部は重なっており、互いに同じ領域を撮影している。この重なった領域を重畳領域と言い、図2の映像110及び映像120にそれぞれ斜線で示した領域である。この例では映像110の右端と映像120の左端の斜線部が重畳領域であり、この重畳領域を重ねるように合成処理をすることによって合成映像130が生成される。上述のように、合成映像130を作成する際、カメラ101の映像110の右端と同じ領域である重畳領域を有するようにカメラ102を配置するので位置関係は整合した合成映像となるが、映像は動画であるので、カメラ101の映像110とカメラ102の映像110の映像は撮影時刻が同期したもの同士を合成しないと、合成映像130が違和感のある映像になってしまう。この映像の撮影時刻を同期させるものが映像同期装置300である。
カメラ101及びカメラ102は、撮影する映像110、120が互いに重畳領域を有するように配置されている。図2は、本実施の形態の例としてカメラ101が撮影した映像110とカメラ102が撮影した映像120から合成映像130を作成する場合を説明した説明図である。2つのカメラで撮影している映像領域のうちの一部は重なっており、互いに同じ領域を撮影している。この重なった領域を重畳領域と言い、図2の映像110及び映像120にそれぞれ斜線で示した領域である。この例では映像110の右端と映像120の左端の斜線部が重畳領域であり、この重畳領域を重ねるように合成処理をすることによって合成映像130が生成される。上述のように、合成映像130を作成する際、カメラ101の映像110の右端と同じ領域である重畳領域を有するようにカメラ102を配置するので位置関係は整合した合成映像となるが、映像は動画であるので、カメラ101の映像110とカメラ102の映像110の映像は撮影時刻が同期したもの同士を合成しないと、合成映像130が違和感のある映像になってしまう。この映像の撮影時刻を同期させるものが映像同期装置300である。
以下、映像同期装置300の構成を説明する。
映像受信部10は、カメラ101、102によって互いに重畳した重畳領域を有する撮影領域をそれぞれ撮影した映像110、120を受信し、映像記憶部20に出力する。
映像受信部10は、カメラ101、102によって互いに重畳した重畳領域を有する撮影領域をそれぞれ撮影した映像110、120を受信し、映像記憶部20に出力する。
映像記憶部20は、映像受信部10から出力された互いに重畳した重畳領域を有する撮影領域をそれぞれ撮影した映像110、120を記憶する。映像記憶部20は、映像110、120を記憶する際に、映像110,120を構成する画像にインデックスを付与しながらバッファリングする。図3は、映像の構成を示す説明図である。図3に示すように映像は連続した画像から構成されており、映像記憶部20は映像をバッファリングする際にこれらの連続した画像に、例えば1、2、3・・・などのインデックス番号を昇順で付与して記憶する。
なお、映像は画像を識別できるようになっていれば、圧縮符号化して記憶してもよい。
なお、映像は画像を識別できるようになっていれば、圧縮符号化して記憶してもよい。
対象物検出部30は、映像記憶部20が記憶した映像110、120の重畳領域において撮影された対象物を以下のようにして検出する。
対象物検出部30は、まず、映像110、120の重畳領域をユーザによってあらかじめ決定された3つの領域に分割する。図4に、カメラ101、102が撮影した映像の重畳領域を3つに分割した場合の例を示す。図4では、重畳領域をブロックB1〜B3の3つに分割した映像110と、重畳領域をブロックB4〜B6の3つに分割した映像120が示されており、分割された映像110、120のブロックは、それぞれB1とB4、B2とB5、B3とB6がそれぞれの重畳領域として対応している。このように、重畳領域を分割する場合は、映像110、120の重畳領域が互いに対応するように分割を行う。
対象物検出部30は、映像110、120の重畳領域において分割されたブロックごとに対象物の検出を行う。対象物とは、カメラの撮影領域内に存在し、撮影映像中にひとまとまりとして認識される実体、例えば、動いている人や物などの撮像情報を指す。対象物は、撮影された映像における色や輪郭、時間変化に基づき、例えば映像の中で動きのない背景との差分によって検出される。対象物検出部30は、対象物を検出した場合、ブロック内で検出された対象物が1つであるか判断し、1つのブロック内に複数の対象物があると判断した場合はさらにブロックの分割を行う。ブロックの分割は、映像110、120の重畳領域が対応するようにそれぞれ分割し、ブロック内にて対象物が1つであると判断するまで分割を繰り返す。対象物検出部30は、対応するブロックでそれぞれ対象物を検出した場合は、該ブロックの位置と大きさ及び対象物の重心の位置(x、y)を示すブロック情報を動体情報生成部40に出力する。このように生成されたブロック情報に基づいて映像110と映像120の撮影時刻の同期を行うものであるが、対応するブロックの両方で対象物が検出されなかった場合、すなわち映像110、120どちらかの重畳領域のブロックでしか対象物が検出できなかった場合は撮影時刻の同期は行えない。
なお、対象物検出部30において最初に重畳領域を3つに分割した例を示したが、最初は重畳領域全てを1つのブロックとして対象物の検出をすることもできる。さらに、あらかじめ対象物が検出される場所とされない場所がわかっている場合には、ブロックを分割し、一部のブロックについては対象物の検出を行わないように設定することで映像合成サーバ200自体の負荷を減らすことができる。
また、分割するブロックの大きさや数は上述したものに限らない。
対象物検出部30は、まず、映像110、120の重畳領域をユーザによってあらかじめ決定された3つの領域に分割する。図4に、カメラ101、102が撮影した映像の重畳領域を3つに分割した場合の例を示す。図4では、重畳領域をブロックB1〜B3の3つに分割した映像110と、重畳領域をブロックB4〜B6の3つに分割した映像120が示されており、分割された映像110、120のブロックは、それぞれB1とB4、B2とB5、B3とB6がそれぞれの重畳領域として対応している。このように、重畳領域を分割する場合は、映像110、120の重畳領域が互いに対応するように分割を行う。
対象物検出部30は、映像110、120の重畳領域において分割されたブロックごとに対象物の検出を行う。対象物とは、カメラの撮影領域内に存在し、撮影映像中にひとまとまりとして認識される実体、例えば、動いている人や物などの撮像情報を指す。対象物は、撮影された映像における色や輪郭、時間変化に基づき、例えば映像の中で動きのない背景との差分によって検出される。対象物検出部30は、対象物を検出した場合、ブロック内で検出された対象物が1つであるか判断し、1つのブロック内に複数の対象物があると判断した場合はさらにブロックの分割を行う。ブロックの分割は、映像110、120の重畳領域が対応するようにそれぞれ分割し、ブロック内にて対象物が1つであると判断するまで分割を繰り返す。対象物検出部30は、対応するブロックでそれぞれ対象物を検出した場合は、該ブロックの位置と大きさ及び対象物の重心の位置(x、y)を示すブロック情報を動体情報生成部40に出力する。このように生成されたブロック情報に基づいて映像110と映像120の撮影時刻の同期を行うものであるが、対応するブロックの両方で対象物が検出されなかった場合、すなわち映像110、120どちらかの重畳領域のブロックでしか対象物が検出できなかった場合は撮影時刻の同期は行えない。
なお、対象物検出部30において最初に重畳領域を3つに分割した例を示したが、最初は重畳領域全てを1つのブロックとして対象物の検出をすることもできる。さらに、あらかじめ対象物が検出される場所とされない場所がわかっている場合には、ブロックを分割し、一部のブロックについては対象物の検出を行わないように設定することで映像合成サーバ200自体の負荷を減らすことができる。
また、分割するブロックの大きさや数は上述したものに限らない。
動体情報生成部40では、対象物検出部30から出力されたブロック情報を受け取ると検出した対象物の動きを示す動体情報を生成する。動体情報は、対象物の位置と動きを示す情報である。対象物の動きは、着目した画像における対象物とその前の画像や後の画像における対象物のそれぞれのブロック情報を比較し、対象物の位置の差分によって移動した大きさと方向を求めることで得ることができる。動体情報が生成されると、動体情報生成部40は動体情報を映像同期部50に出力する。
映像同期部50では、動体情報生成部40から出力された動体情報に基づいて映像110及び映像120の撮影時刻を以下のようにして同期する。映像同期部50は、動体情報生成部40から出力された動体情報を受信し、映像110、120の対応するブロックにおいて動体情報が一致する画像を探す。すなわち、一方の映像のある画像におけるブロックと同じ位置に対象物が存在し、その動きと同じ動きをした対象物が、他方の映像の画像において対応するブロック中にあれば、それぞれの画像が同じ時刻の画像である可能性が高いので、それらの画像を探すものである。
そして、動体情報が一致した場合は、動体情報が一致した映像110、120中のそれぞれの画像のインデックス番号を撮影時刻が同じ画像であるものとして映像記憶部20に通知する。これにより、映像記憶部20は記憶した映像とともに、各映像においてどの画像同士が同じ撮影時刻かを示す同期情報も記憶する。同期情報は、例えばそれぞれの映像110、120において同じ撮影時刻である画像それぞれのインデックス番号を対応させたテーブルとして記憶される。
以上のようにして同期情報を生成することで撮影時刻の同期が実現されるものである。
以上のような映像受信部10、映像記憶部20、対象物検出部30、動体情報生成部40、映像同期部50により、映像同期装置300が構成されている。
そして、動体情報が一致した場合は、動体情報が一致した映像110、120中のそれぞれの画像のインデックス番号を撮影時刻が同じ画像であるものとして映像記憶部20に通知する。これにより、映像記憶部20は記憶した映像とともに、各映像においてどの画像同士が同じ撮影時刻かを示す同期情報も記憶する。同期情報は、例えばそれぞれの映像110、120において同じ撮影時刻である画像それぞれのインデックス番号を対応させたテーブルとして記憶される。
以上のようにして同期情報を生成することで撮影時刻の同期が実現されるものである。
以上のような映像受信部10、映像記憶部20、対象物検出部30、動体情報生成部40、映像同期部50により、映像同期装置300が構成されている。
映像合成部60は、映像記憶部20から出力される映像110、120の合成を行う。映像の合成は、具体的には、それぞれの映像の対応する2つの画像を合成することで合成画像を生成し、それら合成画像を連続させることで合成映像を得るということである。対応する2つの画像は映像記憶部20から出力されるものであり、同期が必要な場合には、撮影時刻が同期した2つの画像が出力されて映像合成部60に入力されることになる。
映像合成部60による画像の合成処理としては、まず映像110、120対して画像合成テーブルを用いて視点変換処理を行う。画像合成テーブルとは、カメラ101、102の主点とピクセル単位で表される焦点距離といった内部パラメータから回転行列や平行移動ベクトルといった外部パラメータを算出したカメラ位置パラメータ、及びカメラ歪補正テーブルを含む映像110及び映像120を合成した時に視点が異なることによる違和感を削減するためものである。次に、視点変換処理を行った映像データに対して画像合成処理を行い、合成映像130を生成する。映像合成部60は、カメラ101、102の映像110、120を1枚の合成映像130として映像出力部70に出力する。
映像合成部60による画像の合成処理としては、まず映像110、120対して画像合成テーブルを用いて視点変換処理を行う。画像合成テーブルとは、カメラ101、102の主点とピクセル単位で表される焦点距離といった内部パラメータから回転行列や平行移動ベクトルといった外部パラメータを算出したカメラ位置パラメータ、及びカメラ歪補正テーブルを含む映像110及び映像120を合成した時に視点が異なることによる違和感を削減するためものである。次に、視点変換処理を行った映像データに対して画像合成処理を行い、合成映像130を生成する。映像合成部60は、カメラ101、102の映像110、120を1枚の合成映像130として映像出力部70に出力する。
映像出力部70は、映像合成部60から入力された合成映像を表示装置400に出力する。
表示装置400は、合成映像を映像出力部70から受け取り、表示する。
次に、実施の形態1の映像合成サーバ200の動作について説明する。図5は、実施の形態1に係る映像合成サーバ200の動作を示すフローチャートである。
まず、ステップS101にて映像受信部10はカメラ101、102が撮影した映像を受信する。次に、S102にて映像記憶部20は受信した映像を構成する各画像にインデックスを付与しながら映像を記憶する。また、映像記憶部20はステップS103にて、映像の時刻を同期する処理を行うか否かを判断する。なお、この判断は、ユーザが設定する指示信号に基づいて行われるものであり、システム起動時の1度だけ複数カメラ間の同期を取る運用、あるいは、1時間ごとに複数カメラ間の同期を取るなど一定間隔にて同期を行う運用などが考えられる。具体的には、システム起動時に同期処理実行を指示する信号を発する手段、タイマによる計時をもとに自動的に一定間隔で同期処理実行を指示する信号を発する手段を設けることで実現できる。あるいは、ユーザが所望するときに同期処理実行を指示する信号を入力する手段を設けてもよい。
時刻の同期処理を行うと判断した場合は時刻を同期するための処理を行うステップS104〜S108を経て、時刻の同期を行わないと判断した場合は時刻を同期するための処理を行わずに、それぞれ映像を合成するステップS109へ進む。
ステップS103にて時刻の同期を行うと判断した場合、ステップS104に進み、対象物検出部30は、映像記憶部20に記憶された映像の画像の重畳領域を分割し、分割したブロック内の対象物を検出する。
その後ステップS105にて対象物が検出されたか否かを判断し、対象物が検出されなかった場合は同期を取らずにステップS109に進む。対象物が検出された場合は、ステップS106に進み、動体情報生成部40がステップS104で検出した対象物の動体情報を生成する。
ステップS107では、映像同期部50にて映像110と映像120から検出された動体情報が一致するかを判断する。具体的には、映像110、120の対応するブロックにおいて動体情報が一致する他方の映像中の画像を探すものであり、一方の映像のある画像におけるブロックに対象物が存在し、その動きと同じ動きをした対象物が、他方の映像の画像において対応するブロックの中にあれば、それぞれの画像が同じ時刻の画像である可能性が高いので、それらの画像を探すのである。動体情報が一致した画像があった場合はステップS108に進み、時刻の同期を取る。ここで同期を取るという動作は具体的には、動体情報が一致した映像110、120中のそれぞれの画像が同じ撮影時刻であるものと判断し、それらの画像のインデックス番号を撮影時刻が同じ画像であるものとして映像記憶部20に通知することである。これにより、映像記憶部20は記憶した映像とともに、各映像においてどの画像同士が同じ撮影時刻かを示す同期情報も記憶する。同期情報は、例えばそれぞれの映像110、120において同じ撮影時刻である画像それぞれのインデックス番号を対応させたテーブルとして記憶される。
ステップS107で、動体情報が一致しない場合はステップS109へ進む。
以上のような同期処理を経て、あるいは、同期処理を経ないでステップS109に進むと、映像合成部60は映像記憶部20から合成する2つの画像を読出し、合成画像を生成し、合成画像を連続させることで合成映像を生成する。
なお、映像合成部60が映像記憶部20から合成する2つの画像を読み出す際、ステップS103で映像の時刻を同期すると判断された場合の画像は、ステップS104〜S108の同期処理を経て同期された2つの画像が読み出される。同期された2つの画像は、映像記憶部20に記憶された前記同期情報を参照することで判別することができる。また、同期処理を行わないと判断した場合の画像は、同期処理を経ない画像、例えばインデックス番号をカウントするカウンタがその時に示すインデックス番号の順に画像が読み出される。
そして、ステップS110にて映像出力部70が合成映像130を表示装置400に出力する。
まず、ステップS101にて映像受信部10はカメラ101、102が撮影した映像を受信する。次に、S102にて映像記憶部20は受信した映像を構成する各画像にインデックスを付与しながら映像を記憶する。また、映像記憶部20はステップS103にて、映像の時刻を同期する処理を行うか否かを判断する。なお、この判断は、ユーザが設定する指示信号に基づいて行われるものであり、システム起動時の1度だけ複数カメラ間の同期を取る運用、あるいは、1時間ごとに複数カメラ間の同期を取るなど一定間隔にて同期を行う運用などが考えられる。具体的には、システム起動時に同期処理実行を指示する信号を発する手段、タイマによる計時をもとに自動的に一定間隔で同期処理実行を指示する信号を発する手段を設けることで実現できる。あるいは、ユーザが所望するときに同期処理実行を指示する信号を入力する手段を設けてもよい。
時刻の同期処理を行うと判断した場合は時刻を同期するための処理を行うステップS104〜S108を経て、時刻の同期を行わないと判断した場合は時刻を同期するための処理を行わずに、それぞれ映像を合成するステップS109へ進む。
ステップS103にて時刻の同期を行うと判断した場合、ステップS104に進み、対象物検出部30は、映像記憶部20に記憶された映像の画像の重畳領域を分割し、分割したブロック内の対象物を検出する。
その後ステップS105にて対象物が検出されたか否かを判断し、対象物が検出されなかった場合は同期を取らずにステップS109に進む。対象物が検出された場合は、ステップS106に進み、動体情報生成部40がステップS104で検出した対象物の動体情報を生成する。
ステップS107では、映像同期部50にて映像110と映像120から検出された動体情報が一致するかを判断する。具体的には、映像110、120の対応するブロックにおいて動体情報が一致する他方の映像中の画像を探すものであり、一方の映像のある画像におけるブロックに対象物が存在し、その動きと同じ動きをした対象物が、他方の映像の画像において対応するブロックの中にあれば、それぞれの画像が同じ時刻の画像である可能性が高いので、それらの画像を探すのである。動体情報が一致した画像があった場合はステップS108に進み、時刻の同期を取る。ここで同期を取るという動作は具体的には、動体情報が一致した映像110、120中のそれぞれの画像が同じ撮影時刻であるものと判断し、それらの画像のインデックス番号を撮影時刻が同じ画像であるものとして映像記憶部20に通知することである。これにより、映像記憶部20は記憶した映像とともに、各映像においてどの画像同士が同じ撮影時刻かを示す同期情報も記憶する。同期情報は、例えばそれぞれの映像110、120において同じ撮影時刻である画像それぞれのインデックス番号を対応させたテーブルとして記憶される。
ステップS107で、動体情報が一致しない場合はステップS109へ進む。
以上のような同期処理を経て、あるいは、同期処理を経ないでステップS109に進むと、映像合成部60は映像記憶部20から合成する2つの画像を読出し、合成画像を生成し、合成画像を連続させることで合成映像を生成する。
なお、映像合成部60が映像記憶部20から合成する2つの画像を読み出す際、ステップS103で映像の時刻を同期すると判断された場合の画像は、ステップS104〜S108の同期処理を経て同期された2つの画像が読み出される。同期された2つの画像は、映像記憶部20に記憶された前記同期情報を参照することで判別することができる。また、同期処理を行わないと判断した場合の画像は、同期処理を経ない画像、例えばインデックス番号をカウントするカウンタがその時に示すインデックス番号の順に画像が読み出される。
そして、ステップS110にて映像出力部70が合成映像130を表示装置400に出力する。
次に、映像記憶部20の詳細動作を説明する。図6は、実施の形態1の映像同期装置300の映像記憶部20の動作を示すフローチャートである。
ステップS20からステップS22は映像記憶部20がカメラ101、102の映像210、220を記憶し、インデックスを付与する動作を示している。まず、映像記憶部20はステップS20にてカメラ101、102から映像110、120を受信し、バッファリングする。ステップS21にて映像記憶部20では、バッファリングした映像110、120の連続する画像に昇順でインデックス番号を付与する。映像記憶部20は、ステップS22にてバッファリングする映像110、120のデータ量が映像記憶部20の閾値を超えたかを判断し、超えない場合はステップS20に戻る。映像記憶部20のデータ量が閾値を超えるまでステップS20〜S22を繰り返し、閾値を超えた場合はステップS23に進む。
ステップS23では、映像110、120の時刻を同期処理するか否かを判断する。時刻の同期処理をすると判断した場合にはステップS24に進み、時刻の同期処理をしないと判断した場合はステップS28へ進む。
ステップS24からステップS27では時刻の同期処理を行う場合の動作である。ステップS23にて時刻の同期処理を行うと判断した場合は、ステップS24にて、映像110、120それぞれの画像1枚分を、ステップS21で付与したインデックス番号とともに対象物検出部30に出力する。この出力された2つの画像は、対象物検出部30と動体情報生成部40と映像同期部50の動作により、同じ撮影時刻のものかが判断される。そして、映像記憶部20では、ステップS25にて映像同期部50が判断した結果を応答として受け、対象物検出部30に出力した画像が撮影時刻として同期していたか否かを確認する。ステップS25にて同期するという応答であった場合は、ステップS26に進み、それぞれの映像の画像のインデックス番号及び画像を同期情報として記憶する。同期情報は、例えば、それぞれの映像110、120において同じ撮影時刻である画像それぞれのインデックス番号を対応させたテーブル形式で記憶する。ステップS25にて同期していないという応答であった場合は、ステップS27に進み、映像同期部50から指定された映像、例えば、他方の映像における次のインデックス番号が付された画像を対象物検出部30に出力する。ステップS25とステップS27は、ステップS25で同期するという応答があるまで繰り返す。また、映像同期部50で同期処理を終了した場合も、このフローチャートの動作を終了する。
以上により、映像記憶部20は記憶した映像とともに、各映像においてどの画像同士が同じ撮影時刻かを示す同期情報も記憶する。
そして、映像合成部60の要請に基づき、ステップS28にて、設定されたインデックス番号のカメラ画像を映像合成部60に出力する。
なお、本発明では、バッファリングを行う映像のデータ量について特に規定しない。映像の同期を行う契機は映像合成システムが起動したときに映像の同期をとる、或いは一定期間ごとに映像の同期を行うことを想定しているが、映像の同期を行う契機としてこれに限るものではない。
ステップS20からステップS22は映像記憶部20がカメラ101、102の映像210、220を記憶し、インデックスを付与する動作を示している。まず、映像記憶部20はステップS20にてカメラ101、102から映像110、120を受信し、バッファリングする。ステップS21にて映像記憶部20では、バッファリングした映像110、120の連続する画像に昇順でインデックス番号を付与する。映像記憶部20は、ステップS22にてバッファリングする映像110、120のデータ量が映像記憶部20の閾値を超えたかを判断し、超えない場合はステップS20に戻る。映像記憶部20のデータ量が閾値を超えるまでステップS20〜S22を繰り返し、閾値を超えた場合はステップS23に進む。
ステップS23では、映像110、120の時刻を同期処理するか否かを判断する。時刻の同期処理をすると判断した場合にはステップS24に進み、時刻の同期処理をしないと判断した場合はステップS28へ進む。
ステップS24からステップS27では時刻の同期処理を行う場合の動作である。ステップS23にて時刻の同期処理を行うと判断した場合は、ステップS24にて、映像110、120それぞれの画像1枚分を、ステップS21で付与したインデックス番号とともに対象物検出部30に出力する。この出力された2つの画像は、対象物検出部30と動体情報生成部40と映像同期部50の動作により、同じ撮影時刻のものかが判断される。そして、映像記憶部20では、ステップS25にて映像同期部50が判断した結果を応答として受け、対象物検出部30に出力した画像が撮影時刻として同期していたか否かを確認する。ステップS25にて同期するという応答であった場合は、ステップS26に進み、それぞれの映像の画像のインデックス番号及び画像を同期情報として記憶する。同期情報は、例えば、それぞれの映像110、120において同じ撮影時刻である画像それぞれのインデックス番号を対応させたテーブル形式で記憶する。ステップS25にて同期していないという応答であった場合は、ステップS27に進み、映像同期部50から指定された映像、例えば、他方の映像における次のインデックス番号が付された画像を対象物検出部30に出力する。ステップS25とステップS27は、ステップS25で同期するという応答があるまで繰り返す。また、映像同期部50で同期処理を終了した場合も、このフローチャートの動作を終了する。
以上により、映像記憶部20は記憶した映像とともに、各映像においてどの画像同士が同じ撮影時刻かを示す同期情報も記憶する。
そして、映像合成部60の要請に基づき、ステップS28にて、設定されたインデックス番号のカメラ画像を映像合成部60に出力する。
なお、本発明では、バッファリングを行う映像のデータ量について特に規定しない。映像の同期を行う契機は映像合成システムが起動したときに映像の同期をとる、或いは一定期間ごとに映像の同期を行うことを想定しているが、映像の同期を行う契機としてこれに限るものではない。
次に、対象物検出部30の動作を説明する。図7は、本実施の形態1の映像合成サーバ200の対象物検出部30の動作を示すフローチャートである。
まず、ステップS30にて、対象物検出部30は映像記憶部20にて時刻の同期処理を行うと判断された場合に出力される映像110、120のインデックス番号を付与された画像を取得する。次にステップS31にて、映像110の画像の重畳領域を3つのブロックに分割する。
ステップS32にてブロックごとに対象物を検出する。ステップS33にて、各ブロックに対象物が検出されたかを確認し、どのブロックにも対象物が検出されなかった場合は対象物検出部30の動作を終了する。ステップS33にて対象物が検出された場合はステップS34に進み、1つのブロック内で検出された対象物の数が1体であるかを判断する。検出された対象物が複数あった場合は、ステップS35に進み、該ブロックを再分割する。その後、ステップS32に戻り再分割したブロック内で検出された対象物が1つになるまでステップS32〜ステップS35の動作を繰り返す。
ステップS34にてブロック内で検出された対象物が各ブロック内に1体であると判断された場合、ステップS36に進み、対応するブロック両方で対象物を検出したかを判断する。すなわち、映像110にて対象物が検出されたブロックと対応する映像120のブロックに対象物が検出されているかを判断する。対応するブロックにて対象物が検出されていた場合は、ステップS37に進む。ステップS37では、画像における対象物が検出されたブロックの大きさと位置及び対象物の重心位置(x、y)を示すブロック情報を動体情報生成部40に出力する。なお、対応するブロックにて対象物が検出されなかった場合は映像記憶部20から受信した画像では撮影時刻を同期できないため、次の画像を取得するまで動作を終了する。以上のようにして、検出した対象物を検出し、その情報が動体情報生成部40に送られる。
まず、ステップS30にて、対象物検出部30は映像記憶部20にて時刻の同期処理を行うと判断された場合に出力される映像110、120のインデックス番号を付与された画像を取得する。次にステップS31にて、映像110の画像の重畳領域を3つのブロックに分割する。
ステップS32にてブロックごとに対象物を検出する。ステップS33にて、各ブロックに対象物が検出されたかを確認し、どのブロックにも対象物が検出されなかった場合は対象物検出部30の動作を終了する。ステップS33にて対象物が検出された場合はステップS34に進み、1つのブロック内で検出された対象物の数が1体であるかを判断する。検出された対象物が複数あった場合は、ステップS35に進み、該ブロックを再分割する。その後、ステップS32に戻り再分割したブロック内で検出された対象物が1つになるまでステップS32〜ステップS35の動作を繰り返す。
ステップS34にてブロック内で検出された対象物が各ブロック内に1体であると判断された場合、ステップS36に進み、対応するブロック両方で対象物を検出したかを判断する。すなわち、映像110にて対象物が検出されたブロックと対応する映像120のブロックに対象物が検出されているかを判断する。対応するブロックにて対象物が検出されていた場合は、ステップS37に進む。ステップS37では、画像における対象物が検出されたブロックの大きさと位置及び対象物の重心位置(x、y)を示すブロック情報を動体情報生成部40に出力する。なお、対応するブロックにて対象物が検出されなかった場合は映像記憶部20から受信した画像では撮影時刻を同期できないため、次の画像を取得するまで動作を終了する。以上のようにして、検出した対象物を検出し、その情報が動体情報生成部40に送られる。
次に、動体情報生成部40の動作を説明する。動体情報生成部40では、対象物検出部30から送られたブロック情報に基づいて、検出した対象物の動きを示す動体情報を生成する。動体情報は、対象物の位置と動きを示す情報である。対象物の動きは、着目した画像における対象物とその前の画像や後の画像における対象物のそれぞれのブロック情報を比較し、前後する2枚の画像における対象物の位置の差分によって移動した大きさと方向を求めることで得ることができる。動体情報が生成されると、動体情報生成部40は動体情報を映像同期部50に出力する。
次に、映像同期部50の動作を説明する。図8は、本実施の形態1の映像合成サーバ200の映像同期部50の動作を示すフローチャートである。
まず、ステップS50にて映像同期部50では、動体情報生成部40が生成した動体情報を取得する。
次に、ステップS50からS54にて映像110、120の対応するブロックにおける動体情報が一致するかを判断する。詳細には、まずステップS51にて、2つの画像の各ブロックごとに、動体情報のベクトルの方向が一致するかを判断する。一致しないと判断した場合は動作を終了し、一致すると判断した場合はステップS52へ進む。
ステップS52では動体情報の重心の座標が一致するかを判断する。一致しないと判断した場合は、ステップS53に進み、動体情報のベクトルの方向に基づいて次に比較する画像を今比較した画像の前の画像とするか後の画像とするかを決め、同期していなかった旨と、次に送らせる画像を指定する情報を映像記憶部20に応答する。ステップS52で一致すると判断した場合は、ステップS54に進みベクトルの大きさが一致するかを判断する。一致しないと判断した場合は動作を終了し、一致しないと判断した場合は2つの画像が同じ撮影時刻であると判断し、ステップS55に進む。
ステップS55では、ステップS51からS54の動作によって動体情報のベクトルの方向、重心の座標、ベクトルの大きさが一致したと判断した映像110、120の画像に付したインデックス番号を、撮影時刻が同じ画像であるものとして映像記憶部20に通知する。ステップS51からS54の判断動作についてまとめた表を図9に示す。
まず、ステップS50にて映像同期部50では、動体情報生成部40が生成した動体情報を取得する。
次に、ステップS50からS54にて映像110、120の対応するブロックにおける動体情報が一致するかを判断する。詳細には、まずステップS51にて、2つの画像の各ブロックごとに、動体情報のベクトルの方向が一致するかを判断する。一致しないと判断した場合は動作を終了し、一致すると判断した場合はステップS52へ進む。
ステップS52では動体情報の重心の座標が一致するかを判断する。一致しないと判断した場合は、ステップS53に進み、動体情報のベクトルの方向に基づいて次に比較する画像を今比較した画像の前の画像とするか後の画像とするかを決め、同期していなかった旨と、次に送らせる画像を指定する情報を映像記憶部20に応答する。ステップS52で一致すると判断した場合は、ステップS54に進みベクトルの大きさが一致するかを判断する。一致しないと判断した場合は動作を終了し、一致しないと判断した場合は2つの画像が同じ撮影時刻であると判断し、ステップS55に進む。
ステップS55では、ステップS51からS54の動作によって動体情報のベクトルの方向、重心の座標、ベクトルの大きさが一致したと判断した映像110、120の画像に付したインデックス番号を、撮影時刻が同じ画像であるものとして映像記憶部20に通知する。ステップS51からS54の判断動作についてまとめた表を図9に示す。
次に映像合成部60の動作を説明する。図10は、本実施の形態1の映像合成サーバ200の映像合成部60の動作を示すフローチャートである。まず、ステップS60にて映像合成部60は、映像記憶部20から出力されたカメラ101、102の映像110、120を取得する。次に、ステップS61にて、取得した映像110、120の視点変換の処理が必要であるか否かを判断する。指定変換の処理が必要であると判断した場合はステップS62に進み、各カメラの画像に対して、画像合成テーブルを用いて視点変換の処理を行い、ステップS63へ進む。ステップS61にて指定変換の処理が必要でないと判断した場合は、ステップS63へ進む。ステップS63では、各カメラの画像に対して、画像合成テーブルを用いて画像合成の処理を行う。画像合成処理を終えると、ステップS64にて、映像出力部70に合成映像を出力する。
映像合成部60が映像記憶部20から合成する2つの画像を読み出す際、映像の時刻の同期が判断された画像は、映像記憶部20に記憶された前記同期情報を参照することで一緒に読み出されるので、撮影時刻が同期した画像同士が合成される。
映像合成部60が映像記憶部20から合成する2つの画像を読み出す際、映像の時刻の同期が判断された画像は、映像記憶部20に記憶された前記同期情報を参照することで一緒に読み出されるので、撮影時刻が同期した画像同士が合成される。
以上のように、実施の形態1に係る映像同期装置によれば、撮影した複数の映像の重畳領域における動体の情報に基づいて複数の映像の撮影時刻を同期するので、複数の映像を撮影する際に映像を同期させるための装置が設けられていない撮影装置で撮影した映像の撮影時刻を同期することができる。
なお、映像110、120の重畳領域を図2に示すように映像の右端や左端としたが、映像110、120は重畳領域を有する映像であればよい。また、カメラは重畳領域を有するように配置されていれば2台に限らず複数台によって撮影された映像の撮影時刻を同期できるものである。
また、対象物検出部30にて検出される対象物として、撮影された実体の影を検出するようにしてもよい。立体である対象物を2つの視点のカメラから検出すると、2次元である映像として対象物をとらえた場合に形が大きく変化する場合があり、重心位置が変化する恐れがある。立体物の影を検出する構成とすれば、影は地面が平面であれば対象物が2次元化され、カメラの視点が異なっていても視点変換処理を経て同様の形として検出することができる。
また、動体情報生成部40にて生成される動体情報は、対象物の位置と動きを示す情報としたが、この他に色に関する情報なども、2つの映像の重畳領域に撮影された対象物から撮影時刻を判別する情報とすることができる。また、映像同期部50が行う同期処理では、動体情報を多く用いて撮影時刻を同期する方が精度は向上する。しかし、ハードウェアの能力によっては、例えば動体情報生成部40で生成する動体情報を対象物の位置のみとして映像同期部50で行う同期処理に用いることによってCPUの負荷を減らすように設計してもよい。
また、映像同期部50のステップS53の動作において、重心座標が一致しない場合に動体情報のベクトルの方向に基づいて映像110、120のどちらかの画像のインデックス番号を送らせた。この動作は、どちらの映像のインデックス番号を前に進めるか、戻すかについては、動体情報のベクトルの向きや位置によってどの画像を次の比較に用いるのが良いか算出して決める構成としてもよいし、どちらか一方の映像の画像のインデックス番号を順番に用いて比較することをあらかじめ設定する構成としてもよい。また、送らせる画像の枚数も1枚とは限らず、動体情報によって枚数を変化させる構成としてもよい。
また、対象物検出部30にて検出される対象物として、撮影された実体の影を検出するようにしてもよい。立体である対象物を2つの視点のカメラから検出すると、2次元である映像として対象物をとらえた場合に形が大きく変化する場合があり、重心位置が変化する恐れがある。立体物の影を検出する構成とすれば、影は地面が平面であれば対象物が2次元化され、カメラの視点が異なっていても視点変換処理を経て同様の形として検出することができる。
また、動体情報生成部40にて生成される動体情報は、対象物の位置と動きを示す情報としたが、この他に色に関する情報なども、2つの映像の重畳領域に撮影された対象物から撮影時刻を判別する情報とすることができる。また、映像同期部50が行う同期処理では、動体情報を多く用いて撮影時刻を同期する方が精度は向上する。しかし、ハードウェアの能力によっては、例えば動体情報生成部40で生成する動体情報を対象物の位置のみとして映像同期部50で行う同期処理に用いることによってCPUの負荷を減らすように設計してもよい。
また、映像同期部50のステップS53の動作において、重心座標が一致しない場合に動体情報のベクトルの方向に基づいて映像110、120のどちらかの画像のインデックス番号を送らせた。この動作は、どちらの映像のインデックス番号を前に進めるか、戻すかについては、動体情報のベクトルの向きや位置によってどの画像を次の比較に用いるのが良いか算出して決める構成としてもよいし、どちらか一方の映像の画像のインデックス番号を順番に用いて比較することをあらかじめ設定する構成としてもよい。また、送らせる画像の枚数も1枚とは限らず、動体情報によって枚数を変化させる構成としてもよい。
図11はこの発明の実施の形態1の映像合成サーバ200をハードウェアで実現する場合の構成を示すハードウェア構成図である。図11において、映像合成システムは、映像合成サーバ200、カメラ101、102、表示装置400で構成される。
映像合成サーバ200は、メインプロセッサ201、メインメモリ202、カメラインターフェース203、画像処理プロセッサ204、画像処理メモリ205、表示器インターフェース206で構成される。カメラ101、102は、映像合成サーバ200にあるカメラインターフェース203と実線で結ばれているが、接続方法は有線でも無線でも構わない。また、カメラ101、102とカメラインターフェース203の接続種別として、IP(Internet Protocol)ネットワークによる接続方式や同軸ケーブルによる接続方式などがあるが、本発明ではカメラ101、102とカメラインターフェース203の有線の接続種別は特に規定はしない。カメラインターフェース203は、それぞれのカメラ101、102からカメラ映像を受信する機能を有する。
メインプロセッサ201は、カメラインターフェース203で受信した複数のカメラ映像を視点変換や画像合成といった画像処理を行う映像合成プログラムを実行する機能を有する。メインメモリ202はメインプロセッサ201と接続され、視点変換や画像合成といった画像処理を行うメインプロセッサ201が直接アクセスできる記憶装置である。画像処理プロセッサ204は行列演算や浮動小数点演算を高速に演算できる画像処理に特化した専用プロセッサである。画像処理メモリ205は画像処理プロセッサ204と接続され、画像処理プロセッサ204が直接アクセスできる記憶装置である。表示器インターフェース206はメインプロセッサ201でカメラ映像を合成した映像を表示装置400に表示する機能を有する。表示装置400と実線で結ばれているが、接続方法は特に問わない。
図11では画像処理に特化した専用プロセッサである画像処理プロセッサ204と画像処理メモリ205があるが、メインプロセッサで高速に処理できるのではあれば画像処理プロセッサ204と画像処理メモリ205はなくても構わず、これに限るものでない。ここでは、画像処理プロセッサ204と画像処理メモリ205があるとする。
図1における各部と図11のハードウェア構成の対応は以下のとおりである。
映像受信部10はカメラインターフェース203により実現される。
映像記憶部20が行う処理はメインメモリ202及びメインメモリ202に記録された映像合成プログラムをメインプロセッサ201が読みだして実行することで実現される。
対象物検出部30が行う処理はメインメモリ202に記憶された対象物検出プログラムをメインプロセッサ201に読み出して実行することで実現される。
動体情報生成部40が行う処理は、メインメモリ202に記憶された動体情報生成プログラムをメインプロセッサ201に読み出して実行することで実現される。
映像同期部50が行う処理は、メインメモリ202に記憶された映像同期プログラムをメインプロセッサ201に読み出して実行することで実現される。
映像合成部60が行う処理はメインメモリ202に記憶された映像合成プログラムをメインプロセッサ201に読み出し、視点変換や画像合成といった画像処理を行う場合に映像データ等を画像処理プロセッサ204が画像処理メモリにコピーして映像合成プログラムを実行することで実現される。映像合成において、各カメラの映像の重畳領域部分の位置ずれを少なくするためには、各カメラの相対的な位置関係を算出する必要がある。この際、カメラの位置姿勢情報として外部パラメータを利用して各カメラの映像を合成することで位置ずれを少なくすることができる。本発明では、それぞれの映像の位置ずれはないものとし、対象物検出部30で重畳領域の座標を事前に保存しているものとする。各カメラの相対的な位置姿勢関係を算出する手法として限るものではない。
映像出力部70が行う処理はメインメモリ202に記憶された映像合成プログラムをメインプロセッサ201に読み出して実行することで実現される。
映像合成サーバ200は、メインプロセッサ201、メインメモリ202、カメラインターフェース203、画像処理プロセッサ204、画像処理メモリ205、表示器インターフェース206で構成される。カメラ101、102は、映像合成サーバ200にあるカメラインターフェース203と実線で結ばれているが、接続方法は有線でも無線でも構わない。また、カメラ101、102とカメラインターフェース203の接続種別として、IP(Internet Protocol)ネットワークによる接続方式や同軸ケーブルによる接続方式などがあるが、本発明ではカメラ101、102とカメラインターフェース203の有線の接続種別は特に規定はしない。カメラインターフェース203は、それぞれのカメラ101、102からカメラ映像を受信する機能を有する。
メインプロセッサ201は、カメラインターフェース203で受信した複数のカメラ映像を視点変換や画像合成といった画像処理を行う映像合成プログラムを実行する機能を有する。メインメモリ202はメインプロセッサ201と接続され、視点変換や画像合成といった画像処理を行うメインプロセッサ201が直接アクセスできる記憶装置である。画像処理プロセッサ204は行列演算や浮動小数点演算を高速に演算できる画像処理に特化した専用プロセッサである。画像処理メモリ205は画像処理プロセッサ204と接続され、画像処理プロセッサ204が直接アクセスできる記憶装置である。表示器インターフェース206はメインプロセッサ201でカメラ映像を合成した映像を表示装置400に表示する機能を有する。表示装置400と実線で結ばれているが、接続方法は特に問わない。
図11では画像処理に特化した専用プロセッサである画像処理プロセッサ204と画像処理メモリ205があるが、メインプロセッサで高速に処理できるのではあれば画像処理プロセッサ204と画像処理メモリ205はなくても構わず、これに限るものでない。ここでは、画像処理プロセッサ204と画像処理メモリ205があるとする。
図1における各部と図11のハードウェア構成の対応は以下のとおりである。
映像受信部10はカメラインターフェース203により実現される。
映像記憶部20が行う処理はメインメモリ202及びメインメモリ202に記録された映像合成プログラムをメインプロセッサ201が読みだして実行することで実現される。
対象物検出部30が行う処理はメインメモリ202に記憶された対象物検出プログラムをメインプロセッサ201に読み出して実行することで実現される。
動体情報生成部40が行う処理は、メインメモリ202に記憶された動体情報生成プログラムをメインプロセッサ201に読み出して実行することで実現される。
映像同期部50が行う処理は、メインメモリ202に記憶された映像同期プログラムをメインプロセッサ201に読み出して実行することで実現される。
映像合成部60が行う処理はメインメモリ202に記憶された映像合成プログラムをメインプロセッサ201に読み出し、視点変換や画像合成といった画像処理を行う場合に映像データ等を画像処理プロセッサ204が画像処理メモリにコピーして映像合成プログラムを実行することで実現される。映像合成において、各カメラの映像の重畳領域部分の位置ずれを少なくするためには、各カメラの相対的な位置関係を算出する必要がある。この際、カメラの位置姿勢情報として外部パラメータを利用して各カメラの映像を合成することで位置ずれを少なくすることができる。本発明では、それぞれの映像の位置ずれはないものとし、対象物検出部30で重畳領域の座標を事前に保存しているものとする。各カメラの相対的な位置姿勢関係を算出する手法として限るものではない。
映像出力部70が行う処理はメインメモリ202に記憶された映像合成プログラムをメインプロセッサ201に読み出して実行することで実現される。
実施の形態2.
次に、実施の形態2について説明する。実施の形態1では、カメラ101、102と映像合成サーバ200の間で各カメラの映像の同期を取るようにしたものであるが、この実施の形態2では複数の映像合成サーバ200と映像合成サーバ210を統合する統合映像合成サーバ500で映像の同期を取る場合の構成を示す。映像合成サーバ200、210の動作は実施の形態1と同様である。
図12は、実施の形態2に係る統合映像合成サーバ500の構成例を示す構成図である。カメラ101、102で撮影された映像は映像合成サーバ200へ、カメラ111、112によって撮影された映像は映像合成サーバ210へ一度蓄積される。なお、カメラ101、102、111、112が撮影する映像領域は、他の少なくとも1つのカメラとの重畳領域を有している。統合映像合成サーバ500は、映像合成サーバ200、210が一度蓄積したカメラ101、102によって撮影された映像及びカメラ111、112によって撮影された映像全ての時刻を同期し、映像の合成処理を経て表示装置400に合成映像を出力する。
なお、映像合成サーバ200、210には2台のカメラが接続されているが、カメラの台数を2台と限定しているわけではない。映像合成サーバ200及び映像合成サーバ210は、ハードウェアの制約によりリアルタイムで合成できる映像の枚数が限られる。本実施の形態では、映像合成サーバ2台を統合映像合成サーバ500に接続する例を示しているが、映像合成サーバの台数を2台に限るものではない。
また、統合映像合成サーバ500は、映像合成サーバ200、210と実線で結ばれているが、接続方法は有線でも無線でも構わない。また、映像合成サーバ200、210と映像合成サーバインターフェース503の接続種別として、IP(Internet Protocol)ネットワークによる接続方式や同軸ケーブルによる接続方式などがあるが、本発明では有線の接続種別は特に規定はしない。
なお、本実施の形態2の映像合成サーバをハードウェアで実現する場合のハードウェア構成は、実施の形態1で示したものと同様である。ただし、本実施の形態2では各映像合成サーバ200、210の映像出力部70はそれぞれの映像を統合映像合成サーバ500に送信する機能を有する映像合成サーバインターフェースで実現するとともに、統合映像合成サーバ500の映像受信部10は、それぞれの映像合成サーバ200、210から映像を受信する機能を有する映像合成サーバインターフェースで実現する。
次に、実施の形態2について説明する。実施の形態1では、カメラ101、102と映像合成サーバ200の間で各カメラの映像の同期を取るようにしたものであるが、この実施の形態2では複数の映像合成サーバ200と映像合成サーバ210を統合する統合映像合成サーバ500で映像の同期を取る場合の構成を示す。映像合成サーバ200、210の動作は実施の形態1と同様である。
図12は、実施の形態2に係る統合映像合成サーバ500の構成例を示す構成図である。カメラ101、102で撮影された映像は映像合成サーバ200へ、カメラ111、112によって撮影された映像は映像合成サーバ210へ一度蓄積される。なお、カメラ101、102、111、112が撮影する映像領域は、他の少なくとも1つのカメラとの重畳領域を有している。統合映像合成サーバ500は、映像合成サーバ200、210が一度蓄積したカメラ101、102によって撮影された映像及びカメラ111、112によって撮影された映像全ての時刻を同期し、映像の合成処理を経て表示装置400に合成映像を出力する。
なお、映像合成サーバ200、210には2台のカメラが接続されているが、カメラの台数を2台と限定しているわけではない。映像合成サーバ200及び映像合成サーバ210は、ハードウェアの制約によりリアルタイムで合成できる映像の枚数が限られる。本実施の形態では、映像合成サーバ2台を統合映像合成サーバ500に接続する例を示しているが、映像合成サーバの台数を2台に限るものではない。
また、統合映像合成サーバ500は、映像合成サーバ200、210と実線で結ばれているが、接続方法は有線でも無線でも構わない。また、映像合成サーバ200、210と映像合成サーバインターフェース503の接続種別として、IP(Internet Protocol)ネットワークによる接続方式や同軸ケーブルによる接続方式などがあるが、本発明では有線の接続種別は特に規定はしない。
なお、本実施の形態2の映像合成サーバをハードウェアで実現する場合のハードウェア構成は、実施の形態1で示したものと同様である。ただし、本実施の形態2では各映像合成サーバ200、210の映像出力部70はそれぞれの映像を統合映像合成サーバ500に送信する機能を有する映像合成サーバインターフェースで実現するとともに、統合映像合成サーバ500の映像受信部10は、それぞれの映像合成サーバ200、210から映像を受信する機能を有する映像合成サーバインターフェースで実現する。
10 映像受信部
20 映像記憶部
30 対象物検出部
40 動体情報生成部
50 映像同期部
60 映像合成部
70 映像出力部
101.102 カメラ
200 映像合成サーバ
300 映像同期装置
400 表示装置
500 統合映像合成サーバ
20 映像記憶部
30 対象物検出部
40 動体情報生成部
50 映像同期部
60 映像合成部
70 映像出力部
101.102 カメラ
200 映像合成サーバ
300 映像同期装置
400 表示装置
500 統合映像合成サーバ
この発明に係る映像同期装置は、互いに重畳しあらかじめ決定された重畳領域を有する撮影領域をそれぞれ撮影した複数の映像を記憶する映像記憶部と、映像記憶部が記憶した複数の映像の前記重畳領域において撮影された対象物を検出し、対象物の動きを示す動体情報を生成する動体情報生成部と、動体情報生成部が生成した動体情報に基づいて複数の映像の撮影時刻を同期させる映像同期部とを備えたものである。
Claims (2)
- 互いに重畳した重畳領域を有する撮影領域をそれぞれ撮影した複数の映像を記憶する映像記憶部と、
前記映像記憶部が記憶した前記複数の映像の前記重畳領域において撮影された対象物の動きを示す動体情報を生成する動体情報生成部と、
前記動体情報生成部が生成した前記動体情報に基づいて前記複数の映像の撮影時刻を同期させる映像同期部と、
を備えた映像同期装置。 - 前記動体情報生成部は、前記対象物の動きを複数検出した場合は前記重畳領域を分割し、分割した重畳領域において撮影された前記対象物の動きを示す動体情報を生成し、
前記映像同期部は、前記動体情報生成部が分割した前記重畳領域において検出された前記対象物に関する前記動体情報に基づいて前記複数の映像情報を同期させる請求項1に記載の映像同期装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/053228 WO2017134770A1 (ja) | 2016-02-03 | 2016-02-03 | 映像同期装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2017134770A1 true JPWO2017134770A1 (ja) | 2018-02-08 |
Family
ID=59499687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016542285A Pending JPWO2017134770A1 (ja) | 2016-02-03 | 2016-02-03 | 映像同期装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2017134770A1 (ja) |
WO (1) | WO2017134770A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6965398B1 (ja) * | 2020-05-14 | 2021-11-10 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム |
CN116250242A (zh) * | 2020-10-07 | 2023-06-09 | 索尼集团公司 | 拍摄设备、服务器装置以及3d数据生成方法 |
CN116982321A (zh) * | 2021-03-17 | 2023-10-31 | 索尼集团公司 | 信息处理装置、信息处理方法和程序 |
CN114554114B (zh) * | 2022-04-24 | 2022-08-16 | 浙江华眼视觉科技有限公司 | 一种快件码识别机取件证据存留方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000261794A (ja) * | 1999-03-10 | 2000-09-22 | Toshiba Corp | 動画像表示システム及びこの表示方法 |
JP2009302785A (ja) * | 2008-06-11 | 2009-12-24 | Sony Corp | 情報処理装置、撮像システム、再生制御方法、録画制御方法、及びプログラム |
JP2011155477A (ja) * | 2010-01-27 | 2011-08-11 | Canon Inc | 映像処理装置、映像処理方法及びプログラム |
-
2016
- 2016-02-03 JP JP2016542285A patent/JPWO2017134770A1/ja active Pending
- 2016-02-03 WO PCT/JP2016/053228 patent/WO2017134770A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000261794A (ja) * | 1999-03-10 | 2000-09-22 | Toshiba Corp | 動画像表示システム及びこの表示方法 |
JP2009302785A (ja) * | 2008-06-11 | 2009-12-24 | Sony Corp | 情報処理装置、撮像システム、再生制御方法、録画制御方法、及びプログラム |
JP2011155477A (ja) * | 2010-01-27 | 2011-08-11 | Canon Inc | 映像処理装置、映像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2017134770A1 (ja) | 2017-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2015081870A1 (zh) | 一种图像处理方法、装置及终端 | |
JP2008140271A (ja) | 対話装置及びその方法 | |
CN102724398B (zh) | 图像数据提供方法、组合方法及呈现方法 | |
JP2011147109A (ja) | 撮像装置及び画像処理装置 | |
WO2017134770A1 (ja) | 映像同期装置 | |
JP2015073185A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2007334583A (ja) | 多視点画像を用いた自由視点画像生成方法、装置及びプログラム | |
JP2019114842A (ja) | 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法 | |
JP5963006B2 (ja) | 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体 | |
JP2014222825A (ja) | 映像処理装置および映像処理方法 | |
JP2024052755A (ja) | 三次元変位計測方法及び三次元変位計測装置 | |
JP2011035638A (ja) | 仮想現実空間映像制作システム | |
JP6812181B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
US8908012B2 (en) | Electronic device and method for creating three-dimensional image | |
JP7271215B2 (ja) | 同期制御装置、同期制御方法、及びプログラム | |
JP2005020606A (ja) | デジタルカメラ | |
JP2008022421A (ja) | 多視点画像圧縮符号化方法、装置及びプログラム | |
JP2013197881A (ja) | 撮像装置及び撮像方法、画像表示装置及び画像表示方法、プログラム | |
JP6278771B2 (ja) | 投影位置決定装置及び投影位置決定プログラム | |
JP6625654B2 (ja) | 投影装置、投影方法、および、プログラム | |
JP2017103695A (ja) | 画像処理装置、画像処理方法、及びそのプログラム | |
JP2011205585A (ja) | 画像処理装置、画像処理システム、及び画像処理プログラム | |
CN112312041A (zh) | 基于拍摄的图像校正方法、装置、电子设备及存储介质 | |
JP2017028606A (ja) | 撮像装置 | |
JP6292785B2 (ja) | 画像処理装置、画像処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170314 |