JP2019062279A - Imaging device, imaging system, and control method of imaging system - Google Patents
Imaging device, imaging system, and control method of imaging system Download PDFInfo
- Publication number
- JP2019062279A JP2019062279A JP2017183513A JP2017183513A JP2019062279A JP 2019062279 A JP2019062279 A JP 2019062279A JP 2017183513 A JP2017183513 A JP 2017183513A JP 2017183513 A JP2017183513 A JP 2017183513A JP 2019062279 A JP2019062279 A JP 2019062279A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- reliability
- main subject
- subject
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、複数台の撮像装置を用いて被写体を撮影する撮影システム、撮像装置及び撮像システムの制御方法に関するものである。 The present invention relates to an imaging system, an imaging apparatus, and a control method of an imaging system, which capture an object using a plurality of imaging apparatuses.
パン・チルト制御が可能なカメラ(以下、パン・チルトカメラ)を複数台使用して、被写体を複数の方向から撮影する撮像システムが開発されている。このシステムを使用することにより、被写体をあらゆる視点から見ることが可能な多視点映像の撮影が可能となる。 2. Description of the Related Art There has been developed an imaging system which captures an object from a plurality of directions using a plurality of cameras capable of pan and tilt control (hereinafter, pan and tilt cameras). By using this system, it becomes possible to shoot multi-view images in which the subject can be viewed from any viewpoint.
特許文献1には、複数台のパン・チルトカメラを配置した撮像システムにおいて、そのうちの1台をマスターカメラとしてカメラマンが操作し、それ以外のスレーブカメラはマスターカメラの注視点を向くように方向制御される撮像システムの記載がある。 According to Patent Document 1, in an imaging system in which a plurality of pan / tilt cameras are arranged, a cameraman operates one of them as a master camera, and direction control is performed so that the other slave cameras face the gazing point of the master camera. There is a description of the imaging system being
一方、撮影画像からの被写体検出技術を用いたり、あるいは電波を送信する被写体マーカを用いたりするなどして、指定した被写体を自動で追尾して撮影する技術が知られている。 On the other hand, there is known a technique for automatically tracking and photographing a specified subject by using a subject detection technique from a photographed image or using a subject marker for transmitting a radio wave.
特許文献1に記載の撮像システムに、自動追尾技術を適用すると、マスターカメラが指定した被写体を自動で追尾し、スレーブカメラはマスターカメラの注視点を向くように制御される撮像システムとなる。しかしながら、マスターカメラが自動で被写体を追尾する場合、被写体とマスターカメラとの位置関係などの影響で、マスターカメラが被写体を見失い、被写体を画角に収められなくなるシーンが想定される。スレーブカメラはマスターカメラの注視点に被写体がいると想定してマスターカメラの注視点を向くように方向制御されるため、マスターカメラの画角内に被写体が収められなくなると、全てのカメラが所望の被写体とは異なる被写体を撮影してしまうことになる。 When the automatic tracking technology is applied to the imaging system described in Patent Document 1, the imaging system is controlled such that the subject specified by the master camera is automatically tracked, and the slave camera is directed to the fixation point of the master camera. However, when the master camera automatically tracks the subject, a scene is assumed in which the master camera loses sight of the subject due to the positional relationship between the subject and the master camera, and the subject can not be brought into view. The slave camera is controlled to point at the gazing point of the master camera assuming that the subject is at the gazing point of the master camera. Therefore, when the subject can not be contained within the angle of view of the master camera, all cameras are desired. A subject different from the subject is photographed.
本発明は、複数台の撮像装置を用いて複数の角度から被写体を撮影する撮像システムであって、被写体を見失いにくい撮像システム、撮像システムの制御方法及び該撮像システムを構成する撮像装置を提供することを目的とする。 The present invention provides an imaging system that captures a subject from a plurality of angles using a plurality of imaging devices, and provides an imaging system that does not easily lose sight of the subject, a control method of the imaging system, and an imaging apparatus configuring the imaging system. The purpose is
本発明の一側面としての撮像装置は、別の撮像装置が接続され、主被写体を追尾して撮影する撮像装置であって、前記主被写体を追尾して撮影し、撮像信号を出力する撮影手段と、前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、前記別の撮像装置から前記別の撮像装置の追尾の信頼度の受信が可能な第1の通信手段と、前記別の撮像装置の追尾の信頼度と、前記信頼度取得手段により取得した追尾の信頼度とに基づいてマスターモードで動作する撮像装置を選択する選択手段と、選択手段の選択結果に応じて、前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影する前記マスターモードと、前記別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段と、を備えることを特徴とする。 An imaging apparatus according to one aspect of the present invention is an imaging apparatus connected to another imaging apparatus and configured to track and capture a main subject, the imaging unit configured to track and capture the main subject and output an imaging signal. A reliability acquisition unit for acquiring the reliability of tracking by the imaging unit; a first communication unit capable of receiving the reliability of tracking of the other imaging apparatus from the other imaging apparatus; According to the reliability of the tracking of the imaging device and the reliability of the tracking acquired by the reliability acquisition device, according to the selection device for selecting the imaging device operating in the master mode and the selection result of the selection device The master mode for detecting the position of the subject and tracking and photographing the main subject based on the detection result, and the position information of the main subject acquired from the other imaging device are received, and the received main subject Based on location information There are characterized by comprising a switching means for switching a slave mode for photographing by tracking the main subject.
本発明のその他の側面については、以下で説明する実施の形態で明らかにする。 Other aspects of the present invention will be clarified in the embodiments described below.
本発明によれば、複数台の撮像装置を用いて複数の角度から被写体を撮影する撮像システムであって、被写体を見失いにくい撮像システム、撮像システムの制御方法及び該撮像システムを構成する撮像装置を提供することができる。 According to the present invention, an imaging system for imaging a subject from a plurality of angles using a plurality of imaging devices, wherein the imaging system hardly loses sight of the subject, a control method of the imaging system, and an imaging device constituting the imaging system Can be provided.
以下に、本発明の例示的な各実施形態について、図面を参照して詳細に説明する。各実施形態ではパン(水平方向(左右)の旋回)・チルト(垂直方向(上下)の旋回)機能を持ったレンズ一体型カメラを複数有する多視点カメラシステムについて説明するが、パン・チルト機能を有するレンズ交換式カメラ等、各種の撮像装置に適用可能である。パン・チルト機能を有する撮像装置は、自動で動く雲台のように、パン・チルトを自動で調整する装置と撮像装置と組み合わせることで実現してもよいし、パン・チルト調整機構が一体型の撮像装置でもよい。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, a multi-viewpoint camera system having a plurality of lens integrated cameras with pan (horizontal direction (right and left) swing) and tilt (vertical direction (upper and lower) swing) functions will be described. The present invention is applicable to various imaging devices such as interchangeable lens cameras. An imaging apparatus having a pan-tilt function may be realized by combining an apparatus for automatically adjusting pan-tilt with an imaging apparatus, such as a camera platform that moves automatically, or the pan-tilt adjustment mechanism is integrated It may be an imaging device.
[第1実施形態]
[カメラシステムの構成]
本実施形態のカメラシステムは図2に示すように、互いに通信部を介して接続された、カメラ100A〜100Dで被写体201を囲むように配置して撮影を行う。本実施形態のカメラシステムを構成する各カメラの役割としてマスターカメラ(マスター撮像装置)とスレーブカメラ(スレーブ撮像装置)の二種類がある。マスターカメラはスレーブカメラに対して、マスターカメラと同一の被写体を画角の中心に収めるために必要な被写体の位置情報を送信する。スレーブカメラはマスターカメラから受信した被写体の位置情報を基に、マスターカメラの被写体がスレーブカメラの画角に収まるようにパン・チルト動作を行う。本実施形態のカメラシステムは、各カメラの被写体の検出状態に応じてマスターカメラとスレーブカメラの役割を入れ替える仕組みであり、カメラシステムを構成する複数のカメラから被写体の追尾に適したカメラをマスターカメラとして選択することができる。尚、各カメラは動作モードとしてマスターモードとスレーブモードを有しており、動作するモードを切り替えることでマスターカメラとして動作したり、スレーブカメラとして動作したりすることができる。
First Embodiment
[Camera system configuration]
As shown in FIG. 2, the camera system according to the present embodiment is arranged so as to surround the
図1は、本実施形態のカメラシステムを構成する複数台のカメラの一つである、カメラ100Aがマスターカメラとして動作する場合の構成例を示す機能ブロック図である。各構成について説明をする。
FIG. 1 is a functional block diagram showing a configuration example in which the
撮像部101は、撮像光学系と、撮像光学系を通過して結像される光学像を電気信号に光電変換する撮像素子とを備え、撮像信号を出力する。撮像子光学系は複数のレンズや絞りから構成される。また、撮像素子としては、複数の画素が2次元配列されたCCDまたはCMOSイメージセンサを用いることができる。撮像光学系の光軸は後述するパン・チルト制御部115により変更可能であり、取得した被写体位置に応じてパン・チルトが制御されることにより、被写体を追尾して撮影することができる。
The
撮像処理部102は撮像部101が出力する撮像信号を取得して、ノイズ低減、AD変換、ホワイトバランス調整、色補間などの処理を適用して画像信号を生成する。
The
信頼度取得部103は、カメラ100Aによる被写体検出の信頼度を取得する。本実施形態では、撮像部で撮像された撮像信号を用いて信頼度を取得する。
The
撮像信号を用いた信頼度の取得方法について説明をする。所定周期毎(例えばフレームレート毎)に後述する被写体画像記憶部104に記憶してある登録画像202と撮像部101で撮像した撮像信号に対応する画像との比較を行い、取得した画像の類似度に基づいて信頼度を取得する。類似度は特徴点比較、ブロックマッチング、パターン認識技術などの画像処理技術によって求める。類似度が高い場合は、撮像装置の画角内に登録画像202の被写体が存在するとみなし、高い信頼度を付与する。類似度をそのまま信頼度として用いてもよいし、類似度から信頼度へ変換を行ってもよい。図2は各カメラ100A〜Dと被写体201との位置関係の例を示す図、図5(A)は図2の状態で登録被写体を各カメラで撮影した画像と被写体画像記憶部に記憶している登録画像の信頼度の関係を示したものである。各カメラ100A〜Dと、被写体201との位置関係が図2に示した位置関係の場合、各カメラ100A〜Dで撮像された撮像信号に対応する画像と登録画像202との信頼度は、カメラ100Aが最も高く、カメラ100Cが最も低い。よって、図5(A)に示すように、信頼度取得部103で取得される信頼度もカメラ100Aが最も高く、カメラ100Cが最も低くなる。撮像信号に対応する画像に複数の被写体が存在する場合は、それぞれの被写体に対して登録画像との類似度を取得し、最も類似度が高い被写体の類似度に基づいて信頼度を取得する。信頼度は一つの被写体のみではなく、複数の被写体のそれぞれに対して取得し、被写体の位置情報と関連付けて記憶しておいてもよい。このように、複数の被写体のそれぞれに基づいて信頼度を取得し、それぞれの被写体の位置と関連付けることで、類似被写体が存在する場合でも登録被写体を誤検出せずに追尾を継続する可能性を高めることができる。尚、信頼度取得部103による信頼度取得は、撮像装置がマスターカメラとして動作していても、スレーブカメラとして動作していても行う。
A method of acquiring the reliability using an imaging signal will be described. The registered
被写体画像記憶部104は、追尾対象とする被写体の画像の情報を登録画像情報として記憶する記憶部であり、ハードディスクやフラッシュメモリ等、各種メモリで構成することができる。撮影前に、登録画像情報を記憶することで、上述の撮像信号を用いた信頼度取得を行うことができる。尚、被写体からの信号を用いて信頼度を取得する場合はこの構成を省略することも可能である。
The subject
通信部105は、システムを構成する他のカメラ(100B〜100D)と通信を行う。マスターカメラ(カメラ100A)はカメラシステムの全てのスレーブカメラ(カメラ100B〜100D)と通信部105を介して無線通信を行う。一方、各スレーブカメラはマスターカメラのみと通信を行う。マスターカメラは追尾対象としている被写体の位置情報を所定時間間隔で各スレーブカメラに送信する。各スレーブカメラは、各スレーブカメラの信頼度取得部で取得した信頼度を所定時間間隔でマスターカメラに送信する。
The
マスターカメラセレクト部106は、各スレーブカメラが取得した信頼度とマスターカメラ自身が取得した信頼度とに基づいて、マスターカメラの選択を行う。マスターモードで動作するカメラを特定する情報を含む選択結果は、モード切り替え部117へ送信され、選択結果に応じてスレーブモードとマスターモードとの切り替えが行われる。マスターカメラセレクト部106は、基本的には、信頼度が高いカメラをマスターカメラとして選択すればよく、選択方法としては信頼度が最も高いカメラをマスターカメラとして選択する方法が考えられる。但し、頻繁にマスターカメラが切り替わることを防ぐため、スレーブカメラのほうが信頼度が高く、且つ、スレーブカメラの信頼度とマスターカメラの信頼度の差が閾値以上である場合にのみ、マスターカメラを切り替えてもよい。このような形態にすると、スレーブカメラの信頼度がマスターカメラの信頼度よりもわずかに高い場合であっても、マスターカメラを切り替えないため、マスターカメラが頻繁に切り替わることを防ぐことができる。また、マスターカメラとして動作し始めてから所定時間経過してからマスターモードで動作するカメラを選択してもよい。また、マスターカメラの信頼度よりもスレーブカメラの信頼度のほうが高い状態が所定の時間以上継続しないとマスターカメラの切り替えを行わないようにしてもよい。このような形態とすることで、同様の効果を得ることができる。
The master
基準被写体記憶部107は、カメラの移動量を検出する際に基準とする被写体の画像を記憶する記憶部であり、ハードディスクやフラッシュメモリ等、各種メモリで構成することができる。基準被写体記憶部107に記憶されている画像を用いたカメラの移動量検出については、実施形態2で詳細に説明をする。
The reference
被写体位置検出部108は、電波検出部112により検出された電波信号に基づいて、被写体との距離を検出する。電波検出部112は、撮影対象となる被写体がビーコン等により自身の位置をカメラに通知するために発する電波を受信し、この信号を被写体位置検出部108に出力する。被写体位置検出部108は電波信号で検出するカメラ100から被写体までの距離と公知の追尾技術に基づいて取得した被写体の方向情報に基づいて被写体のローカル座標上における位置を取得する。公知の追尾技術として、撮像処理部102から取得した画像信号(映像処理を施した撮像信号のため、撮像信号の一種とみなす)に基づいて被写体位置を取得する方法を用いることができる。単純に、撮像範囲における追尾対象の被写体の位置を検出してもよいし、動きベクトルを取得して被写体位置を予測してもよい。また、被写体位置検出部108は、キャリブレーション時に取得した情報を用いてローカル座標上の被写体位置情報を世界座標上での被写体位置情報に変換する。
The subject
撮影パラメータ保持部109は、カメラのパンおよびチルトの角度や被写体距離等の撮影条件を記憶するためのものであり、各種メモリで構成することができる。加速度センサ110は、カメラの加速度を検出するためのものであり、各種ジャイロセンサ等で構成することができる。
The photographing
カメラ移動量検出部111は、加速度センサ110で取得した加速度および基準被写体記憶部107に記憶されている基準被写体の位置情報および基準被写体を登録した際のパン・チルト角度や被写体距離等の撮影パラメータを基にカメラの移動量を算出する。
The camera movement
回転行列生成部113は、被写体位置検出部108または通信部105で受信する被写体位置情報を基にパン・チルトの目標位置の回転行列を生成する。パン・チルト位置検出部114は、パン・チルトのエンコーダ位置基準での位置を検出する。パン・チルト制御部115は、回転行列生成部113で設定される目標位置とパン・チルト位置検出部114で検出されるパン・チルト位置との比較結果を使用して両者が一致するように駆動制御する。
The rotation
カメラ位置検出部116はキャリブレーション時における世界座標上でのカメラ位置とカメラ移動量検出部111からのカメラ移動量を基に世界座標上でのカメラの位置を取得する。カメラ位置検出部116は、カメラの移動を検出すると、カメラ移動量検出部111で取得されたカメラ移動量と、移動前の世界座標上でのカメラ位置に基づいて、移動後のカメラの世界座標上での位置を検出する。また、カメラ位置検出部116は、検出したカメラの世界座標上での位置を被写体位置検出部108および通信部105に通知する。
The camera
本実施形態における、被写体検出の信頼度に応じてマスターカメラとスレーブカメラを切り替える方法について説明する。ここでは、電波検出部112により取得した、ビーコンからの電波信号に基づいて被写体を追尾し、予め被写体画像記憶部104に記憶していた登録画像との類似度に基づいて信頼度を取得する場合について説明をする。
A method of switching the master camera and the slave camera in accordance with the reliability of subject detection in the present embodiment will be described. In this case, the subject is tracked based on the radio wave signal from the beacon acquired by the radio
まず、カメラシステムによる撮影を開始する前に、各カメラ100A〜Dの配置及び注視点のキャリブレーション(カメラの注視点合わせ処理)を行う。多視点カメラシステムの各カメラ100A〜Dを配置する際は、被写体を囲むような形でカメラの配置を行う。カメラの配置後は、各カメラについてキャリブレーションを行う。キャリブレーションは各カメラで同一のキャリブレーション用のチャート(例えば、ドットパターンや市松模様)を用いて行う。
First, before starting photographing by the camera system, calibration of the arrangement of the
キャリブレーションは、基準被写体の設定、基準被写体の探索、カメラのローカル座標上での位置と世界座標上での位置の検出の順番で行う。基準被写体の設定は、まず、キャリブレーション用のチャートを基準被写体に設定して画像を基準被写体記憶部107で記憶する。キャリブレーションに使用するチャートは原点(角度0°の位置)のパターンが明確であり、なおかつ撮影する角度ごとに変化するようなパターンを有するものを用いる。撮影する角度に応じて変化するチャートを用いることで、チャートをカメラ画像の中心部に収めるとチャートの原点を基準としたカメラが存在する角度を画像から検出することができる。画像からチャートの原点を基準としたカメラの角度を求める処理は撮像処理部102で行う。基準被写体の設定の後は、基準被写体の探索を行う。探索は、チャートがカメラ画像の中心部に来るまでカメラ100Aをパンおよびチルト駆動させる。パン、チルト駆動中は所定時間間隔でパン、チルト位置検出部114にてパンおよびチルト位置の検出を行い、駆動速度が一定となるようにパン・チルト制御部115で速度制御を行う。基準被写体であるチャートがカメラ画像の中心部に来た場合にはパンおよびチルトの駆動を停止させる。基準被写体の探索終了後は、カメラのローカル座標上での位置と世界座標上での位置をそれぞれ検出する。チャートからカメラまでの距離は、キャリブレーション開始前に測距用のビーコンをチャートに設置して、ビーコンからの電波情報を基に検出する。ビーコンからの電波の検出は電波検出部112で行う。チャートの原点を基準としたカメラが存在する角度とチャートからカメラまでの距離からカメラの世界座標上での位置を取得する。カメラが存在する角度はパン・チルト位置検出部114で検出されるパン、チルト角度から検出する。ローカル座標でのカメラの位置は、チャートからカメラまでの距離と、カメラの画像の中心部にチャートを収めたときのパンおよびチルトの角度から検出する。パンおよびチルトの角度はパン・チルト位置検出部114で検出する。検出した世界座標上での位置およびローカル座標上での位置をカメラ位置検出部116で記憶する。他のカメラ(マスターまたはスレーブ)と位置情報のやりとりを行う際は、このキャリブレーション時のローカル座標上での位置と世界座標上での位置の関係を用いて座標変換を行う。
The calibration is performed in the order of setting of the reference subject, search of the reference subject, and detection of the position on the local coordinates of the camera and the position on the world coordinates. In setting the reference subject, first, a calibration chart is set as the reference subject, and the image is stored in the reference
キャリブレーションでは、対象被写体(キャリブレーション用のパターン)を世界座標の基準点に設定して、世界座標に対するカメラ座標(ローカル座標)のずれ量を回転ベクトルRmおよび並進ベクトルTmに変換して記憶する。世界座標系(X,Y,Z)とローカル座標(x,y,z)との関係は次式(1)で表される。 In calibration, a target subject (pattern for calibration) is set as a reference point of world coordinates, and the amount of deviation of camera coordinates (local coordinates) with respect to world coordinates is converted into a rotation vector R m and a translation vector T m Remember. The relationship between the world coordinate system (X, Y, Z) and the local coordinates (x, y, z) is expressed by the following equation (1).
このようなキャリブレーションを、カメラシステムを構成するすべてのカメラについて行う。キャリブレーション終了後はマスターカメラとなるカメラの選定を行う。マスターカメラを決める方式として2つの方式があり、ユーザーが適宜選択することができる。1つはカメラシステムが自動でマスターカメラを決める方式である。もう1つはユーザーがマスターカメラを指定する方式である。カメラシステムが自動でマスターカメラを決める方式は、上述のように、カメラシステムを構成する全てのカメラ100A〜100Dについて撮影中の被写体の検出の信頼度を取得して、信頼度が最も高いカメラをマスターカメラとする方式である。もう一方の方式であるユーザーがマスターカメラを指定する方式では、携帯電話などによる外部機器の無線通信を利用した設定や、直接カメラを操作することによってマスターカメラかスレーブカメラかをそれぞれ設定する。
Such calibration is performed for all the cameras constituting the camera system. After the calibration is completed, a camera to be a master camera is selected. There are two methods for determining the master camera, which can be selected by the user as appropriate. One is a method in which a camera system automatically determines a master camera. The other is a method in which the user designates a master camera. As described above, in the method of automatically determining the master camera by the camera system, the reliability of detection of the subject during shooting is acquired for all the
次に、登録被写体と各カメラで撮影された被写体の類似度に応じて、撮影中にマスターカメラとスレーブカメラを切り替える処理について説明する。図3は、撮影対象の被写体の追尾中に被写体の類似度に応じてマスターカメラとスレーブカメラを切り替える処理のフローチャートである。図中左側のマスターカメラ側の処理から説明をする。ステップS301で、はじめに追尾対象となる被写体の指定を行う。本実施形態では、被写体画像記憶部104に追尾対象となる被写体(以下、主被写体と呼ぶ)の画像情報を記憶させることで被写体の指定を行う。被写体画像記憶部104があらかじめ主被写体の候補の画像を複数記憶しており、候補の中から今回の主被写体を選択するような形態でもよい。
Next, a process of switching the master camera and the slave camera during shooting according to the similarity between the registered subject and the subject photographed by each camera will be described. FIG. 3 is a flowchart of processing for switching the master camera and the slave camera in accordance with the similarity of the subject during tracking of the subject to be photographed. The processing on the master camera side on the left side in the drawing will be described. In step S301, first, an object to be tracked is specified. In the present embodiment, a subject is specified by storing image information of a subject to be tracked (hereinafter, referred to as a main subject) in the subject
主被写体の指定が終わったら、ステップS302へ進む。ステップS302において、パン・チルト制御部115は、被写体位置検出部108により取得した被写体の位置に基づいて、主被写体が画角の中央にくるようにマスターカメラをパン・チルト駆動して主被写体の追尾を行う。パン・チルト駆動により主被写体を画角の中央付近に捉えたら、ステップS303へ進み、マスターカメラのカメラ座標(ローカル座標)における被写体の位置検出を行う。上述のように、ビーコンの電波強度から推定した被写体距離と、パンおよびチルトの角度情報を用いて、マスターカメラのローカル座標上での位置を算出する。尚、ビーコンを用いる代わりに、カメラのフォーカスレンズの位置や撮像素子で撮像される被写体画像の各画素間での視差や、ミリ波レーダー等のビーコン以外の測距センサを用いて被写体距離を検出することもできる。ローカル座標における登録被写体の位置を求めたら、ステップS304へ進み、ローカル座標での主被写体の位置を世界座標での位置に変換する(S304)。世界座標上での位置に変換する際には、キャリブレーション時に記憶したローカル座標と世界座標との関係を表す行列(回転行列Rおよび並進ベクトルT)を基に世界座標に変換する。被写体位置のローカル座標から世界座標への変換が終わったら、ステップS305へ進み、通信部105を介して各スレーブカメラに対して世界座標上での主被写体の位置情報を送信する。次に、ステップS306で被写体検出の信頼度の取得を行う。上述のように、被写体検出の信頼度は、被写体画像記憶部104に登録されている被写体画像と撮像部101で取得した画像の比較結果の類似度で求める。
After the designation of the main subject is completed, the process proceeds to step S302. In step S302, the pan /
一方、各スレーブカメラ100B〜Dは、後述するステップS601〜S605で、マスターカメラから送られてくる世界座標上での主被写体位置に主被写体が存在するものとして、主被写体が画角に収まるようにパン・チルト動作を行う。そして、撮像した画像に基づいて信頼度を取得してマスターカメラに送信する。マスターカメラは、ステップS307で各スレーブカメラから送られてくる信頼度を受信すると、ステップS308へ進み、マスターカメラセレクト部106によるマスターカメラの選択を行う。マスターカメラを選択すると、ステップS309で、選択情報を各スレーブカメラに送信する。送信後はステップS310へ進み、各カメラのモード切り替え部117でマスター切り替え処理を行う。図4は図2の状態から被写体の向きが変わった時の被写体201と各カメラ100A〜100Dの位置関係を示したものであり、図5(B)は図4の状態で登録被写体を各カメラで撮影した画像と被写体画像記憶部に記憶している登録画像の信頼度の関係を示す。図4の位置関係の場合はこれまでスレーブカメラであったカメラ100Dの信頼度が最も高くなる。このような状態でカメラ100Aをマスターカメラのままにしてカメラシステムによる撮影を継続した場合、主被写体位置の検出精度が落ちたり、類似被写体が複数存在する場合に主被写体を誤検出する可能性が高くなる。その結果、主被写体以外の被写体を撮影したり、スレーブカメラが主被写体を追尾できなかったりする場合がある。このように、信頼度が最も高いカメラがカメラ100Dに変化した場合、マスターカメラセレクト部106はカメラ100Dをマスターカメラに変更するように各カメラに対してマスターセレクト情報を送信する。
On the other hand, in each of the
次にマスターカメラとスレーブカメラの切り替え処理のスレーブカメラ側の処理について説明する。図3の右側は、主被写体を追尾中に被写体の信頼度に応じてマスターカメラとスレーブカメラを切り替えるスレーブカメラ側のフローチャートを示したものである。まず、ステップS601では、マスターカメラから所定時間間隔で無線通信により送られてくる世界座標上の被写体位置情報を受信する。次に、ステップS602で、受信した世界座標基準の被写体位置をスレーブカメラ自身のローカル座標上での位置に変換する。変換方法について説明する。 Next, processing on the slave camera side of switching processing between the master camera and the slave camera will be described. The right side of FIG. 3 shows a flowchart on the slave camera side in which the master camera and the slave camera are switched according to the reliability of the subject while tracking the main subject. First, in step S601, subject position information on world coordinates transmitted from the master camera at predetermined time intervals by wireless communication is received. Next, in step S602, the received subject position based on the world coordinate is converted to the position on the slave camera's own local coordinate. The conversion method will be described.
キャリブレーション時に記憶した世界座標とキャリブレーション時のカメラのローカル座標のずれを示す回転行列をRs0、並進ベクトルをTs0とする。このとき、被写体の世界座標位置(Xs,Ys,Zs)Tをスレーブカメラのローカル座標上での位置(xs,ys,zs)Tに変換する式は次式(2)で表される。 Let R s0 be a rotation matrix indicating the deviation between the world coordinates stored at the time of calibration and the local coordinates of the camera at the time of calibration, and let the translation vector be T s0 . At this time, the equation for converting the world coordinate position (X s , Y s , Z s ) T of the object to the position (x s , y s , z s ) T on the local coordinates of the slave camera is the following equation (2) Is represented by
また、被写体のスレーブカメラのローカル座標上での位置を世界座標上での位置に変換する際には式(3)により変換する。 Further, when the position of the subject on the local coordinates of the slave camera is converted into the position on the world coordinates, it is converted by Expression (3).
マスターカメラから送られてきた世界座標上での被写体位置をスレーブカメラのローカル座標上での位置に変換したら、次は、ステップS603において、パン・チルトの目標角度を取得する。ローカル座標上での目標位置からカメラのパン・チルトの目標角度を取得する方法について説明する。 When the object position on the world coordinates sent from the master camera is converted to the position on the local coordinates of the slave camera, next, in step S603, the pan and tilt target angles are acquired. A method of acquiring the pan and tilt target angles of the camera from the target position on the local coordinates will be described.
Z軸を中心に回転する方向をパン方向、X軸を中心に回転する方向をチルト方向、被写体が存在するローカル座標上での位置を(xs、ys、zs)として、キャリブレーションした時のカメラ位置からパン方向にθ、チルト方向にφ回転したとする。このとき、被写体距離lは次式(4)で表される。 Calibration was performed with the direction of rotation around the Z axis as the pan direction, the direction of rotation around the X axis as the tilt direction, and the position on the local coordinates where the object exists as (x s , y s , z s ) It is assumed that θ is rotated in the pan direction and φ in the tilt direction from the camera position at that time. At this time, the subject distance l is expressed by the following equation (4).
パンの目標角度θおよびチルトの目標角度φは式(5)、(6)で表される。 The target angle θ of pan and the target angle φ of tilt are expressed by Equations (5) and (6).
ステップS604では、式(4)〜(6)により算出して得られた目標角度にカメラの注視点が向くように、パン・チルトの駆動制御を行う。 In step S604, pan / tilt drive control is performed such that the gaze point of the camera is directed to the target angle obtained by calculation using equations (4) to (6).
次に、ステップS605で被写体検出の信頼度を取得する。信頼度はステップS306と同様に取得する。信頼度が取得されると、S606に進み、マスターカメラに対して信頼度情報を送信する。次に、ステップS607で、マスターカメラからのマスターセレクト情報を受信し、ステップS608へ進む。ステップS608では、マスターセレクト情報を基にマスターに変更するかスレーブのままでいるかを決定し、マスターカメラに切り替える場合には動作モードをマスターカメラへ切り替える処理を行う。 Next, in step S605, the reliability of subject detection is acquired. The reliability is acquired as in step S306. If the reliability is acquired, the process advances to step S606 to transmit reliability information to the master camera. Next, in step S607, the master select information from the master camera is received, and the process proceeds to step S608. In step S608, it is determined based on the master select information whether to change to the master or to remain as the slave. When switching to the master camera, processing to switch the operation mode to the master camera is performed.
このように、本実施形態の多視点カメラシステムによれば、撮影された被写体と登録被写体との類似度が最も高いカメラをマスターカメラに切り替える。これにより、被写体の向きが変わった場合やカメラと被写体の間に障害物が現れてマスターカメラで被写体をとらえにくくなった場合でも被写体を誤検知する可能性を軽減しながら多視点カメラシステムによる撮影を継続することができる。 Thus, according to the multi-viewpoint camera system of the present embodiment, the camera with the highest degree of similarity between the photographed subject and the registered subject is switched to the master camera. This reduces the possibility of erroneous detection of the subject even when the subject's orientation is changed, or when an obstacle appears between the camera and the subject and the master camera makes it difficult to catch the subject, while shooting with the multi-viewpoint camera system Can continue.
[第2実施形態]
上述のように、多視点カメラシステムを構成する各カメラの視点は、マスターカメラの注視点を向くようにカメラ毎に調整されている。そのため、撮影中にマスターカメラの位置を動かすと、スレーブカメラはマスターカメラとは異なる被写体を撮影してしまう。また、スレーブカメラの位置を動かしても、そのカメラはマスターカメラとは異なる被写体を撮影してしまう。これらの問題は、多視点カメラシステムの再キャリブレーションを行うことで解決できるが、キャリブレーションは全てのカメラの注視点を調整する必要があるため、再び撮影可能となるまでに時間がかかってしまう。
Second Embodiment
As described above, the viewpoints of the cameras constituting the multi-viewpoint camera system are adjusted for each camera so as to face the fixation point of the master camera. Therefore, if the position of the master camera is moved during shooting, the slave camera shoots an object different from the master camera. In addition, even if the position of the slave camera is moved, that camera captures an object different from the master camera. These problems can be solved by recalibration of the multi-viewpoint camera system, but it takes time to be able to shoot again because calibration needs to adjust the gazing points of all cameras. .
そこで、本実施形態では、画像情報を使用してカメラの移動量を検出することで、カメラ座標と世界座標の位置関係を求め、多視点カメラ撮影を継続する方法について説明をする。カメラの移動量は、キャリブレーション時に基準被写体を設定し、その基準被写体のカメラ座標上での位置を記憶しておき、カメラがキャリブレーションを行った時の位置から移動した場合に基準被写体を探索することで検出することができる。 Therefore, in the present embodiment, a method of determining the positional relationship between the camera coordinates and the world coordinates by detecting the movement amount of the camera using the image information and continuing the multi-view camera shooting will be described. The amount of movement of the camera sets the reference subject at the time of calibration, stores the position of the reference subject on camera coordinates, and searches for the reference subject when the camera moves from the position at the time of calibration. It can detect by doing.
一般的な多視点カメラシステムはキャリブレーションによって得られるカメラのローカル座標と世界座標との関係がわかっていることを前提としている。そのため、カメラがキャリブレーションした位置から移動した場合はカメラ座標と世界座標の関係が変わるため、従来は、再度キャリブレーションを行わないと正しく被写体追尾を行うことは難しかった。キャリブレーションを行う代わりに、カメラの移動量を検出してカメラのローカル座標と世界座標の関係を修正する方法もある。カメラの移動量を検出する方法としてGPS(Global Positioning System)を用いた方法が挙げられる。しかしながらGPSを用いて精度よくカメラの移動を検出するためには高精度のGPS受信機が必要となりコストアップとなる。また、GPSは屋内や周りに障害物が有る場合には精度が著しく落ちてしまうという問題がある。これらの問題を解決する方法として、加速度センサや地磁気センサを用いて移動量を検出する方法(PDR:Pedestrian Dead Reckoning)が考えられる。しかし、この方法でも、加速度センサは加速度を検出できる限界が存在するため、正しくカメラの移動量を推定できない事がある。たとえば、加速度センサでは打撃等の急峻な衝撃を与えた場合や高速でカメラを移動させた場合は、センサの検出限界を超えてしまうため、正確な移動量を求めることできないことが多い。本実施形態では、このような問題を解決するために、画像情報を使用してカメラの移動量を検出してカメラ座標と世界座標の位置関係を求める方法について説明する。 A general multi-view camera system assumes that the relationship between the local coordinates of the camera obtained by calibration and the world coordinates is known. Therefore, when the camera moves from the calibrated position, the relationship between the camera coordinates and the world coordinates changes, and conventionally, it has been difficult to correctly track the subject unless calibration is performed again. Instead of performing calibration, there is also a method of detecting the amount of movement of the camera and correcting the relationship between the local coordinates of the camera and the world coordinates. As a method of detecting the movement amount of the camera, there is a method using GPS (Global Positioning System). However, in order to detect the movement of the camera accurately using the GPS, a high precision GPS receiver is required, resulting in an increase in cost. In addition, GPS has a problem that the accuracy is significantly reduced when there is an obstacle indoors or around. As a method of solving these problems, a method (PDR: Pedestrian Dead Reckoning) which detects a movement amount using an acceleration sensor or a geomagnetic sensor can be considered. However, even with this method, the acceleration sensor may not be able to accurately estimate the amount of movement of the camera because there is a limit that can detect acceleration. For example, in the case of applying an abrupt impact such as an impact to the acceleration sensor or moving the camera at a high speed, the detection limit of the sensor is exceeded, so it is often impossible to obtain an accurate amount of movement. In the present embodiment, in order to solve such a problem, a method of detecting the movement amount of a camera using image information and determining the positional relationship between camera coordinates and world coordinates will be described.
図6は画像情報を使用してカメラの移動量を検出して、世界座標とローカル座標との関係を補正する処理におけるマスターカメラのフローチャートである。まず、ステップS701で、基準被写体の登録を行う。基準被写体の登録はキャリブレーション操作時に行う。まず、各カメラで撮影した画像の中で複数の基準となる被写体をユーザーが、もしくは自動で選択し、その被写体の画像を被写体画像記憶部104に記憶させる。登録する基準被写体は、被写体自身は移動せず、色や形が顕著なものでかつキャリブレーション時の画角に占める割合が所定量以上(基準物として認識可能である画素数以上)であるものが好適である。基準被写体を決めたら、被写体位置検出部108は、撮像処理部102から画像情報を取得し、撮像した画像における基準物体の位置と、撮影した際のカメラのパン・チルト位置および被写体距離からローカル座標上での基準被写体の位置を検出する。そして、検出したローカル座標上での基準物の位置を世界座標上での位置に変換して、世界座標上での基準被写体の位置を記憶することで、基準被写体の登録を完了する。
FIG. 6 is a flowchart of the master camera in the processing of detecting the amount of movement of the camera using image information and correcting the relationship between world coordinates and local coordinates. First, in step S701, a reference subject is registered. Registration of a reference subject is performed at the time of calibration operation. First, the user automatically selects a plurality of reference subjects from among the images taken by each camera, and stores the images of the subjects in the subject
基準被写体の登録が終わったら多視点カメラシステムによる撮影を開始する。撮影中は常にステップS702でカメラの移動の有無を検出し続ける。カメラの移動の有無は、加速度センサの出力値に応じて判定を行う。検出した加速度の値が所定の閾値以下であれば、カメラの移動なしと判定し、カメラの移動がありと判定されるまで、待機する。閾値以上であればカメラの移動ありと判定し、ステップS703へ進み、新たなマスターカメラをスレーブカメラの中から選択する。マスターカメラに選ぶカメラは、カメラの移動を検知する直前に取得された信頼度が最も高いスレーブカメラとする。例えば、図2のようにカメラAをマスターカメラとして撮影を行っている状況で、マスターカメラであるカメラ100Aが移動した場合には、スレーブカメラの中で最も類似度が高いカメラ100Bがマスターカメラとして選ばれる。マスターカメラを選択したら、ステップS704へ進み、各スレーブカメラにマスターセレクト情報を送信する。送信後、ステップS705へ進み、動作モードをマスターカメラモードからスレーブカメラモードに切り替える。次に、ステップS706へ進み、加速度センサ110の検出結果が有効であるかどうかの判定を行う。加速度センサ110の検出結果が有効か無効かは、検出した値の大きさによって判定する。
When registration of the reference subject is completed, shooting with the multi-viewpoint camera system is started. During shooting, the presence or absence of movement of the camera is constantly detected in step S702. The presence or absence of movement of the camera is determined in accordance with the output value of the acceleration sensor. If the value of the detected acceleration is equal to or less than a predetermined threshold value, it is determined that the camera has not moved, and the process waits until it is determined that the camera has moved. If it is the threshold value or more, it is determined that the camera has moved, and the process proceeds to step S703, and a new master camera is selected from slave cameras. The camera selected as the master camera is a slave camera with the highest degree of reliability acquired immediately before detecting the movement of the camera. For example, as shown in FIG. 2, when the
図7は、カメラを移動させた際の加速度センサ110の出力にローパスフィルタをかけた結果の時間変化を示した図である。図7のathは加速度センサ110が検出可能な加速度の上限値であり、−athは加速度センサ110が検出可能な加速度の下限値である。図7では、tcの期間加速度センサが検出範囲の上限値を示している。加速度センサ110の出力が上限値を示す場合、実際にはそれ以上の加速度でカメラが移動しており、正しく加速度を検出できていない可能性がある。そのため、加速度センサ110の出力値が上限値の場合に加速度センサ110の出力値からカメラ移動量を取得すると、実際のカメラ移動量と、取得したカメラの移動量との間の誤差が大きくなることがある。そこで、本実施形態では、このように加速度センサ110の出力値が上限値または下限値を示す場合には、カメラの移動による加速度が加速度センサ110の検出限界を超えたものとし、加速度センサの出力結果は無効と判定する。そしてステップS708に進み、登録した基準被写体を使用したカメラの移動量の取得を行う。加速度センサの出力値が下限値と上限値の間である場合には加速度センサによる出力結果は有効であると判定して、ステップS707に進む。加速度センサの情報を基に移動量を取得するステップS707またはS708で移動量の取得が終わったら、ステップS709へ進み、世界座標とローカル座標の変換行列の更新を行う。
FIG. 7 is a diagram showing temporal changes as a result of applying a low pass filter to the output of the
ステップS708による、基準被写体を使用したカメラの移動量取得方法について説明する。図9はカメラ移動前後のカメラ座標の関係を示したものである。通常は3次元座標で表現を行うが、本実施形態では簡単のために各カメラは同じ高さに配置されていて、かつ、パン方向のみ探索を行うものとして2次元座標系で表現している。図9の1001はカメラ移動検出前のカメラ座標軸、1002はカメラ移動検出後のカメラ座標軸を示している。図9のP1およびP2はキャリブレーション時に登録した画像内に存在する基準被写体の中心位置である。図9のdはP1とP2の距離、l1、l2はそれぞれカメラ移動前のカメラから基準被写体位置P1、P2までの距離である。まず、キャリブレーション時に、基準被写体のローカル座標での位置(P1、P2)および両者の距離(図9のd)を算出して記憶しておく(S901)する。図10(a)は基準被写体を登録した際に取得した画像の一例を示したものである。図10の画像中の、基準被写体の花1101の位置がP1に相当し、基準被写体の2本の木1102の位置がP2に相当する。図10(a)に示すように同一画角に存在する2つの静止物を基準被写体として被写体画像記憶部104に記憶させる。基準被写体をカメラが自動で決定する場合、画像中の被写体が静止物であるか否かを判定する必要がある。静止物であるか否かの判定は、画像内の各被写体の所定時間における画像上での移動量(移動速度)を検出して、所定の速度以下の物体を静止物として判定する。画像上での移動量を検出する際には、オプティカルフローやテンプレートマッチングを利用することができる。基準被写体の登録が終わったら、カメラの移動量及び方向の検出を開始する。図10(b)はカメラ移動検出後に取得した画像である。図10(b)の画像では、基準被写体1101のみ存在しており、なおかつ撮像画像上の配置が左奥にずれている。したがって、カメラは被写体に対して右側方向に動いたことになる。カメラの移動方向は、オプティカルフローやテンプレートマッチング等の画像処理ではなく加速度センサの出力値の符号によって判定するようにしてもよい。これらの情報からパン・チルトの駆動方向を決定し、基準被写体1101、1102の探索を行う。図10(c)は、カメラをパンすることによって2つの基準被写体1101、1102を画角に収めたときのカメラ画像を示したものである。このときのカメラ座標での基準被写体1101および1102の位置P1、P2を取得して記憶する。これらのカメラの移動前後の基準被写体位置P1およびP2からカメラの移動量を取得する。図9より、カメラ移動後の基準被写体位置P1およびP2はカメラ移動前の基準被写体位置P1およびP2に比べてxy平面に垂直なz軸を中心として∠Eだけ回転移動したあとに並進ベクトルTs1だけ平行移動した位置に等しくなる。カメラ移動前後のカメラ座標の中心の移動量はベクトルTs1を用いて次式(7)〜(11)で表される。
A method of acquiring the movement amount of the camera using the reference subject in step S708 will be described. FIG. 9 shows the relationship between camera coordinates before and after camera movement. Usually, the representation is performed in three-dimensional coordinates, but in the present embodiment, each camera is disposed at the same height for simplicity and is represented in a two-dimensional coordinate system as a search is performed only in the pan direction. . In FIG. 9,
式(10)の角度Dはカメラ移動後に基準被写体P2を画角に収めた際のパンのエンコーダ位置から求める。カメラ移動前のローカル座標からカメラ移動後のローカル座標に変換するための回転行列Rs1は次式で表される。 Angle D of formula (10) is obtained from the pan encoder position when matches the angle of the reference subject P 2 after the camera movement. The rotation matrix R s1 for converting the local coordinates before the camera movement to the local coordinates after the camera movement is expressed by the following equation.
カメラ移動後のローカル座標を世界座標へ変換するための変換行列は次式(13)、(14)で表される。 A transformation matrix for transforming local coordinates after camera movement into world coordinates is expressed by the following equations (13) and (14).
このように、実施形態1に記載したような、キャリブレーションをすべてのカメラで実施しなくても、カメラ移動後のローカル座標と世界座標との関係が取得できるため、注視点を合わせることができる。 As described above, even if calibration is not performed for all the cameras as described in the first embodiment, the relationship between the local coordinates after the movement of the camera and the world coordinates can be acquired, so that the fixation point can be matched. .
次に、図8のフローチャートを用いて、スレーブカメラにおける、世界座標とローカル座標との関係を補正する処理について説明をする。ステップS901〜902は、ステップS701〜702と同様であるため説明は省略する。スレーブカメラが移動したと判定されると、ステップS903へ進み、移動があったことをマスターカメラに通知する。撮影者が意図的に、スレーブカメラを被写体を検出しやすい場所に移動させた場合には、動かした場合に各カメラの信頼度の高さの順位が変わる可能性が高い。
このような場合は一定間隔で行うスレーブとマスターの通信を待たずに即座に通信を行う様にしたほうが良い。移動があったことをマスターに通知すると、スレーブとマスターの切り替えを素早く行う事ができる。スターカメラへの通知が終わると、ステップS904へ進む。ステップS904〜S907は、ステップS706〜S709と同様であるため、説明を省略する。
Next, processing for correcting the relationship between world coordinates and local coordinates in the slave camera will be described using the flowchart in FIG. Steps S901 to S902 are the same as steps S701 to S702, and therefore the description thereof is omitted. If it is determined that the slave camera has moved, the process advances to step S 903 to notify the master camera of the movement. When the photographer intentionally moves the slave camera to a position where it is easy to detect the subject, there is a high possibility that the order of the degree of reliability of each camera will change when it is moved.
In such a case, it is better to communicate immediately without waiting for communication between the slave and the master, which are performed at regular intervals. If you notify the master that there has been a move, you can quickly switch between the slave and the master. When the notification to the star camera is finished, the process proceeds to step S904. Since steps S904 to S907 are the same as steps S706 to S709, the description will be omitted.
このように、カメラ移動検出用のセンサの情報が使用できない場合でも、基準となる2つの被写体のローカル座標上での位置を検出して記憶しておき、カメラ移動前後の基準被写体のローカル座標上での位置の差からカメラの移動量を推定することができる。それにより、複数台のカメラ連携により多視点カメラ撮影を行っているときにカメラを移動させた場合でも、カメラの位置調整(キャリブレーション)を行わずに多視点カメラ撮影を継続することができる。 As described above, even when the information of the sensor for detecting the camera movement can not be used, the positions of the two objects serving as the reference on the local coordinates are detected and stored, and the local coordinates of the reference object before and after the camera movement are stored. The amount of movement of the camera can be estimated from the difference in position at. As a result, even when moving a camera while performing multi-view camera shooting by cooperation of a plurality of cameras, multi-view camera shooting can be continued without performing position adjustment (calibration) of the camera.
本実施形態では加速度センサを使用した例を示したが、加速度センサに限らず、地磁気センサ、ミリ波レーダー、ジャイロセンサなどの他のセンサを用いた場合でも同様な効果が期待できるため、移動量検出用のセンサが加速度センサ以外であってもよい。 Although an example using an acceleration sensor is shown in this embodiment, the same effect can be expected even when using other sensors such as a geomagnetic sensor, a millimeter wave radar, a gyro sensor, etc. without being limited to the acceleration sensor. The sensor for detection may be other than the acceleration sensor.
[変形例]
実施形態1では、検出信頼度の取得方法として、登録されている被写体画像と、撮影画像に含まれる被写体との類似度に基づいて信頼度を取得する方法について説明をした。しかしながら、撮影画像に含まれる被写体がステップS301で指定した主被写体であるかどうかの確からしさを示す指標を取得できれば、他の方法を用いることができる。
[Modification]
In the first embodiment, the method of acquiring the reliability based on the similarity between the registered subject image and the subject included in the captured image has been described as the method of acquiring the detection reliability. However, another method can be used as long as it is possible to acquire an index indicating whether the subject included in the captured image is the main subject specified in step S301.
例として、被写体からの信号を用いて信頼度を取得する方法について説明をする。被写体からの信号の具体例としては、被写体が保持する電波発信器(ビーコンなど)からの電波信号や、被写体自身もしくは被写体が保持する音声発生器(スピーカなど)からの音声信号が挙げられる。電波信号や音声信号から信頼度を取得する場合、信号の強度を示す値を信頼度として用いることができる。例えば、RSSI(Received Signal Strength Indication)を規格化した値(カメラが受信可能な最大電波強度が1となるように受信した電波の強度に係数を掛けた値)を使用することができる。 As an example, a method of acquiring the reliability using a signal from a subject will be described. Specific examples of the signal from the subject include a radio wave signal from a radio wave transmitter (such as a beacon) held by the subject, and an audio signal from an audio generator (such as a speaker) held by the subject itself or the subject. When obtaining the reliability from the radio wave signal or the audio signal, a value indicating the strength of the signal can be used as the reliability. For example, it is possible to use a value obtained by standardizing RSSI (Received Signal Strength Indication) (a value obtained by multiplying the received signal strength by a coefficient so that the maximum signal strength that can be received by the camera is 1).
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
104 被写体画像記憶部
106 マスターカメラセレクト部
107 基準物体記憶部
115 パン・チルト制御部
104 subject
Claims (15)
前記主被写体を追尾して撮影し、撮像信号を出力する撮影手段と、
前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、
前記別の撮像装置から前記別の撮像装置の追尾の信頼度の受信が可能な第1の通信手段と、
前記別の撮像装置の追尾の信頼度と、前記信頼度取得手段により取得した追尾の信頼度とに基づいてマスターモードで動作する撮像装置を選択する選択手段と、
選択手段の選択結果に応じて、
前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影する前記マスターモードと、
前記別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段と、を備えることを特徴とする撮像装置。 Another imaging apparatus is connected, and is an imaging apparatus that tracks and shoots a main subject,
Shooting means for tracking and shooting the main subject and outputting a shooting signal;
Reliability acquisition means for acquiring the reliability of tracking by the imaging means;
First communication means capable of receiving the tracking reliability of said another imaging device from said another imaging device;
Selection means for selecting an imaging device operating in a master mode based on the tracking reliability of the other imaging device and the tracking reliability obtained by the reliability obtaining means;
Depending on the selection result of the selection means
The master mode in which the position of the main subject is detected, and the main subject is tracked and photographed based on the detection result;
Switching means for receiving the position information of the main subject acquired from the other imaging device, and switching to a slave mode for tracking and photographing the main subject based on the received position information of the main subject An imaging device characterized by
前記切り替え手段は、動作モードを前記マスターモードから前記スレーブモードに切り替えることを特徴とする請求項1又は2に記載の撮像装置。 When the reliability of the tracking acquired by the reliability acquiring unit is lower than the reliability of the tracking of the other imaging device received by the first communication unit, the selection unit is another imaging device. Select as an imaging device operating in master mode,
The imaging device according to claim 1, wherein the switching unit switches an operation mode from the master mode to the slave mode.
前記切り替え手段は、動作モードを前記マスターモードから前記スレーブモードに切り替えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The selection unit is configured such that the reliability of tracking of another imaging device received by the first communication unit is higher than the reliability of tracking acquired by the reliability acquisition unit, and the reliability acquisition unit An imaging apparatus that operates another imaging apparatus in the master mode when the difference between the tracking reliability acquired by the first communication unit and the tracking reliability of another imaging apparatus received by the first communication unit is equal to or greater than a threshold Choose as
The imaging apparatus according to any one of claims 1 to 3, wherein the switching unit switches an operation mode from the master mode to the slave mode.
前記撮影手段は前記被写体位置検出手段による主被写体の位置の検出結果に基づいて前記主被写体を追尾し、
前記通信手段は、前記被写体位置検出手段による検出結果を前記別の撮像装置に送信することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 Object position detection means for detecting the position of the main object;
The photographing means tracks the main subject based on the detection result of the position of the main subject by the subject position detection means,
The imaging apparatus according to any one of claims 1 to 5, wherein the communication unit transmits the detection result of the subject position detection unit to the another imaging apparatus.
前記撮影手段から出力された撮像信号に基づいて前記主被写体の位置を検出することを特徴とする請求項6に記載の撮像装置。 The subject position detection means
7. The image pickup apparatus according to claim 6, wherein the position of the main subject is detected based on an image pickup signal output from the image pickup means.
前記被写体位置検出手段により取得された前記主被写体の位置に基づいて前記主被写体の位置を追尾すること特徴とする請求項6又は7に記載の撮像装置。 The photographing means is
The imaging apparatus according to claim 6, wherein the position of the main subject is tracked based on the position of the main subject acquired by the subject position detection unit.
前記信頼度取得手段は、前記記憶部に記憶された主被写体の画像と、前記撮影手段から出力された撮像信号に対応する画像との類似度に基づいて前記信頼度を取得する請求項1乃至8のいずれか1項に記載の撮像装置。 A storage unit for storing image information of the main subject;
The reliability degree acquiring means acquires the reliability degree based on the similarity between the image of the main subject stored in the storage unit and the image corresponding to the imaging signal output from the photographing means. The imaging device according to any one of 8.
前記信頼度取得手段は、前記第2の通信手段が受信した前記主被写体からの信号の強度に基づいて前記信頼度を取得することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 A second communication unit configured to receive a signal from the main subject;
9. The reliability degree acquiring unit according to claim 1, wherein the reliability degree acquiring unit acquires the reliability degree based on the strength of the signal from the main subject received by the second communication unit. 10. Imaging device.
前記主被写体を追尾して撮影し、撮像信号を出力する撮影手段と、
前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、
前記信頼度取得手段により取得した前記追尾の信頼度を、前記別の撮像装置へ送信が可能であり、且つ、前記別の撮像装置から前記主被写体の位置情報の受信が可能な第1の通信手段と、を備え、
前記撮影手段は、
前記別の撮像装置から受信した前記主被写体の位置情報に基づいて前記主被写体を追尾することを特徴とする撮像装置。 Another imaging apparatus is connected, and is an imaging apparatus that tracks and shoots a main subject,
Shooting means for tracking and shooting the main subject and outputting a shooting signal;
Reliability acquisition means for acquiring the reliability of tracking by the imaging means;
The first communication capable of transmitting the reliability of the tracking acquired by the reliability acquiring unit to the other imaging device and capable of receiving the position information of the main subject from the other imaging device Means, and
The photographing means is
An imaging apparatus characterized by tracking the main subject based on position information of the main subject received from the other imaging apparatus.
該情報に基づいて、
前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影するマスターモードと、
前記別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段を備えることを特徴とする請求項11に記載の撮像装置。 The first communication means receives information specifying an imaging device operating in a master mode,
Based on the information
A master mode for detecting the position of the main subject and tracking and photographing the main subject based on the detection result;
It is characterized by comprising switching means for receiving the position information of the main subject acquired from the other imaging device, and switching to a slave mode for tracking and photographing the main subject based on the received position information of the main subject. The imaging device according to claim 11.
前記複数の撮像装置のそれぞれは、
主被写体を追尾して撮影する撮影手段と、
前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、
前記信頼度取得手段により取得した前記追尾の信頼度を、送信または受信が可能な第1の通信手段と、
前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影するマスターモードと、
別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段と、を備え、
複数の撮像装置のそれぞれの追尾の信頼度に基づいて、
前記マスターモードで動作する撮像装置を選択する選択手段を備えることを特徴とする撮像システム。 An imaging system comprising a plurality of imaging devices, the imaging system comprising:
Each of the plurality of imaging devices is
Shooting means for tracking and shooting the main subject;
Reliability acquisition means for acquiring the reliability of tracking by the imaging means;
A first communication unit capable of transmitting or receiving the tracking reliability acquired by the reliability acquiring unit;
A master mode for detecting the position of the main subject and tracking and photographing the main subject based on the detection result;
Switching means for receiving the position information of the main subject acquired from another imaging device, and switching to a slave mode for tracking and photographing the main subject based on the received position information of the main subject,
Based on the tracking reliability of each of a plurality of imaging devices,
An imaging system comprising: selection means for selecting an imaging device operating in the master mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017183513A JP7175595B2 (en) | 2017-09-25 | 2017-09-25 | Imaging device, control device, imaging system, and imaging system control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017183513A JP7175595B2 (en) | 2017-09-25 | 2017-09-25 | Imaging device, control device, imaging system, and imaging system control method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019062279A true JP2019062279A (en) | 2019-04-18 |
JP2019062279A5 JP2019062279A5 (en) | 2020-10-22 |
JP7175595B2 JP7175595B2 (en) | 2022-11-21 |
Family
ID=66177789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017183513A Active JP7175595B2 (en) | 2017-09-25 | 2017-09-25 | Imaging device, control device, imaging system, and imaging system control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7175595B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7527839B2 (en) | 2020-05-18 | 2024-08-05 | キヤノン株式会社 | Imaging device and imaging system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001025003A (en) * | 1999-07-08 | 2001-01-26 | Canon Inc | Camera system and camera control method |
JP2003069884A (en) * | 2001-08-28 | 2003-03-07 | Fuji Photo Film Co Ltd | Automatic subject following device for photographing camera |
JP2008042315A (en) * | 2006-08-02 | 2008-02-21 | Matsushita Electric Ind Co Ltd | Camera controller and camera control system |
JP2017028655A (en) * | 2015-07-28 | 2017-02-02 | 日本電気株式会社 | Tracking system, tracking method and tracking program |
-
2017
- 2017-09-25 JP JP2017183513A patent/JP7175595B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001025003A (en) * | 1999-07-08 | 2001-01-26 | Canon Inc | Camera system and camera control method |
JP2003069884A (en) * | 2001-08-28 | 2003-03-07 | Fuji Photo Film Co Ltd | Automatic subject following device for photographing camera |
JP2008042315A (en) * | 2006-08-02 | 2008-02-21 | Matsushita Electric Ind Co Ltd | Camera controller and camera control system |
JP2017028655A (en) * | 2015-07-28 | 2017-02-02 | 日本電気株式会社 | Tracking system, tracking method and tracking program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7527839B2 (en) | 2020-05-18 | 2024-08-05 | キヤノン株式会社 | Imaging device and imaging system |
Also Published As
Publication number | Publication date |
---|---|
JP7175595B2 (en) | 2022-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4587166B2 (en) | Moving body tracking system, photographing apparatus, and photographing method | |
JP5371686B2 (en) | Imaging apparatus, imaging method, and imaging system | |
WO2018140107A1 (en) | System for 3d image filtering | |
CN108459597B (en) | Mobile electronic device and method for processing tasks in task area | |
KR20150050172A (en) | Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object | |
JP2008227877A (en) | Video information processor | |
WO2017056757A1 (en) | Imaging device and imaging method | |
WO2017117749A1 (en) | Follow focus system and method based on multiple ranging approaches, and photographing system | |
CN108260360B (en) | Scene depth calculation method and device and terminal | |
JP4056777B2 (en) | Autonomous mobile object traveling system and autonomous mobile object position correction method | |
JP2011058854A (en) | Portable terminal | |
JP2006270274A (en) | Object recognition apparatus and method | |
JP5543870B2 (en) | Camera, camera control method, and program | |
JP7175595B2 (en) | Imaging device, control device, imaging system, and imaging system control method | |
JP2005266520A (en) | Imaging apparatus and imaging method | |
JP2018134712A (en) | Robot system and control method for robot system | |
JP2012039468A (en) | Photographing apparatus system and photographing device | |
KR20110078655A (en) | A method and a system of filming using multiple camera | |
KR102298047B1 (en) | Method of recording digital contents and generating 3D images and apparatus using the same | |
JP2015126402A (en) | Robot camera control device, program for the same, and multi-viewpoint robot camera system | |
JP2023169914A (en) | Image processing device, image processing method, and computer program | |
KR101856151B1 (en) | An portable apparatus for gathering indoor positioning infra information | |
JP4918675B2 (en) | 3D coordinate measurement method | |
JP2021182659A (en) | Imaging apparatus and imaging system | |
CN114071003B (en) | Shooting method and system based on optical communication device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7175595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |