JPH09322053A - Image pickup method for object in automatic image pickup camera system - Google Patents
Image pickup method for object in automatic image pickup camera systemInfo
- Publication number
- JPH09322053A JPH09322053A JP8153134A JP15313496A JPH09322053A JP H09322053 A JPH09322053 A JP H09322053A JP 8153134 A JP8153134 A JP 8153134A JP 15313496 A JP15313496 A JP 15313496A JP H09322053 A JPH09322053 A JP H09322053A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- camera
- photographing
- photographed
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、テレビカメラを使
用して撮影した画像から対象の3次元位置を計測し、そ
の対象を自動追尾して無人で撮影することができる自動
撮影カメラシステムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic photographing camera system capable of measuring a three-dimensional position of an object from an image photographed by using a television camera and automatically tracking the object for unmanned photographing.
【0002】[0002]
【従来の技術】従来、カメラ操作者が直接テレビジョン
カメラを操作せず、被写体を自動追尾して撮影すること
ができるようにしたカメラシステムでは、水平,垂直方
向に回動可能で外部からの制御信号により制御可能な撮
影用カメラを用い、被写体の動きに合わせて撮影用カメ
ラを駆動制御するようにしている。被写体を認識する方
法としては、例えば、被写体(あるいは被写体と共に移
動する物体)に予め検知マークを付けておき、撮影画像
を処理してその検知マークを認識する方法や、赤色など
特定の色を被写体として認識する方法が採られている。
そして、認識した被写体が画面の枠内の所定位置に位置
するように撮影用カメラを駆動制御することで、被写体
を追尾して撮影するようにしている。2. Description of the Related Art Conventionally, in a camera system which allows a camera operator to automatically track and photograph a subject without directly operating a television camera, the camera system can be rotated in horizontal and vertical directions, and can be rotated from the outside. A shooting camera that can be controlled by a control signal is used, and the shooting camera is driven and controlled according to the movement of the subject. As a method of recognizing a subject, for example, a detection mark is previously attached to a subject (or an object that moves with the subject), and a captured image is processed to recognize the detection mark. Has been adopted.
Then, by driving and controlling the photographing camera so that the recognized subject is located at a predetermined position within the frame of the screen, the subject is tracked and photographed.
【0003】また、その際、撮影画像から対象の画像部
を抽出して求めた大きさ(例えば当該色の画素数)を基
準に画角サイズを決定し、画面上での被写体の大きさが
常に一定となるように、カメラのズーム量を調整制御し
て撮影するようにしている。At this time, the angle of view size is determined based on the size (for example, the number of pixels of the color) obtained by extracting the target image portion from the captured image, and the size of the subject on the screen is determined. The camera is controlled by adjusting the zoom amount of the camera so that it is always constant.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上述の
ような処理によって決定した画角サイズで被写体を撮影
する方法では、異なる大きさの対象を撮影する場合、画
面上での被写体の大きさが一定となるため、大きさの違
いが映像に現われないことになる。例えば、図10に示
すように、カメラ200Aとカメラ200Bを用いて、
身長180cmの大人1aと、身長120cmの子供1
bが向かってくる映像をそれぞれ撮影して、両者の映像
を比較して見ると、図中の画像例VD2a,VD2bに
示すように、同じ大きさの映像となり、臨場感に欠ける
という問題があった。すなわち、従来の自動撮影カメラ
システムでは、画面上での被写体1a,1bの大きさ
(例えば、身長Z1,Z2)を基準に、それぞれ画角θ
(Z1),θ(Z2)を決定して撮影するようにしてい
るため、被写体1a,1bまでの距離l1(Y),l2
(Y)が変化しても、画面上での被写体1a,1bの大
きさは常に一定のため、変化がなく臨場感に欠ける映像
となっていた。However, in the method of photographing a subject with the angle of view size determined by the above-described processing, when the subjects of different sizes are photographed, the size of the subject on the screen is constant. Therefore, the difference in size does not appear in the image. For example, as shown in FIG. 10, using a camera 200A and a camera 200B,
Adult 1a with a height of 180 cm and child 1 with a height of 120 cm
When the images of b coming in are respectively photographed and the images of both are compared and viewed, as shown in the image examples VD2a and VD2b in the figure, the images are of the same size, and there is a problem that there is a lack of realism. It was That is, in the conventional automatic photographing camera system, the angle of view θ is determined based on the sizes of the subjects 1a and 1b on the screen (for example, heights Z1 and Z2).
Since (Z1) and θ (Z2) are determined and photographed, the distances l1 (Y) and l2 to the subjects 1a and 1b are determined.
Even if (Y) changes, the sizes of the subjects 1a and 1b on the screen are always the same, and thus there is no change and the image is not realistic.
【0005】臨場感ある撮影を可能にするには、例え
ば、身長120cmの子供を基準にした場合、身長18
0cmの大人の映像は被写体を大きくして撮影するとい
うように、身長の違いから来るサイズ合わせが必要にな
る。ところが、通常のカメラ操作による撮影において
も、身長の違いを正確に撮影することは不可能である。
すなわち、カメラマンのカメラ操作によって身長の違い
をうまく表現するには、身長に合わせたカメラワーク
(ズーミングワーク)が必要になるが、異なる被写体に
対し撮影用カメラの視点から被写体までの距離に応じて
画角を一律にして撮影することは実際上不可能であり、
カメラワークはカメラマンの直感に頼らざるを得ない。In order to enable realistic shooting, for example, when a child with a height of 120 cm is used as a reference, the height is 18
A 0 cm adult image needs to be sized according to the difference in height, such as shooting with a large subject. However, it is impossible to accurately capture the difference in height even in the normal camera operation.
That is, camera work (zooming work) matching the height is required to express the difference in height by the camera operation of the cameraman, but it is necessary to adjust the distance from the viewpoint of the shooting camera to the subject for different objects. It is practically impossible to shoot with a uniform angle of view,
The camerawork has to rely on the intuition of the cameraman.
【0006】本発明は上述のような事情から成されたも
のであり、本発明の目的は、3次元空間内を移動する対
象を自動追尾して撮影することができると共に、大きさ
の異なる複数の対象を個別に撮像して合成又は切換えて
映像化する際に、大きさの違いを正確に映像化できる自
動撮影カメラシステムを提供することにある。The present invention has been made under the circumstances as described above, and an object of the present invention is to be able to automatically track and photograph an object moving in a three-dimensional space, and to have a plurality of objects of different sizes. It is an object of the present invention to provide an automatic photographing camera system capable of accurately visualizing a difference in size when the objects are individually imaged and combined or switched to be imaged.
【0007】[0007]
【課題を解決するための手段】本発明は、外部からの制
御信号により撮影方向を含むカメラ操作の制御が可能な
撮影用カメラの駆動制御により撮影対象の被写体を自動
追尾して撮影する自動撮影カメラシステムにおける撮影
方法に関するものであり、本発明の上記目的は、カメラ
操作者の視野に相当する広角画像を撮影する第1及び第
2のセンサカメラの撮影画像に基づいて前記被写体の3
次元位置を計測すると共に、前記撮影用カメラの視点か
ら前記3次元位置までの距離を予測し、この予測距離に
対応する予め定められた基準画角サイズで前記被写体を
撮影するようにすることによって達成される。SUMMARY OF THE INVENTION According to the present invention, automatic photographing is performed in which a subject to be photographed is automatically tracked and photographed by driving control of a photographing camera capable of controlling camera operation including a photographing direction by a control signal from the outside. The present invention relates to a photographing method in a camera system, and the above-mentioned object of the present invention is based on the photographed images of the first and second sensor cameras that photograph wide-angle images corresponding to the visual field of the camera operator.
By measuring the three-dimensional position, predicting the distance from the viewpoint of the photographing camera to the three-dimensional position, and photographing the subject with a predetermined reference angle size corresponding to the predicted distance. To be achieved.
【0008】また、本発明は、外部からの制御信号によ
り撮影方向を含むカメラ操作の制御が可能な複数の撮影
用カメラの駆動制御により異なる撮影対象の被写体をそ
れぞれ自動追尾して撮影する自動撮影カメラシステムに
おける撮影方法に関するものであり、本発明の上記目的
は、カメラ操作者の視野に相当する広角画像を撮影する
第1及び第2のセンサカメラの撮影画像に基づいて前記
異なる被写体の3次元位置をそれぞれ計測すると共に、
前記撮影用カメラの視点から前記異なる被写体の3次元
位置までの距離をそれぞれ予測し、各予測距離に対応す
る予め定められた基準画角サイズで前記異なる被写体を
それぞれ撮影すると共に、各撮影画像を合成して同一画
面上に表示するようにすることによって達成される。さ
らに、本発明の上記目的は、前記異なる撮影対象の被写
体を前記予測距離に基づいて決定するようにすることに
よって、より効果的に達成される。Further, the present invention is an automatic photographing in which different photographing subjects are automatically tracked and photographed by driving control of a plurality of photographing cameras capable of controlling camera operation including a photographing direction by a control signal from the outside. The present invention relates to a photographing method in a camera system, and the object of the present invention is to provide a three-dimensional image of the different subject based on the photographed images of the first and second sensor cameras that photograph wide-angle images corresponding to the visual field of the camera operator. While measuring each position,
The distances from the viewpoint of the photographing camera to the three-dimensional positions of the different subjects are respectively predicted, and the different subjects are photographed with a predetermined reference angle of view size corresponding to each predicted distance. This is achieved by combining them and displaying them on the same screen. Furthermore, the above-mentioned object of the present invention is more effectively achieved by determining the subject of the different photographing target based on the predicted distance.
【0009】[0009]
【発明の実施の形態】本発明では、3次元空間内での被
写体の位置を計測し、被写体の動きに応じて撮影用カメ
ラを駆動制御することで、被写体の自動撮影を行なうよ
うにしている。また、カメラの視点から被写体までの距
離を計測し、当該距離に対する基準画角(距離に応じて
予め設定されている基準の画角)で被写体を撮像するよ
うにしている。さらに、複数のカメラを用い、目的とす
る複数の被写体をそれぞれのカメラで捕らえて撮影し、
各撮影画像を合成処理して所望の合成画像を作成し、同
一画面にリアルタイムに(又は記憶情報から再生して)
表示することができるようにしている。BEST MODE FOR CARRYING OUT THE INVENTION According to the present invention, the position of a subject in a three-dimensional space is measured, and the photographing camera is driven and controlled according to the movement of the subject to automatically photograph the subject. . Further, the distance from the viewpoint of the camera to the subject is measured, and the subject is imaged at a reference angle of view (a reference angle of view preset according to the distance) with respect to the distance. In addition, using multiple cameras, each of the multiple target objects can be captured and photographed,
Combining each captured image to create a desired composite image, and in real time on the same screen (or playing from the stored information)
I am able to display.
【0010】以下、図面に基づいて本発明の好適な実施
形態について詳細に説明する。図1は本発明に係わる自
動撮影カメラシステムの概略構成を示しており、3次元
空間内を移動する被写体を捕らえるための2台のカメラ
100(以下、「センサカメラ」と呼ぶ)と1台の撮影
用カメラ200を備えたシステムの例を示している。セ
ンサカメラ100は、カメラ操作者の両眼に相当するカ
メラであり、同図のように撮影対象の被写体1を含む広
角映像を撮影する。このセンサカメラ100は、被写体
の3次元位置(3次元座標)を三角測量の原理で求める
ために2台用いる。例えば、センサカメラ100の視野
領域を越えて移動する被写体1を追尾して撮影する場合
には、複数のセンサカメラ100が使用され、その場合
には撮影範囲(計測範囲)が分割されてそれぞれ所定の
位置に2台ずつ配置される。撮影用カメラ200は、外
部からの制御信号によりカメラのパン,チルト,ズー
ム,フォーカス等の調整が可能な駆動機構部(雲台)2
10と撮像部220とが一体的に構成されたカメラであ
り、パン軸及びチルト軸の回動制御により真下を除くほ
ぼ全域の空間が撮影できるようになっている。Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the drawings. FIG. 1 shows a schematic configuration of an automatic photographing camera system according to the present invention. Two cameras 100 (hereinafter, referred to as “sensor cameras”) and one camera for capturing an object moving in a three-dimensional space are shown. The example of the system provided with the camera 200 for photography is shown. The sensor camera 100 is a camera corresponding to both eyes of a camera operator, and captures a wide-angle image including a subject 1 to be captured, as shown in FIG. Two sensor cameras 100 are used to obtain the three-dimensional position (three-dimensional coordinates) of the subject by the principle of triangulation. For example, when the subject 1 that moves beyond the field of view of the sensor camera 100 is tracked and photographed, a plurality of sensor cameras 100 are used, and in that case, the photographing range (measurement range) is divided and each of them is predetermined. Two units are arranged at the position. The photographing camera 200 includes a drive mechanism unit (head) 2 capable of adjusting the pan, tilt, zoom, focus, etc. of the camera by a control signal from the outside.
This is a camera in which 10 and the image pickup unit 220 are integrally configured, and by controlling the rotation of the pan axis and the tilt axis, it is possible to take an image of almost the entire space except directly below.
【0011】3次元位置計測装置300は、センサカメ
ラ100で撮影された広角画像VD1a(VD1b)内
の静止体又は移動体の中から撮影対象の被写体1を認識
(例えば被写体1の色情報により認識)すると共に、被
写体1の現在位置を逐次計測する装置であり、撮影用カ
メラ200の視点を原点とした三次元空間内での被写体
1の現在位置(3次元座標情報),被写体1の大きさを
示す情報(画像抽出部分の面積情報)等を計測情報PD
として出力する。この計測情報PDは入出力インタフェ
ースを介してデータ解析装置500に入力される。な
お、複数の撮影用カメラ200を用いて複数の被写体を
それぞれ自動追尾して撮影する形態では、それぞれの被
写体の計測情報をまとめて計測情報PDとして出力する
ようになっている。The three-dimensional position measuring apparatus 300 recognizes a subject 1 to be photographed from a stationary body or a moving body in the wide-angle image VD1a (VD1b) photographed by the sensor camera 100 (for example, it is recognized by color information of the subject 1). In addition, the present position of the subject 1 is sequentially measured, and the present position (three-dimensional coordinate information) of the subject 1 in the three-dimensional space with the viewpoint of the photographing camera 200 as the origin, and the size of the subject 1. Information (area information of the image extraction portion) indicating the measurement information PD
Output as This measurement information PD is input to the data analysis device 500 via the input / output interface. In the case of automatically tracking and shooting a plurality of subjects using the plurality of photographing cameras 200, the measurement information of each subject is collectively output as the measurement information PD.
【0012】データ解析装置500は、3次元位置計測
装置300からの計測情報PDを基に被写体1の動きを
解析し、被写体1の動きに応じて撮影用カメラ200の
カメラワークを制御する装置であり、駆動制御部400
を介して駆動信号MSを送出し、撮影用カメラ200の
カメラワークを制御する。すなわち、データ解析装置5
00では、3次元位置計測装置300の計測情報PDに
基づいて被写体1の現在位置を認識する共に、被写体1
の動き(各時点の位置,方位角,加速度等)を解析して
次の瞬間の動きを予測し、この予測情報と現時点の撮影
用カメラ200の向きを示す情報等に基づいて撮影用カ
メラ200のパン,チルト角度偏差及びズーム等の調整
量を演算し、駆動制御データ(速度指令)Vcomを出
力して被写体1の次の動作位置へと撮影用カメラ200
を駆動制御することで、被写体1を自動追尾して撮影す
るようにしている。The data analysis device 500 is a device that analyzes the movement of the subject 1 based on the measurement information PD from the three-dimensional position measurement device 300 and controls the camera work of the photographing camera 200 according to the movement of the subject 1. Yes, drive control unit 400
A drive signal MS is sent out via the to control the camera work of the photographing camera 200. That is, the data analysis device 5
In 00, the current position of the subject 1 is recognized based on the measurement information PD of the three-dimensional position measuring device 300, and
Of the shooting camera 200 (position, azimuth angle, acceleration, etc.) is predicted to predict the movement at the next moment, and the shooting camera 200 is based on this prediction information and information indicating the current direction of the shooting camera 200. Of the pan / tilt angle deviation and the amount of adjustment of the zoom and the like, and outputs drive control data (speed command) Vcom to move to the next operation position of the subject 1.
By controlling the driving of the subject 1, the subject 1 is automatically tracked and photographed.
【0013】また、データ解析装置500は、被写体1
の3次元位置(3次元座標)情報を基に撮影用カメラ2
00の視点から被写体1までの距離を予測すると共に、
その距離に対する基準画角を求め、予測距離に対する基
準画角で撮像するようにズーム操作を制御することで、
被写体1の大きさにかかわらず常に同じ画角で被写体1
を撮影するようにしている。すなわち、複数の撮影用カ
メラ200を用いて複数の被写体を追尾して撮影する場
合や、1台の撮影用カメラ200で追尾する被写体を切
替えながら撮影する場合に、それぞれの被写体1の大き
さの違いが正確に画面に現われるようにしている。さら
に、被写体1までの距離の変化に伴って生じる被写体の
大きさの変化が正確に画面に現われるようにしている。In addition, the data analysis device 500 is used for the subject 1.
Camera 2 based on 3D position (3D coordinates) information
While predicting the distance from subject 00 to subject 1,
By obtaining the reference angle of view for that distance and controlling the zoom operation so that the image is captured at the reference angle of view for the predicted distance,
Regardless of the size of subject 1, subject 1 always has the same angle of view.
I am trying to shoot. That is, when shooting a plurality of subjects by using a plurality of shooting cameras 200, or when shooting while switching the subjects to be tracked by one shooting camera 200, the size of each subject 1 is changed. I try to make the difference appear exactly on the screen. Further, the change in the size of the subject caused by the change in the distance to the subject 1 is accurately displayed on the screen.
【0014】次に、各装置の構成例を示してより詳細に
説明する。先ず、撮影用カメラと駆動制御部の構成につ
いて説明する。図2は、図1の撮影用カメラ200と駆
動制御部400の構成例を示しており、撮影用カメラ2
00は、モータ213,214の駆動によるパン軸21
1及びチルト軸212の回動により撮像部220の向き
(水平及び垂直方向)が調整され、各モータ215の駆
動により撮像部220のズーム,フォーカス,アイリス
が調整されるようになっている。本例では、モータ21
5にはステップモータを使用し、モータ213,214
には、高トルクを発生するダイレクトドライブモータを
使用している。Next, an example of the configuration of each device will be described in more detail. First, the configurations of the photographing camera and the drive control unit will be described. FIG. 2 shows a configuration example of the photographing camera 200 and the drive control unit 400 of FIG.
00 is the pan shaft 21 driven by the motors 213 and 214.
The orientation of the image pickup unit 220 (horizontal and vertical directions) is adjusted by rotating 1 and the tilt shaft 212, and the zoom, focus, and iris of the image pickup unit 220 are adjusted by driving each motor 215. In this example, the motor 21
The step motor is used for 5, and the motors 213 and 214
Uses a direct drive motor that produces high torque.
【0015】駆動制御部400は、雲台のモータ213
〜215を駆動する制御CPU410,モータドライバ
420等から構成され、上位制御部(図1の構成例では
データ解析装置500)からの駆動制御データ(速度指
令)Vcomに従って撮影用カメラ200の駆動制御を
行なう。すなわち、駆動制御部400は、上位制御部か
らの駆動制御データ(速度指令)Vcom及びデータベ
ース401のパラメータPDD(各モータの駆動制御用
パラメータ)を基に各モータ213〜215の駆動信号
MS1〜MS3を制御CPU410によって生成/出力
し、モータドライバ420を介してサーボ制御による撮
影用カメラ200の制御を行なう。The drive control unit 400 includes a motor 213 for the pan head.
Drive control data (speed command) Vcom from the host controller (the data analysis device 500 in the configuration example of FIG. 1), the drive control of the photographing camera 200 is performed. To do. That is, the drive controller 400 drives the drive signals MS1 to MS3 of the motors 213 to 215 based on the drive control data (speed command) Vcom from the host controller and the parameter PDD (drive control parameter of each motor) of the database 401. Is generated / output by the control CPU 410, and the photographing camera 200 is controlled by servo control via the motor driver 420.
【0016】次に、3次元位置計測装置とデータ解析装
置の構成について説明する。図3は、図1の3次元位置
計測装置300とデータ解析装置500の主要部の構成
例をブロック図で示している。図3において、3次元位
置計測装置300は、センサカメラ100で撮影された
広角画像VD1a(又はVD1b)内の静止体又は移動
体の中から撮影対象の被写体1を認識する被写体認識部
310と、被写体1の3次元空間内の現在位置(3次元
座標)を計測する3次元座標計測部320とから構成さ
れる。3次元位置計測装置300の計測情報PDは、デ
ータ解析装置500内の動き解析部510に入力され
る。Next, the configurations of the three-dimensional position measuring device and the data analyzing device will be described. FIG. 3 is a block diagram showing a configuration example of main parts of the three-dimensional position measuring device 300 and the data analysis device 500 of FIG. In FIG. 3, the three-dimensional position measuring apparatus 300 includes a subject recognition unit 310 that recognizes a subject 1 to be captured from a stationary body or a moving body in the wide-angle image VD1a (or VD1b) captured by the sensor camera 100, A three-dimensional coordinate measuring unit 320 that measures the current position (three-dimensional coordinate) of the subject 1 in the three-dimensional space. The measurement information PD of the three-dimensional position measurement device 300 is input to the motion analysis unit 510 in the data analysis device 500.
【0017】データ解析装置500は、3次元位置計測
装置300からの計測情報PDにより被写体1の動きを
解析し、被写体1の現時点までの直近の動きベクトルを
求める動き解析部510と、動き解析部510で求めた
動きベクトルを基に被写体1の次の動きを予測し、次の
動きベクトルを求めて被写体速度V等の予測情報を送出
する動き予測部520と、3次元位置計測装置300か
らの計測情報PDにより撮影用カメラ200の視点から
被写体1までの距離を得て、得られた距離に対する基準
画角を求める画角決定部535と、画角決定部535か
らの距離/基準画角情報及びカメラ角度/画角検出セン
サ(図示せず)からの検出情報SDに基づいて撮影画面
内の被写体最適位置までの撮影用カメラ200の方位角
(パン,チルト角度偏差)及び画角(ズーム)調整量を
検出し、駆動信号の補正量を求めて速度補正情報(補正
速度ΔV)を送出する速度補正量検出部540と、動き
予測部520からの予測情報,及び速度補正量検出部5
40からの速度補正情報等に基づいてカメラワークの分
析及び決定を行ない、駆動制御データ(速度指令)Vc
omを出力して撮影用カメラ200のカメラワークを制
御するカメラワーク制御部530とから構成される。The data analysis device 500 analyzes the movement of the subject 1 based on the measurement information PD from the three-dimensional position measurement device 300, and obtains the latest motion vector of the subject 1 up to the present time. The motion predicting unit 520 that predicts the next motion of the subject 1 based on the motion vector calculated in 510, calculates the next motion vector, and sends prediction information such as the subject velocity V and the three-dimensional position measuring device 300. An angle-of-view determining unit 535 that obtains a distance from the viewpoint of the photographing camera 200 to the subject 1 based on the measurement information PD and obtains a reference angle of view for the obtained distance, and distance / reference-angle information from the angle-of-view determining unit 535 And the azimuth angle (pan, tilt angle) of the photographing camera 200 up to the optimum position of the subject in the photographing screen based on the detection information SD from the camera angle / angle of view detection sensor (not shown). Deviation) and the angle of view (zoom) adjustment amount are detected, the correction amount of the drive signal is obtained, and the speed correction information (correction speed ΔV) is sent out, and the speed correction amount detection unit 540, the prediction information from the motion prediction unit 520, And speed correction amount detection unit 5
The camera work is analyzed and determined based on the speed correction information and the like from 40, and drive control data (speed command) Vc
and a camera work control unit 530 for controlling camera work of the photographing camera 200 by outputting om.
【0018】データ解析装置500は、他に、動き解析
部510で解析した被写体動作の解析情報を記録する図
示しない解析情報記録手段と、解析情報を撮影画像と共
にあるいは単独でモニタ表示する図示しない解析情報表
示手段とを具備している。The data analysis apparatus 500 additionally includes an analysis information recording unit (not shown) for recording analysis information of the subject motion analyzed by the motion analysis unit 510, and an analysis (not shown) for displaying the analysis information together with the photographed image on a monitor. And information display means.
【0019】ここで、上述のような構成において、本発
明における画角決定方法、及びズーム操作の制御に係わ
る装置の動作例を具体例を示して説明する。図4は、本
発明に係わる装置の動作例をフローチャート的に図1〜
図3に対応させて示した図である。以下、図4を参照し
て説明する。An example of the operation of the device relating to the method for determining the angle of view and the control of the zoom operation according to the present invention having the above-mentioned structure will be described with reference to a specific example. FIG. 4 is a flow chart showing an example of the operation of the apparatus according to the present invention.
It is the figure shown corresponding to FIG. Hereinafter, description will be made with reference to FIG.
【0020】先ず、3次元座標位置計測装置300にお
いて、被写体1の3次元位置を次の処理によって計測す
る。3次元座標位置計測装置300では、2台のセンサ
カメラ100の画像VD1a,VD1bを基に、各画像
VD1a,VD1bにおける2次元座標系での被写体1
の位置をそれぞれを求め、それぞれの位置情報とセンサ
カメラ100及び撮影用カメラ200の位置情報とか
ら、被写体1の3次元座標位置P(x,y,z)を撮影
用カメラ200の視点を原点として三角測量の原理で求
める。データ解析装置500内の画角決定部535は、
3次元座標位置計測装置300からの3次元位置情報
(P(x,y,z))に基づいて、図5に示すように、
撮影用カメラ200の視点から被写体1の位置P(x,
y,z)までの距離lを予測する。続いて、画角決定部
535では、予測した距離lに対応する基準画角θ
(l)を求め、求めた基準画角θ(l)を予測時点の画
角θとして決定する。First, in the three-dimensional coordinate position measuring apparatus 300, the three-dimensional position of the subject 1 is measured by the following processing. In the three-dimensional coordinate position measuring apparatus 300, the subject 1 in the two-dimensional coordinate system in each of the images VD1a and VD1b is based on the images VD1a and VD1b of the two sensor cameras 100.
Of the sensor camera 100 and the photographing camera 200, and the three-dimensional coordinate position P (x, y, z) of the subject 1 is set as the origin from the viewpoint of the photographing camera 200. Is calculated by the principle of triangulation. The angle-of-view determination unit 535 in the data analysis device 500
Based on the three-dimensional position information (P (x, y, z)) from the three-dimensional coordinate position measuring device 300, as shown in FIG.
The position P (x,
Predict the distance l to y, z). Then, in the view angle determination unit 535, the reference view angle θ corresponding to the predicted distance l.
(L) is obtained, and the obtained reference angle of view θ (l) is determined as the angle of view θ at the time of prediction.
【0021】ここで、上記の基準画角θ(l)は、距離
lに対応して予め設定されている画角であり、例えば図
6に示すように、予測距離lがL1〜L2の範囲であれ
ば画角θl,予測距離lがL2〜L3の範囲であれば画
角θ2というように、被写体までの距離に対応して基準
画角θnの値がそれぞれ予め設定されている。この対応
関係は、撮影対象(人間,自動車等)毎に設定されてい
る。Here, the reference angle of view θ (l) is an angle of view preset corresponding to the distance 1, and for example, as shown in FIG. 6, the predicted distance 1 is in the range of L1 to L2. In this case, the angle of view θl and the angle of view θ2 when the predicted distance 1 is in the range of L2 to L3 are set in advance such that the value of the reference angle of view θn corresponds to the distance to the subject. This correspondence is set for each subject (human, automobile, etc.).
【0022】速度補正量検出部540では、画角決定部
535で決定した画角θ及び現在の画角θ0から、撮影
用カメラ200のズーム移動量を求める。ここで、撮影
用カメラ200における画角とズーム移動量との関係
は、例えば図7に示すようになっており、速度補正量検
出部540では、この関係に従ってズーム移動量を求め
てズームモータ215に対する速度指令を作成し、カメ
ラワーク制御部530を介して速度指令Vcomを送出
する。駆動制御部400では、ズームモータ215に駆
動信号を送出し、フィードフォワード制御により撮影用
カメラのズーム操作を制御する。以上のように予測距離
に対する基準画角θによってズーミングワークを制御す
ることで、同一の距離に位置する被写体を撮影した場
合、常に同じ画角で被写体1を映像化することが可能と
なる。The speed correction amount detection unit 540 obtains the zoom movement amount of the photographing camera 200 from the angle of view θ determined by the angle of view determination unit 535 and the current angle of view θ 0 . Here, the relationship between the angle of view and the zoom movement amount in the photographing camera 200 is as shown in, for example, FIG. 7, and the speed correction amount detection unit 540 obtains the zoom movement amount according to this relationship and the zoom motor 215. A speed command Vcom is generated and the speed command Vcom is transmitted via the camera work control unit 530. The drive control unit 400 sends a drive signal to the zoom motor 215 and controls the zoom operation of the photographing camera by feedforward control. As described above, by controlling the zooming work by the reference angle of view θ with respect to the predicted distance, when the subjects located at the same distance are photographed, the subject 1 can always be imaged at the same angle of view.
【0023】ここで、図8を参照して、本発明における
画角サイズの決定方法と従来技術における画角サイズの
決定方法(図10参照)との相違を説明する。図8にお
いて、撮影用カメラ200Aの側では、被写体である大
人1aの3次元位置Pa(x,y,z)までの距離l1
(Y)に対応する画角θ(l1)で撮影する。同様に、
撮影用カメラ200Bの側では、子供1bの3次元位置
Pb(x,y,z)までの距離l2(Y)に対応する画
角θ(l2)で撮影する。すなわち、本発明では被写体
の大きさに関係なく距離lによって画角θを決定するよ
うにしているので、図8中の画像例VD2a,VD2b
に示すように、大人1aと子供1bの大きさの違いが正
確に映像化されることになる。一方、従来の画角サイズ
の決定方法は、前述のように、画面上での被写体1a,
1bの大きさを基準として画角サイズを決定するように
しているので、図10中の画像例VD2a,VD2bに
示すように、大人1aと子供1bの大きさが同じ大きさ
で映像化されることになる。また、本発明では、距離に
応じて画面上での被写体の大きさが変化するが、従来技
術では、画面上での被写体の大きさは一定となる。Now, with reference to FIG. 8, the difference between the method for determining the angle of view in the present invention and the method for determining the angle of view in the prior art (see FIG. 10) will be described. In FIG. 8, on the photographing camera 200A side, the distance l1 to the three-dimensional position Pa (x, y, z) of the adult 1a as the subject is shown.
A picture is taken at an angle of view θ (l1) corresponding to (Y). Similarly,
On the side of the camera 200B for shooting, the image is taken at an angle of view θ (l2) corresponding to the distance l2 (Y) to the three-dimensional position Pb (x, y, z) of the child 1b. That is, in the present invention, the angle of view θ is determined by the distance 1 regardless of the size of the subject, so the image examples VD2a and VD2b in FIG.
As shown in, the difference in size between the adult 1a and the child 1b is accurately imaged. On the other hand, the conventional method of determining the angle of view size is, as described above, the object 1a on the screen,
Since the angle of view size is determined based on the size of 1b, the adult 1a and the child 1b are imaged in the same size as shown in the image examples VD2a and VD2b in FIG. It will be. Further, in the present invention, the size of the subject on the screen changes according to the distance, but in the conventional technique, the size of the subject on the screen is constant.
【0024】次に、本発明の応用例を図9を用いて説明
する。ここでは、図9(A)に示すように、2台の撮影
用カメラ200A,200Bを用いて水泳競技を撮影す
る場合を例とする。この場合、2台のセンサカメラ10
0の撮影画像に基づいて対象の選手の3次元位置をそれ
ぞれ計測すると共に、撮影用カメラの視点から各選手の
3次元位置までの距離をそれぞれ予測するようにしてい
る。また、各予測距離に対応する基準画角サイズで対象
の選手をそれぞれ撮影すると共に、各撮影画像VD2a
及びをVD2bを合成して同一画面上に表示するように
している。例えば、3コースと7コースの選手が1着と
2着を競っている場合、各選手の計測位置の情報から1
着と2着の選手を判別し、それらの選手の位置に向けて
撮影用カメラ200Aと撮影用カメラ200Bを駆動制
御する。Next, an application example of the present invention will be described with reference to FIG. Here, as shown in FIG. 9A, a case where a swimming competition is photographed using two photographing cameras 200A and 200B will be described as an example. In this case, two sensor cameras 10
The three-dimensional position of the target player is measured based on the photographed image of 0, and the distance from the viewpoint of the photographing camera to the three-dimensional position of each player is predicted. In addition, the target player is photographed with the reference angle of view size corresponding to each predicted distance, and each photographed image VD2a is captured.
And VD2b are combined and displayed on the same screen. For example, if players on 3rd and 7th courses are competing for 1st and 2nd place, 1 from the information on the measurement position of each player.
The first and second players are discriminated, and the shooting camera 200A and the shooting camera 200B are driven and controlled toward the positions of those players.
【0025】そして、図9(B)に示すように、撮影用
カメラ200Aの撮影画像VD2aと撮影用カメラ20
0Bの撮影画像VD2bとを入力して画像を合成処理
し、例えば図9(C)に示すように、3コースと7コー
スの選手の映像を画面の上部と下部に分けた合成画像V
D2を出力する。このような手法で撮影することで、違
うブロックの所望の選手を比較させて表示することがで
きる。また、スキーの滑降競技や陸上の100m競技な
どでカメラ側に向かってくる被写体を撮影し、違うブロ
ックの選手を比較させて、あたかも一緒に競技している
かのような仮想の対決をさせることもできるようにな
る。Then, as shown in FIG. 9B, the photographed image VD2a of the photographing camera 200A and the photographing camera 20.
The captured image VD2b of 0B is input and the images are combined. For example, as shown in FIG. 9C, a combined image V obtained by dividing the images of the players of courses 3 and 7 into the upper and lower parts of the screen is displayed.
D2 is output. By shooting with such a method, desired players in different blocks can be compared and displayed. Also, in ski downhill competitions and athletics 100m on the ground, you can shoot the subject coming toward the camera side and compare the athletes of different blocks to make a virtual confrontation as if you were competing together. become able to.
【0026】次に、図3を参照してシステム全体の動作
例を説明する。ここでは、上述した画角決定部535及
び速度補正量検出部540における動作については説明
を省略する。Next, an operation example of the entire system will be described with reference to FIG. Here, description of the operations of the angle of view determination unit 535 and the speed correction amount detection unit 540 described above will be omitted.
【0027】図3において、2台のセンサカメラで撮影
された映像信号VD1a,VD1bは、それぞれ3次元
位置計測装置300に入力される。3次元位置計測装置
300内の被写体認識部310は、映像信号VD1a
(又はVD1b)をデジタル化した1フレーム分の2次
元座標系の画像データから撮影対象の被写体1を認識す
る。被写体1の認識は、例えば画像データの各画素の色
度と、被写体認識データとして予め設定されている複数
色のそれぞれの閾値(色度の範囲:下限の閾値〜上限の
閾値)とを比較し、閾値内を“1”,範囲外を“0”と
して画素単位に2値化する。その際、2次元座標系
(X,Y座標系)にて連続する当該色の画素を抽出して
計数し、計数値を面積Sとする。そして当該色の部分が
複数存在する場合には、例えば、面積Sの最も大きい部
分を撮影対象の被写体1と認識する。但し、設定されて
いる色で被写体1を必ず特定できるような撮影条件では
大きさによる認識処理は必要ないため、色だけで認識す
れば良い。In FIG. 3, the video signals VD1a and VD1b captured by the two sensor cameras are input to the three-dimensional position measuring device 300, respectively. The subject recognition unit 310 in the three-dimensional position measuring apparatus 300 detects the video signal VD1a.
The object 1 to be photographed is recognized from the image data of the one-frame two-dimensional coordinate system obtained by digitizing (or VD1b). Recognition of the subject 1 is performed, for example, by comparing the chromaticity of each pixel of the image data with a threshold (a range of chromaticity: a lower threshold to an upper threshold) of a plurality of colors preset as subject recognition data. The threshold value is set to "1", and the value outside the range is set to "0", and is binarized in pixel units. At that time, the pixels of the color that are continuous in the two-dimensional coordinate system (X, Y coordinate system) are extracted and counted, and the counted value is set as the area S. When there are a plurality of portions of the color, for example, the portion having the largest area S is recognized as the subject 1 to be photographed. However, the recognition process based on the size is not necessary under the shooting condition in which the subject 1 can be specified with the set color without fail.
【0028】3次元座標計測部320では、被写体認識
部310で求めた面積Sから、抽出部分の重心位置を演
算して被写体1の中心位置C(x,y)とする。この中
心位置は、2台のセンサカメラ100の画像データVD
1a,VD1bからそれぞれ演算する。続いて、算出し
た2つの中心位置C1(x,y),C2(x,y)と、
センサカメラ100及び撮影用カメラ200の位置情報
とから、被写体1の3次元空間内の位置(撮影用カメラ
200の視点を原点とした被写体1の3次元座標)を三
角測量の原理で算出し、算出した3次元位置情報C
(x,y,z)と被写体1の大きさを示す情報(上記の
面積S)を計測情報PDとして出力する。この計測情報
PDは、データ解析装置500内の動き解析部510に
入力される。In the three-dimensional coordinate measuring section 320, the center of gravity of the extracted portion is calculated from the area S obtained by the object recognizing section 310 to obtain the center position C (x, y) of the object 1. This center position is determined by the image data VD of the two sensor cameras 100.
1a and VD1b are respectively calculated. Then, two calculated center positions C1 (x, y) and C2 (x, y),
From the position information of the sensor camera 100 and the shooting camera 200, the position of the subject 1 in the three-dimensional space (three-dimensional coordinates of the subject 1 with the viewpoint of the shooting camera 200 as the origin) is calculated by the triangulation principle, Calculated three-dimensional position information C
(X, y, z) and information indicating the size of the subject 1 (the above-described area S) are output as measurement information PD. This measurement information PD is input to the motion analysis unit 510 in the data analysis device 500.
【0029】動き解析部510では、3次元位置計測装
置300からの計測情報PDにより被写体1の動きを解
析し、解析情報を動き予測部520に送出する。例え
ば、今回の計測情報PDtn(3次元座標情報)と前回
の計測情報PDt(n−1)により、前回の計測時点を
起点とする動きベクトルを求め、求めた動きベクトルの
情報(時刻,方位角,距離,速度等)を解析情報として
送出する。動き予測部520では、動き解析部510か
らの解析情報に基づいて被写体1の次の瞬間の動きのベ
クトルを求め、被写体位置,方向,被写体速度V等を予
測情報としてカメラワーク制御部530に送出する。The motion analysis unit 510 analyzes the motion of the subject 1 based on the measurement information PD from the three-dimensional position measuring apparatus 300 and sends the analysis information to the motion prediction unit 520. For example, based on the measurement information PDtn of this time (three-dimensional coordinate information) and the measurement information PDt (n-1) of the previous time, a motion vector starting from the time point of the previous measurement is obtained, and information on the calculated motion vector (time, azimuth angle) is obtained. , Distance, speed, etc.) is transmitted as analysis information. The motion prediction unit 520 obtains the vector of the motion of the subject 1 at the next moment based on the analysis information from the motion analysis unit 510, and sends the subject position, direction, subject velocity V, etc. as prediction information to the camera work control unit 530. To do.
【0030】カメラワーク制御部530では、動き予測
部520からの予測情報(被写体速度V等)、速度補正
量検出部540からの速度補正情報(補正速度ΔV)に
基づいて、撮影用カメラ200の方向,移動量及び移動
速度を決定する。そして、パン,チルトの速度指令(V
+ΔV)を生成すると共に、撮影用カメラ200のズー
ム,フォーカス,アイリスを調整するための速度指令を
生成し、駆動制御データVcomとして出力し、駆動制
御部400を介して撮影用カメラ200を駆動制御す
る。In the camera work control section 530, based on the prediction information (subject speed V etc.) from the motion prediction section 520 and the speed correction information (correction speed ΔV) from the speed correction amount detection section 540, Determine the direction, amount of movement and speed of movement. Then, the pan / tilt speed command (V
+ ΔV), a speed command for adjusting the zoom, focus and iris of the photographing camera 200 is generated and output as drive control data Vcom, and the photographing camera 200 is drive-controlled via the drive control unit 400. To do.
【0031】なお、上述した実施の形態においては、被
写体の動きの解析機能をデータ解析装置500に設ける
場合を例として説明したが、3次元位置計測装置300
側に設ける構成としても良い。また、無人撮影の場合を
例として説明したが、当然のことながら、遠隔操作によ
りカメラマンが撮影用カメラ200を操作することも可
能であり、その場合には操作情報の入力が優先処理され
る。また、複数の撮影用カメラ200を用いて、例え
ば、バトンタッチの瞬間を捕らえる場合のように複数の
被写体を追尾する形態については詳細な説明を省略した
が、この場合には、複数の被写体をまとまった一つの被
写体として見なせばよく、各装置の動作は同様である。
その場合、被写体の位置情報或いは色等の識別情報に基
づいて各撮影用カメラ200を駆動制御するようになっ
ている。In the above-described embodiment, the case where the data analyzing device 500 is provided with the function of analyzing the movement of the subject has been described as an example, but the three-dimensional position measuring device 300 is also provided.
It may be provided on the side. Although the case of unmanned shooting has been described as an example, it is naturally possible for the cameraman to operate the shooting camera 200 by remote control, in which case the input of operation information is prioritized. Further, a detailed description has been omitted regarding a mode of tracking a plurality of subjects using a plurality of photographing cameras 200, for example, in the case of capturing a moment of a baton touch, but in this case, a plurality of subjects are collected. It should be regarded as only one subject, and the operation of each device is similar.
In that case, the driving of each photographing camera 200 is controlled based on the position information of the subject or the identification information such as the color.
【0032】[0032]
【発明の効果】以上に説明したように、本発明によれ
ば、被写体までの距離に対応する基準画角サイズで撮影
するようにしているので、被写体の大きさの違いを正確
に映像化することができるようになる。さらに、被写体
までの距離の変化に伴って生じる被写体の大きさの変化
を正確に表現することができるようになる。また、複数
の撮影用カメラを用いて、異なる被写体を自動追尾して
撮影し、それぞれの撮影画像を合成して同一画面に表示
するようにすることで、違うブロックの被写体を比較さ
せて表示することができる。例えば、運動競技などを撮
影する場合、違うブロックの選手があたかも一緒に競技
しているかのような仮想の対決をさせることも可能とな
り、手動操作による撮影では不可能な映像を提供するこ
とができるようになる。As described above, according to the present invention, since the image is taken with the reference angle of view size corresponding to the distance to the subject, the difference in the size of the subject is accurately imaged. Will be able to. Further, it becomes possible to accurately represent the change in the size of the subject caused by the change in the distance to the subject. In addition, by using a plurality of shooting cameras to automatically track and shoot different subjects, and by combining the captured images and displaying them on the same screen, the subjects in different blocks are compared and displayed. be able to. For example, when shooting an athletic competition, it is possible to have a virtual confrontation as if athletes of different blocks were playing together, and it is possible to provide images that cannot be captured by manual operation. Like
【図1】本発明に係わる自動撮影カメラシステムの構成
例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of an automatic photographing camera system according to the present invention.
【図2】図1の撮影用カメラ200と駆動制御部400
の構成例を示すブロック図である。FIG. 2 is a photographing camera 200 and a drive control unit 400 shown in FIG.
3 is a block diagram showing a configuration example of FIG.
【図3】図1の3次元位置計測装置300とデータ解析
装置500の構成例を示すブロック図である。FIG. 3 is a block diagram showing a configuration example of a three-dimensional position measurement device 300 and a data analysis device 500 of FIG.
【図4】本発明に係わる装置の動作例をフローチャート
的に図1〜図3に対応させて示す図である。FIG. 4 is a diagram showing an operation example of the apparatus according to the present invention in a flowchart corresponding to FIGS.
【図5】本発明における画角サイズの決定方法を説明す
るための図である。FIG. 5 is a diagram for explaining a method of determining a view angle size according to the present invention.
【図6】本発明における画角サイズの決定方法を説明す
るための図である。FIG. 6 is a diagram for explaining a method of determining a view angle size according to the present invention.
【図7】撮影用カメラにおける画角とズーム移動量との
関係を示す図である。FIG. 7 is a diagram showing a relationship between an angle of view and a zoom movement amount in the shooting camera.
【図8】本発明における画角サイズの決定方法と従来技
術における画角サイズの決定方法との相違を説明するた
めの図である。FIG. 8 is a diagram for explaining a difference between a method of determining a view angle size according to the present invention and a method of determining a view angle size according to a conventional technique.
【図9】本発明の応用例を説明するための図である。FIG. 9 is a diagram for explaining an application example of the present invention.
【図10】従来の自動撮影カメラシステムにおける画角
サイズの決定方法を説明するための図である。FIG. 10 is a diagram for explaining a method of determining a view angle size in a conventional automatic shooting camera system.
1 被写体 100 センサカメラ 200 撮影用カメラ 210 駆動機構部(雲台) 211 パン軸 212 チルト軸 213,214,215 撮影用カメラ制御モータ 220 撮像部 300 3次元位置計測装置 310 被写体認識部 320 3次元座標計測部 400 駆動制御部 401 データベース 410 制御CPU 420 モータドライバ 500 データ解析装置 510 動き解析部 520 動き予測部 530 カメラワーク制御部 535 画角決定部 540 速度補正量検出部 1 subject 100 sensor camera 200 photographing camera 210 driving mechanism section (pan head) 211 pan axis 212 tilt axis 213, 214, 215 photographing camera control motor 220 image pickup section 300 three-dimensional position measuring device 310 subject recognition section 320 three-dimensional coordinates Measurement unit 400 Drive control unit 401 Database 410 Control CPU 420 Motor driver 500 Data analysis device 510 Motion analysis unit 520 Motion prediction unit 530 Camera work control unit 535 Angle of view determination unit 540 Speed correction amount detection unit
【手続補正書】[Procedure amendment]
【提出日】平成8年6月14日[Submission date] June 14, 1996
【手続補正1】[Procedure amendment 1]
【補正対象書類名】図面[Document name to be amended] Drawing
【補正対象項目名】全図[Correction target item name] All figures
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【図1】 FIG.
【図2】 [Fig. 2]
【図3】 [Figure 3]
【図5】 [Figure 5]
【図6】 FIG. 6
【図4】 FIG. 4
【図7】 FIG. 7
【図8】 [Figure 8]
【図9】 [Figure 9]
【図10】 FIG. 10
フロントページの続き (72)発明者 阿部 一雄 東京都世田谷区砧1丁目10番11号 日本放 送協会放送技術研究所内 (72)発明者 石川 秋男 東京都世田谷区砧1丁目10番11号 日本放 送協会放送技術研究所内Front Page Continuation (72) Inventor Kazuo Abe 1-10-11 Kinuta, Setagaya-ku, Tokyo Inside the Japan Broadcasting Corporation Broadcasting Technology Laboratory (72) Inventor Akio Ishikawa 1-1-10 Kinuta, Setagaya-ku, Tokyo Sending Association Broadcasting Technology Research Institute
Claims (3)
むカメラ操作の制御が可能な撮影用カメラの駆動制御に
より撮影対象の被写体を自動追尾して撮影する自動撮影
カメラシステムにおける撮影方法おいて、カメラ操作者
の視野に相当する広角画像を撮影する第1及び第2のセ
ンサカメラの撮影画像に基づいて前記被写体の3次元位
置を計測すると共に、前記撮影用カメラの視点から前記
3次元位置までの距離を予測し、この予測距離に対応す
る予め定められた基準画角サイズで前記被写体を撮影す
るようにしたことを特徴とする自動撮影カメラシステム
における被写体の撮影方法。1. A photographing method in an automatic photographing camera system for automatically tracking and photographing a subject to be photographed by driving control of a photographing camera capable of controlling camera operation including a photographing direction by a control signal from the outside, From the viewpoint of the photographing camera to the three-dimensional position, the three-dimensional position of the subject is measured based on the photographed images of the first and second sensor cameras that photograph wide-angle images corresponding to the field of view of the camera operator. Of the subject, and the subject is photographed with a predetermined reference angle size corresponding to the predicted distance.
むカメラ操作の制御が可能な複数の撮影用カメラの駆動
制御により異なる撮影対象の被写体をそれぞれ自動追尾
して撮影する自動撮影カメラシステムにおける撮影方法
において、カメラ操作者の視野に相当する広角画像を撮
影する第1及び第2のセンサカメラの撮影画像に基づい
て前記異なる被写体の3次元位置をそれぞれ計測すると
共に、前記撮影用カメラの視点から前記異なる被写体の
3次元位置までの距離をそれぞれ予測し、各予測距離に
対応する予め定められた基準画角サイズで前記異なる被
写体をそれぞれ撮影すると共に、各撮影画像を合成して
同一画面上に表示するようにしたことを特徴とする自動
撮影カメラシステムにおける被写体の撮影方法。2. An image pickup in an automatic image pickup camera system for automatically tracking and photographing different objects to be photographed by driving control of a plurality of photographing cameras capable of controlling camera operations including a photographing direction by a control signal from the outside. In the method, the three-dimensional positions of the different subjects are respectively measured based on the images captured by the first and second sensor cameras that capture a wide-angle image corresponding to the field of view of the camera operator, and from the viewpoint of the capturing camera. The distances to the three-dimensional positions of the different subjects are predicted, the different subjects are photographed with a predetermined reference angle of view size corresponding to each predicted distance, and the photographed images are combined to be displayed on the same screen. A method of photographing an object in an automatic photographing camera system, characterized in that the image is displayed.
距離に基づいて決定するようにした請求項2に記載の自
動撮影カメラシステムにおける被写体の撮影方法。3. The method of photographing a subject in an automatic photographing camera system according to claim 2, wherein the different subject to be photographed is determined based on the predicted distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8153134A JPH09322053A (en) | 1996-05-24 | 1996-05-24 | Image pickup method for object in automatic image pickup camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8153134A JPH09322053A (en) | 1996-05-24 | 1996-05-24 | Image pickup method for object in automatic image pickup camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09322053A true JPH09322053A (en) | 1997-12-12 |
Family
ID=15555751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8153134A Pending JPH09322053A (en) | 1996-05-24 | 1996-05-24 | Image pickup method for object in automatic image pickup camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09322053A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002101408A (en) * | 2000-09-22 | 2002-04-05 | Asahi Precision Co Ltd | Supervisory camera system |
JP2008520016A (en) * | 2004-11-12 | 2008-06-12 | サーブ アクティエボラーグ | Image-based motion tracking |
JP2011228964A (en) * | 2010-04-20 | 2011-11-10 | Canon Inc | Image processing apparatus and image processing method |
JP2012042507A (en) * | 2010-08-12 | 2012-03-01 | Hitachi Consumer Electronics Co Ltd | Video display device |
US8390686B2 (en) | 2005-09-20 | 2013-03-05 | Fujifilm Corporation | Surveillance camera apparatus and surveillance camera system |
WO2013162198A1 (en) * | 2012-04-26 | 2013-10-31 | (주)비전에스티 | Surveillance system and method for controlling same |
JP2014120994A (en) * | 2012-12-18 | 2014-06-30 | Nikon Corp | Auxiliary imaging apparatus |
JP2015514339A (en) * | 2012-03-13 | 2015-05-18 | エイチ4 エンジニアリング, インコーポレイテッドH4 Engineering, Inc. | System and method for video recording and webcasting of sports events |
JP2017011687A (en) * | 2015-06-23 | 2017-01-12 | 東芝テック株式会社 | Image processing device |
JP2017212531A (en) * | 2016-05-24 | 2017-11-30 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Imaging system, mobile body, imaging method, and program |
-
1996
- 1996-05-24 JP JP8153134A patent/JPH09322053A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002101408A (en) * | 2000-09-22 | 2002-04-05 | Asahi Precision Co Ltd | Supervisory camera system |
JP2008520016A (en) * | 2004-11-12 | 2008-06-12 | サーブ アクティエボラーグ | Image-based motion tracking |
US8390686B2 (en) | 2005-09-20 | 2013-03-05 | Fujifilm Corporation | Surveillance camera apparatus and surveillance camera system |
JP2011228964A (en) * | 2010-04-20 | 2011-11-10 | Canon Inc | Image processing apparatus and image processing method |
JP2012042507A (en) * | 2010-08-12 | 2012-03-01 | Hitachi Consumer Electronics Co Ltd | Video display device |
JP2015514339A (en) * | 2012-03-13 | 2015-05-18 | エイチ4 エンジニアリング, インコーポレイテッドH4 Engineering, Inc. | System and method for video recording and webcasting of sports events |
WO2013162198A1 (en) * | 2012-04-26 | 2013-10-31 | (주)비전에스티 | Surveillance system and method for controlling same |
JP2014120994A (en) * | 2012-12-18 | 2014-06-30 | Nikon Corp | Auxiliary imaging apparatus |
JP2017011687A (en) * | 2015-06-23 | 2017-01-12 | 東芝テック株式会社 | Image processing device |
JP2017212531A (en) * | 2016-05-24 | 2017-11-30 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Imaging system, mobile body, imaging method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108111818B (en) | Moving target actively perceive method and apparatus based on multiple-camera collaboration | |
JP4699040B2 (en) | Automatic tracking control device, automatic tracking control method, program, and automatic tracking system | |
JP4451122B2 (en) | Video tracking system and method | |
JP4568009B2 (en) | Monitoring device with camera cooperation | |
KR20190013759A (en) | Arithmetic processing device and arithmetic processing method | |
KR101096157B1 (en) | watching apparatus using dual camera | |
CN110944101A (en) | Image pickup apparatus and image recording method | |
JPH09322053A (en) | Image pickup method for object in automatic image pickup camera system | |
JP6624800B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP3615868B2 (en) | Automatic camera system | |
JP3615867B2 (en) | Automatic camera system | |
US20060055792A1 (en) | Imaging system with tracking function | |
JP2945870B2 (en) | Motion detection device | |
JPH10294890A (en) | Automatic/manual photographic camera system | |
US12038744B2 (en) | System of obtaining exercise video utilizing drone and method of obtaining exercise video utilizing drone | |
JPH11339139A (en) | Monitoring device | |
JP2002288637A (en) | Environmental information forming method | |
JP3388833B2 (en) | Measuring device for moving objects | |
JP3549332B2 (en) | Automatic shooting camera system | |
JP3393969B2 (en) | Method and apparatus for recognizing subject in automatic camera system | |
JP4464902B2 (en) | Camera control apparatus and camera control program | |
JPH10188145A (en) | Automatic zoom monitoring device | |
JP2001285849A (en) | Photographing system | |
KR101230344B1 (en) | A method and an appratus for photographing an image in a stereo-vision system | |
JP2580516B2 (en) | Real-time three-dimensional motion measuring apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050412 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050823 |