JP4446041B2 - Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device - Google Patents
Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device Download PDFInfo
- Publication number
- JP4446041B2 JP4446041B2 JP2004291353A JP2004291353A JP4446041B2 JP 4446041 B2 JP4446041 B2 JP 4446041B2 JP 2004291353 A JP2004291353 A JP 2004291353A JP 2004291353 A JP2004291353 A JP 2004291353A JP 4446041 B2 JP4446041 B2 JP 4446041B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- camera vector
- unit
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 239000013598 vector Substances 0.000 title claims description 368
- 230000000087 stabilizing effect Effects 0.000 title description 7
- 238000004364 calculation method Methods 0.000 claims description 165
- 230000006641 stabilisation Effects 0.000 claims description 51
- 238000011105 stabilization Methods 0.000 claims description 51
- 238000012937 correction Methods 0.000 claims description 48
- 238000001514 detection method Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 29
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 14
- 238000003702 image correction Methods 0.000 claims description 11
- 230000036544 posture Effects 0.000 description 26
- 238000000034 method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 230000001788 irregular Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000011895 specific detection Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
Description
本発明は、動画映像をビデオ撮影するカメラのカメラ位置とカメラ方向を算出して、そのカメラ位置情報に基づいて画像のブレを補正する装置に関する。
特に、本発明は、動画映像の複数のフレーム画像から高精度なカメラ位置、カメラ回転角等のカメラベクトルを演算により自動的に求めるカメラベクトル演算装置と、求められたカメラベクトルに基づいて、ビデオ映像等の動画撮影において取得された画像のカメラの揺れに起因する不規則なブレ等を補正し、ブレのある画像からブレのない画像を生成することができる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置に関する。
The present invention relates to an apparatus that calculates a camera position and a camera direction of a camera that takes a video of a moving image and corrects an image blur based on the camera position information.
In particular, the present invention provides a camera vector calculation device that automatically obtains a camera vector such as a highly accurate camera position and camera rotation angle from a plurality of frame images of a moving image by calculation, and a video based on the obtained camera vector. Shake component detection device and image stabilization device capable of correcting irregular blur caused by camera shake of an image acquired in moving image shooting such as video, and generating a blur-free image from the blurred image , A position and orientation stabilization device, a target object lock-on device, and a live-action object attribute call device.
一般に、動画映像をビデオ撮影するカメラでは、例えば、車載カメラの振動による揺れや、撮影者の手振れ等、カメラの揺れによる画像のブレを補正するための補正機構,補正手段が備えられている(例えば、特許文献1−2参照。)。
従来の画像補正は、画像のブレ成分を、画像内の複数の特徴点から抽出し、揺れ成分が少なくなるように画像を垂直方向と水平方向に移動することで、画像の変化が円滑になるように画像を処理することで実現されていた。
Conventional image correction extracts the blur component of an image from multiple feature points in the image and moves the image in the vertical and horizontal directions so that the shaking component is reduced, so that the image changes smoothly. It was realized by processing the image.
しかしながら、従来の画像の補正処理では、画像の垂直方向と水平方向のブレについては、ある程度ブレを押さえることができるが、カメラ視点方向の不規則な回転運動に起因するブレと画像歪みを補正することはできなかった。
つまり、従来の動画映像の補正技術では、カメラの揺れによる画像の上下左右の移動分については補正できるが、カメラの3軸方向の回転成分に起因する揺れの歪みは補正することができなかった。
However, in the conventional image correction process, the vertical and horizontal blur of the image can be suppressed to some extent, but the blur and image distortion caused by the irregular rotational motion in the camera viewpoint direction are corrected. I couldn't.
In other words, the conventional video image correction technology can correct the vertical and horizontal movements of the image due to camera shake, but cannot correct the distortion of the shake caused by the three-axis rotational components of the camera. .
そこで、本願発明者は、鋭意研究の結果、動画映像の複数のフレーム画像から充分な数の特徴点を抽出することにより、高精度なカメラ位置と回転角等を算出することができ、この高精度なカメラ位置情報に基づいて画像補正を行うことにより、従来技術では不可能であったカメラの3軸方向の回転成分による歪みについても補正し得ることに想到した。 Therefore, as a result of earnest research, the inventor of the present application can calculate a highly accurate camera position, rotation angle, and the like by extracting a sufficient number of feature points from a plurality of frame images of a moving image. By performing image correction based on accurate camera position information, it has been conceived that distortion due to rotational components in the three-axis directions of the camera, which was impossible with the prior art, can also be corrected.
すなわち、本発明は、上述した従来技術が有する問題を解決するために提案されたものであり、動画における複数のフレーム画像から特徴点を自動抽出することにより、高精度なカメラ位置、カメラ回転角等のカメラベクトルを自動的に算出することができるカメラベクトル演算装置と、求められた高精度なカメラベクトルに基づいて、ビデオ映像等の動画撮影において取得された画像のカメラの揺れに起因するブレを補正し、ブレのない画像を生成することができる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置の提供を目的とする。 That is, the present invention has been proposed to solve the above-described problems of the prior art, and by automatically extracting feature points from a plurality of frame images in a moving image, a highly accurate camera position and camera rotation angle are obtained. And a camera vector arithmetic unit capable of automatically calculating a camera vector, and a camera shake of an image acquired in moving image shooting such as a video image based on the obtained high-accuracy camera vector. It is an object of the present invention to provide a shake component detection device, an image stabilization device, a position and orientation stabilization device, a target object lock-on device, and a live-action object attribute call device that can correct an image and generate a blur-free image.
上記目的を達成するため、本発明のカメラベクトル演算装置は、請求項1に記載するように、動画映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部と、を備える構成としてある。 In order to achieve the above object, a camera vector arithmetic device according to the present invention is characterized in that, as described in claim 1, a feature point extraction unit that automatically extracts a predetermined number of feature points from image data of a moving image, For feature points, a feature point correspondence processing unit that automatically traces within each frame image of a moving image and obtains a correspondence relationship between the frame images, and obtains the three-dimensional position coordinates of the feature point for which the correspondence relationship is obtained. And a camera vector calculation unit that obtains a camera vector composed of the three-dimensional position coordinates and the three-dimensional rotation coordinates of the camera corresponding to each frame image from the original position coordinates.
また、本発明のカメラベクトル演算装置は、請求項2に記載するように、前記カメラベクトル演算部において求められる複数のカメラベクトルの解の分布を最小になるように統計処理し、誤差の最小化処理を施したカメラベクトルを自動的に決定する誤差最小化部を備えた構成としてある。 According to another aspect of the present invention, the camera vector calculation device performs statistical processing to minimize the distribution of solutions of a plurality of camera vectors obtained by the camera vector calculation unit, and minimizes errors. In this configuration, an error minimizing unit that automatically determines the processed camera vector is provided.
また、本発明のカメラベクトル演算装置は、請求項3に記載するように、前記カメラベクトル演算部は、カメラベクトル演算に用いる任意の二つのフレーム画像Fn及びFn+m(m=フレーム間隔)を単位画像として、所望の特徴点の三次元位置座標とカメラベクトルを求める単位演算を繰り返し、前記二つのフレーム画像Fn及びFn+mの間のフレーム画像については、簡素化した演算によりカメラベクトルを求め、前記誤差最小化部は、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定する構成としてある。 Further, in the camera vector calculation device according to the present invention, the camera vector calculation unit uses any two frame images Fn and Fn + m (m = frame interval) used for the camera vector calculation as a unit image. The unit calculation for obtaining the three-dimensional position coordinates of the desired feature points and the camera vector is repeated, and for the frame image between the two frame images Fn and Fn + m, the camera vector is obtained by a simplified calculation, and the error is minimized. The conversion unit adjusts and integrates the final camera so that an error of each camera vector obtained by calculating a plurality of times for the same feature point is minimized by continuously progressing n as the image progresses. This is a configuration for determining a vector.
また、本発明のカメラベクトル演算装置は、請求項4に記載するように、前記カメラベクトル演算部は、前記フレーム間隔mを、カメラから特徴点までの距離に応じて、カメラから特徴点までの距離が大きいほどmが大きくなるように設定して単位演算を行う構成としてある。 According to the camera vector calculation device of the present invention, as described in claim 4, the camera vector calculation unit sets the frame interval m from the camera to the feature point according to the distance from the camera to the feature point. The unit calculation is performed by setting m so as to increase as the distance increases.
また、本発明のカメラベクトル演算装置は、請求項5に記載するように、前記カメラベクトル演算部は、求められたカメラベクトルの誤差の分布が大きい特徴点を削除し、必要が有れば、他の特徴点に基づいてカメラベクトルの再演算を行い、カメラベクトル演算の精度を上げる構成としてある。 Further, in the camera vector calculation device according to the present invention, as described in claim 5, the camera vector calculation unit deletes a feature point having a large error distribution of the obtained camera vector, and if necessary, The camera vector is recalculated based on other feature points to increase the accuracy of the camera vector calculation.
また、本発明のカメラベクトル演算装置は、請求項6に記載するように、前記カメラベクトル演算部は、所望の精度となる最低数のフレーム画像と、自動抽出した最低数の特徴点に基づいて演算を行い、カメラベクトルの概略値をリアルタイムで求めて表示し、画像の進行により画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させて、より精度の高いカメラベクトル演算を行い、カメラベクトルの概略値を精度の高いカメラベクトル値に置き換えて表示する構成としてある。 In the camera vector calculation device according to the present invention, the camera vector calculation unit is configured so that the camera vector calculation unit is based on a minimum number of frame images with desired accuracy and a minimum number of feature points automatically extracted. Performs computation, obtains and displays the approximate value of the camera vector in real time, and increases the number of frames and the number of feature points as the image accumulates as the image progresses. The approximate value of the camera vector is replaced with a highly accurate camera vector value and displayed.
また、本発明のカメラベクトル演算装置は、請求項7に記載するように、特徴点抽出部で特徴点が自動抽出される動画映像が、360度全周画像からなる構成としてある。 In the camera vector arithmetic device according to the present invention, the moving picture image in which the feature points are automatically extracted by the feature point extraction unit is composed of 360-degree all-round images.
また、本発明のカメラベクトル演算装置は、請求項8に記載するように、前記特徴点抽出部で特徴点が自動抽出される動画映像として、位置関係が固定され同期して映像を取得する複数のカメラにより取得される視野の広い広角視野映像及び当該広角視野映像より視野の狭い狭角視野映像を入力し、広角視野映像の画像データに基づいてカメラベクトルを演算するとともに、当該広角視野映像に基づくカメラベクトル値を、狭角視野映像の画像データに基づくカメラベクトル演算時に代入演算することにより、高精度のカメラベクトルを求める構成としてある。 According to another aspect of the present invention, there is provided a plurality of camera vector calculation devices that acquire a video in a synchronized manner with a fixed positional relationship as a moving image video in which feature points are automatically extracted by the feature point extraction unit. A wide-angle field-of-view video with a wide field of view and a narrow-angle field-of-view video with a narrower field of view than the wide-angle field-of-view video acquired by the camera are input, the camera vector is calculated based on the image data of the wide-angle field-of-view video, A high-accuracy camera vector is obtained by substituting a camera vector value based on a camera vector calculation based on image data of a narrow-angle visual field image.
また、本発明のカメラベクトル演算装置は、請求項9に記載するように、前記カメラベクトル演算部で得られたカメラベクトルを概略のカメラベクトルとして、順次画像の一部分として得られる三次元情報に基づいて、複数のフレーム画像に含まれる部分的三次元情報を、隣接するフレーム間で連続的に追跡する三次元情報追跡部と、三次元情報追跡部で得られた三次元情報の追跡結果に基づいて、前記概略のカメラベクトルより高精度のカメラベクトルを求める高精度カメラベクトル演算部と、を備える構成としてある。 The camera vector calculation device according to the present invention is based on three-dimensional information sequentially obtained as a part of an image with the camera vector obtained by the camera vector calculation unit as an approximate camera vector. Based on the 3D information tracking unit that continuously tracks partial 3D information contained in multiple frame images between adjacent frames and the tracking results of 3D information obtained by the 3D information tracking unit And a high-accuracy camera vector calculation unit that obtains a camera vector with higher accuracy than the approximate camera vector.
また、本発明のカメラベクトル演算装置は、請求項10に記載するように、前記カメラベクトル演算部で得られるカメラベクトルと、予め予定されたカメラ位置とカメラ姿勢を示す予定カメラベクトルとのズレ成分を抽出し、予定カメラベクトルと現時点又は任意の時点で得られるカメラベクトルとの差から所定の位置ズレ成分信号及び回転ズレ成分信号を生成し、当該ズレ成分信号の一部又は全部を目的に沿った適切な座標系に変換し、カメラ又はカメラが固定された固定物の揺れとして出力する揺れ成分検出装置を備える構成としてある。 According to a tenth aspect of the present invention, there is provided a camera vector calculation device according to claim 10, wherein a shift component between a camera vector obtained by the camera vector calculation unit and a scheduled camera vector indicating a camera position and a camera posture scheduled in advance. Is generated from a difference between the scheduled camera vector and the camera vector obtained at the present time or at an arbitrary time, and a predetermined positional deviation component signal and a rotational deviation component signal are generated. Further, it is configured to include a shaking component detection device that converts to a suitable coordinate system and outputs as a shaking of a camera or a fixed object to which the camera is fixed.
また、本発明のカメラベクトル演算装置は、請求項11に記載するように、前記揺れ成分検出装置の出力に基づいて、カメラが揺れている画像から得られるカメラベクトルをカメラが揺れない場合に想定される基準カメラベクトルに一致するように補正して変換するための補正信号を生成する画像補正信号生成部と、前記画像補正信号生成部の補正信号により、画像データをカメラが揺れない場合に想定されるカメラベクトルを基準ベクトルとして撮影した場合と同等の安定化画像に変換処理する安定化画像変換部と、前記安定化画像変換部で変換された安定化画像を出力する安定化画像出力部と、前記安定化画像出力部から出力された安定化画像を表示する表示部と、を有する画像安定化装置を備える構成としてある。 According to the camera vector arithmetic device of the present invention, a camera vector obtained from an image in which the camera is shaking is assumed based on the output of the shaking component detection device, as described in claim 11. An image correction signal generation unit that generates a correction signal for correction and conversion so as to match a reference camera vector to be converted, and a case where the camera does not shake the image data due to the correction signal of the image correction signal generation unit A stabilized image conversion unit that performs conversion processing to a stabilized image equivalent to the case where the camera vector is captured as a reference vector, and a stabilized image output unit that outputs the stabilized image converted by the stabilized image conversion unit, And a display unit that displays the stabilized image output from the stabilized image output unit.
また、本発明のカメラベクトル演算装置は、請求項12に記載するように、前記揺れ成分検出装置の出力に基づいて、予定するカメラの位置及び回転と現在のカメラの位置及び回転の差を求め、カメラが固定された制御対象物の位置及び姿勢を三次元的に制御して予定の位置及び姿勢に補正する補正信号を生成する位置姿勢補正信号生成部と、前記位置姿勢補正信号生成部で生成される一又は二以上の補正信号から任意の補正信号を選択し、カメラの位置及び姿勢を制御する制御信号として出力する制御信号選択部と、前記制御信号選択部から出力された制御信号により制御対象物を駆動してカメラの位置及び姿勢を制御する制御対象駆動部と、を有する位置姿勢安定化装置を備える構成としてある。 The camera vector calculation device according to the present invention obtains a difference between a planned camera position and rotation and a current camera position and rotation based on an output of the shake component detection device. A position and orientation correction signal generation unit that three-dimensionally controls the position and orientation of a control object to which the camera is fixed and generates a correction signal that corrects the position and orientation to a predetermined position and orientation; and the position and orientation correction signal generation unit A control signal selection unit that selects an arbitrary correction signal from one or more generated correction signals and outputs it as a control signal for controlling the position and orientation of the camera, and a control signal output from the control signal selection unit A position and orientation stabilization device having a control target drive unit that drives a control target and controls the position and orientation of the camera is provided.
また、本発明のカメラベクトル演算装置は、請求項13に記載するように、実写画像内に適切な三次元座標系を設定する実写座標設定部と、ロックオンすべき任意の対象物を画像内に指定するロックオン対象物指定部と、前記カメラベクトル演算装置で得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が常に画枠の中心位置又は所定位置に表示されるように、画像表示又はカメラが固定された固定物の位置及び姿勢を制御するロックオン制御部と、を有する目的対象物ロックオン装置を備える構成としてある。 According to another aspect of the present invention, a camera vector calculation device includes a live-action coordinate setting unit that sets an appropriate three-dimensional coordinate system in a live-action image, and an arbitrary object to be locked on in the image. Based on the camera vector obtained by the lock-on object designating unit designated by the camera vector calculation device, the object designated in the image is measured in a live-action coordinate system, and its three-dimensional coordinates are obtained. A lock-on control unit that controls the position and orientation of a fixed object to which an image display or camera is fixed so that the designated object whose coordinates are obtained is always displayed at the center position or a predetermined position of the image frame. A target object lock-on device is provided.
さらに、本発明のカメラベクトル演算装置は、請求項14に記載するように、前記カメラベクトル演算部で得られたカメラベクトルに基づいて、画像内で任意の対象物を指定し、又は指定した対象物を画像内の所定位置にロックオンし、当該対象物の属性,機能,コンテンツを含む所定の属性情報を呼び出して表示する実写対象物属性呼出装置を備える構成としてある。 Furthermore, as described in claim 14, the camera vector calculation device according to the present invention specifies an arbitrary object in an image based on the camera vector obtained by the camera vector calculation unit, or a specified object. It is configured to include a live-action object attribute calling device that locks on an object at a predetermined position in an image and calls and displays predetermined attribute information including the attribute, function, and content of the object.
以上のような本発明によれば、まず、カメラベクトル演算装置において、動画映像の複数のフレーム画像から、高精度なカメラ位置、カメラ回転角等のカメラベクトルを演算により自動的に求めることができる。
そして、求められたカメラベクトルに基づいて、揺れ成分検出装置において、予め予定された基準となるカメラ位置及び姿勢と現在のカメラ位置及び姿勢のズレから、カメラの揺れ成分を検出することができる。
ここで、予め予定された基準となるカメラベクトルとは、例えば、進行経路の平均的位置と回転姿勢であったり、軌道上を走行する車両にあってはレールの中心線とレールの傾斜であったり、あるいは、前もって緯度経度高度で入力された航行予定進路データである。
According to the present invention as described above, first, in the camera vector calculation device, it is possible to automatically obtain a camera vector such as a highly accurate camera position and camera rotation angle from a plurality of frame images of a moving image by calculation. .
Then, based on the obtained camera vector, the shaking component detection device can detect the shaking component of the camera from the preliminarily scheduled reference camera position and orientation and the current camera position and orientation deviation.
Here, the pre-scheduled reference camera vector is, for example, the average position and rotation posture of the travel route, or the rail center line and the rail inclination in a vehicle traveling on a track. Or, it is the scheduled route data that has been input in advance at the latitude and longitude altitudes.
このカメラの揺れ成分に基づき、まず、画像安定化装置において、ビデオ映像等の動画撮影において取得された画像のカメラの揺れに起因する不規則なブレ等を補正し、ブレのある画像からブレのない画像を生成することができる。
また、位置姿勢安定化装置においては、カメラの揺れ成分に基づき、画像ではなくカメラ自体の位置と姿勢、又はカメラを固定している固定物の位置と姿勢を制御してブレのない画像を生成することができる。
また、目的対象物ロックオン装置においては、カメラベクトル演算装置で求められるカメラベクトルに基づいて、画像内の任意の対象物が予め予定された位置と姿勢に固定されるように、画像又はカメラの位置と姿勢を制御することができる。
さらに、実写対象物属性呼出装置では、カメラベクトル演算装置で求められる三次元座標に基づいて目的対象物を特定することにより、当該対象物に関して予め用意された属性やコンテンツ等の所定の属性情報を呼び出すことができる。
Based on this camera shake component, the image stabilization device first corrects irregular blurring or the like caused by camera shake in an image captured during moving image shooting such as a video image. No image can be generated.
In addition, the position and orientation stabilization device generates a blur-free image by controlling the position and orientation of the camera itself, or the position and orientation of the fixed object that fixes the camera, based on the camera shake component. can do.
Further, in the target object lock-on device, based on the camera vector obtained by the camera vector calculation device, an arbitrary object in the image is fixed at a predetermined position and posture in advance. The position and posture can be controlled.
Furthermore, the live-action target object attribute calling device specifies predetermined target information such as attributes and contents prepared in advance for the target object by specifying the target target object based on the three-dimensional coordinates obtained by the camera vector arithmetic unit. Can be called.
本発明では、計算上理論的に必要な計測点の数と比較して、計測点の数を大幅に増やし、また、対応する画像は理論的には二枚の画像でよいが、その数を大幅に増やし、より多くの情報に基づき精度の高いカメラ位置を演算で求められるようにしたものである。
また、画像の安定化には、画像そのものの揺れではなく、カメラの揺れに着目している。画像を画面上で上下左右に移動して補正するのではなく、画像からカメラベクトルを検出し、カメラの三次元座標と3軸方向の回転を検出して、カメラの視点方向の揺れによる変動成分を検出し、正規のカメラ方向の画像となるように、画像変換処理することで、完全な画像の安定化を実現することができる。
In the present invention, compared with the number of measurement points theoretically necessary for calculation, the number of measurement points is greatly increased, and the corresponding images may theoretically be two images. The camera position is greatly increased, and a highly accurate camera position can be obtained by calculation based on more information.
In addition, the stabilization of the image focuses not on the shaking of the image itself but on the shaking of the camera. Instead of correcting the image by moving it up, down, left, or right on the screen, it detects the camera vector from the image, detects the three-dimensional coordinates of the camera and the rotation in the three-axis direction, and the fluctuation component due to the shaking of the camera viewpoint Is detected, and image conversion processing is performed so that an image in the normal camera direction is obtained, thereby realizing complete stabilization of the image.
以下、本発明に係るカメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置の好ましい実施形態について、図面を参照しつつ説明する。
ここで、以下に示す本発明のカメラベクトル演算装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、特徴点の自動抽出,抽出した特徴点の自動追跡,特徴点の三次元座標の算出,カメラベクトルの演算等を行わせる。このように、本発明のカメラベクトル演算装置における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
Hereinafter, a camera vector calculation device according to the present invention, and a shake component detection device, an image stabilization device, a position and orientation stabilization device, a target object lock-on device, and a live-action object attribute call device provided in the camera vector calculation device are described. A preferred embodiment will be described with reference to the drawings.
Here, the camera vector arithmetic device of the present invention described below is realized by processing, means, and functions executed by a computer according to instructions of a program (software). The program sends commands to each component of the computer, and performs predetermined processing and functions as shown below, such as automatic extraction of feature points, automatic tracking of extracted feature points, calculation of three-dimensional coordinates of feature points, camera Perform vector operations. Thus, each process and means in the camera vector arithmetic device of the present invention are realized by specific means in which the program and the computer cooperate.
Note that all or part of the program is provided by, for example, a magnetic disk, optical disk, semiconductor memory, or any other computer-readable recording medium, and the program read from the recording medium is installed in the computer and executed. The The program can also be loaded and executed directly on a computer through a communication line without using a recording medium.
[カメラベクトル演算装置]
まず、図1を参照して、本発明に係るカメラベクトル演算装置の一実施形態について説明する。図1は、本発明の一実施形態に係るカメラベクトル演算装置の概略構成を示すブロック図である。
同図に示すように、カメラベクトル演算蔵置10は、画像取得部11と、画像一時記録部12と、特徴点抽出部13と、特徴対応処理部14と、カメラベクトル演算部15と、誤差最小化部16と、三次元情報追跡部17と、高精度カメラベクトル演算部18を備え、さらに、揺れ成分検出装置20を備えている。
[Camera vector arithmetic unit]
First, an embodiment of a camera vector arithmetic device according to the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of a camera vector arithmetic device according to an embodiment of the present invention.
As shown in the figure, the camera vector calculation storage 10 includes an image acquisition unit 11, an image temporary recording unit 12, a feature point extraction unit 13, a feature correspondence processing unit 14, a camera vector calculation unit 15, and a minimum error. A conversion unit 16, a three-dimensional information tracking unit 17, a high-precision camera vector calculation unit 18, and a shake component detection device 20.
画像取得部11は、ビデオカメラ等で撮影された任意の動画映像を取得する。ここで、画像取得部11で取得される映像としては、後述するように、360度全周画像のような広角画像とすることが好ましい。また、画像取得部11で取得される映像としては、後述するように、同期した複数のカメラを用いて、視野の広い広角視野カメラで得られる映像と、広角カメラよりも視野の狭い狭角視野カメラで得られる映像を使用することもできる。
画像一時記録部12は、画像取得部11で取得された動画映像を一時記録する。
The image acquisition unit 11 acquires an arbitrary moving image shot by a video camera or the like. Here, the video acquired by the image acquisition unit 11 is preferably a wide-angle image such as a 360-degree all-round image, as will be described later. As will be described later, the video acquired by the image acquisition unit 11 includes a video obtained by a wide-angle camera with a wide field of view using a plurality of synchronized cameras, and a narrow-angle field of view that is narrower than the wide-angle camera. You can also use video obtained with a camera.
The image temporary recording unit 12 temporarily records the moving image acquired by the image acquisition unit 11.
特徴点抽出部13は、ビデオカメラで撮影した動画映像を一時記録した画像データの中から、十分な数の特徴点を自動抽出する。
特徴対応処理部14は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部15は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部16は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理をし、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
The feature point extraction unit 13 automatically extracts a sufficient number of feature points from the image data in which the moving image shot by the video camera is temporarily recorded.
The feature correspondence processing unit 14 automatically obtains the correspondence relationship by automatically tracking the automatically extracted feature points in each frame image between the frames.
The camera vector calculation unit 15 automatically calculates a camera vector corresponding to each frame image from the three-dimensional position coordinates of the feature points for which the correspondence relationship has been determined.
The error minimizing unit 16 performs statistical processing so that the distribution of the solution of each camera vector is minimized by overlapping calculation of a plurality of camera positions, and automatically determines the camera position direction subjected to the error minimizing process. To do.
三次元情報追跡部17は、カメラベクトル演算部15で得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで順次画像の一部として得られる三次元情報に基づいてい、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレームの画像に沿って自動追跡を行う。ここで、三次元情報(三次元形状)とは、主に特徴点の三次元分布情報であり、すなわち、三次元の点の集まりであり、この三次元の点の集まりが三次元形状を構成する。
高精度カメラベクトル演算部18は、三次元情報追跡部17で得られた追跡データに基づいて、カメラベクトル演算部15で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが揺れ成分検出装置20に入力され、カメラの揺れ成分が検出されることになる。
The three-dimensional information tracking unit 17 positions the camera vector obtained by the camera vector calculation unit 15 as an approximate camera vector, and based on the three-dimensional information sequentially obtained as part of the image in the subsequent process, a plurality of frame images 3D information is automatically tracked along an image of an adjacent frame. Here, three-dimensional information (three-dimensional shape) is mainly three-dimensional distribution information of feature points, that is, a collection of three-dimensional points, and this collection of three-dimensional points constitutes a three-dimensional shape. To do.
The high-precision camera vector calculation unit 18 generates and outputs a higher-precision camera vector than the camera vector obtained by the camera vector calculation unit 15 based on the tracking data obtained by the three-dimensional information tracking unit 17.
Then, the camera vector obtained as described above is input to the shake component detection device 20, and the shake component of the camera is detected.
複数の画像(動画又は連続静止画)の特徴点からカメラベクトルを検出するには幾つかの方法があるが、図1に示す本実施形態のカメラベクトル演算装置10では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、エピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルを求めるようにしてある。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
There are several methods for detecting camera vectors from feature points of a plurality of images (moving images or continuous still images). However, in the camera vector calculation device 10 of the present embodiment shown in FIG. These feature points are automatically extracted and automatically tracked to obtain a three-dimensional vector and a three-axis rotation vector of the camera by epipolar geometry.
By taking a sufficient number of feature points, camera vector information is duplicated, and an error can be minimized from the duplicated information to obtain a more accurate camera vector.
ここで、カメラベクトルとは、カメラの持つ自由度のベクトルをいう。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態のカメラベクトル演算装置1によるカメラベクトルの検出は、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
Here, the camera vector refers to a vector of degrees of freedom possessed by the camera.
In general, a stationary three-dimensional object has six degrees of freedom of position coordinates (X, Y, Z) and rotation angles (Φx, Φy, Φz) of the respective coordinate axes. Therefore, the camera vector refers to a vector of six degrees of freedom of the camera position coordinates (X, Y, Z) and the rotation angles (Φx, Φy, Φz) of the respective coordinate axes. When the camera moves, the direction of movement also enters the degree of freedom, which can be derived by differentiation from the above six degrees of freedom.
As described above, the detection of the camera vector by the camera vector computing device 1 of the present embodiment is that the camera takes six degrees of freedom for each frame and determines six different degrees of freedom for each frame. It is.
以下、カメラベクトル演算装置10における具体的なカメラベクトルの検出方法について、図2以下を参照しつつ説明する。
まず、画像取得部11で取得された画像データは画像一時記録部12を経て(又は直接)特徴点抽出部13に入力され、特徴点抽出部13で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴対応処理部14で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図2〜図4に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図4に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図5に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図5の○印参照)、例えば、100点程度の特徴点を抽出する。
Hereinafter, a specific method for detecting a camera vector in the camera vector arithmetic apparatus 10 will be described with reference to FIG.
First, the image data acquired by the image acquisition unit 11 is input to the feature point extraction unit 13 via the image temporary recording unit 12 (or directly), and in the frame image appropriately sampled by the feature point extraction unit 13, A point or a small area image to be a feature point is automatically extracted, and the feature correspondence processing unit 14 automatically obtains a correspondence relationship between the feature points among a plurality of frame images.
Specifically, more than a sufficient number of feature points that are used as a reference for detecting a camera vector are obtained. Examples of feature points between images and their corresponding relationships are shown in FIGS. In the figure, “+” is a feature point that is automatically extracted, and the correspondence is automatically tracked between a plurality of frame images (see correspondence points 1 to 4 shown in FIG. 4).
Here, for extracting feature points, as shown in FIG. 5, it is desirable to specify and extract a sufficiently large number of feature points in each image (see circles in FIG. 5). For example, about 100 feature points are extracted. Extract points.
続いて、カメラベクトル演算部15で、抽出された特徴点の三次元座標が演算により求められ、その三次元座標に基づいてカメラベクトルが演算により求められる。具体的には、カメラベクトル演算部15は、連続する各フレーム間に存在する、十分な数の特徴の位置と、移動するカメラ間の位置ベクトル、カメラの3軸回転ベクトル、各カメラ位置と特徴点をそれぞれ結んだベクトル等、各種三次元ベクトルの相対値を演算により連続的に算出する
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
Subsequently, the camera vector calculation unit 15 calculates the three-dimensional coordinates of the extracted feature points, and calculates the camera vector based on the three-dimensional coordinates. Specifically, the camera vector calculation unit 15 includes a sufficient number of feature positions that exist between consecutive frames, a position vector between moving cameras, a three-axis rotation vector of the camera, and each camera position and feature. In this embodiment, the relative values of various three-dimensional vectors, such as vectors connecting points, are calculated continuously. In this embodiment, for example, camera motion (camera position) is solved by solving an epipolar equation from the epipolar geometry of a 360-degree all-round image. And camera rotation).
図4に示す画像1,2は、360度全周画像をメルカトール展開した画像であり、緯度φ、軽度θとすると、画像1上の点は(θ1,φ1)、画像2上の点は(θ2,φ2)となる。そして、それぞれのカメラでの空間座標は、z1=(cosφ1cosθ1,cosφ1sinθ1,sinφ1)、z2=(cosφ2cosθ2,cosφ2sinθ2,sinφ2)である。カメラの移動ベクトルをt、カメラの回転行列をR、とすると、z1T[t]×Rz2=0がエピポーラ方程式である。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
Images 1 and 2 shown in FIG. 4 are images obtained by Mercator expansion of 360-degree all-round images. When latitude φ and light θ are assumed, points on image 1 are (θ1, φ1) and points on image 2 are ( θ2, φ2). The spatial coordinates of each camera are z1 = (cos φ1 cos θ1, cos φ1 sin θ1, sin φ1), z2 = (cos φ2 cos θ2, cos φ2 sin θ2, sin φ2). When the camera movement vector is t and the camera rotation matrix is R, z1 T [t] × Rz2 = 0 is the epipolar equation.
By providing a sufficient number of feature points, t and R can be calculated as a solution by the method of least squares by linear algebra calculation. This calculation is applied to a plurality of corresponding frames.
ここで、カメラベクトルの演算に利用する画像としては、360度全周画像を用いることが好ましい。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、図4に示す360度全周画像のような広角画像の方が特徴点を数多く選択し易くなる。そこで、本実施形態では、カメラベクトル演算に360度全周画像を用いるようにしてあり、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図4は、カメラベクトル演算装置1における処理を理解し易くするために、1台または複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のカメラベクトル演算装置1では、必ずしもメルカトール図法による展開画像である必要はない。
Here, it is preferable to use a 360-degree all-round image as an image used for the calculation of the camera vector.
The image used for the camera vector calculation may be any image in principle, but a wide-angle image such as a 360-degree all-round image shown in FIG. 4 can easily select many feature points. Therefore, in the present embodiment, the 360-degree all-round image is used for the camera vector calculation, whereby the tracking distance of the feature points can be increased, and a sufficiently large number of feature points can be selected. It is possible to select feature points that are convenient for medium and short distances. In addition, when correcting the rotation vector, the calculation process can be easily performed by adding the polar rotation conversion process. As a result, a calculation result with higher accuracy can be obtained.
Note that FIG. 4 is a Mercator projection that is a 360-degree spherical image obtained by synthesizing images taken by one or a plurality of cameras in order to facilitate understanding of the processing in the camera vector computing device 1. Although a developed image is shown, the actual camera vector calculation device 1 does not necessarily need to be a developed image by the Mercator projection.
次に、誤差最小化部16では、各フレームに対応する複数のカメラ位置と複数の特徴点の数により、複数通り生じる演算方程式により、各特徴点に基づくベクトルを複数通り演算して求めて、各特徴点の位置及びカメラ位置の分布が最小になるように統計処理をして、最終的なベクトルを求める。例えば、複数フレームのカメラ位置、カメラ回転及び複数の特徴点について、Levenberg-Marquardt法により最小自乗法の最適解を推定し、誤差を収束してカメラ位置、カメラ回転行列、特徴点の座標を求める。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
Next, the error minimizing unit 16 calculates a plurality of vectors based on each feature point by a plurality of calculation equations based on a plurality of camera positions and the number of feature points corresponding to each frame, Statistical processing is performed so that the distribution of the position of each feature point and the camera position is minimized to obtain a final vector. For example, the optimal solution of the least square method is estimated by the Levenberg-Marquardt method for multiple frame camera positions, camera rotations, and multiple feature points, and errors are converged to determine the camera position, camera rotation matrix, and feature point coordinates. .
Further, feature points having a large error distribution are deleted, and recalculation is performed based on other feature points, thereby improving the accuracy of computation at each feature point and camera position.
In this way, the position of the feature point and the camera vector can be obtained with high accuracy.
図6〜図8に、カメラベクトル演算装置1により得られる特徴点の三次元座標とカメラベクトルの例を示す。図6〜図8は、本実施形態のベクトル検出方法を示す説明図であり、移動するカメラによって取得された複数のフレーム画像によって得られるカメラ及び対象物の相対的な位置関係を示す図である。
図6では、図4の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトルが示されている。
図7及び図8は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
6 to 8 show examples of the three-dimensional coordinates of the feature points and camera vectors obtained by the camera vector calculation device 1. 6 to 8 are explanatory diagrams illustrating the vector detection method of the present embodiment, and are diagrams illustrating the relative positional relationship between the camera and the object obtained from a plurality of frame images acquired by the moving camera. .
In FIG. 6, the three-dimensional coordinates of the feature points 1 to 4 shown in the images 1 and 2 in FIG. 4 and the camera vector that moves between the images 1 and 2 are shown.
7 and 8 show a sufficiently large number of feature points, the positions of the feature points obtained from the frame image, and the position of the moving camera. In the figure, a circle mark that continues in a straight line at the center of the graph is the camera position, and a circle mark located around the circle indicates the position and height of the feature point.
ここで、カメラベクトル演算装置1における演算は、より高精度な特徴点とカメラ位置の三次元情報を高速に得るために、図9に示すように、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行うようにする。
具体的には、カメラベクトル演算装置1は、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返す。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
Here, the calculation in the camera vector calculation device 1 is performed in accordance with the distance of the feature point from the camera, as shown in FIG. 9, in order to obtain more accurate three-dimensional information of the feature point and the camera position. Set feature points and repeat multiple operations.
Specifically, the camera vector calculation device 1 automatically detects feature points that have image characteristics in an image and uses them for camera vector calculation when obtaining corresponding points of feature points in each frame image. The unit calculation is repeated by paying attention to the two frame images Fn and Fn + m of the nth and n + mth, and the unit calculation with n and m appropriately set is repeated.
m is the frame interval, and the feature points are classified into a plurality of stages according to the distance from the camera to the feature point in the image. The distance from the camera to the feature point is set so that m becomes larger. It is set so that m is smaller as the distance to is shorter. This is because the change in position between images is less as the distance from the camera to the feature point is longer.
そして、特徴点のm値による分類を、十分にオーバーラップさせながら、複数段階のmを設定し、画像の進行とともにnが連続的に進行するのにともなって、演算を連続的に進行させる。そして、nの進行とmの各段階で、同一特徴点について複数回重複演算を行う。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
Then, while sufficiently overlapping the classification of the feature points by the m value, a plurality of stages of m are set, and as n progresses continuously with the progress of the image, the calculation proceeds continuously. Then, the overlap calculation is performed a plurality of times for the same feature point in each step of n and m.
In this way, by performing unit calculation focusing on the frame images Fn and Fn + m, a precise camera vector is calculated over a long time between each frame sampled every m frames (frames are dropped). However, in m frames (minimum unit frames) between the frame images Fn and Fn + m, a simple calculation that can be performed in a short time can be performed.
m枚毎の精密カメラベクトル演算に誤差がないとすれば、m枚のフレームのカメラベクトルの両端は、高精度演算をしたFnとFn+mのカメラベクトルと重なることになる。従って、FnとFn+mの中間のm枚の最小単位のフレームについては簡易演算で求め、簡易演算で求めたm枚の最小単位フレームのカメラベクトルの両端を、高精度演算で求めたFnとFn+mのカメラベクトルに一致するように、m枚の連続したカメラベクトルのスケール調整をすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
If there is no error in the precision camera vector calculation for every m frames, both ends of the camera vector of the m frames overlap with the Fn and Fn + m camera vectors that have been subjected to the high precision calculation. Accordingly, m minimum unit frames between Fn and Fn + m are obtained by a simple calculation, and both ends of the camera vector of the m minimum unit frames obtained by the simple calculation are Fn and Fn + m obtained by high precision calculation. The scale adjustment of m consecutive camera vectors can be made to match the camera vectors.
In this way, as n progresses continuously with the progress of the image, the scale adjustment is performed so that the error of each camera vector obtained by calculating a plurality of times for the same feature point is minimized, and integration is performed. A camera vector can be determined.
Accordingly, it is possible to speed up the arithmetic processing by combining simple arithmetic operations while obtaining a highly accurate camera vector having no error.
ここで、簡易演算としては、精度に応じて種々の方法があるが、例えば、(1)高精度演算では100個以上の多くの特徴点を用いる場合に、簡易演算では最低限の10個程度の特徴点を用いる方法や、(2)同じ特徴点の数としても、特徴点とカメラ位置を同等に考えれば、そこには無数の三角形が成立し、その数だけの方程式が成立するため、その方程式の数を減らすことで、簡易演算とすることができる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
Here, there are various simple calculation methods depending on the accuracy. For example, when (1) many feature points of 100 or more are used in high-precision calculation, the minimum number of simple calculation is about ten. (2) Even if the number of the same feature points is the same as the feature points and camera positions, innumerable triangles are established there, and equations for that number are established. By reducing the number of equations, it can be simplified.
In this way, integration is performed by adjusting the scale so that the error of each feature point and camera position is minimized, distance calculation is performed, and feature points with large error distribution are deleted, and other features are added as necessary. By recalculating the points, the calculation accuracy at each feature point and camera position can be improved.
また、このように高速な簡易演算を行うことにより、カメラベクトルのリアルタイム処理が可能となる。カメラベクトルのリアルタイム処理は、目的の精度をとれる最低のフレーム数と、自動抽出した最低の特徴点数で演算を行い、カメラベクトルの概略値をリアルタイムで求め、表示し、次に、画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させ、より精度の高いカメラベクトル演算を行い、概略値を精度の高いカメラベクトル値に置き換えて表示することができる。 In addition, by performing high-speed simple calculation in this way, camera vector real-time processing becomes possible. In real-time processing of camera vectors, calculation is performed with the minimum number of frames that can achieve the target accuracy and the minimum number of feature points that are automatically extracted, the approximate value of the camera vector is obtained and displayed in real time, and then the image is accumulated. Accordingly, the number of frames can be increased, the number of feature points can be increased, camera vector calculation with higher accuracy can be performed, and approximate values can be replaced with camera vector values with higher accuracy for display.
さらに、本実施形態では、より高精度のカメラベクトルを求めるために、三次元情報(三次元形状)の追跡を行っている。
具体的には、まず、三次元情報追跡部17で、カメラベクトル演算部15,誤差最小化部16を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部17で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部においてより高精度なカメラベクトルが求められる。
Furthermore, in this embodiment, tracking of three-dimensional information (three-dimensional shape) is performed in order to obtain a more accurate camera vector.
Specifically, first, the three-dimensional information tracking unit 17 positions the camera vector obtained through the camera vector calculation unit 15 and the error minimization unit 16 as an approximate camera vector, and the image generated in the subsequent process Based on the three-dimensional information (three-dimensional shape) obtained as a part, partial three-dimensional information included in a plurality of frame images is continuously tracked between adjacent frames to automatically track the three-dimensional shape.
Then, from the tracking result of the three-dimensional information obtained by the three-dimensional information tracking unit 17, a higher-precision camera vector is obtained in the high-precision camera vector calculation unit.
上述した特徴点抽出部13及び特徴点対応処理部14では、特徴点を複数のフレーム間画像内に自動追跡するが、特徴点が消失するなどして特徴点の追跡フレーム数に制限が出てくることがある。また、画像は二次元であり、追跡途中で形状が変化するために追跡精度にも一定の限界がある。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部15により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
The feature point extraction unit 13 and the feature point correspondence processing unit 14 described above automatically track feature points in a plurality of inter-frame images, but the number of feature point tracking frames is limited due to disappearance of feature points. May come. In addition, since the image is two-dimensional and the shape changes during tracking, there is a certain limit in tracking accuracy.
Therefore, the camera vector obtained by the feature point tracking is regarded as an approximate value, and the three-dimensional information (three-dimensional shape) obtained in the subsequent process is traced on each frame image, and a high-precision camera vector is obtained from the trajectory. Can do.
The tracking of 3D shapes is easy to obtain matching and correlation accuracy, and the 3D shape does not change in size and size depending on the frame image, so it can be tracked over many frames. The accuracy of the camera vector calculation can be improved. This is possible because the approximate camera vector is known by the camera vector calculation unit 15 and the three-dimensional shape is already known.
カメラベクトルが概略値の場合、非常に多くのフレームに亘る三次元座標の誤差は、特徴点追跡による各フレームに関係するフレームが少ないので、誤差が累積して長距離では次第に大きな誤差になるが、画像の一部分を切り取ったときの三次元形状の誤差は相対的に少なく、形状の変化と大きさに及ぼす影響はかなり少ないものとなる。このため、三次元形状での比較や追跡は、二次元形状追跡の時よりも極めて有利となる。追跡において、二次元形状での追跡の場合、複数のフレームにおける形状の変化と大きさの変化を避けられないまま追跡することになるので、誤差が大きかったり、対応点が見つからないなどの問題があったが、三次元形状での追跡においては形状の変化が極めて少なく、しかも原理的に大きさの変化もないので、正確な追跡が可能となる。 When the camera vector is an approximate value, the error of 3D coordinates over a very large number of frames is small because there are few frames related to each frame by feature point tracking. The error of the three-dimensional shape when a part of the image is cut is relatively small, and the influence on the change and size of the shape is considerably small. For this reason, the comparison and tracking in the three-dimensional shape is extremely advantageous over the two-dimensional shape tracking. In tracking, when tracking with 2D shape, tracking changes in shape and size in multiple frames are unavoidable, so there are problems such as large errors and missing corresponding points. However, in tracking with a three-dimensional shape, there is very little change in shape, and in principle there is no change in size, so accurate tracking is possible.
ここで、追跡の対象となる三次元形状データとしては、例えば、特徴点の三次元分布形状や、特徴点の三次元分布形状から求められるポリゴン面等がある。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
Here, as the three-dimensional shape data to be tracked, there are, for example, a three-dimensional distribution shape of feature points, a polygon surface obtained from the three-dimensional distribution shape of feature points, and the like.
It is also possible to convert the obtained three-dimensional shape from a camera position into a two-dimensional image and track it as a two-dimensional image. Since the approximate value of the camera vector is known, projection conversion can be performed on a two-dimensional image from the camera viewpoint, and it is also possible to follow a change in the shape of the object due to movement of the camera viewpoint.
このようにして求められたカメラベクトルは、生成された三次元地図中などに表示することができる。
例えば、図10に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。そして、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。
そして、以上のようにして得られた高精度のカメラベクトルは、揺れ成分検出装置20に入力され、画像内の任意の対象物の揺れ評価に使用される。
The camera vector obtained in this way can be displayed in the generated three-dimensional map.
For example, as shown in FIG. 10, the image from the in-vehicle camera is developed in a plane, the corresponding points on the target plane in each frame image are automatically searched, and the corresponding points are combined to match the target plane. A combined image is generated and displayed in the same coordinate system. Then, the camera position and the camera direction can be detected one after another in the common coordinate system, and the position, direction, and locus can be plotted.
The high-accuracy camera vector obtained as described above is input to the shake component detection device 20 and used for shake evaluation of an arbitrary object in the image.
[揺れ成分検出装置]
揺れ成分検出装置20は、カメラベクトル演算装置10において得られたカメラベクトル(カメラの三次元位置座標及び3軸回転座標)から、あらかじめ予定された車両位置(カメラ位置と一対一に対応)と車両回転姿勢(カメラ姿勢と一対一に対応)である予定カメラベクトルとのズレ成分を抽出する。
そして、予定カメラベクトルと現時点でのカメラベクトルとの差から、若しくは評価時点でのカメラベクトルとの差から、位置ズレ成分信号及び回転ズレ成分信号を生成し、これらズレ成分信号のすべて、若しくは一部及びそれらの選択と組み合わせによる値を、目的に沿った適切な評価すべき座標系に変換して、カメラ(カメラが固定される車両等の固定物)の揺れを評価し、出力し、必要が有れば表示する。
[Swing component detector]
The shake component detection device 20 determines a vehicle position (corresponding to the camera position on a one-to-one basis) and a vehicle from a camera vector (a three-dimensional position coordinate and a three-axis rotation coordinate of the camera) obtained by the camera vector calculation device 10. A deviation component with respect to the scheduled camera vector that is a rotational attitude (corresponding to the camera attitude one-to-one) is extracted.
Then, a positional deviation component signal and a rotational deviation component signal are generated from the difference between the scheduled camera vector and the current camera vector or the difference between the camera vector at the time of evaluation and all or one of these deviation component signals is generated. The value of each part and their selection and combination is converted into a coordinate system that should be evaluated appropriately according to the purpose, and the shaking of the camera (a fixed object such as a vehicle to which the camera is fixed) is evaluated and output, and necessary If there is, it is displayed.
揺れ成分検出装置20においては、例えば、車載カメラを搭載した車両位置(すなわちカメラ位置)X,Y,Zと、車両回転姿勢(すなわちカメラ姿勢)Φx,Φy,Φzによる揺れ成分であるδX,δY,δZ,δΦx,δΦy,δΦzのすべてが評価の対象となる。
ここで、δX,δY,δZ,δΦx,δΦy,δΦzとは、必ずしも微分値や差分値ではなく、予定の位置及び予定の姿勢からのズレを意味する。多くの場合は微分値で代用することで揺れ成分は検出できるが、予定の位置と予定の姿勢が前もって決まっていれば、それとの差分がδX,δY,δZ,δΦx,δΦy,δΦzとなる。
In the shake component detection device 20, for example, δX, δY, which are shake components due to vehicle positions (that is, camera positions) X, Y, and Z on which an in-vehicle camera is mounted and vehicle rotation postures (that is, camera postures) Φx, Φy, and Φz. , ΔZ, δΦx, δΦy, and δΦz are all subject to evaluation.
Here, δX, δY, δZ, δΦx, δΦy, and δΦz do not necessarily mean differential values or difference values, but mean deviations from a predetermined position and a predetermined posture. In many cases, the vibration component can be detected by substituting with a differential value. However, if a predetermined position and a predetermined posture are determined in advance, the difference between them is δX, δY, δZ, δΦx, δΦy, and δΦz.
具体的には、軌道上を走行する電車等においては、予定カメラベクトルは走行時に計測される平均値に近いものであるが、航空機のように三次元空間を航行する場合は、予定カメラベクトルは走行時のものと平均で一致することはない。
揺れ成分出力としては、X,Y,Z,Φx,Φy,Φzと、δX,δY,δZ,δΦx,δΦy,δΦzの計12個のパラメータを出力することができる。
但し、いずれの揺れ評価を目的とするかによって、パラメータの数はこの中から選択的に組み合わせることができ、評価対象物に対応することができる。
すなわち、カメラベクトル演算装置10と揺れ成分検出装置20からの出力を総合すると、X,Y,Zと、Φx,Φy,Φzと、δX,δY,δZと、δΦx,δΦy,δΦz
の12のパラメータがあるが、通常の画像安定化処理にはδΦx,δΦy,δΦzの3つのパラメータのみでよい。
Specifically, in a train traveling on a track, the planned camera vector is close to the average value measured during traveling, but when navigating in a three-dimensional space like an aircraft, the planned camera vector is It doesn't match on average with the running one.
As the shake component output, a total of 12 parameters of X, Y, Z, Φx, Φy, Φz and δX, δY, δZ, δΦx, δΦy, δΦz can be output.
However, depending on which shake evaluation is intended, the number of parameters can be selectively combined from these, and can correspond to the evaluation object.
That is, when the outputs from the camera vector calculation device 10 and the shake component detection device 20 are combined, X, Y, Z, Φx, Φy, Φz, δX, δY, δZ, δΦx, δΦy, δΦz.
There are twelve parameters, but only three parameters δΦx, δΦy, and δΦz are required for normal image stabilization processing.
一方、カメラを同時に複数用いているような場合には、画像の三次元位置の補正も可能となるので、δX,δY,δZのパラメータを用意しておく必要がある。
また、通常、姿勢制御には、回転制御の場合にはδΦx,δΦy,δΦz、位置の制御を含むのであればこれに加えてδX,δY,δZの計六個のパラメータが必要となる。さらに、状況判断を含めればカメラベクトル演算装置10からの出力であるX,Y,Zと、Φx,Φy,Φz
も含めて必要となる場合もあるので、得られる12個のパラメータの中から選択的に組み合わせて画像処理や姿勢制御に用いることができる。
なお、この12個の変数以外に、画像安定化や姿勢安定化に用いられる撮影条件による他の係数としては、カメラの基準姿勢として画像の画枠での揺れ幅制限などがある。
On the other hand, when a plurality of cameras are used at the same time, the three-dimensional position of the image can be corrected. Therefore, it is necessary to prepare parameters δX, δY, and δZ.
In general, posture control requires six parameters in total, including δΦx, δΦy, δΦz, and position control, in addition to δΦ, δY, and δZ in the case of rotation control. Further, if the situation judgment is included, X, Y, Z, and Φx, Φy, Φz, which are outputs from the camera vector calculation device 10
Therefore, it can be selectively combined from the 12 obtained parameters and used for image processing and attitude control.
In addition to the twelve variables, other coefficients depending on the shooting conditions used for image stabilization and posture stabilization include a limitation on the swing width of the image frame as a reference posture of the camera.
図11に揺れ成分検出装置20における揺れ成分検出の具体例を示す。
同図に示す例は、車両にカメラを取り付けて走行し、その時に撮影した動画像から揺れ成分検出装置20で揺れを検出する場合となっている。
同図において、太線矢印はカメラを取り付けた車両の進行方向を示しており、カメラの光軸を原点とするカメラの位置と姿勢をカメラ座標系(Xc,Yc,Zc)とし(同図に示す破線)、カメラが半固定状態で取り付けられた車両は車両座標系(Xt,Yt,Zt)とし(同図に示す実線)、常に車両進行方向に座標軸を変える座標系を回転世界座標系(Xwr,Ywr,Zwr)とし(同図に示す2点鎖線)、さらに、外界の静止系を表す座標系を世界座標系(Xw,Yw,Zw)とする(同図に示す1点鎖線)。そして、この四つの座標系の関係を求めて、評価に必要な座標系に変換して車両の揺れが表現されるようになっている。
FIG. 11 shows a specific example of shaking component detection in the shaking component detection device 20.
The example shown in the figure is a case where a camera is attached to a vehicle for traveling, and the shaking component detection device 20 detects shaking from a moving image taken at that time.
In the figure, the bold arrow indicates the traveling direction of the vehicle to which the camera is attached, and the position and orientation of the camera with the camera optical axis as the origin is the camera coordinate system (Xc, Yc, Zc) (shown in the figure). A broken line is a vehicle coordinate system (Xt, Yt, Zt) that is mounted in a semi-fixed state (solid line shown in the figure), and a coordinate system that always changes the coordinate axis in the vehicle traveling direction is a rotating world coordinate system (Xwr , Ywr, Zwr) (two-dot chain line shown in the figure), and a coordinate system representing the static system of the outside world is a world coordinate system (Xw, Yw, Zw) (one-dot chain line shown in the figure). Then, the relationship between the four coordinate systems is obtained and converted into a coordinate system necessary for evaluation to express the vehicle shake.
カメラベクトル演算装置10で得られるカメラベクトルはカメラ座標系(Xc,Yc,Zc)そのものである。カメラ座標系は、一般に任意の方向で設定されるから、車両の揺れを検出するには、カメラ座標系を一旦車両座標系(Xt,Yt,Zt)に変換する。この変換は単なる回転変換であり、一般には半固定であり、一旦設定すれば、その後は計測を終了するまで変更はない。
車両進行方向を車両座標系(Xt,Yt,Zt)の3軸の一つに選択することで揺れを評価するのにふさわしい座標系とすることができる。
また、車両の移動の軌跡は静止座標系である世界座標系(Xw,Yw,Zw)で表現するのが適切である。速度を表現するには回転世界座標系(Xwr,Ywr,Zwr)で単純に表現することができるが、ベクトルとして表現するには世界座標系(Xw,Yw,Zw)で表現するのがふさわしい。
The camera vector obtained by the camera vector arithmetic unit 10 is the camera coordinate system (Xc, Yc, Zc) itself. Since the camera coordinate system is generally set in an arbitrary direction, the camera coordinate system is temporarily converted into a vehicle coordinate system (Xt, Yt, Zt) in order to detect vehicle shake. This conversion is simply rotational conversion, and is generally semi-fixed. Once set, there is no change until the measurement is finished.
By selecting the vehicle traveling direction as one of the three axes of the vehicle coordinate system (Xt, Yt, Zt), a coordinate system suitable for evaluating shaking can be obtained.
Further, it is appropriate to express the trajectory of the vehicle movement in the world coordinate system (Xw, Yw, Zw) which is a stationary coordinate system. To express the velocity, it can be simply expressed in the rotating world coordinate system (Xwr, Ywr, Zwr), but to express it as a vector, it is appropriate to express it in the world coordinate system (Xw, Yw, Zw).
揺れ評価にあたっては、揺れ評価に適した座標系で評価を行う。
揺れ信号は予定進路からのズレとして検出されるが、図11に示す例では、車両の平均進路を予定進路として揺れを評価している。そこで、世界座標系上でカメラの移動軌跡を求め、その平均進路を求め、これを予定進路とする。
本発明に係るカメラベクトル演算装置10及び揺れ成分検出装置20によれば、姿勢の基準となるジャイロ等を用いることなく、画像データを取得するカメラのみで揺れ成分の検出が可能となっているが、カメラ1台の場合、得られるカメラベクトルは相対値となり、ジャイロ等の世界座標系との校正装置を持たないことから、誤差の蓄積が生じることになる。このため、常に車両に対する揺れを評価するために、平均鉛直水平方向を与える必要がある。
In shake evaluation, evaluation is performed in a coordinate system suitable for shake evaluation.
The shake signal is detected as a deviation from the planned course, but in the example shown in FIG. 11, the shake is evaluated using the average course of the vehicle as the planned course. Therefore, the movement trajectory of the camera is obtained on the world coordinate system, the average course is obtained, and this is set as the planned course.
According to the camera vector calculation device 10 and the shake component detection device 20 according to the present invention, it is possible to detect a shake component only with a camera that acquires image data without using a gyro or the like as a reference for the posture. In the case of one camera, the obtained camera vector is a relative value, and since there is no calibration device with a world coordinate system such as a gyro, accumulation of errors occurs. For this reason, in order to always evaluate the swing with respect to the vehicle, it is necessary to give an average vertical horizontal direction.
そこで、カメラ設置時点において、カメラ座標系の1軸を車両に対する水平軸に合致させて設置すれば、それが基準となって、後にも水平姿勢の校正が容易にできることになる。
これにより、カメラ座標系(Xc,Yc,Zc)は、車両座標系(Xt,Yt,Zt)に変換して揺れを計測して評価すればよい。
評価される揺れとしては、位置ズレ成分Xt,Yt,Ztと、回転成分Φxt,Φyt,Φzt、及び位置ズレ差分δXt,δYt,δZt等である(但し、ZtとδZtは、進行方向速度及びその加速度成分となるので、揺れの意味が他の成分とは異なる)。
Thus, if one camera coordinate system is set so as to coincide with the horizontal axis with respect to the vehicle at the time of camera installation, the horizontal posture can be easily calibrated later.
Thus, the camera coordinate system (Xc, Yc, Zc) may be converted into the vehicle coordinate system (Xt, Yt, Zt), and the shake may be measured and evaluated.
The shakes to be evaluated include positional deviation components Xt, Yt, Zt, rotational components Φxt, Φyt, Φzt, and positional deviation differences δXt, δYt, δZt, etc. (where Zt and δZt are the traveling direction velocity and its Because it is an acceleration component, the meaning of shaking is different from other components).
以上のような揺れ成分の評価において、評価すべき変数と表示は次のようなものが挙げられる。
・世界座標系における車両位置表示:
(Xw,Yw,Zw)
・車両進行方向に回転した回転世界座標系における速度及び加速度表示:
(δXwr,δYwr,δZwr) (ΔδXwr,ΔδYwr,ΔδZwr)
・車両座標系における揺れ表示:
(△Xt,△Yt,(△Zt)) (△Φxt,△Φyt,△Φzt)
・車両座標系とカメラ座標系の回転表示(半固定):
(Xc,Yc,Zc)=F(Xt,Yt,Zt)
・世界座標系における進行方向表示:
(Xw,Yw,Zw)=G(Xt,Yt,Zt)
・カメラ座標系における進行方向表示:
(Xc,Yc,Zc)=H(Xt,Yt,Zt)
・世界座標系に対する車両座標系の原点移動、回転姿勢表示:
(Xw,Yw,Zw) (δXw,δYw,δZw)
In the evaluation of the shaking component as described above, the following variables and display should be evaluated.
-Vehicle position display in the world coordinate system:
(Xw, Yw, Zw)
・ Speed and acceleration display in the rotating world coordinate system rotated in the vehicle traveling direction:
(ΔXwr, δYwr, δZwr) (ΔδXwr, ΔδYwr, ΔδZwr)
-Shake display in the vehicle coordinate system:
(△ Xt, △ Yt, (△ Zt)) (△ Φxt, △ Φyt, △ Φzt)
・ Rotary display of vehicle coordinate system and camera coordinate system (semi-fixed):
(Xc, Yc, Zc) = F (Xt, Yt, Zt)
・ Direction display in world coordinate system:
(Xw, Yw, Zw) = G (Xt, Yt, Zt)
・ Direction display in camera coordinate system:
(Xc, Yc, Zc) = H (Xt, Yt, Zt)
・ Vehicle coordinate system origin movement and rotation posture display with respect to the world coordinate system:
(Xw, Yw, Zw) (δXw, δYw, δZw)
以上のような本実施形態の揺れ成分検出装置20によれば、例えば、電車に取り付けたカメラの場合には、揺れ成分検出装置20により、電車の揺れを解析・分析し、車両や線路の異常を発見することが可能となる。通常は水銀加速時計等の高額な装置を使って揺れを計測するのに対して、本実施形態の揺れ成分検出装置20を使用することにより、簡単に揺れ成分が検出でき、それを表示することができる。
そして、このような揺れ成分検出装置20を用いることにより、後述するように、本発明に係る画像安定化装置や位置姿勢安定化装置,目的対象物ロックオン装置が実現できるようになる。
According to the shaking component detection device 20 of the present embodiment as described above, for example, in the case of a camera attached to a train, the shaking component detection device 20 analyzes and analyzes the shaking of the train, and the vehicle or the track is abnormal. It becomes possible to discover. Whereas swings are usually measured using an expensive device such as a mercury acceleration watch, by using the swing component detection device 20 of the present embodiment, swing components can be easily detected and displayed. Can do.
By using such a shaking component detection device 20, as will be described later, an image stabilization device, a position / posture stabilization device, and a target object lock-on device according to the present invention can be realized.
以上説明したように、本実施形態に係るカメラベクトル演算装置10によれば、動画映像の複数のフレーム画像から充分な数の特徴点を自動検出し、各フレーム間で特徴点を自動追跡することにより、多数の特徴点について重複演算してカメラ位置と回転角を高精度に求めることができる。
従って、通常の安価なカメラであっても、人がカメラをもって移動しながら撮影し、あるいはカメラを積載した移動する車両等から周囲画像を撮影し、その映像を分析して高精度なカメラ軌跡を三次元で求めることができる。
As described above, according to the camera vector computing device 10 according to the present embodiment, a sufficient number of feature points are automatically detected from a plurality of frame images of a moving image, and feature points are automatically tracked between frames. Thus, it is possible to calculate the camera position and the rotation angle with high accuracy by performing overlap calculation on a large number of feature points.
Therefore, even if it is a normal inexpensive camera, a person takes a picture while moving with the camera, or takes a surrounding image from a moving vehicle carrying the camera, etc., and analyzes the video to obtain a highly accurate camera trajectory. It can be obtained in three dimensions.
そして、カメラベクトル演算装置10において、動画映像の複数のフレーム画像から、高精度なカメラ位置、カメラ回転角等のカメラベクトルを演算により自動的に求めることができ、求められたカメラベクトルに基づいて揺れ成分検出装置20によりカメラの揺れ成分を検出,評価することができることから、その揺れ評価の出力を利用して、画像安定化装置30において、ビデオ映像等の動画撮影において取得された画像のカメラの揺れに起因する不規則なブレ等を補正し、ブレのある画像からブレのない画像を生成することができる。
また、位置姿勢安定化装置においては、カメラの揺れ成分に基づき、画像ではなくカメラ自体の位置と姿勢を制御してブレのない画像を生成することができる。
Then, the camera vector calculation device 10 can automatically obtain a camera vector such as a highly accurate camera position and a camera rotation angle from a plurality of frame images of the moving image by calculation, and based on the obtained camera vector. Since the shake component detection device 20 can detect and evaluate the shake component of the camera, the image stabilization device 30 uses the output of the shake evaluation to capture a camera of an image acquired in moving image shooting such as a video image. It is possible to correct irregular blurring or the like caused by the shaking of the image and generate a blur-free image from the blurred image.
Further, the position and orientation stabilization device can generate a blur-free image by controlling not the image but the position and orientation of the camera itself based on the camera shake component.
また、目的対象物ロックオン装置においては、求められたカメラベクトルに基づいて、また必要に応じてカメラの揺れ成分を補正して、画像内で指定した対象物が任意の位置に固定されるように、画像又はカメラの位置と姿勢を制御することができる。
さらに、実写対象物属性呼出装置では、カメラベクトル演算装置で求められる三次元座標に基づいて目的対象物を特定することにより、当該対象物に関して予め用意された属性やコンテンツ等の所定の属性情報を呼び出すことができる。
以下、本発明のカメラベクトル演算装置に備えられる画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物呼出装置の実施形態について図12〜図15を参照しつつ説明する。
In the target object lock-on device, the object specified in the image is fixed at an arbitrary position by correcting the camera shake component based on the obtained camera vector and if necessary. In addition, the position and orientation of the image or camera can be controlled.
Furthermore, the live-action target object attribute calling device specifies predetermined target information such as attributes and contents prepared in advance for the target object by specifying the target target object based on the three-dimensional coordinates obtained by the camera vector arithmetic unit. Can be called.
Hereinafter, embodiments of an image stabilization device, a position / posture stabilization device, a target object lock-on device, and a live-action target object call device provided in the camera vector calculation device of the present invention will be described with reference to FIGS. .
[画像安定化装置]
図12に示すように、本実施形態の画像安定化装置30は、画像補正信号生成部31と、安定化画像変換部32と、安定化画像出力部33と、表示部34を備えている。
画像補正信号生成部31は、カメラベクトル演算装置10の揺れ成分検出装置20で求められるカメラの位置ベクトルと回転ベクトルとその揺れ成分に基づいて、カメラが揺れている画像から得られるカメラベクトルをカメラが揺れない場合に想定される基準カメラベクトルに一致するように補正して変換するための補正信号を生成する。
安定化画像変換部32は、カメラが揺れない場合に想定されるカメラベクトルを基準ベクトルとして撮影した場合と同等の安定化画像に変換処理する。
安定化画像出力部33は、安定化画像変換部32で変換された安定化画像を出力する。
表示部34は、出力された安定化画像を表示する。
[Image Stabilizer]
As shown in FIG. 12, the image stabilization device 30 of the present embodiment includes an image correction signal generation unit 31, a stabilized image conversion unit 32, a stabilized image output unit 33, and a display unit 34.
The image correction signal generation unit 31 uses a camera position vector and a rotation vector obtained by the shake component detection device 20 of the camera vector calculation device 10 and a shake vector to obtain a camera vector obtained from an image in which the camera is shaken. A correction signal is generated for correction and conversion so as to match a reference camera vector assumed when the camera does not shake.
The stabilized image conversion unit 32 performs conversion processing to a stabilized image equivalent to a case where a camera vector assumed when the camera is not shaken is used as a reference vector.
The stabilized image output unit 33 outputs the stabilized image converted by the stabilized image conversion unit 32.
The display unit 34 displays the output stabilized image.
上述したように、カメラは、一般にX,Y,Zと、その回転ベクトルと計6個の自由度を持ち、それらを検出するのがカメラベクトル演算装置10である。そして、検出されたカメラの位置X,Y,Z及び3軸の回転ベクトルΦx,Φy,Φzの自由度の中で、揺れ成分検出装置20において、揺れ成分であるX,Y,Z,Φx,Φy,Φz,δX,δY,δZ,δΦx,δΦy,δΦzが検出される。
画像補正信号生成部31では、この揺れ成分検出装置20で検出される揺れ成分に基づいて、画像を安定化するための補正信号を生成する。この補正信号により、安定化画像変換部32において安定化された正規化画像が生成される。
As described above, a camera generally has X, Y, Z, its rotation vector, and a total of six degrees of freedom, and the camera vector arithmetic unit 10 detects them. Then, among the detected camera positions X, Y, Z and the degrees of freedom of the three-axis rotation vectors Φx, Φy, Φz, the vibration component detection device 20 uses X, Y, Z, Φx, Φy, Φz, δX, δY, δZ, δΦx, δΦy, and δΦz are detected.
The image correction signal generation unit 31 generates a correction signal for stabilizing the image based on the shake component detected by the shake component detection device 20. With this correction signal, a normalized image stabilized in the stabilized image conversion unit 32 is generated.
ここで、安定化画像の基準となる画像としては、フレームのスタート時点の画像としてもよいが、水平位置を合わせるなどした変換後の画像を安定化画像の基準とすることも可能である。なお、安定化画像に変換された画像は、視点方向も修正されているので、投影している平面が異なり、修正前の画像とは重ならない。
図13は、補正信号により安定化画像に変換処理される画像の一例を示しており、例えば、同図(a),(b)に示すように揺らぎのある画像が、同図(c),(d)に示すように補正された安定化画像として出力,表示される。
図14は、補正されたカメラベクトルの軌跡を示すグラフであり、同図中、グラフ中央に直線櫛状に並ぶのがカメラ移動の軌跡であり、移動するカメラの位置と高さを示している。
Here, the image serving as the reference for the stabilized image may be an image at the start of the frame, but an image after conversion such as by aligning the horizontal position may be used as the reference for the stabilized image. Note that the image converted into the stabilized image has the viewpoint direction corrected, and therefore the projected plane is different and does not overlap with the image before correction.
FIG. 13 shows an example of an image that is converted into a stabilized image by a correction signal. For example, an image with fluctuations as shown in FIGS. As shown in (d), it is output and displayed as a corrected stabilized image.
FIG. 14 is a graph showing the trajectory of the corrected camera vector. In FIG. 14, the trajectory of camera movement is arranged in a straight comb shape at the center of the graph, and indicates the position and height of the moving camera. .
以上のような画像安定化装置30によれば、カメラベクトル演算装置10において動画映像の複数のフレーム画像から高精度なカメラ位置、カメラ回転角等のカメラベクトルを演算により自動的に求めることができることから、求められたカメラベクトルとその揺れ成分に基づいて、ビデオ映像等の動画撮影において取得された画像のカメラの揺れに起因する不規則なブレ等を補正し、ブレのある画像からブレのない画像を生成することができる。
特に、計算上理論的に必要な計測点の数と比較して、計測点の数を大幅に増やし、また、対応する画像は理論的には二枚の画像でよいが、その数を大幅に増やし、より多くの情報に基づき精度の高いカメラ位置を演算で求めることができる。
また、画像の安定化には、画像そのものの揺れではなく、カメラの揺れに着目している。画像を移動して補正するのではなく、画像からカメラベクトルを検出し、カメラの三次元座標と3軸方向の回転を検出して、カメラの視点方向の揺れによる変動成分を検出し、正規のカメラ方向の画像となるように、画像変換処理することで、完全な画像の安定化を実現することができる。
According to the image stabilization device 30 as described above, the camera vector calculation device 10 can automatically obtain a camera vector such as a highly accurate camera position and camera rotation angle from a plurality of frame images of a moving image by calculation. Therefore, based on the obtained camera vector and its shake component, irregular blurring caused by camera shake of an image acquired in video shooting such as a video image is corrected, and there is no blurring from a blurry image. An image can be generated.
In particular, the number of measurement points is greatly increased compared to the number of measurement points that are theoretically necessary for calculation, and the corresponding images may theoretically be two images, but the number is greatly increased. The camera position can be calculated by calculation based on more information.
In addition, the stabilization of the image focuses not on the shaking of the image itself but on the shaking of the camera. Instead of moving and correcting the image, it detects the camera vector from the image, detects the camera's three-dimensional coordinates and rotation in the three-axis direction, detects the fluctuation component due to the camera's viewpoint direction fluctuation, By performing image conversion processing so that the image is in the camera direction, complete image stabilization can be realized.
[位置姿勢安定化装置]
位置姿勢安定化装置40は、図12に示すように、位置姿勢補正信号生成部41と、制御信号選択部42と、制御対象駆動部43を備えている。
位置姿勢補正信号生成部41は、揺れ成分検出装置20の出力に基づいて、予定するカメラの位置及び姿勢と現在のカメラの位置及び姿勢の差を求め、カメラの位置及び姿勢を制御して予定の位置及び姿勢に補正する補正信号を生成する。
制御信号選択部42は、位置姿勢補正信号生成部41で生成される一又は二以上の補正信号から任意の補正信号を選択し、カメラの位置及び姿勢を制御する制御信号として出力する。
制御対象駆動部43では、制御信号選択部42から出力された制御信号により制御対象物を駆動してカメラの位置及び姿勢を制御する。
[Position and orientation stabilization device]
As shown in FIG. 12, the position and orientation stabilization device 40 includes a position and orientation correction signal generation unit 41, a control signal selection unit 42, and a control target drive unit 43.
The position / orientation correction signal generation unit 41 obtains a difference between the planned camera position and orientation and the current camera position and orientation based on the output of the shake component detection device 20, and controls the camera position and orientation to schedule A correction signal for correcting the position and orientation is generated.
The control signal selection unit 42 selects an arbitrary correction signal from one or more correction signals generated by the position / orientation correction signal generation unit 41 and outputs the selected correction signal as a control signal for controlling the position and orientation of the camera.
The control target drive unit 43 drives the control target with the control signal output from the control signal selection unit 42 to control the position and orientation of the camera.
具体的には、位置姿勢補正信号生成部41では、カメラ位置を制御する位置補正信号と、カメラ姿勢を制御する姿勢制御信号が生成される。
カメラ位置補正信号は、カメラベクトル演算装置10において求められた、カメラの三次元位置信号及びその3軸回転信号、X,Y,Z,Φx,Φy,Φzから、車両位置(カメラ位置)X,Y,Zと、カメラ姿勢からの回転による揺れ成分Φx,Φy,Φzを抽出して、予定の車両位置(カメラ位置)と現在のカメラ位置の差から、カメラの位置を制御して補正する位置補正信号として生成される。
カメラ姿勢補正信号は、正常な車両姿勢(カメラ姿勢)と現在の車両姿勢(カメラ姿勢)との差から回転補正信号を生成し、カメラ又はカメラが固定されている保持機構、あるいはカメラを積載している車両等の移動物体の姿勢を制御して補正する回転補正信号として生成される。
Specifically, the position / orientation correction signal generation unit 41 generates a position correction signal for controlling the camera position and an attitude control signal for controlling the camera attitude.
The camera position correction signal is obtained from the three-dimensional position signal of the camera and the three-axis rotation signal X, Y, Z, Φx, Φy, Φz obtained by the camera vector calculation device 10, and the vehicle position (camera position) X, A position to extract Y, Z, and shake components Φx, Φy, Φz due to rotation from the camera posture, and to control and correct the camera position from the difference between the planned vehicle position (camera position) and the current camera position It is generated as a correction signal.
The camera attitude correction signal generates a rotation correction signal from the difference between the normal vehicle attitude (camera attitude) and the current vehicle attitude (camera attitude), and loads the camera or a holding mechanism to which the camera is fixed or a camera. It is generated as a rotation correction signal for controlling and correcting the posture of a moving object such as a moving vehicle.
なお、カメラベクトル演算装置10及び揺れ成分検出装置20から出力されるX,Y,Z,δX,δY,δZ,は相対値であり、例えば、回転姿勢制御だけでなく位置座標を緯度経度高度で制御する必要がある場合には、カメラベクトルを絶対座標系に変換しなければならない。そのためには、最低三点以上の点で実測座標と位置合わせしてスケールを校正するか、GPS等でスケール校正する。ここで絶対座標系を取得する必要があるのは、位置を含んで姿勢を制御する位置姿勢安定化装置40の場合であり、回転姿勢のみの姿勢制御や画像安定化装置30の場合には、カメラベクトル演算装置10から出力される相対座標のままで処理が可能である。 Note that X, Y, Z, δX, δY, and δZ output from the camera vector calculation device 10 and the shake component detection device 20 are relative values. For example, not only the rotation attitude control but also the position coordinates in latitude and longitude altitudes. If control is required, the camera vector must be converted to an absolute coordinate system. For that purpose, the scale is calibrated by aligning with the measured coordinates at least three points or the scale is calibrated by GPS or the like. Here, it is necessary to acquire the absolute coordinate system in the case of the position and orientation stabilization device 40 that controls the posture including the position. In the case of the posture control of only the rotational posture and the image stabilization device 30, Processing can be performed with the relative coordinates output from the camera vector arithmetic unit 10 as they are.
制御信号選択部42では、位置姿勢補正信号生成部41で生成された位置補正信号と回転補正信号の各種補正信号から適切な補正信号を選択して、カメラやカメラ保持機構,車両等を駆動制御する制御信号を出力する。
そして、制御対象駆動部43により、制御信号選択部42から出力された制御信号に基づいて制御対象物(カメラ,カメラ保持機構,車両等)が駆動され、カメラの位置及び姿勢が制御されるようになる。
このようにして、位置姿勢安定化装置40では、カメラベクトル演算装置10において得られるカメラベクトルとその揺れ成分に基づいて、カメラ自身の位置と姿勢を駆動制御して、画像安定化装置30における場合と同様に、画像を安定化させることができる(図14参照)。
In the control signal selection unit 42, an appropriate correction signal is selected from various correction signals of the position correction signal and the rotation correction signal generated by the position / orientation correction signal generation unit 41, and drive control of the camera, the camera holding mechanism, the vehicle, and the like is performed. Output a control signal.
Then, the control target drive unit 43 drives the control target (camera, camera holding mechanism, vehicle, etc.) based on the control signal output from the control signal selection unit 42 so that the position and orientation of the camera are controlled. become.
In this way, the position / orientation stabilization device 40 drives and controls the position and orientation of the camera itself based on the camera vector obtained by the camera vector calculation device 10 and its shake component, and the image stabilization device 30 As with, the image can be stabilized (see FIG. 14).
ここで、本実施形態に係る位置姿勢安定化装置40は、カメラの撮影,移動と同時にリアルタイムで生成される補正信号によりカメラやカメラ保持機構等を制御して、画像取得用カメラをリアルタイムで位置制御及び回転制御して、カメラの姿勢を安定化させ、画像安定化装置として利用することができる。
既に得られた画像については、取得した画像から後処理として3軸回転信号を補正信号として取り出して、画像を回転補整して安定化させることはできるが、位置制御はできない。
また、カメラベクトル演算装置10を航空機や車両等に適用した場合、カメラの回転姿勢制御のみならず、カメラが固定されている車両等を制御することで、車両の位置制御ができればきわめて有用な装置となる。
Here, the position / orientation stabilization apparatus 40 according to the present embodiment controls the camera, the camera holding mechanism, and the like by a correction signal generated in real time simultaneously with the shooting and movement of the camera, and positions the image acquisition camera in real time. By controlling and rotating, the posture of the camera can be stabilized and used as an image stabilization device.
As for the already obtained image, the triaxial rotation signal can be taken out as a correction signal as post-processing from the acquired image, and the image can be rotationally corrected and stabilized, but the position cannot be controlled.
Further, when the camera vector calculation device 10 is applied to an aircraft, a vehicle, or the like, it is an extremely useful device if the position of the vehicle can be controlled by controlling not only the rotation attitude control of the camera but also the vehicle to which the camera is fixed. It becomes.
そこで、例えば図15に示すように、カメラベクトル演算用のカメラ(制御信号取得用カメラ部11a)と、映像取得用のカメラ(映像取得用カメラ部11b)とを分離し、その位置関係を固定して使用し、いずれのカメラ11a,11bについても、そのカメラ保持機構(又は積載した車両等)を直接姿勢制御することで、カメラ(車両)の位置姿勢安定化をはかりつつ、同時に目的の映像の安定化をはかることが可能となる。
なお、この場合には、図15に示すように、映像取得用のカメラ部11bについて、さらに、画像安定化装置30によって画像を安定化させることも可能である。
Therefore, for example, as shown in FIG. 15, the camera vector calculation camera (control signal acquisition camera unit 11 a) and the video acquisition camera (video acquisition camera unit 11 b) are separated and the positional relationship is fixed. For any of the cameras 11a and 11b, the camera holding mechanism (or a loaded vehicle or the like) is directly controlled in posture to stabilize the position and posture of the camera (vehicle), and at the same time, the target image Can be stabilized.
In this case, as shown in FIG. 15, it is possible to further stabilize the image by the image stabilizing device 30 for the camera unit 11b for acquiring images.
このように、カメラベクトル演算装置用のカメラ部11aと、映像信号取得用のカメラ部11bを分離することで、例えば、広角レンズカメラの映像に基づく位置及び姿勢制御により、狭角レンズカメラの映像を制御することも可能となり、用途がさらに広がる。
一般に、狭角レンズカメラの映像では、カメラベクトル演算の精度が低下するため、カメラベクトル演算用には広角カメラが必要となるが、映像を目的とするカメラは必ずしも広角視野カメラとは限らない。
そこで、図15に示すように、カメラベクトル演算用のカメラと映像信号取得用のカメラとを分離すれば、映像取得用とカメラベクトル演算用のそれぞれのカメラを自由に選択できるようになる。これにより、カメラベクトル演算用のカメラとしては超広角レンズを使用し、画質を吟味する必要はなくなり、映像取得専用のカメラについては、ピクセル単位の画像精度を吟味する必要がなくなり、画質優先のカメラを使用することができるようになる。
In this way, by separating the camera unit 11a for the camera vector arithmetic device and the camera unit 11b for obtaining the video signal, for example, the video of the narrow-angle lens camera is controlled by position and orientation control based on the video of the wide-angle lens camera. It is also possible to control this, further expanding the applications.
In general, since the accuracy of camera vector calculation is reduced in an image of a narrow-angle lens camera, a wide-angle camera is required for camera vector calculation. However, a camera intended for video is not necessarily a wide-angle field-of-view camera.
Therefore, as shown in FIG. 15, if the camera for calculating the camera vector and the camera for acquiring the video signal are separated, the camera for acquiring the video and the camera for calculating the camera vector can be freely selected. This makes it possible to use an ultra-wide-angle lens as the camera vector calculation camera, eliminating the need to examine image quality. For cameras dedicated to video acquisition, it is not necessary to examine the pixel-by-pixel image accuracy. Will be able to use.
ここで、カメラの位置と姿勢の制御は、X,Y,Z,Φx,Φy,Φzのいずれの組み合わせから制御信号を生成するかによって、姿勢制御となったり、位置制御となったりするものであり、カメラベクトル演算装置の適用対象や使用目的に応じて制御信号を適宜選択,設定することができる。
例えば、カメラの回転角Φx,Φy,Φz から生成する回転補正信号によれば、回転角を一定に保つように制御することができる。
また、ヘリコプターが上空でホバリングするような場合の移動については、X,Y,Z,Φx,Φy,Φzの成分すべてについて制御することで実現できる。
さらに、位置制御の場合、予定された三次元位置からのズレを検出して、それを車両等の位置制御信号としてフィードバックすることで、予定の航路に導くことが可能となる。これにより、車両や航空機の予定航路をX,Y,Zと比較することで、位置制御として利用できる。
Here, the control of the position and orientation of the camera may be orientation control or position control depending on which combination of X, Y, Z, Φx, Φy, and Φz is used to generate a control signal. Yes, it is possible to appropriately select and set the control signal according to the application target and purpose of use of the camera vector arithmetic unit.
For example, according to the rotation correction signal generated from the camera rotation angles Φx, Φy, Φz, the rotation angle can be controlled to be kept constant.
Further, the movement when the helicopter hovers in the sky can be realized by controlling all the components of X, Y, Z, Φx, Φy, and Φz.
Further, in the case of position control, it is possible to detect a deviation from a planned three-dimensional position and feed it back as a position control signal for a vehicle or the like, thereby leading to a planned route. Thereby, it can utilize as a position control by comparing the planned route of a vehicle or an aircraft with X, Y, and Z.
このように、本発明に係るカメラベクトル演算装置10は、車両や航空機等の位置及び姿勢制御装置として利用できる。
なお、このように移動物体の位置及び姿勢制御を行う場合には、リアルタイム性が要求されるので、図15に示すように、リアルタイム画像12aを直接カメラベクトル演算装置10に導き、過去のデータ(記録画像12b)と照らし合わせて、カメラベクトルのリアルタイム演算を行うことが好ましい。リアルタイム演算で得られた高精度カメラベクトルは、三次元位置とカメラの3軸回転の信号を含むので、カメラを積載した車両の姿勢制御と位置制御が実現できる。
また、後述する広角視野映像によるカメラベクトルを狭角視野映像によるカメラベクトル演算に代入することによる高精度なカメラベクトル演算装置(図16参照)と組み合わせることにより、れば、高精度の位置と姿勢制御が可能となる。
As described above, the camera vector calculation device 10 according to the present invention can be used as a position and orientation control device for a vehicle, an aircraft, or the like.
In addition, when performing the position and orientation control of the moving object in this way, since real-time property is required, the real-time image 12a is directly guided to the camera vector arithmetic unit 10 as shown in FIG. It is preferable to perform real-time calculation of the camera vector in light of the recorded image 12b). Since the high-precision camera vector obtained by the real-time calculation includes the three-dimensional position and the three-axis rotation signal of the camera, it is possible to realize attitude control and position control of the vehicle loaded with the camera.
Further, by combining a camera vector based on a wide-angle visual field image, which will be described later, with a high-precision camera vector arithmetic device (see FIG. 16) by substituting it into a camera vector operation based on a narrow-angle visual field image, a highly accurate position and orientation Control becomes possible.
[目的対象物ロックオン装置]
目的対象物ロックオン装置50は、図12に示すように、実写座標設定部51と、ロックオン対象物指定部52と、ロックオン制御部53を備えている。
実写座標設定部51は、実写画像内に適切な三次元座標系を設定する。
ロックオン対象物指定部52は、ロックオンすべき任意の対象物を画像内に指定する。
ロックオン制御部53は、カメラベクトル演算装置10で得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が、常に画枠の中心位置(又は任意の所定位置)に表示されるように、画像表示又はカメラ(カメラが固定される固定物)の位置及び姿勢を制御する。
[Target object lock-on device]
As shown in FIG. 12, the target object lock-on device 50 includes a live-action coordinate setting unit 51, a lock-on target designating unit 52, and a lock-on control unit 53.
The live-action coordinate setting unit 51 sets an appropriate three-dimensional coordinate system in the live-action image.
The lock-on target specifying unit 52 specifies an arbitrary target to be locked on in the image.
Based on the camera vector obtained by the camera vector computing device 10, the lock-on control unit 53 measures the object specified in the image using the live-action coordinate system and obtains its three-dimensional coordinate, and the three-dimensional coordinate is obtained. The position and orientation of the image display or the camera (fixed object to which the camera is fixed) are controlled so that the designated object is always displayed at the center position (or any predetermined position) of the image frame.
これにより、目的対象物ロックオン装置50は、画像内にはあらかじめ画像と一致している三次元座標系を設定しておき、画像内の目的対象物をマウス等で画像内に指定し、カメラベクトル演算装置により、目的対象物の概略の三次元座標を求め、カメラベクトル演算装置で求められた目的対象物の三次元座標が画像内の指定位置に常に来るように画像表示位置を制御することができる。
あるいは、目的対象物を画像内の指定位置に常に表示するようにカメラを制御することができる。
このようにロックオン制御される対象画像としては、カメラベクトル演算装置10の画像取得部11で取得される揺れ成分を含んだままのオリジナル画像でもよく、また、画像安定化装置30の安定化画像出力部33から出力される安定化された画像であっても良い。
Thereby, the target object lock-on device 50 sets a three-dimensional coordinate system that matches the image in advance in the image, designates the target object in the image in the image with a mouse or the like, and The approximate three-dimensional coordinates of the target object are obtained by the vector arithmetic device, and the image display position is controlled so that the three-dimensional coordinates of the target object obtained by the camera vector arithmetic device are always at the designated position in the image. Can do.
Alternatively, the camera can be controlled so that the target object is always displayed at a designated position in the image.
The target image that is controlled to be locked on in this way may be an original image that still contains the shaking component acquired by the image acquisition unit 11 of the camera vector arithmetic unit 10, or the stabilized image of the image stabilization device 30. It may be a stabilized image output from the output unit 33.
画像内に目的の対象物をマウスなどで指定して捉えれば、カメラベクトル演算装置10により、その指定部分やその周囲に特徴点を検出して、追跡することで、カメラベクトルから直ちに指定点の三次元座標が求められる。
これにより、カメラの位置と姿勢を常にその対象物にむけることが可能となり、さらに、常に対象物がカメラの決められた位置(通常はカメラの中心部)で観察できるようになる。これは画像認識に依らずに、対象物をロックオンできるきわめて有用な手段となる。
従来より、対象物を画像中心にとらえるために、対象物の画像認識を行い、その認識した対象物を追いかけることでロックオンする方法が知られている。しかし、この従来方法では、視点が変化すると対象物の形状が変化してしまい、変化する画像に追従して多くのフレームに亘って追跡することは困難であった。
本実施形態の目的対象物ロックオン装置50によれば、対象物の三次元座標を追跡することになるので、視点変化による対象物の形状変化には関係なく、対象物を追跡できることになる。
If the target object is designated and captured in the image with a mouse or the like, the camera vector calculation device 10 detects feature points in the designated part and its surroundings and tracks them, so that the designated point is immediately detected from the camera vector. Three-dimensional coordinates are obtained.
As a result, the position and orientation of the camera can always be directed to the object, and the object can always be observed at a predetermined position of the camera (usually the center of the camera). This is a very useful means that can lock on an object without relying on image recognition.
2. Description of the Related Art Conventionally, in order to capture an object at the center of an image, a method of performing lock-on by performing image recognition of the object and chasing the recognized object is known. However, with this conventional method, when the viewpoint changes, the shape of the object changes, and it is difficult to track over many frames following the changing image.
According to the target object lock-on device 50 of the present embodiment, since the three-dimensional coordinates of the object are tracked, the object can be tracked regardless of the shape change of the object due to the viewpoint change.
なお、このロックオン制御は、安定化された画像のみならず、揺れ成分を含んだままのオリジナル画像に対しても可能であるが、対象物がロックオンされることで、結果的に画像は安定化し、カメラを制御すれば位置は安定化することになる。その意味で、目的対象物ロックオン装置50は、画像安定化装置30又は位置姿勢安定化装置40の一部の機能を持った変形実施形態と捉えることができる。
また、目的対象物ロックオン装置50は、カメラベクトル演算装置10の出力を受けてロックオンすることもでき、既に安定化された画像安定化装置30の出力を受けてロックオンすることもできるが、さらに、揺れ成分検出装置20で検出された成分を用いて画像をロックオンすることもできる。すなわち、ロックオン処理では画像の位置は画枠の中央等の所定位置に固定できても、画像の回転成分はそのままとなるので、揺れが残ることがあり、揺れ成分検出装置20を介することにより通せば、回転成分を修正した回転のないロックオン画像を表示できることになる。
そして、目的対象物を指定することで、三次元座標を取得し、その座標を画枠内の任意の位置に固定して表示する。
Note that this lock-on control is possible not only for a stabilized image but also for an original image that still contains a shaking component. Stabilizing and controlling the camera will stabilize the position. In that sense, the target object lock-on device 50 can be regarded as a modified embodiment having a part of the functions of the image stabilization device 30 or the position and orientation stabilization device 40.
In addition, the target object lock-on device 50 can be locked on in response to the output of the camera vector arithmetic device 10, or can be locked on in response to the output of the already stabilized image stabilization device 30. Furthermore, the image can be locked on using the component detected by the shaking component detection device 20. That is, in the lock-on process, even if the position of the image can be fixed at a predetermined position such as the center of the image frame, the rotational component of the image remains as it is, so that the shake may remain, and through the shake component detection device 20 If it passes, it is possible to display a lock-on image without rotation with the rotation component corrected.
Then, by specifying a target object, three-dimensional coordinates are acquired, and the coordinates are fixed and displayed at an arbitrary position in the image frame.
[実写対象物属性呼出装置]
図12に示す実写対象物属性呼出装置60は、カメラベクトル演算装置10のカメラベクトル演算部15で得られたカメラベクトルに基づいて、画像内で任意の対象物を指定し、又は指定した対象物を画像内の所定位置にロックオンして、当該対象物の属性,機能,コンテンツを含む所定の属性情報を呼び出す。
具体的には、実写対象物属性呼出装置60は、カメラベクトル演算装置10により既に得られているカメラベクトルによって隣接する各画像のカメラ位置と姿勢はすべて既知であることから、このカメラベクトルを用いることにより、画像内の目的対象物をマウスやタッチパネルやライトペン等で指定することで、目的対象物の三次元計測をし、その三次元座標及びその周辺座標であらかじめ関係づけてある目的対象物を特定し、目的対象物の属性呼び出し、あるいは、他の機能の呼び出し、コンテンツの呼び出しなどの機能を備えている。
また、目的対象物は、目定対象物ロックオン装置50により指定して画像内の所定位置にロックオンすることができる。
[Live Action Object Attribute Calling Device]
The live-action object attribute calling device 60 shown in FIG. 12 designates an arbitrary object in the image based on the camera vector obtained by the camera vector computing unit 15 of the camera vector computing device 10, or designates the designated object. Is locked on at a predetermined position in the image, and predetermined attribute information including the attribute, function, and content of the object is called.
Specifically, the live-action object attribute calling device 60 uses this camera vector because the camera position and orientation of each adjacent image are already known from the camera vector already obtained by the camera vector computing device 10. By specifying the target object in the image with a mouse, touch panel, light pen, etc., the target object is three-dimensionally measured, and the target object is related in advance with its three-dimensional coordinates and its peripheral coordinates. Is specified, and it has functions such as calling an attribute of a target object, calling another function, and calling a content.
Further, the target object can be locked on at a predetermined position in the image by being designated by the target object lock-on device 50.
実写映像内にマウス等で指定した目的対象物は、カメラベクトル演算装置10で得られる三次元座標により特定されているので、画像内でマウス等で目的対象物を指定することで、目的対象物の属性やコンテンツを呼び出したり、他のコンテンツを呼び出すことが可能となる。つまり目的対象物そのものを三次元のアイコンとして利用することができる。
そして、この実写対象物属性呼出装置60を目的対象物ロックオン装置50と組み合わせることにより、動画像内の対象物、あるいは一時停止した画像内の対象物をマウス等でクリックすることで、その画像内の対象物がいつも指定された位置に表示され、しかも、対象物に関連する情報を取り出したり、他の機能に移行したりすることが簡単に実現できるようになる。
なお、ここで言う対象物には、実写映像のみではなく、CG(コンピュータ・グラフィックス)も含まれる。CGの場合には、その三次元座標は既知であるので、カメラベクトル演算装置10を必要とすることなく、対象物指定による属性情報の呼出等が行えることになる。
Since the target object specified by the mouse or the like in the live-action video is specified by the three-dimensional coordinates obtained by the camera vector calculation device 10, the target object is specified by specifying the target object by the mouse or the like in the image. It is possible to call other attributes and contents, and other contents. That is, the target object itself can be used as a three-dimensional icon.
Then, by combining this live-action object attribute calling device 60 with the target object lock-on device 50, clicking the object in the moving image or the object in the paused image with the mouse or the like, the image is displayed. The target object is always displayed at the designated position, and information related to the target object can be easily extracted or transferred to another function.
Note that the objects referred to here include not only live-action images but also CG (computer graphics). In the case of CG, since the three-dimensional coordinates are known, the attribute information can be called by specifying the object without requiring the camera vector arithmetic unit 10.
[広角視野映像及び狭角視野映像による高精度カメラベクトル演算]
次に、以上のような構成からなるカメラベクトル演算装置(揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置を含む)において、広角カメラ映像と狭角カメラ映像を用いた高精度カメラベクトル演算を行う場合について、図16〜図21を参照しつつ説明する。
図16に示すように、カメラベクトル演算装置10においては、視野の広い広角視野カメラと、この広角カメラよりも視野の狭い狭角視野カメラとの位置関係を固定して、同時に同期させて使用し、広角カメラ側の広角視野映像と狭角視野カメラによる狭角視野映像をそれぞれ入力し、広角視野映像から演算によって得られたカメラベクトル値を、狭角視野映像によるカメラベクトル演算時に代入演算することで、高精度のカメラベクトルを得ることができる。
[High-precision camera vector calculation using wide-angle and narrow-angle images]
Next, in the camera vector calculation device (including a shake component detection device, an image stabilization device, a position and orientation stabilization device, a target object lock-on device, and a live-action object attribute call device) having the above-described configuration, a wide angle A case where high-precision camera vector calculation using a camera image and a narrow-angle camera image is performed will be described with reference to FIGS.
As shown in FIG. 16, in the camera vector calculation device 10, the positional relationship between a wide-angle field-of-view camera with a wide field of view and a narrow-angle field-of-view camera with a narrower field of view than that of the wide-angle camera is fixed and used at the same time. Input a wide-angle field-of-view video from the wide-angle camera and a narrow-angle field-of-view video from the narrow-angle field-of-view camera, and substitute the camera vector value obtained by calculation from the wide-angle field-of-view image when calculating the camera vector from the narrow-angle field of view Thus, a highly accurate camera vector can be obtained.
一般に、広角レンズは視野が広いので、追跡点を長距離取れるので位置精度が高い。しかし、画角当たりの画素数が少ないので、回転精度は狭角レンズに比較して低くなる。
一方、狭角レンズは視野が狭いので位置精度が取れない。しかし、画角当たりの画素数が多いので、角度の精度は高くなる。
そこで、図16に示すカメラベクトル演算装置10では、広角レンズで得られる広角視野映像と、狭角レンズで得られる狭角視野映像の双方を用いてカメラベクトル演算を行うことにより、高精度なカメラベクトルを得ることが可能となる。
In general, since a wide-angle lens has a wide field of view, the tracking point can be taken over a long distance, so that the positional accuracy is high. However, since the number of pixels per field angle is small, the rotation accuracy is lower than that of a narrow angle lens.
On the other hand, since the narrow-angle lens has a narrow field of view, the positional accuracy cannot be obtained. However, since the number of pixels per angle of view is large, the angle accuracy is high.
Therefore, in the camera vector calculation device 10 shown in FIG. 16, a high-precision camera is obtained by performing camera vector calculation using both a wide-angle visual field image obtained by a wide-angle lens and a narrow-angle visual field image obtained by a narrow-angle lens. A vector can be obtained.
図17に、広角レンズカメラと狭角レンズカメラの双方を備えたカメラベクトル演算装置10のより詳細な具体例を示す。
同図において、画像取得部11には、広角視野カメラと狭角視野カメラが固定して車両等に設置され、同期して使用されるようになっている。
広角視野カメラによる映像出力(1)は、例えばAVI等の方式により画像圧縮され、一旦記録部(画像一時記録部12)に保存される。そして、必要な画像フレームが呼び出され、カメラベクトル演算装置10で上述したカメラベクトル演算が行われる。
FIG. 17 shows a more specific example of the camera vector calculation device 10 having both a wide-angle lens camera and a narrow-angle lens camera.
In the figure, a wide-angle visual field camera and a narrow-angle visual field camera are fixedly installed in a vehicle or the like in the image acquisition unit 11 and are used synchronously.
The video output (1) from the wide-angle viewing camera is image-compressed by a method such as AVI, for example, and is temporarily stored in the recording unit (image temporary recording unit 12). Then, a necessary image frame is called, and the camera vector calculation device 10 performs the above-described camera vector calculation.
一方、狭角視野カメラ側においても、取得された映像に基づいてカメラベクトル演算装置10でカメラベクトル演算が行われるが、三次元位置座標に関しては、精度が悪いので、広角視野カメラの広角視野映像によって得られたカメラベクトル値の内の三次元座標を、狭角視野カメラの狭角視野映像によって求められる三次元座標に代入してカメラベクトルを演算する。
このようにして得られた狭角視野カメラのカメラベクトルは、視野角当たりの画素数が広角視野カメラに比較して十分に多いので、高精度の座標軸回転角を得ることができる。
必要があれば、ここで得られた高精度の座標軸回転角を、さらに、広角視野カメラ側の座標回転角として代入すれば位置精度は更に向上する。
On the other hand, the camera vector calculation device 10 also performs camera vector calculation based on the acquired image on the narrow-angle field camera side. However, since the three-dimensional position coordinates are inaccurate, the wide-angle field image of the wide-angle field camera is used. The camera vector is calculated by substituting the three-dimensional coordinates of the camera vector values obtained by the above into the three-dimensional coordinates obtained from the narrow-angle field image of the narrow-angle field camera.
The camera vector of the narrow-angle viewing camera obtained in this way has a sufficiently large number of pixels per viewing angle compared to the wide-angle viewing camera, so that a highly accurate coordinate axis rotation angle can be obtained.
If necessary, the position accuracy can be further improved by substituting the high-precision coordinate axis rotation angle obtained here as the coordinate rotation angle on the wide-angle viewing camera side.
広角レンズカメラと狭角レンズカメラは、位置関係が変化しないように固定する等して一体化して配置する。広角と狭角のカメラは同期して駆動する。
それぞれのカメラの映像出力(映像出力(1),映像出力(2))は記録部12で記録する。後処理として、画像安定化する場合は、映像出力をAVI等で圧縮して、全フレームをストレージに記録する。また、リアルタイムでカメラ姿勢制御として画像安定化する場合や、カメラの保持機構や車両そのものの位置制御や姿勢制御を目的とする場合には、全フレームの画像の記録ではなく、リアルタイム処理に必要なフレーム数だけの画像を記録すればよい。ただし、映像そのものを必要とする場合は必要な画像はすべて記録する。
The wide-angle lens camera and the narrow-angle lens camera are integrally arranged by being fixed so that the positional relationship does not change. Wide-angle and narrow-angle cameras are driven synchronously.
The video output (video output (1), video output (2)) of each camera is recorded by the recording unit 12. In the case of image stabilization as post-processing, the video output is compressed by AVI or the like, and all frames are recorded in the storage. In addition, when image stabilization is performed as camera attitude control in real time, or for the purpose of position control and attitude control of the camera holding mechanism and the vehicle itself, it is necessary for real-time processing rather than recording images of all frames. It suffices to record only the number of frames. However, if the video itself is required, all necessary images are recorded.
広角レンズカメラ及び狭角レンズカメラの映像出力はそれぞれ、一時記憶され、カメラベクトル演算装置10でカメラベクトルが演算されるが、二者のカメラベクトルは基本的に同じか、単に平行移動したものか、定数分回転した位置関係にあり、片方を求めればそれはもう一方を求めたことになる。
ここで、広角レンズカメラによるカメラベクトルは視野を広く取れるために、特徴点を長距離追跡することができ、三次元位置精度が高く取れる。一方、狭角レンズカメラの映像出力は、視野が狭い分特徴点の追跡距離が短くなり、三次元位置精度は取れないが、一ピクセル当たりの画角が小さいため、回転精度は高く取れる。
The video outputs of the wide-angle lens camera and the narrow-angle lens camera are each temporarily stored, and the camera vector calculation device 10 calculates the camera vector. Are the two camera vectors basically the same or simply translated? The position is rotated by a constant number, and if one is obtained, it is the other.
Here, since the camera vector obtained by the wide-angle lens camera has a wide field of view, the feature points can be tracked over a long distance, and the three-dimensional position accuracy can be high. On the other hand, the video output of a narrow-angle lens camera has a narrow field of view and the tracking distance of feature points is shortened, so that the three-dimensional position accuracy cannot be obtained, but since the angle of view per pixel is small, the rotation accuracy can be high.
そこで、両カメラの長所を結合して、広角レンズ側で三次元位置座標を演算で求め、その得られた三次元位置座標を狭角レンズカメラの三次元位置座標として採用し、狭角レンズカメラでのカメラベクトル演算を求めることで、精度の高い3軸回転信号が得られる。
さらに、必要があれば、3軸回転信号を広角レンズカメラ側の3軸回転角として代入して、さらに精度の高い三次元位置を演算することができる。これを繰り返すことにより、精度をさらに高めることが可能となる。
Therefore, by combining the advantages of both cameras, the three-dimensional position coordinates are obtained by calculation on the wide-angle lens side, and the obtained three-dimensional position coordinates are adopted as the three-dimensional position coordinates of the narrow-angle lens camera. By obtaining the camera vector calculation at, a highly accurate three-axis rotation signal can be obtained.
Furthermore, if necessary, it is possible to calculate a more accurate three-dimensional position by substituting the three-axis rotation signal as the three-axis rotation angle on the wide-angle lens camera side. By repeating this, the accuracy can be further improved.
以上により、精度の高い三次元位置と3軸回転がリアルタイム処理で求められた後は、それを姿勢制御信号として、カメラ保持機構やカメラを積載する車両等の三次元位置と姿勢を制御することができる。ただし、リアルタイム処理の場合はカメラベクトル演算目的でのAVI画像変換等の必要はない。
また、記録された画像の画像安定化の実際の演算については、揺れ成分信号からの信号を処理するが、360°映像を扱う場合のように球面に貼り付けた映像を揺れ成分の信号で回転させて補正する方法や、通常の画像のように球面ではない通常の平面画像を揺れ角に合わせて回転させて平面展開するように平面変換するとで実現できる。実際には平面画像でも球面画像でも、球面変換も平面変換もどちらでも可能である。図17には、球面変換式を用いる場合と、平面変換式を用いる場合の二通りを示している。
As described above, after a highly accurate three-dimensional position and three-axis rotation are obtained by real-time processing, the three-dimensional position and posture of a camera holding mechanism, a vehicle carrying the camera, etc. are controlled using this as a posture control signal. Can do. However, in the case of real-time processing, there is no need for AVI image conversion for the purpose of camera vector calculation.
In addition, for the actual calculation of image stabilization of the recorded image, the signal from the shake component signal is processed, but the image pasted on the spherical surface is rotated by the shake component signal as in the case of handling 360 ° video. This can be realized by a correction method, or by converting a normal flat image that is not a spherical surface like a normal image into a plane so that it is rotated in accordance with the swing angle and flattened. Actually, either a spherical transformation or a planar transformation is possible for a planar image or a spherical image. FIG. 17 shows two cases of using a spherical transformation equation and using a planar transformation equation.
図18に、広角視野カメラと狭角視野カメラの関係を示す。
同図に示すように、それぞれのカメラでは、それぞれの視野で特徴点抽出と特徴点追跡が行われるので、必ずしも視野が重複している必要はない。
それぞれのカメラの位置関係が固定されていることだけが必要となる。
一台のカメラによって得られるカメラベクトルの位置座標は相対値であるため、後に何らかのスケール校正を行う必要があるが、カメラの視野を重複させることで、同一特徴点を追跡できる場合には視差を計測できるので、距離の絶対距離が取得できるので、計測には有利であり精度は更に向上する。
カメラの視野を重複させる場合を図19に示す。
FIG. 18 shows the relationship between the wide-angle camera and the narrow-angle camera.
As shown in the figure, each camera performs feature point extraction and feature point tracking in each field of view, so the fields of view do not necessarily have to overlap.
It is only necessary that the positional relationship of each camera is fixed.
Since the position coordinates of the camera vector obtained by one camera are relative values, it is necessary to perform some scale calibration later.However, if the same feature point can be tracked by overlapping the field of view of the camera, the parallax can be reduced. Since measurement is possible, the absolute distance can be obtained, which is advantageous for measurement and accuracy is further improved.
FIG. 19 shows a case where the fields of view of the cameras are overlapped.
図19に示すように、カメラの視野を重複させる場合には、専用の視野重複カメラを設置することが好ましい。同図に示すように、車両等の移動体の予想進行方向に狭角視野カメラを視野重複するように並べて配設し、特徴点の追跡路を長く取るようにすると、三次元位置精度を向上させることができる。
また、同図に示す横の独立視野の狭角視野カメラは、3軸回転角に高感度となるように設定してある。
このような視野重複カメラを画像安定化装置30に利用する場合には、カメラベクトル演算装置10の最終出力の3軸回転ベクトルを補正信号として画像に回転補正をかけて画像を安定化する。
なお、広角レンズと狭角レンズの視野は必ずしも重複する必要はない。
As shown in FIG. 19, when overlapping the fields of view of the cameras, it is preferable to install a dedicated field-of-view overlapping camera. As shown in the figure, the three-dimensional position accuracy is improved by arranging the narrow-angle field-of-view cameras so that they overlap in the expected traveling direction of a moving body such as a vehicle and extending the tracking path of feature points. Can be made.
Further, the narrow-angle field-of-view camera of the horizontal independent field shown in the figure is set so as to have high sensitivity at the three-axis rotation angle.
When such a field-of-view overlap camera is used for the image stabilization device 30, the image is stabilized by subjecting the image to rotation correction using the final output 3-axis rotation vector of the camera vector calculation device 10 as a correction signal.
Note that the fields of view of the wide-angle lens and the narrow-angle lens do not necessarily overlap.
さらに、高精度のカメラベクトルを求めるときは、図20に示すように、広角視野カメラと同時に複数の狭角視野カメラを、同図に示すように、視野が大まかな車両等の進行方向に沿って一部視野を重複しながら撮影し、広角視野カメラで全体視野を把握して粗計測し、そのデータを用いて、狭角視野カメラの演算の三次元位置を代入演算して求め、さらに進行方向に特徴点を追跡し、位置と姿勢について高精度のカメラベクトル演算を実現することができる。図20に示す左右両端の狭角視野カメラは3軸回転角に対して高感度となるように設置してある。 Further, when obtaining a highly accurate camera vector, as shown in FIG. 20, a plurality of narrow-angle view cameras and a wide-angle view camera are arranged along the traveling direction of a vehicle or the like having a rough view as shown in FIG. In this case, the field of view is overlapped, and the entire field of view is grasped with a wide-angle field-of-view camera. By tracking feature points in the direction, it is possible to realize high-precision camera vector calculation for position and orientation. The narrow-angle view cameras at the left and right ends shown in FIG. 20 are installed so as to be highly sensitive to the three-axis rotation angle.
また、図21に示すように、全体視野を把握する広角視野カメラを複数備えることもできる。
図21に示す例は、航空機の離着陸時のように、地面との距離が接近したような場合に、広角視野カメラを視野重複させて複数台(二台)設置した場合である。
航空機の離着陸時には、滑走路に近づいて対地速度が速くなるので、特徴点検出と追跡が困難になることを考慮して、図21に示すように、横外向きに広角視野カメラを設置する。
また、このように視野重複が有れば絶対距離が計測できるので、カメラベクトル演算で求められた相対距離を校正して、絶対距離に変換することが出来る。
In addition, as shown in FIG. 21, a plurality of wide-angle field-of-view cameras that grasp the entire field of view can be provided.
The example shown in FIG. 21 is a case where a plurality of (two) wide-angle field-of-view cameras are installed with overlapping fields of view when the distance from the ground approaches, such as when an aircraft takes off and landing.
At the time of takeoff and landing of the aircraft, the ground speed increases as it approaches the runway, so that it is difficult to detect and track feature points, and a wide-angle visual field camera is installed laterally outward as shown in FIG.
In addition, since the absolute distance can be measured if there is an overlapping field of view as described above, the relative distance obtained by the camera vector calculation can be calibrated and converted into the absolute distance.
以上、本発明のカメラベクトル演算装置と、このカメラベクトル演算装置に備えられる揺れ成分検出装置,画像安定化装置,位置姿勢安定化装置,目的対象物ロックオン装置及び実写対象物属性呼出装置について、好ましい実施形態を示して説明したが、本発明に係るカメラベクトル演算装置は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
例えば、図22に示すように、特徴点を電波源と置き換え、カメラをアンテナと置き換え、カメラベクトルをアンテナベクトルと置き換えることにより、複数の電波源を検出し、その方向を特定し、電波源の方向を追跡することで、アンテナベクトルを検出することができる。
As described above, the camera vector arithmetic device of the present invention and the shake component detecting device, the image stabilizing device, the position / orientation stabilizing device, the target object lock-on device, and the live-action object attribute calling device provided in the camera vector arithmetic device, Although the preferred embodiment has been shown and described, it is needless to say that the camera vector calculation device according to the present invention is not limited to the above-described embodiment, and various modifications can be made within the scope of the present invention. .
For example, as shown in FIG. 22, a feature point is replaced with a radio wave source, a camera is replaced with an antenna, and a camera vector is replaced with an antenna vector, thereby detecting a plurality of radio wave sources, specifying their directions, By tracking the direction, the antenna vector can be detected.
特徴点は画像内での方向のみの情報であることから、電波源でもその方向を検出し、追跡することで、画像と全く同様に考えられる。
この場合には、アンテナ方向が特徴点となる。アンテナ方向を追跡すれば、数学的には画像での特徴点追跡と全く同じものとして扱うことができる。画像上の特徴点と違い、夜間でも使用可能であり、電波源としては地上に点在する放送局等が利用可能である。
なお、電波源の座標は必要ないが、絶対座標を得るには、3カ所以上の三次元座標が既知である電波源をとらえることで実現できる。また、アンテナを複数とすることでも実現できる。
Since the feature point is information of only the direction in the image, it can be considered exactly the same as the image by detecting the direction of the radio wave source and tracking it.
In this case, the antenna direction becomes a feature point. If the antenna direction is tracked, it can be treated mathematically as the same feature point tracking as an image. Unlike the feature points on the image, it can be used at night, and broadcast stations and the like scattered on the ground can be used as radio wave sources.
The coordinates of the radio wave source are not necessary, but obtaining the absolute coordinates can be realized by capturing the radio wave source having three or more three-dimensional coordinates known. It can also be realized by using a plurality of antennas.
本発明は、例えば、動画映像をビデオ撮影する車載カメラの揺れ,振動による画像を補正したり、カーナビゲーション装置に備えられる三次元地図を取得,生成するのに好適な画像処理装置として利用することができる。 The present invention is used, for example, as an image processing apparatus suitable for correcting an image caused by shaking or vibration of an in-vehicle camera that takes a video of a moving image or acquiring and generating a three-dimensional map provided in a car navigation apparatus. Can do.
10 カメラベクトル演算装置
11 画像取得部
12 画像一時記録部
13 特徴点抽出部
14 特徴点対応処理部
15 カメラベクトル演算部
16 誤差最小化部
20 揺れ成分検出装置
30 画像安定化装置
40 位置姿勢安定化装置
50 目的対象物ロックオン装置
60 実写対象物属性呼出装置
DESCRIPTION OF SYMBOLS 10 Camera vector calculation apparatus 11 Image acquisition part 12 Image temporary recording part 13 Feature point extraction part 14 Feature point corresponding | compatible process part 15 Camera vector calculation part 16 Error minimization part 20 Shake component detection apparatus 30 Image stabilization apparatus 40 Position and orientation stabilization Device 50 Target object lock-on device 60 Live action object attribute calling device
Claims (14)
抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部と、
を備えることを特徴とするカメラベクトル演算装置。 A feature point extraction unit for automatically extracting a predetermined number of feature points from the image data of the moving image;
About the extracted feature points, a feature point correspondence processing unit that automatically tracks within each frame image of the moving image and obtains a correspondence relationship between the frame images;
A camera vector calculation unit that obtains the three-dimensional position coordinates of the feature point for which the correspondence relationship is obtained, and obtains a camera vector composed of the three-dimensional position coordinates and the three-dimensional rotation coordinates of the camera corresponding to each frame image from the three-dimensional position coordinates. When,
A camera vector computing device comprising:
カメラベクトル演算に用いる任意の二つのフレーム画像Fn及びFn+m(m=フレーム間隔)を単位画像として、所望の特徴点の三次元位置座標とカメラベクトルを求める単位演算を繰り返し、
前記二つのフレーム画像Fn及びFn+mの間のフレーム画像については、簡素化した演算によりカメラベクトルを求め、
前記誤差最小化部は、
画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定する請求項2記載のカメラベクトル演算装置。 The camera vector calculation unit
Using two arbitrary frame images Fn and Fn + m (m = frame interval) used for camera vector calculation as a unit image, the unit calculation for obtaining the three-dimensional position coordinates of the desired feature point and the camera vector is repeated,
For a frame image between the two frame images Fn and Fn + m, a camera vector is obtained by a simplified calculation,
The error minimizing unit includes:
As n progresses continuously with the progress of the image, the final camera vector is determined by adjusting the scale so that the error of each camera vector obtained by calculating multiple times for the same feature point is minimized. The camera vector arithmetic device according to claim 2.
前記フレーム間隔mを、カメラから特徴点までの距離に応じて、カメラから特徴点までの距離が大きいほどmが大きくなるように設定して単位演算を行う請求項3記載のカメラベクトル演算装置。 The camera vector calculation unit
4. The camera vector calculation device according to claim 3, wherein unit calculation is performed by setting the frame interval m such that m increases as the distance from the camera to the feature point increases according to the distance from the camera to the feature point.
求められたカメラベクトルの誤差の分布が大きい特徴点を削除し、必要が有れば、他の特徴点に基づいてカメラベクトルの再演算を行い、カメラベクトル演算の精度を上げる請求項1乃至4記載のカメラベクトル演算装置。 The camera vector calculation unit
5. A feature point having a large distribution of camera vector errors is deleted, and if necessary, the camera vector is recalculated based on another feature point to increase the accuracy of the camera vector calculation. The camera vector computing device described.
所望の精度となる最低数のフレーム画像と、自動抽出した最低数の特徴点に基づいて演算を行い、カメラベクトルの概略値をリアルタイムで求めて表示し、
画像の進行により画像が蓄積するにつれて、フレーム数を増加させ、特徴点の数を増加させて、より精度の高いカメラベクトル演算を行い、カメラベクトルの概略値を精度の高いカメラベクトル値に置き換えて表示する請求項1乃至5記載のカメラベクトル演算装置。 The camera vector calculation unit
Perform calculations based on the minimum number of frame images with the desired accuracy and the minimum number of feature points automatically extracted, and obtain and display the approximate value of the camera vector in real time.
As the image accumulates as the image progresses, the number of frames is increased, the number of feature points is increased, more accurate camera vector calculation is performed, and the approximate value of the camera vector is replaced with a more accurate camera vector value. 6. The camera vector calculation device according to claim 1, wherein the camera vector calculation device is displayed.
広角視野映像の画像データに基づいてカメラベクトルを演算するとともに、
当該広角視野映像に基づくカメラベクトル値を、狭角視野映像の画像データに基づくカメラベクトル演算時に代入演算することにより、高精度のカメラベクトルを求める請求項1乃至7記載のカメラベクトル演算装置。 Wide-angle visual field images with a wide field of view acquired by a plurality of cameras whose positional relationships are fixed and acquired synchronously as video images from which feature points are automatically extracted by the feature point extraction unit, Input a narrow-angle visual field image,
While calculating the camera vector based on the image data of the wide-angle visual field image,
8. The camera vector calculation device according to claim 1, wherein a camera vector value based on the wide-angle visual field image is substituted for a camera vector calculation based on image data of the narrow-angle visual field image, thereby obtaining a highly accurate camera vector.
三次元情報追跡部で得られた三次元情報の追跡結果に基づいて、前記概略のカメラベクトルより高精度のカメラベクトルを求める高精度カメラベクトル演算部と、を備える請求項1乃至8記載のカメラベクトル演算装置。 Based on the three-dimensional information sequentially obtained as a part of the image, using the camera vector obtained by the camera vector calculation unit as an approximate camera vector, the partial three-dimensional information included in a plurality of frame images is converted between adjacent frames. 3D information tracking unit that continuously tracks with,
The camera according to claim 1, further comprising: a high-precision camera vector calculation unit that obtains a camera vector with higher accuracy than the approximate camera vector based on a tracking result of the three-dimensional information obtained by the three-dimensional information tracking unit. Vector arithmetic unit.
前記画像補正信号生成部の補正信号により、画像データをカメラが揺れない場合に想定されるカメラベクトルを基準ベクトルとして撮影した場合と同等の安定化画像に変換処理する安定化画像変換部と、
前記安定化画像変換部で変換された安定化画像を出力する安定化画像出力部と、
前記安定化画像出力部から出力された安定化画像を表示する表示部と、
を有する画像安定化装置を備える請求項10記載のカメラベクトル演算装置。 Based on the output of the shake component detection device, a correction signal for correcting and converting a camera vector obtained from an image of the camera shaking so as to match a reference camera vector assumed when the camera does not shake An image correction signal generation unit to be generated;
A stabilized image conversion unit that converts the image data into a stabilized image equivalent to a case where the image data is taken as a reference vector based on a correction signal of the image correction signal generation unit when the camera is assumed not to shake.
A stabilized image output unit that outputs the stabilized image converted by the stabilized image conversion unit;
A display unit for displaying the stabilized image output from the stabilized image output unit;
The camera vector arithmetic unit according to claim 10, further comprising an image stabilization device having
前記位置姿勢補正信号生成部で生成される一又は二以上の補正信号から任意の補正信号を選択し、カメラの位置及び姿勢を制御する制御信号として出力する制御信号選択部と、
前記制御信号選択部から出力された制御信号により制御対象物を駆動してカメラの位置及び姿勢を制御する制御対象駆動部と、
を有する位置姿勢安定化装置を備える請求項10又は11記載のカメラベクトル演算装置。 Based on the output of the shaking component detection device, the difference between the planned camera position and posture and the current camera position and posture is obtained, and the position and posture of the control object to which the camera is fixed are controlled in three dimensions. A position / orientation correction signal generating unit that generates a correction signal for correcting the position and orientation to be planned
A control signal selection unit that selects an arbitrary correction signal from one or more correction signals generated by the position / orientation correction signal generation unit and outputs a control signal for controlling the position and orientation of the camera;
A control target drive unit that controls the position and orientation of the camera by driving the control target according to the control signal output from the control signal selection unit;
The camera vector arithmetic device according to claim 10, further comprising a position / orientation stabilization device having
ロックオンすべき任意の対象物を画像内に指定するロックオン対象物指定部と、
前記カメラベクトル演算装置で得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が常に画枠の中心位置又は所定位置に表示されるように、画像表示又はカメラが固定された固定物の位置及び姿勢を制御するロックオン制御部と、
を有する目的対象物ロックオン装置を備える請求項10乃至12記載のカメラベクトル演算装置。 A live-action coordinate setting unit for setting an appropriate three-dimensional coordinate system in the live-action image;
A lock-on object designating unit for designating an arbitrary object to be locked on in the image;
Based on the camera vector obtained by the camera vector calculation device, the object specified in the image is measured in the live-action coordinate system to obtain its three-dimensional coordinates, and the specified object for which the three-dimensional coordinates are obtained is always displayed. A lock-on control unit that controls the position and posture of a fixed object to which an image display or camera is fixed, so that it is displayed at the center position or a predetermined position of the frame;
The camera vector arithmetic device according to claim 10, further comprising a target object lock-on device having
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004291353A JP4446041B2 (en) | 2003-10-02 | 2004-10-04 | Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003344836 | 2003-10-02 | ||
JP2004064035 | 2004-03-08 | ||
JP2004291353A JP4446041B2 (en) | 2003-10-02 | 2004-10-04 | Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005295495A JP2005295495A (en) | 2005-10-20 |
JP4446041B2 true JP4446041B2 (en) | 2010-04-07 |
Family
ID=35327886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004291353A Expired - Lifetime JP4446041B2 (en) | 2003-10-02 | 2004-10-04 | Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4446041B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2785045A2 (en) | 2013-03-26 | 2014-10-01 | Canon Kabushiki Kaisha | Image processing apparatus and method, and image capturing apparatus |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4665737B2 (en) * | 2005-11-30 | 2011-04-06 | カシオ計算機株式会社 | Image processing apparatus and program |
WO2007097431A1 (en) * | 2006-02-23 | 2007-08-30 | Matsushita Electric Industrial Co., Ltd. | Image correction device, method, program, integrated circuit, and system |
JP4926822B2 (en) * | 2006-05-24 | 2012-05-09 | 株式会社岩根研究所 | Spring point reference CV region image pre-placement device |
JP5090797B2 (en) * | 2006-06-15 | 2012-12-05 | 株式会社岩根研究所 | CV value reference collective tracking device, CV region image pre-apparatus using this CV value reference collective tracking device |
JP4870546B2 (en) * | 2006-12-27 | 2012-02-08 | 株式会社岩根研究所 | CV tag video display device with layer generation / selection function |
JP2008227807A (en) * | 2007-03-12 | 2008-09-25 | Mitsubishi Electric Corp | Image stabilizer |
KR101442613B1 (en) | 2008-04-04 | 2014-09-19 | 삼성전자주식회사 | Apparatus for processing digital image and method for controlling thereof |
JP5242450B2 (en) * | 2009-02-27 | 2013-07-24 | 株式会社熊谷組 | Sound source estimation method |
JP5337658B2 (en) | 2009-10-02 | 2013-11-06 | 株式会社トプコン | Wide-angle imaging device and measurement system |
JP4689758B1 (en) | 2010-04-22 | 2011-05-25 | 株式会社市川ソフトラボラトリー | Image coincidence point detection apparatus, image coincidence point detection method, and recording medium |
US8681230B2 (en) | 2010-11-11 | 2014-03-25 | Panasonic Corporation | Picture processing device, picture processing method, program for picture processing, and imaging device |
WO2012064106A2 (en) | 2010-11-12 | 2012-05-18 | Samsung Electronics Co., Ltd. | Method and apparatus for video stabilization by compensating for view direction of camera |
JP2014123208A (en) * | 2012-12-20 | 2014-07-03 | Mitsubishi Electric Corp | Three-dimensional restoration device |
EP3859669A1 (en) | 2014-11-04 | 2021-08-04 | SZ DJI Technology Co., Ltd. | Camera calibration |
KR102612988B1 (en) * | 2016-10-20 | 2023-12-12 | 삼성전자주식회사 | Display apparatus and image processing method thereof |
KR102653336B1 (en) * | 2017-01-02 | 2024-04-02 | 삼성전자주식회사 | An electronic device and control method therof |
JP6473188B2 (en) * | 2017-03-28 | 2019-02-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Method, apparatus and program for generating depth map |
CN112788227B (en) * | 2019-11-07 | 2022-06-14 | 富泰华工业(深圳)有限公司 | Target tracking shooting method, target tracking shooting device, computer device and storage medium |
CN115890654B (en) * | 2022-10-09 | 2023-08-11 | 北京微链道爱科技有限公司 | Depth camera automatic calibration algorithm based on three-dimensional feature points |
-
2004
- 2004-10-04 JP JP2004291353A patent/JP4446041B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2785045A2 (en) | 2013-03-26 | 2014-10-01 | Canon Kabushiki Kaisha | Image processing apparatus and method, and image capturing apparatus |
US9762800B2 (en) | 2013-03-26 | 2017-09-12 | Canon Kabushiki Kaisha | Image processing apparatus and method, and image capturing apparatus for predicting motion of camera |
Also Published As
Publication number | Publication date |
---|---|
JP2005295495A (en) | 2005-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4446041B2 (en) | Camera vector computing device, shake component detecting device, image stabilizing device, position and orientation stabilizing device, target object lock-on device, and live-action object attribute calling device provided in this camera vector computing device | |
US11054258B2 (en) | Surveying system | |
CN109540126B (en) | Inertial vision integrated navigation method based on optical flow method | |
CN112567201B (en) | Distance measuring method and device | |
US11263761B2 (en) | Systems and methods for visual target tracking | |
EP3333538B1 (en) | Scanner vis | |
JP6775776B2 (en) | Free viewpoint movement display device | |
US9025825B2 (en) | System and method for visual motion based object segmentation and tracking | |
US11906983B2 (en) | System and method for tracking targets | |
JPWO2004113836A1 (en) | Shooting image display method | |
JP5214355B2 (en) | Vehicle traveling locus observation system, vehicle traveling locus observation method, and program thereof | |
CN108364304A (en) | A kind of system and method for the detection of monocular airborne target | |
KR20030070553A (en) | Video picture processing method | |
JP2005122315A (en) | 3dcg composition device | |
JP6723533B2 (en) | Driving simulator | |
JP2019533875A (en) | Method and system for generating a composite top view image of a road | |
JP4980617B2 (en) | 2D drawing and video composition display device | |
US11415990B2 (en) | Optical object tracking on focal plane with dynamic focal length | |
EP3957954A1 (en) | Active gimbal stabilized aerial visual-inertial navigation system | |
JP2007114916A (en) | Old/new video image coordinate integration unit | |
Rabinovitch et al. | ASPIRE supersonic parachute shape reconstruction | |
JP2006172170A (en) | Coordinate system separation recording/reproduction apparatus | |
US20220060628A1 (en) | Active gimbal stabilized aerial visual-inertial navigation system | |
JP2007166296A (en) | Image processor and dynamic image displaying method | |
JP2003076977A (en) | Image data processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070423 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090813 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091110 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20091201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130129 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4446041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130129 Year of fee payment: 3 |
|
S202 | Request for registration of non-exclusive licence |
Free format text: JAPANESE INTERMEDIATE CODE: R315201 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130129 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |