JP2010287074A - Camera calibration device, camera calibration method, camera calibration program and recording medium recording the program - Google Patents
Camera calibration device, camera calibration method, camera calibration program and recording medium recording the program Download PDFInfo
- Publication number
- JP2010287074A JP2010287074A JP2009140649A JP2009140649A JP2010287074A JP 2010287074 A JP2010287074 A JP 2010287074A JP 2009140649 A JP2009140649 A JP 2009140649A JP 2009140649 A JP2009140649 A JP 2009140649A JP 2010287074 A JP2010287074 A JP 2010287074A
- Authority
- JP
- Japan
- Prior art keywords
- camera calibration
- image
- imaging device
- camera
- reference object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、セキュリティカメラ、または防犯目的で設置されている固定カメラの校正(カメラパラメータを求めること)に利用可能で、カメラ校正作業のコストを抑制するカメラ校正装置に関する。 The present invention relates to a camera calibration apparatus that can be used for calibration (determining camera parameters) of a security camera or a fixed camera installed for crime prevention purposes and suppresses the cost of camera calibration work.
カメラ固有の焦点距離や画像中心などの内部パラメータ、並びに、カメラ配置時の姿勢や位置情報という外部パラメータを得るにはカメラキャリブレーション(カメラ校正)が行われる。図19に示すように、従来の方法では、校正したいカメラにより格子パターンの模様を描いた2次元物体を撮影し、その参照物体に関する幾何情報とカメラで観測した画像上での投影情報から、カメラ内部,外部パラメータ(両者を合わせてカメラパラメータと呼ぶ)を推定する(非特許文献1)。 Camera calibration (camera calibration) is performed to obtain internal parameters such as a camera-specific focal length and image center, and external parameters such as posture and position information at the time of camera placement. As shown in FIG. 19, in the conventional method, a two-dimensional object in which a lattice pattern is drawn is photographed by a camera to be calibrated, and a camera is obtained from geometric information about the reference object and projection information on an image observed by the camera. Internal and external parameters (both are collectively referred to as camera parameters) are estimated (Non-Patent Document 1).
さらに、より簡単な参照物体を使った例として、図20に示すように、長さの既知な1次元物体を使い、参照点Aを固定したまま撮影しその画像からカメラを校正する方法も公開されている(非特許文献2)。 Furthermore, as an example using a simpler reference object, as shown in FIG. 20, a method is also disclosed in which a one-dimensional object with a known length is used to shoot with the reference point A fixed and calibrate the camera from the image. (Non-Patent Document 2).
コンピュータビジョンでは、Structure From Motionと呼ばれている基本原理があり、静止した被写体に対してカメラが相対的に運動することにより被写体の3次元形状と運動を復元する方法がある(運動する被写体に対してカメラが静止していても原理は同じ)。セルフキャリブレーション(あるいはオートキャリブレーションとも呼ばれる)はこの原理に基づく手法の一つであり、上記のような既知の参照物体を必要とせず、静的な映像シーンから観測した特徴点を使ってカメラパラメータを推定する。 In computer vision, there is a basic principle called Structure From Motion, and there is a method for restoring the three-dimensional shape and movement of a subject by moving the camera relative to a stationary subject (for moving subjects). On the other hand, the principle is the same even if the camera is stationary). Self-calibration (also called auto-calibration) is one of the methods based on this principle. It does not require the above-mentioned known reference object and uses a feature point observed from a static video scene. Estimate the parameters.
従来のカメラキャリブレーション法では非特許文献1,2に代表されるように参照物体を使うことが常套手段である。図19では2次元物体上の参照点の2次元座標を既知としており(非特許文献1)、図20では1次元物体の長さLと点Aから点Cまでの距離と点Bから点Cまでの距離の比が既知であることが前提である(非特許文献2)。
In conventional camera calibration methods, it is common practice to use a reference object, as represented by
このような参照物体を使用したカメラ校正の場合、十分な量の参照点を撮影する必要がある。これに応じるには、カメラ校正の前に、参照物体を撮影する作業に多くの時間が割かれることになる。セキュリティカメラなどの定点カメラでは、必ずしもカメラ校正に十分な量の参照点を撮影することが保証されておらず、それらを撮影するだけの時間的余裕があるとは限らない。運用状況によっては、少数の参照点からカメラ校正に応じなければならない。 In the case of camera calibration using such a reference object, it is necessary to photograph a sufficient amount of reference points. In order to respond to this, a lot of time is taken for the work of photographing the reference object before the camera calibration. In a fixed-point camera such as a security camera, it is not always guaranteed to capture a sufficient amount of reference points for camera calibration, and there is not always enough time to capture them. Depending on the operational situation, camera calibration must be accepted from a small number of reference points.
また、非特許文献1でのカメラ校正では、参照物体(2次元平面のパターンなど)が利用されるが、カメラとの距離が離れてしまうと、参照物体が小さく映るため十分な精度のカメラ校正ができない。これを解決するには、遠くから撮影しても十分な大きさの2次元平面パターンを準備することが考えられるが、巨大な平面パターンを用意することは現実的ではない。 In the camera calibration in Non-Patent Document 1, a reference object (a two-dimensional plane pattern or the like) is used. However, if the distance from the camera is increased, the reference object appears smaller, so that the camera calibration is sufficiently accurate. I can't. In order to solve this, it is conceivable to prepare a two-dimensional plane pattern having a sufficiently large size even when taken from a distance, but it is not realistic to prepare a huge plane pattern.
これに対して、セルフキャリブレーションによれば、既知の参照物体を必要とせず、静的な映像シーンから観測した特徴点に基づきカメラを校正することができる。しかし、そのカメラ校正の方法においても十分な量の特徴点の画像座標を時系列画像から測定する必要があり、その特徴点の画像座標の測定にある程度の誤差が混入すると校正精度が大きく劣化するという問題が指摘されている。 On the other hand, according to the self-calibration, the camera can be calibrated based on the feature points observed from the static video scene without requiring a known reference object. However, even in the camera calibration method, it is necessary to measure a sufficient amount of image coordinates of feature points from a time-series image. If a certain amount of error is mixed in the measurement of image coordinates of the feature points, the calibration accuracy is greatly deteriorated. The problem is pointed out.
本発明は、上述のような従来技術の問題を解決するためになされたものであり、撮影コストを低減させるとともに、カメラと参照物体が離れた場合でも、簡単な作業で高精度にカメラ校正を行うことを解決課題としている。 The present invention has been made in order to solve the above-described problems of the prior art, and reduces the photographing cost. Even when the camera and the reference object are separated from each other, the camera calibration can be performed with high accuracy with a simple operation. It is a solution issue to do.
本発明の一態様は、単眼または複数の撮像装置から取得した画像から、その撮像装置の内部パラメータと姿勢および位置を含む外部パラメータを校正するカメラ校正装置であって、前記画像から形状が既知の参照物体における直線状に並んだ参照点の画像座標を検出する参照点検出手段と、前記参照点から形成される線分と画像座標上の基準軸との間の光軸回転角を算出し、算出された光軸回転角に応じて前記画像を画像座標の原点を中心に逆回転させ、かつ、参照点の一つが該画像座標の原点と一致するように参照物体の位置を移動させる参照物体制御手段と、参照物体に設けられた計測装置により撮像装置と計測装置間の仰角と距離を計測する幾何計測手段と、参照点と撮像装置間の射影的幾何の関係を利用して、前記撮像装置と計測装置間の仰角と距離,光軸回転角,および参照物体制御後に検出した参照点の画像座標から、撮像装置の内部パラメータと外部パラメータを校正するカメラ校正手段と、を備える。 One aspect of the present invention is a camera calibration device that calibrates internal parameters of an imaging device and external parameters including posture and position from an image acquired from a single eye or a plurality of imaging devices, the shape of which is known from the image Reference point detecting means for detecting image coordinates of reference points arranged in a straight line in the reference object, and calculating an optical axis rotation angle between a line segment formed from the reference points and a reference axis on the image coordinates, A reference object that reversely rotates the image around the origin of the image coordinates according to the calculated optical axis rotation angle, and moves the position of the reference object so that one of the reference points coincides with the origin of the image coordinates The imaging means using a control means, a geometric measurement means for measuring an elevation angle and a distance between the imaging device and the measuring device by a measuring device provided on the reference object, and a projective geometry relationship between the reference point and the imaging device. Equipment and instrumentation Comprises elevation angle and the distance between the optical axis rotation angles, and the image coordinates of the reference points detected after a reference object control, and camera calibration means for calibrating the internal parameters and external parameters of the imaging apparatus.
また、本発明の他の態様は、単眼または複数の撮像装置を使って取得した画像から、その撮像装置の内部パラメータと姿勢および位置を含む外部パラメータを校正するカメラ校正方法であって、参照点検出手段が前記画像から形状が既知の参照物体における直線状に並んだ参照点の画像座標を検出する参照点検出ステップと、参照物体制御手段が、前記参照点から形成される線分と画像座標上の基準軸との間の光軸回転角を算出し、算出された光軸回転角に応じて前記画像を画像座標の原点を中心に逆回転させ、かつ、参照点の一つがその画像座標の原点と一致するように参照物体の位置を移動させる参照物体制御ステップと、幾何計測手段が、参照物体に設けられた計測装置により撮像装置と計測装置間の仰角と距離を計測する幾何計測ステップと、カメラ校正手段が、参照点と撮像装置間の射影的幾何の関係を利用して、前記撮像装置と計測装置間の仰角と距離,光軸回転角,および参照物体制御後に検出した参照点の画像座標から、撮像装置の内部パラメータと外部パラメータを校正するカメラ校正ステップと、を有する。 Another aspect of the present invention is a camera calibration method for calibrating external parameters including an internal parameter, an orientation, and a position of an imaging device from an image acquired using a single eye or a plurality of imaging devices. A reference point detecting step in which the output means detects image coordinates of reference points arranged in a straight line in a reference object having a known shape from the image; and a line segment and image coordinates formed from the reference point by the reference object control means The optical axis rotation angle between the upper reference axis is calculated, the image is rotated backward about the origin of the image coordinates according to the calculated optical axis rotation angle, and one of the reference points is the image coordinate. A reference object control step for moving the position of the reference object so as to coincide with the origin of the reference object, and a geometric measurement unit in which the geometric measurement means measures the elevation angle and distance between the imaging device and the measurement device by the measurement device provided on the reference object. And the camera calibration means detect the elevation angle and distance between the imaging device and the measuring device, the optical axis rotation angle, and the reference object control using the relationship of the projective geometry between the reference point and the imaging device. A camera calibration step of calibrating internal parameters and external parameters of the imaging device from the image coordinates of the reference point.
なお、本発明は、前記カメラ校正装置を校正する各手段として、コンピュータを機能させるためのプログラムとして構成することができる。このプログラムは記録媒体に格納した態様でも提供できる。 In addition, this invention can be comprised as a program for functioning a computer as each means to calibrate the said camera calibration apparatus. This program can also be provided in a form stored in a recording medium.
本発明によれば、撮影作業コストを低減させるともに、カメラと参照物体が離れた場合でも、簡単な作業で高精度にカメラ校正を行うことができる。 According to the present invention, it is possible to reduce the photographing work cost and perform camera calibration with high accuracy with a simple work even when the camera and the reference object are separated from each other.
以下、本発明の実施形態に係るカメラ校正装置を説明する。このカメラ校正装置の基本原理となる直線上の3点とカメラ間の射影的幾何の関係について述べる。まず、カメラ視点と3次元点の間の射影関係を記述するために、その基準となる座標系を設定する。この座標系は任意に設定しても構わないが、説明の都合上、図1,図2に示すように、地面または床面上のある点(あるいは任意の平面上の点としてもよい)を原点とした世界座標系を前提とする。空間中の3次元点(参照点)はこの世界座標系の座標として表現され、カメラ校正のために観測する参照点をO=(0,0,0)、A=(0,0,h1)、B=(0,0,h2)とする。 Hereinafter, a camera calibration apparatus according to an embodiment of the present invention will be described. The projective geometry relationship between the three points on the straight line and the camera, which is the basic principle of this camera calibration device, will be described. First, in order to describe the projection relationship between the camera viewpoint and the three-dimensional point, a reference coordinate system is set. Although this coordinate system may be set arbitrarily, for convenience of explanation, as shown in FIGS. 1 and 2, a certain point on the ground or floor (or a point on an arbitrary plane) may be used. Assumes world coordinate system as origin. A three-dimensional point (reference point) in the space is expressed as coordinates in this world coordinate system, and the reference points to be observed for camera calibration are O = (0,0,0) and A = (0,0, h 1). ), B = (0, 0, h 2 ).
カメラによる幾何的射影をピンホールカメラに従った透視投影にモデル化できると仮定する。世界座標系で表された3次元点をPj=(Xj,Yj,Zj)、カメラ視点の位置を(Tx,Ty,Tz)とすると、点Pjの画像上で観測される2次元座標値(画像座標)pj=(xj,yj)は、下記(1)式,(2)式で与えられる。 Assume that the geometric projection by a camera can be modeled as a perspective projection according to a pinhole camera. If a three-dimensional point expressed in the world coordinate system is P j = (X j , Y j , Z j ) and the camera viewpoint position is (Tx, Ty, Tz), the point P j is observed on the image. Two-dimensional coordinate values (image coordinates) p j = (x j , y j ) are given by the following equations (1) and (2).
ここで、fは画素を単位とした焦点距離、R11,R12,…,R33は3×3回転行列の要素に対応する。参照点A,B,OはZw軸上の点なので、カメラのY軸周りの回転は任意に設定してよく、各回転要素を下記(3)式〜(11)式と与える。 Here, f is a focal length in units of pixels, and R 11 , R 12 ,..., R 33 correspond to elements of a 3 × 3 rotation matrix. Reference point A, B, because O is a point on the Z w axis, rotation about the Y-axis of the camera may be set arbitrarily, providing each rotating element and the following (3) to (11) below.
上記(3)式〜(11)式中のφ、θは、図1、図2でのカメラ座標系XYZにおけるX軸、Z軸周りの回転角(傾き角,光軸回転角)を示す。 Φ and θ in the above equations (3) to (11) indicate rotation angles (tilt angle, optical axis rotation angle) around the X axis and Z axis in the camera coordinate system XYZ in FIGS.
参照点O=(0,0,0)、A=(0,0,h1)、B=(0,0,h2)の画像上で観測される画像座標をそれぞれp0=(x0,y0)、p1=(x1,y1)、p2=(x2,y2)とすると、下記(12)式,(13)式の関係を導くことができる。ただし、下記(14)式,(15)式と置換している。 The image coordinates observed on the image of the reference point O = (0, 0, 0), A = (0, 0, h 1 ), B = (0, 0, h 2 ) are respectively represented by p 0 = (x 0 , Y 0 ), p 1 = (x 1 , y 1 ), and p 2 = (x 2 , y 2 ), the following equations (12) and (13) can be derived. However, the following formulas (14) and (15) are substituted.
従って、上記(12)式、(13)式から、下記(16)式が得られる。 Therefore, the following equation (16) is obtained from the above equations (12) and (13).
上記(16)式は3つの参照点の画像座標p1,p2,p0と参照点A,BのZ軸上の高さh1、h2が与えられれば、カメラZ軸周りの回転角(以下,光軸回転角と称する)θが得られることを示している。さらに、焦点距離fとカメラX軸周りの回転角(以下、傾き角と称する)φの関係は上記(13)式となるので、何らかの手段で傾き角φが得られれば、上記(13)式の関係を利用して焦点距離fを得ることができる。あるいは、何らかの手段で焦点距離fが得られれば、上記(13)式の関係を利用して傾き角φを得ることができる。 The above equation (16) is a rotation around the camera Z axis if the image coordinates p 1 , p 2 , p 0 of the three reference points and the heights h 1 , h 2 on the Z axis of the reference points A, B are given. The angle θ (hereinafter referred to as the optical axis rotation angle) θ is obtained. Furthermore, since the relationship between the focal length f and the rotation angle (hereinafter referred to as the tilt angle) φ around the camera X axis is the above equation (13), if the tilt angle φ is obtained by some means, the above equation (13) The focal length f can be obtained using the relationship. Alternatively, if the focal length f is obtained by some means, the tilt angle φ can be obtained using the relationship of the above equation (13).
カメラ校正装置は、何らかの計測装置によりカメラX軸周りの傾き角φを得て、上記(13)式の関係を用いて焦点距離fを算出する。ただし、レーザ計測によりカメラの傾き角φを測定するためには、カメラの視点位置(Tx,Ty,Tz)と計測装置の計測点がある特別な配置でなければならない。これを図3〜図5に基づき説明する。 The camera calibration device obtains the tilt angle φ around the camera X axis by some measuring device, and calculates the focal length f using the relationship of the above equation (13). However, in order to measure the tilt angle φ of the camera by laser measurement, it is necessary to have a special arrangement with the camera viewpoint position (Tx, Ty, Tz) and the measurement point of the measuring device. This will be described with reference to FIGS.
図3では、計測装置の計測点を参照点Aの位置と仮定している。この距離計測装置により、対象物までの距離L(図3でのAから視点までの距離)、並びに、傾き角(仰角)Ψが得られれば、三角関数の関係によりカメラ視点までの奥行きd(=Lcos(Ψ)),参照点を基準としたときの高さh(=Lsin(Ψ))が得られる。ただし、計測装置により、これらの値が測定できるのは、図4に示すように計測装置の計測点とカメラ視点位置(Tx,Ty,Tz)がYw軸上に位置し、画像上では図5に示すように参照点Aの画像座標p1が画像の中心に位置し、さらに、他の参照点B,Oが画像座標上のy軸(縦方向の中心軸)上に投影されることが条件となる。つまり、参照点Aと他の参照点B,Oが図5に示す状態で観測できるように、参照点A,B,Oの位置を別手段で変更する必要がある。 In FIG. 3, the measurement point of the measurement device is assumed to be the position of the reference point A. If the distance L to the object (the distance from A to the viewpoint in FIG. 3) and the tilt angle (elevation angle) Ψ are obtained by this distance measuring apparatus, the depth d ( = Lcos (Ψ)), and the height h (= Lsin (Ψ)) with respect to the reference point is obtained. However, by the measuring device, that these values can be measured is located on the measurement point and the camera viewpoint position (Tx, Ty, Tz) is Y w axis of the measuring apparatus as shown in FIG. 4, illustration on the image As shown in FIG. 5, the image coordinate p 1 of the reference point A is located at the center of the image, and the other reference points B and O are projected on the y-axis (vertical center axis) on the image coordinate. Is a condition. That is, it is necessary to change the positions of the reference points A, B, and O by another means so that the reference point A and the other reference points B and O can be observed in the state shown in FIG.
カメラの視点位置(Tx,Ty,Tz)と計測装置の計測点が図3〜図5に示すような特別な配置となれば、計測装置を利用して高さh、奥行きd、傾き角φが得られるため、視点位置(Tx,Ty,Tz)は参照点Oを原点とした世界座標系上で(0,d,h+h1)として得られる。また、図3での傾き角(仰角)Ψが分かると、カメラの傾き角φ(=Ψ−π/2)が得られる(φは鉛直下向きの方向(−Zw軸の方向)をφ=0、Yw軸と反対方向に向いたときをφ=−π/2とし、カメラの傾き角はこの範囲内(−π/2<φ<0)で定義される回転角とする)。これで傾き角φが算出できるので、上記(13)式の関係を用いて焦点距離fが得られる。以上が基本原理である。 If the viewpoint position (Tx, Ty, Tz) of the camera and the measurement points of the measurement device are specially arranged as shown in FIGS. 3 to 5, the height h, the depth d, and the inclination angle φ are utilized using the measurement device. Therefore, the viewpoint position (Tx, Ty, Tz) is obtained as (0, d, h + h 1 ) on the world coordinate system with the reference point O as the origin. Further, the inclination angle (elevation angle) [psi is seen in FIG. 3, the inclination angle of the camera φ (= Ψ-π / 2 ) is obtained the (phi is vertically downward direction (the direction of -Z w axis) phi = 0, Y w axis and a φ = -π / 2 when facing in the opposite direction, the inclination angle of the camera is the angle of rotation which is defined within this range (-π / 2 <φ <0 )). Since the tilt angle φ can be calculated with this, the focal length f is obtained using the relationship of the above equation (13). The above is the basic principle.
[実施形態1]
図6は本発明の実施形態1に係るカメラ校正装置1の構成例を示している。本実施形態1のカメラ校正装置1は、カメラ校正に使用する画像を取得する画像入力部2と、画像入力部2が取得した画像から参照物体3の参照点を検出する参照点検出部4と、その参照点を使って撮像装置(以下、カメラと称する)5の光軸回転角を算出して画像を回転補正し、参照物体3の位置を制御する参照物体制御部6と、その制御された参照物体3に設けられた計測装置のカメラ5への向きを制御しながら、カメラ5と計測装置間の仰角(以下、傾き角と称する)と距離などを計測する幾何計測制御部7と、この幾何計測制御部7で得た幾何情報と参照点の画像座標の幾何関係を使ってカメラパラメータを校正するカメラ校正処理部8と、を備える。
[Embodiment 1]
FIG. 6 shows a configuration example of the camera calibration apparatus 1 according to the first embodiment of the present invention. The camera calibration apparatus 1 according to the first embodiment includes an
ここでは校正対象のカメラ5がカメラ校正装置1に接続された態様を示しているが、校正対象のカメラ5は必ずしも構成要素としてカメラ校正装置1に接続する必要はなく、校正に必要なサンプル画像を画像入力部2を介して取得すればよい。その画像入力部2には、ハードディスク、RAID装置、CD−ROMなどの記録媒体を利用する形態、または、ネットワークを介してリモートなデータ資源を利用する形態でもどちらでも構わない。さらに、処理の必要に応じてリアルタイムで画像を取得する方法も可能であり、本発明は必ずしも記憶装置を必要としない。また、前記カメラ校正装置1は、コンピュータのハードウェア資源(CPU,メモリ,ハードディスクドライブ装置,通信インターフェイス等)とソフトウェアとの協働の結果、画像入力部2,参照点検出部4,参照物体制御部6,幾何計測制御部7,カメラ校正処理部8として機能している。
Here, a mode in which the
図8(a),(b)に、校正対象のカメラ5に提示される参照物体3の外観図を示す。図8(a)に示すように、A,B,Oはカメラ5で観測可能なマーカー(参照点)であり、一つの直線上(垂直棒9)に配置されている。マーカー(参照点)Oを世界座標系の原点とし、マーカーOからマーカーA、Bまでの高さはそれぞれh1、h2である。さらに、参照物体3の最上部には計測装置としてレーザ距離計測部10が設けられている。
FIGS. 8A and 8B are external views of the
本実施形態1では、カメラ5と参照物体3との距離が十分に離れていれば、レーザ距離計測部10での計測点は近似的に参照点Aとほぼ同じ位置と仮定する。なお、レーザ距離計測部10は、図8(b)に示すように、校正対象のカメラ5に応じて自由に姿勢を制御できるものとする。
In the first embodiment, if the distance between the
以下、図7のフローチャートに基づき、前記カメラ校正装置1の処理ステップを説明する。 Hereinafter, the processing steps of the camera calibration apparatus 1 will be described with reference to the flowchart of FIG.
S11:図6に示す参照物体制御部6において、図8に示すように設計された参照物体3がカメラ校正のための撮影被写体としてカメラ5の前に設置される。この初期状態ではカメラ5を校正する準備はできていない。
S11: In the reference
ここで、前記参照物体3をカメラ5で撮影したサンプル画像を画像入力部2を介して取得する。図9はそのサンプル画像の例である。図9では、画像面の横方向にx軸、縦方向にy軸を設定し、画像中心をxy画像座標系の中心とする。
Here, a sample image obtained by photographing the
次に、このサンプル画像に対し、参照物体制御部6において、図10のカメラ校正のための前処置が実施される。ここでは、参照点A,B,Oは、垂直棒9に沿って配置されているので、サンプル画像上においてHough変換による投票処理により(S21)、参照棒(垂直棒9)の直線パラメータを検出する(S22)。
Next, a pretreatment for camera calibration in FIG. 10 is performed on the sample image in the reference
S12:S11で前記直線パラメータが検出できれば参照点を検出する。すなわち、参照点検出部4により、その直線に沿ってスキャンし、参照点A,B,Oの画像座標を検出する。参照点A,B,Oにカメラ5でも目立つような色が塗装されていれば、垂直棒9上をスキャンすることにより参照点A,B,Oを容易に検出することができる。あるいは、図11に示すように、参照点A,B,Oを検出し易いように特殊な背景12を塗装しておけば、同様に参照点A,B,Oの位置を容易に検出することができる。このようにして、参照点検出部4において、参照点A,B,Oに対応する画像座標をそれぞれp1=(x1,y1)、p2=(x2,y2)、p0=(x0,y0)として得る。
S12: If the straight line parameter can be detected in S11, a reference point is detected. That is, the reference point detection unit 4 scans along the straight line, and detects the image coordinates of the reference points A, B, and O. If the reference points A, B, and O are painted with a color that is conspicuous even with the
S13:図10に示すフローチャートに戻り、参照物体制御部6は光軸回転角θの算出と回転補正、すなわち、図10の処理プロセス中におけるS23,S24を実行する。ここでは、この抽出した参照点A,B,Oの画像座標P1,P2,P0と既知のh1,h2から、参照物体制御部6により、前記(14)式、(15)式に従ってα、βを計算し、前記(16)式を使って画像の光軸回転角(参照点A,B,Oから形成される線分と画像座標上のy軸(基準軸)との間の光軸回転角)θを算出する(S23)。そして、参照物体制御部6により、図9に示す画像を画像原点中心に光軸回転角θの逆回転を施し、図12に示すような画像を得る(S24)。
S13: Returning to the flowchart shown in FIG. 10, the reference
S14:参照物体制御部6により、参照物体3の並進制御が行われ、参照物体3の位置を図13の処理フローチャートに従って変更する。この制御は図14に示す画像が得られるまで、すなわち、参照点Aの画像座標P1=(X1,y1)が画像原点と一致するまで参照物体3の位置が変更される(図10のS25)。この参照物体3の位置変更を図13のフローチャートに基づいて説明する。
S14: The translation control of the
図15に示すように、土台11に設定されたXw軸に沿って参照物体3を命令に応じてΔXずつ移動させる(S31)。参照点検出部4から逐次参照点A,B,Oの画像座標P1,P2,P0が得られるので、参照点Aの画像座標p1が画像中心と一致するかどうかを判定する(S35)。Xw軸方向で移動できる範囲で移動しても一致する点が見つからないと判定された場合(S32)は、今度はYw軸方向に沿って参照物体3をΔYだけ移動し(S33)、参照物体3のXw軸方向上の位置を元に戻して(S34)、再度、Xw軸方向に沿って参照物体3をΔXずつ移動させる(S31)。このように、点Aの画像座標p1が画像中心に重なると判定(S35)されるまで参照物体3をXwYw平面上で移動させる。この参照物体制御部6による制御が完了すると、参照点A、B、Oから構成される1次元物体が画面上においてy軸と一致することになる。
As shown in FIG. 15, the
上記の参照物体制御部6での処理が完了した状態で、参照点検出部4により各参照点A,B,Oの画像座標P1,P2,P0を再度測定する。図14に示すように、参照物体制御部6によりターゲット(参照物体3)の垂直棒9がy軸と一致しているので、参照点A、B、Oに対応する画像座標はy座標だけで十分であり、画像中心を通る線に沿ってスキャンし、それぞれ画像座標P1,P2,P0のy座標y1,y2,y0を得る。
In a state where the processing in the reference
S15,S16:幾何計測制御部7により距離計測の傾き制御および幾何情報の計測が行われる。ここでは、図16のS41〜S45の処理プロセスによりS15の距離計測の傾き制御が実施され、S46〜S48の処理プロセスによりS16の幾何情報の計測が実施される。参照物体制御部6での処理が完了した状態で、幾何計測制御部7により、レーザ距離計測部10のレーザがカメラ5の方向に向くように図8に示すレーザ距離計測部10の姿勢を制御する。
S15, S16: The geometric
図16に基づいて説明すれば、まず、処理が開始されると、レーザ距離計測部10の計測姿勢(首振り角Ω、傾き角(仰角)Ψ)が初期化される(首振り角Ωとは傾き角(仰角)Ψと直交する水平方向の角度を意味する。この二つの角度の回転制御にてレーザ距離計測部10を対象のカメラ5の方向に向ける)。ここで、縦方向の角度を表す傾き角(仰角)Ψの初期値には水平方向を示す0度が設定され、横方向の角度を表す首振り角Ωの初期値には中心位置が設定され中心位置から左右対称に姿勢変更が行われるものとする(S41)。
If it demonstrates based on FIG. 16, when a process is started first, the measurement attitude | position (swing angle Ω, inclination angle (elevation angle) Ψ) of the laser
次に、首振り角Ωに微小な回転角Δωが増量され(S42)、傾き角(仰角)Ψにも微小な回転角Δψが増量される(S43)。このステップS42,S43の処理の結果、傾き角(仰角)Ψの値が範囲内(上限値以下)であれば(S44)、この姿勢で距離計測が行われる(S46)。 Next, the minute rotation angle Δω is increased to the swing angle Ω (S42), and the minute rotation angle Δψ is increased to the tilt angle (elevation angle) Ψ (S43). As a result of the processing in steps S42 and S43, if the value of the tilt angle (elevation angle) Ψ is within the range (below the upper limit value) (S44), distance measurement is performed in this posture (S46).
すなわち、レーザ距離計測では、通常、半導体レーザが多く利用されており、レーザの到達先には赤いポイントが光る。そのレーザの反射を使ったピンポイント計測で計測位置(あるいは計測点)からカメラ5までの距離Lが計測される。
That is, in laser distance measurement, a semiconductor laser is usually used frequently, and a red point shines at the laser destination. The distance L from the measurement position (or measurement point) to the
この距離Lの測定と同期して画像が取得される(S47)。この画像においてレーザで照射されたことを示す赤い模様が画像上において観測されていれば、レーザ距離計測部10の向きがカメラ5の方向に向けられたことを意味する。このようにしてレーザ光検出の有無が判定される(S48)。レーザ照射による画像の変化がなければ、S43に戻って傾き角(仰角)Ψにさらに微小な回転角Δψが増量され、その姿勢にて同様のレーザ光検出の有無が判定される。なお、微小角度Δψを増量した結果、傾き角(仰角)Ψの値が範囲外(上限値以上)となれば(S44)、今度は、傾き角(仰角)Ψを初期化してから(S45)、さらに首振り角Ωに微小な回転角Δωを増量し(S42)、これまでと同様の判定処理を続ける。S48でレーザ光検出有りと判定されたとき、その時点での距離Lと傾き角(仰角)Ψを一時的に確保しておき、次のカメラ校正処理部7(図6のS17,図16のS49)へ進む。
An image is acquired in synchronization with the measurement of the distance L (S47). If a red pattern indicating that the laser has been irradiated in this image is observed on the image, it means that the direction of the laser
S17:カメラ校正処理部8によりカメラ校正処理、すなわち、図16の処理プロセス中にあるS49〜S51を実行する。まず、上記のレーザ計測で得た幾何情報(距離Lと傾き角(仰角)Ψ)から、図3に示すカメラ傾き角φ(=Ψ−π/2),奥行きd=Lcos(φ),参照点Aを基準とした高さh=Lsin(φ)をそれぞれ算出する(S49)。次に、参照点A、B、Oに対応する画像座標p1,p2,p0(S14で測定した画像座標)のy座標:y1、y2、y0、幾何情報としてカメラ5の傾き角φ(S49で得られた傾き角φ)が得られているので、前記(13)式、(15)式の関係を使ってカメラ5の焦点距離fを得る(S50)。最後に、図3に示すように、既知のh1,S49で得られたh,dから参照点Oを世界座標系の原点とするカメラ視点位置(Tx,Ty,Tz)=(0,h+h1,d)が算出される(S51)。
S17: The camera calibration processing unit 8 executes camera calibration processing, that is, S49 to S51 in the processing process of FIG. First, from the geometric information (distance L and tilt angle (elevation angle) Ψ) obtained by the laser measurement, the camera tilt angle φ (= Ψ−π / 2) and the depth d = Lcos (φ) shown in FIG. Heights h = Lsin (φ) with respect to point A are calculated (S49). Next, y coordinates: y 1 , y 2 , y 0 of the image coordinates p 1 , p 2 , p 0 (image coordinates measured in S14) corresponding to the reference points A, B, O, the geometrical information of the
以上説明したように、図8、または図11で設計されたターゲット(参照物体3)を校正のための撮影被写体とし、図6の基本構成図にしたがって処理を施すことにより、図3に示したカメラ視点の位置(Tx,Ty,Tz)、カメラ光軸回転角θ、傾き角φ、並びに、カメラ5の焦点距離fを求めることができる。
As described above, the target (reference object 3) designed in FIG. 8 or FIG. 11 is used as a photographic subject for calibration, and processing is performed according to the basic configuration diagram of FIG. The camera viewpoint position (Tx, Ty, Tz), the camera optical axis rotation angle θ, the tilt angle φ, and the focal length f of the
本実施形態1は、少数の参照点を使ってカメラ校正を実行するため、従来のカメラキャリブレーション(非特許文献1,2)のように校正に十分な量の参照点を必要としない。また、本実施形態1では特殊な参照物体3を使うことにより、参照点A,B,Oの画像上での座標値を円滑に測定し、カメラ校正作業の簡略化と処理時間の短縮化を図ることができる。さらに、この参照物体3を取り囲むように複数のカメラ5を配置すれば複数のカメラ5を同時に校正することができ、多視点カメラを使ったシームレスな3次元映像の生成または任意視点映像の生成に寄与する。
In the first embodiment, since camera calibration is performed using a small number of reference points, a sufficient amount of reference points for calibration is not required unlike conventional camera calibration (Non-Patent Documents 1 and 2). In the first embodiment, the
[実施形態2]
本実施形態2を説明する前に、本実施形態2の技術的課題について補足する。先の実施形態1では、カメラ5と参照物体3の距離が十分に大きい場合、近似的に計測点が点Aに一致すると仮定した(レーザ距離計測時の計測点を参照点Aとしていた)。カメラ5と参照物体3の距離が近い場合、上記実施形態1で使った近似は成り立たなくなる。
[Embodiment 2]
Before describing the second embodiment, the technical problems of the second embodiment will be supplemented. In the first embodiment, when the distance between the
しかしながら、レーザ距離計測装置10の計測点を画像上で観測することは困難である。そこで、本実施形態2は、図17に示すように、参照点Aとレーザ計測での計測点の間の差Δhを無視できない場合、幾何計測制御部7で得た傾き角(仰角)Ψ、カメラ校正処理部8で算出された奥行きd、高さhを使って、カメラパラメータを補正的に算出するものである。
However, it is difficult to observe the measurement points of the laser
図17において、幾何的関係から、下記(17)式,(18)式が成立する。 In FIG. 17, the following equations (17) and (18) are established from the geometric relationship.
上記(18)式において加法定理を使い、上記(17)式を使って展開して整理すると、下記(19)式が得られる。 When the addition theorem is used in the above equation (18) and expanded and arranged using the above equation (17), the following equation (19) is obtained.
上記(18)式と上記(19)式の関係から、下記(20)式が導き出される。 From the relationship between the above formula (18) and the above formula (19), the following formula (20) is derived.
よって、参照点Aとレーザの計測点の高さの差Δhが与えられれば、図17での傾き角の差(以下、補正角と称する)ΔΨは、下記(21)式により計算できる。 Therefore, if the difference Δh in height between the reference point A and the laser measurement point is given, the difference in tilt angle (hereinafter referred to as a correction angle) ΔΨ in FIG. 17 can be calculated by the following equation (21).
本実施形態2は、レーザ距離計測部10で得た幾何情報から上記(21)式による補正角ΔΨを算出し、その補正角ΔΨを使ってカメラパラメータを補正する。
In the second embodiment, the correction angle ΔΨ according to the above equation (21) is calculated from the geometric information obtained by the laser
本実施形態2の基本構成は実施形態1と同様であるが、カメラ校正処理部8での計算が多少異なり、その処理を示すフローチャートを図18に示す。実施形態1と同様に、参照物体制御部6の制御を経て図14の画像が得られるとする。参照物体3の垂直棒9がy軸と一致しているので、参照点検出部4において、参照点A,B,Oに対応する画像座標上でのy座標としてそれぞれy1,y2,y0を得る。さらに、幾何計測制御部7ではレーザ計測により、レーザ距離計測装置10とカメラ5間の距離Lと傾き角(仰角)Ψが測定される。
Although the basic configuration of the second embodiment is the same as that of the first embodiment, the calculation in the camera calibration processing unit 8 is slightly different, and a flowchart showing the processing is shown in FIG. Assume that the image of FIG. 14 is obtained through the control of the reference
次に、カメラ校正処理部8において、三角関数の関係から奥行きd、カメラ傾き角φ、高さhがそれぞれ得られる。Δhは他の測量手段によって事前に取得しているものとする。そして、本実施形態2では、レーザ距離計測部10で得た幾何情報から上記(21)式による補正角ΔΨを算出し、参照点Aから視たときの傾き角Ψ+ΔΨを得る(S52)。この傾き角Ψ+ΔΨから補正されたカメラの傾き角φ=(Ψ+ΔΨ−π/2)を算出する(S53)。参照点A、B、Oに対応する画像座標(p1,p2,p0)上でのy座標がそれぞれy1、y2、y0と、補正されたカメラの傾き角φ=(Ψ+ΔΨ−π/2)を、前記(13)式,(15)式に代入してカメラ5の焦点距離fを得る(S54)。さらに、図17に示すように、参照点Oを世界座標系の原点とするように、カメラ視点位置(Tx,Ty,Tz)=(0,h+h1+Δh,d)が出力される(S55)。
Next, the camera calibration processing unit 8 obtains the depth d, the camera tilt angle φ, and the height h from the relationship of the trigonometric functions. It is assumed that Δh is acquired in advance by another surveying means. In the second embodiment, the correction angle ΔΨ according to the above equation (21) is calculated from the geometric information obtained by the laser
以上説明したように、図17に示した状況でも、本実施形態2により、カメラ視点の位置(Tx,Ty,Tz)、カメラ光軸回転角θ、傾き角φ、並びに、カメラの焦点距離fを求めることができる。その結果、本実施形態2は実施形態1と同様の作用効果を奏する。 As described above, even in the situation shown in FIG. 17, according to the second embodiment, the camera viewpoint position (Tx, Ty, Tz), the camera optical axis rotation angle θ, the tilt angle φ, and the focal length f of the camera. Can be requested. As a result, the second embodiment has the same effects as the first embodiment.
また、本実施形態2によれば、カメラ5と参照物体3との距離が近い場合でもカメラ校正を行うことができる。
Further, according to the second embodiment, it is possible to perform camera calibration even when the distance between the
〈プログラム等〉
本発明は、前記カメラ校正装置1の各手段の一部もしくは全部としてコンピュータを機能させるためのプログラムとして構成することもできる。この場合にはS12〜S17,S21〜S25,S31〜S35,S41〜S51,S52〜S55の全ステップあるいはその一部のステップをコンピュータに実行させる。
<Programs>
The present invention can also be configured as a program for causing a computer to function as a part or all of each means of the camera calibration apparatus 1. In this case, the computer is caused to execute all or some of steps S12 to S17, S21 to S25, S31 to S35, S41 to S51, and S52 to S55.
このプログラムは、Webサイトや電子メールなどのネットワークを通じて提供することができる。また前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実行するので、該記録媒体も本発明を構成する。 This program can be provided through a network such as a website or e-mail. The program can be recorded on a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, MO, HDD, Blu-ray Disk (registered trademark), and stored and distributed. is there. This recording medium is read using a recording medium driving device, and the program code itself executes the processing of the above-described embodiment, so that the recording medium also constitutes the present invention.
1…カメラ校正装置
3…参照物体
4…参照点検出部
5…カメラ(撮像装置)
6…参照物体制御部
7…幾何計測制御部
8…カメラ校正処理部
θ…光軸回転角
Ψ…仰角
L…距離
A,B,O…参照点
DESCRIPTION OF SYMBOLS 1 ...
6 ... Reference
Claims (6)
前記画像から形状が既知の参照物体における直線状に並んだ参照点の画像座標を検出する参照点検出手段と、
前記参照点から形成される線分と画像座標上の基準軸との間の光軸回転角を算出し、算出された光軸回転角に応じて前記画像を画像座標の原点を中心に逆回転させ、かつ、参照点の一つが該画像座標の原点と一致するように参照物体の位置を移動させる参照物体制御手段と、
参照物体に設けられた計測装置により撮像装置と計測装置間の仰角と距離を計測する幾何計測手段と、
参照点と撮像装置間の射影的幾何の関係を利用して、前記撮像装置と距離計測装置間の仰角と距離,光軸回転角,および参照物体制御後に検出した参照点の画像座標から、撮像装置の内部パラメータと外部パラメータを校正するカメラ校正手段と、
を備えたことを特徴とするカメラ校正装置。 A camera calibration device that calibrates external parameters including the internal parameters and orientation and position of an imaging device from an image acquired from a single eye or a plurality of imaging devices,
Reference point detection means for detecting image coordinates of reference points arranged in a straight line in a reference object having a known shape from the image;
Calculates the optical axis rotation angle between the line segment formed from the reference point and the reference axis on the image coordinates, and reversely rotates the image around the origin of the image coordinates according to the calculated optical axis rotation angle And reference object control means for moving the position of the reference object so that one of the reference points coincides with the origin of the image coordinates;
Geometric measurement means for measuring an elevation angle and a distance between the imaging device and the measurement device by a measurement device provided on the reference object;
Using the projective geometric relationship between the reference point and the imaging device, imaging is performed from the elevation angle and distance between the imaging device and the distance measuring device, the optical axis rotation angle, and the image coordinates of the reference point detected after the reference object control. Camera calibration means for calibrating the internal and external parameters of the device;
A camera calibration device comprising:
前記撮像装置と計測装置間の仰角を撮像装置と前記参照点の一つとの間の仰角に補正し、該補正された仰角に基づき撮像装置の内部パラメータと外部パラメータを校正することを特徴とする請求項1記載のカメラ校正装置。 The camera calibration means includes
An elevation angle between the imaging device and the measurement device is corrected to an elevation angle between the imaging device and one of the reference points, and internal parameters and external parameters of the imaging device are calibrated based on the corrected elevation angle. The camera calibration device according to claim 1.
参照点検出手段が前記画像から形状が既知の参照物体における直線状に並んだ参照点の画像座標を検出する参照点検出ステップと、
参照物体制御手段が、前記参照点から形成される線分と画像座標上の基準軸との間の光軸回転角を算出し、算出された光軸回転角に応じて前記画像を画像座標の原点を中心に逆回転させ、かつ、参照点の一つがその画像座標の原点と一致するように参照物体の位置を移動させる参照物体制御ステップと、
幾何計測手段が、参照物体に設けられた計測装置により撮像装置と計測装置間の仰角と距離を計測する幾何計測ステップと、
カメラ校正手段が、参照点と撮像装置間の射影的幾何の関係を利用して、前記撮像装置と計測装置間の仰角と距離,光軸回転角,および参照物体制御後に検出した参照点の画像座標から、撮像装置の内部パラメータと外部パラメータを校正するカメラ校正ステップと、
を有することを特徴とするカメラ校正方法。 A camera calibration method for calibrating external parameters including an internal parameter and orientation and position of an imaging device from an image acquired using a single eye or a plurality of imaging devices,
A reference point detecting step in which a reference point detecting means detects image coordinates of a reference point arranged in a straight line in a reference object having a known shape from the image;
A reference object control unit calculates an optical axis rotation angle between a line segment formed from the reference point and a reference axis on the image coordinates, and the image is converted into image coordinates according to the calculated optical axis rotation angle. A reference object control step that reversely rotates around the origin and moves the position of the reference object so that one of the reference points coincides with the origin of the image coordinates;
A geometric measurement step in which a geometric measurement means measures an elevation angle and a distance between the imaging device and the measurement device by a measurement device provided on the reference object;
An image of the reference point detected by the camera calibration means after the control of the elevation angle and distance between the imaging device and the measuring device, the optical axis rotation angle, and the reference object, using the projective geometry relationship between the reference point and the imaging device. A camera calibration step for calibrating the internal and external parameters of the imaging device from the coordinates;
A camera calibration method characterized by comprising:
前記撮像装置と計測装置間の仰角を撮像装置と前記参照点の一つとの間の仰角に補正し、該補正された仰角に基づき撮像装置の内部パラメータと外部パラメータを校正することを特徴とする請求項3記載のカメラ校正方法。 The camera calibration step includes
An elevation angle between the imaging device and the measurement device is corrected to an elevation angle between the imaging device and one of the reference points, and internal parameters and external parameters of the imaging device are calibrated based on the corrected elevation angle. The camera calibration method according to claim 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009140649A JP5111447B2 (en) | 2009-06-12 | 2009-06-12 | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009140649A JP5111447B2 (en) | 2009-06-12 | 2009-06-12 | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010287074A true JP2010287074A (en) | 2010-12-24 |
JP5111447B2 JP5111447B2 (en) | 2013-01-09 |
Family
ID=43542721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009140649A Expired - Fee Related JP5111447B2 (en) | 2009-06-12 | 2009-06-12 | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5111447B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101488094B1 (en) | 2012-07-13 | 2015-01-29 | 인텔 코오퍼레이션 | Techniques for video analytics of captured video content |
WO2019206247A1 (en) * | 2018-04-27 | 2019-10-31 | Shanghai Truthvision Information Technology Co., Ltd | System and method for camera calibration |
CN111080698A (en) * | 2019-11-27 | 2020-04-28 | 上海新时达机器人有限公司 | Long plate position calibration method and system and storage device |
CN111699514A (en) * | 2019-05-30 | 2020-09-22 | 深圳市大疆创新科技有限公司 | Calibration method and device for internal reference and relative attitude of camera, unmanned aerial vehicle and storage device |
CN112288824A (en) * | 2020-10-27 | 2021-01-29 | 中国科学院上海微系统与信息技术研究所 | Long-focus camera calibration device and calibration method based on real scene |
CN112653889A (en) * | 2020-12-23 | 2021-04-13 | 北汽福田汽车股份有限公司 | Camera self-calibration method and device, camera equipment and vehicle |
CN115311360A (en) * | 2022-07-18 | 2022-11-08 | 北京城市网邻信息技术有限公司 | Method and device for acquiring pose of target camera in circular shooting and electronic equipment |
CN117152257A (en) * | 2023-10-31 | 2023-12-01 | 罗普特科技集团股份有限公司 | Method and device for multidimensional angle calculation of ground monitoring camera |
JP7444396B2 (en) | 2020-10-06 | 2024-03-06 | 学校法人福岡工業大学 | 3D image measurement system, 3D image measurement method, 3D image measurement program, and recording medium |
JP7546748B2 (en) | 2022-12-22 | 2024-09-06 | 財團法人工業技術研究院 | Camera calibration method and camera calibration system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101584693B1 (en) | 2014-05-23 | 2016-01-14 | 경북대학교 산학협력단 | Apparatus and method for generation of camera parameter |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008224626A (en) * | 2007-03-15 | 2008-09-25 | Canon Inc | Information processor, method for processing information, and calibration tool |
JP2010186265A (en) * | 2009-02-10 | 2010-08-26 | Nippon Telegr & Teleph Corp <Ntt> | Camera calibration device, camera calibration method, camera calibration program, and recording medium with the program recorded threin |
-
2009
- 2009-06-12 JP JP2009140649A patent/JP5111447B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008224626A (en) * | 2007-03-15 | 2008-09-25 | Canon Inc | Information processor, method for processing information, and calibration tool |
JP2010186265A (en) * | 2009-02-10 | 2010-08-26 | Nippon Telegr & Teleph Corp <Ntt> | Camera calibration device, camera calibration method, camera calibration program, and recording medium with the program recorded threin |
Non-Patent Citations (1)
Title |
---|
JPN7012003361; Zhengyou Zhang: 'Camera Calibration With One-Dimensional Object' Technical Report MSR-TR-2001-120 , 2002 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101488094B1 (en) | 2012-07-13 | 2015-01-29 | 인텔 코오퍼레이션 | Techniques for video analytics of captured video content |
US11627280B2 (en) | 2012-07-13 | 2023-04-11 | Intel Corporation | Techniques for video analytics of captured video content |
WO2019206247A1 (en) * | 2018-04-27 | 2019-10-31 | Shanghai Truthvision Information Technology Co., Ltd | System and method for camera calibration |
CN112106110A (en) * | 2018-04-27 | 2020-12-18 | 上海趋视信息科技有限公司 | System and method for calibrating camera |
US11468598B2 (en) | 2018-04-27 | 2022-10-11 | Shanghai Truthvision Information Technology Co., Ltd. | System and method for camera calibration |
CN111699514A (en) * | 2019-05-30 | 2020-09-22 | 深圳市大疆创新科技有限公司 | Calibration method and device for internal reference and relative attitude of camera, unmanned aerial vehicle and storage device |
CN111080698A (en) * | 2019-11-27 | 2020-04-28 | 上海新时达机器人有限公司 | Long plate position calibration method and system and storage device |
CN111080698B (en) * | 2019-11-27 | 2023-06-06 | 上海新时达机器人有限公司 | Method, system and storage device for calibrating position of long plate |
JP7444396B2 (en) | 2020-10-06 | 2024-03-06 | 学校法人福岡工業大学 | 3D image measurement system, 3D image measurement method, 3D image measurement program, and recording medium |
CN112288824A (en) * | 2020-10-27 | 2021-01-29 | 中国科学院上海微系统与信息技术研究所 | Long-focus camera calibration device and calibration method based on real scene |
CN112288824B (en) * | 2020-10-27 | 2024-04-12 | 中国科学院上海微系统与信息技术研究所 | Device and method for calibrating tele camera based on real scene |
CN112653889A (en) * | 2020-12-23 | 2021-04-13 | 北汽福田汽车股份有限公司 | Camera self-calibration method and device, camera equipment and vehicle |
CN115311360A (en) * | 2022-07-18 | 2022-11-08 | 北京城市网邻信息技术有限公司 | Method and device for acquiring pose of target camera in circular shooting and electronic equipment |
JP7546748B2 (en) | 2022-12-22 | 2024-09-06 | 財團法人工業技術研究院 | Camera calibration method and camera calibration system |
CN117152257B (en) * | 2023-10-31 | 2024-02-27 | 罗普特科技集团股份有限公司 | Method and device for multidimensional angle calculation of ground monitoring camera |
CN117152257A (en) * | 2023-10-31 | 2023-12-01 | 罗普特科技集团股份有限公司 | Method and device for multidimensional angle calculation of ground monitoring camera |
Also Published As
Publication number | Publication date |
---|---|
JP5111447B2 (en) | 2013-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5111447B2 (en) | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program | |
US8326021B2 (en) | Measurement apparatus and control method | |
JP6011548B2 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
JP3859574B2 (en) | 3D visual sensor | |
JP5770486B2 (en) | All-around image measuring device | |
JP5620200B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
US11290704B2 (en) | Three dimensional scanning system and framework | |
CN112804507A (en) | Projector correction method, projector correction system, storage medium, and electronic device | |
JP2008070267A (en) | Method for measuring position and attitude, and device | |
JP2012037491A (en) | Point group position data processing apparatus, point group position data processing system, point group position data processing method, and point group position data processing program | |
JP2011253376A (en) | Image processing device, image processing method and program | |
JP6282098B2 (en) | Calibration apparatus and method | |
JP2010219825A (en) | Photographing device for three-dimensional measurement | |
JP2012063866A (en) | Device for processing point group position data, method for processing point group position data, system for processing point group position data, and program for processing point group position data | |
EA031929B1 (en) | Apparatus and method for three dimensional surface measurement | |
JP2009017480A (en) | Camera calibration device and program thereof | |
JP4948552B2 (en) | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program | |
JP4739004B2 (en) | Information processing apparatus and information processing method | |
CN113962853B (en) | Automatic precise resolving method for rotary linear array scanning image pose | |
JP2007036482A (en) | Information projection display and program | |
JP2023546739A (en) | Methods, apparatus, and systems for generating three-dimensional models of scenes | |
JP4764896B2 (en) | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program | |
JP2011155412A (en) | Projection system and distortion correction method in the same | |
JP2017151026A (en) | Three-dimensional information acquiring device, three-dimensional information acquiring method, and program | |
JP2000205821A (en) | Instrument and method for three-dimensional shape measurement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120821 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121002 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121009 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5111447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |