[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3138080B2 - Automatic calibration device for vision sensor - Google Patents

Automatic calibration device for vision sensor

Info

Publication number
JP3138080B2
JP3138080B2 JP04284526A JP28452692A JP3138080B2 JP 3138080 B2 JP3138080 B2 JP 3138080B2 JP 04284526 A JP04284526 A JP 04284526A JP 28452692 A JP28452692 A JP 28452692A JP 3138080 B2 JP3138080 B2 JP 3138080B2
Authority
JP
Japan
Prior art keywords
image
teaching point
coordinates
teaching
coordinate values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04284526A
Other languages
Japanese (ja)
Other versions
JPH06137840A (en
Inventor
貴志 内藤
和俊 鋤柄
弘 森部
潤二 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP04284526A priority Critical patent/JP3138080B2/en
Publication of JPH06137840A publication Critical patent/JPH06137840A/en
Application granted granted Critical
Publication of JP3138080B2 publication Critical patent/JP3138080B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、組み立て用ロボット
や検査のための視覚センサの、キャリブレーションを自
動的に実行する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for automatically executing calibration of an assembling robot or a visual sensor for inspection.

【0002】[0002]

【従来の技術】人間が行っている組み立て、検査工程を
自動化するためには、人間の目に相当する視覚装置を利
用しなければならない場合が多い。このような視覚装置
は、主に対象をカメラ(撮像手段)などで画像としてと
らえ、その画像中での位置から対象の置かれた空間位置
を検出する。
2. Description of the Related Art In order to automate the assembly and inspection processes performed by humans, it is often necessary to use a visual device corresponding to human eyes. Such a visual device mainly captures an object as an image with a camera (imaging means) or the like, and detects a spatial position where the object is placed from a position in the image.

【0003】このように視覚装置によって位置決めを行
うためには、あらかじめ視覚装置のキャリブレーション
を行っておく必要がある。つまり、画像中での位置と空
間位置の対応付けを行うためには、空間座標内でのカメ
ラの配置されている位置、姿勢やカメラの焦点距離、ア
スペクト比などのカメラパラメータを求めておかなけれ
ばならない。
[0003] In order to perform positioning using the visual device, it is necessary to calibrate the visual device in advance. In other words, in order to associate the position in the image with the spatial position, the camera parameters such as the position where the camera is arranged in spatial coordinates, the posture, the focal length of the camera, and the aspect ratio must be determined. Must.

【0004】従来、視覚装置のキャリブレーションは、
空間座標内に置かれた座標値が既知の複数の教示点を視
覚装置で撮像して教示点画像を生成し、各教示点の空間
座標値と当該教示点の画像座標値を用いて、キャリブレ
ーションアルゴリズムに基づき演算を行うことで達成さ
れる。この場合、各教示点の空間座標値と画像座標値の
対応付けは、教示点画像から人間が判断して手動で行う
のが一般的である。またカメラの空間座標内での3次元
位置、姿勢を求めるためには、すべての教示点が1平面
上に分布していない、つまり3次元的に分布した教示点
を必要とする。一方、2次元的(平面上)に分布した教
示点を有するキャリブレーションワーク姿勢を用いて行
うことができるキャリブレーション方法がロジャー・ツ
サイ等により提案されている。(Roger Y.Tsai ,“A Ve
rsatile Camera Calibration Technique for High-Accu
racy 3D Machine Metrology Using Off-the Shelf TV C
ameras and Lenses ”,IIIE J.Robotics and Automati
on,Vol.RA-3,No.4,pp.323-344,1987)この方法では、平
面上に教示点を配置したキャリレーションワークを斜め
から撮影し、画像上の教示点の位置から、カメラパラメ
ータを決定している。
Conventionally, calibration of a visual device has been
A plurality of teaching points whose coordinate values are known in spatial coordinates are imaged by a visual device to generate a teaching point image, and calibration is performed using the spatial coordinate values of each teaching point and the image coordinate values of the teaching point. This is achieved by performing calculations based on the algorithm. In this case, it is general that the association between the spatial coordinate value of each teaching point and the image coordinate value is manually performed by a human being determined from the teaching point image. Further, in order to obtain a three-dimensional position and orientation in the spatial coordinates of the camera, not all teaching points are distributed on one plane, that is, three-dimensionally distributed teaching points are required. On the other hand, a calibration method that can be performed using a calibration work posture having teaching points distributed two-dimensionally (on a plane) has been proposed by Roger Tsusai et al. (Roger Y. Tsai, “A Ve
rsatile Camera Calibration Technique for High-Accu
racy 3D Machine Metrology Using Off-the Shelf TV C
ameras and Lenses ", IIIE J. Robotics and Automati
on, Vol. RA-3, No. 4, pp. 323-344, 1987) In this method, a calibration work with a teaching point arranged on a plane is photographed diagonally, and from the position of the teaching point on the image, Camera parameters are determined.

【0005】[0005]

【発明が解決しようとする課題】キャリブレーションに
必要な教示点の空間座標値と画像座標値の対応付けを手
作業で行うことは面倒な作業であり、かつ作業者が教示
点画像を見ながら対応付けを行う過程で間違いを起す可
能性もある。
It is cumbersome to manually associate the spatial coordinate values of the teaching points and the image coordinate values required for calibration with the operator, and the operator looks at the teaching point image while looking at the teaching point image. There is a possibility that an error may occur in the process of performing the association.

【0006】さらに、カメラの3次元位置、姿勢を求め
る場合、3次元的に分布した教示点を必要とするキャリ
ブレーションでは、教示点の画像座標値を得る作業が繁
雑であり、さらに装置の複雑化を引き起こす。一方ツサ
イらが提案した方法を用いれば、このような問題は解決
されるが、カメラがキャリブレーションワークに対し垂
直に近い状態で位置されると測定精度が悪くなるため、
高精度測定を行なうにはカメラの配置に制限を受けると
いう問題があった。
Further, when obtaining the three-dimensional position and orientation of the camera, in a calibration requiring three-dimensionally distributed teaching points, the operation of obtaining image coordinate values of the teaching points is complicated, and the apparatus is complicated. Cause transformation. On the other hand, if the method proposed by Tsusai et al. Is used, such a problem can be solved.However, if the camera is positioned close to the vertical with respect to the calibration work, the measurement accuracy deteriorates.
There is a problem in that high-precision measurement is limited by the arrangement of cameras.

【0007】すなわち、ツサイらの提案では、複数の教
示点の各々に対する画像上の教示点の対応付けを行う手
法について記載されておらず、この対応付けが自動的に
行えないという問題があった。さらに、ツサイの方法で
は、カメラパラメータを求める際に、教示点が配置され
ているxw ,yw 平面と、カメラ側のX,Y平面を対応
関係からこれら平面同士の関係を規定するカメラパラメ
ータを求め、この結果からzw も含めた3次元空間座標
と画像座標を対応付けるカメラパラメータを計算で求め
ている。このため、画像座標値から算出したzw には、
w ,yw 算出の際の誤差が累積され、誤差が大きくな
る。そこで、ツサイの方法では、キャリブレーションワ
ークをカメラに対して垂直に近い状態で配置すると、測
定精度が大きく低下するという問題があった。
[0007] That is, the proposal of Tsusai et al. Does not describe a method for associating a plurality of teaching points with each other on an image, and has a problem that this association cannot be performed automatically. . Furthermore, in the Tsusai way, when obtaining the camera parameters, x w which teaching point is located, the camera parameter defining the y w plane, the camera X, the relationship between these planes between the Y plane from the corresponding relationship Is calculated, and camera parameters for associating the image coordinates with the three-dimensional space coordinates including z w are calculated from the result. Therefore, z w calculated from the image coordinate values includes:
Errors during the calculation of x w and y w are accumulated, and the errors increase. Thus, the Tsusai method has a problem in that, when the calibration work is arranged in a state nearly perpendicular to the camera, the measurement accuracy is greatly reduced.

【0008】本発明は、上記問題点を解決するために、
自動的に教示点の空間座標値と画像座標値の対応付けを
行い、2次元的に分布した教示点のみから、カメラの配
置に制限を受けないキャリブレーションを実行すること
ができる簡便で高精度なキャリブレーション装置を提供
することを目的とする。
The present invention has been made in order to solve the above problems.
Simple and highly accurate calibration that automatically associates the spatial coordinate values of the teaching points with the image coordinate values and can execute calibration that is not restricted by the camera arrangement from only the two-dimensionally distributed teaching points. It is an object to provide a simple calibration device.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、視覚センサのキャリブレーションを自動
的に行う装置であって、方向性を持つ特定形状の基準教
示点を含む複数の教示点を平面上に有するキャリブレー
ションワークを撮像するための撮像手段と、この撮像手
段で得た画像における基準教示点の位置、形状から、画
像中における基準点の位置及び方向を認識する位置方向
認識手段と、認識された座標に基づいて各教示点の空間
座標値と撮像手段において得た各教示点の画像座標値の
対応付けを行う座標間対応付け手段と、対応付けされた
複数の空間、画像座標値の組の対応関係から撮像装置の
各パラメータを算出するキャリブレーション演算手段
と、を含むことを特徴とする。
According to the present invention, there is provided an apparatus for automatically calibrating a visual sensor, comprising a plurality of reference teaching points having a specific shape having directivity. An imaging unit for imaging a calibration work having a teaching point on a plane, and a position direction for recognizing the position and direction of the reference point in the image from the position and shape of the reference teaching point in the image obtained by the imaging unit Recognition means, coordinate-to-coordinate association means for associating spatial coordinate values of each teaching point with image coordinate values of each teaching point obtained by the imaging means based on the recognized coordinates, and a plurality of associated spaces Calibration calculation means for calculating each parameter of the imaging device from the correspondence between the sets of image coordinate values.

【0010】また、上記キャリブレーション演算手段
は、各教示点の空間、画像座標の組を用いてキャリブレ
ーションワークの平面上の座標値と画像座標の対応につ
いての撮像装置のパラメータを求めた後、再度各教示点
の空間、画像座標の組を用いてキャリブレーションワー
クの平面に直角な方向の座標も含めた空間座標と画像座
標の対応についての撮像装置のパラメータを求めること
を特徴とする。
The above-mentioned calibration calculating means calculates the parameters of the image pickup apparatus for the correspondence between the coordinate values on the plane of the calibration work and the image coordinates using the set of the space of each teaching point and the image coordinates. A feature of the imaging apparatus is to determine the correspondence between the spatial coordinates including the coordinates in the direction perpendicular to the plane of the calibration work and the image coordinates again using the set of the space and the image coordinates of each teaching point.

【0011】[0011]

【作用・効果】本発明に係る視覚センサのキャリブレー
ション装置は、上述のような構成を有しており、まずキ
ャリブレーションワーク全体が撮像装置(カメラ)の視
野内に入る範囲内で任意の位置姿勢にカメラを配置す
る。次にキャリブレーションワークを撮像し、この画像
から基準教示点の位置および方向を認識する。例えば、
教示点を真円とし、基準教示点を楕円にすれば、画像上
における長径に対する短径の比を求め、この長径の短径
に対する比が最大のものを基準教示点と認識すると共
に、楕円の面積重心から基準点の画像上の位置を認識
し、また楕円の長径および短径方向から画像上の方向を
認識する。そして、このようにして求められた画像上の
基準点、方向から画像上の各教示点の座標値とキャリブ
レーションワーク上の各教示点の座標を対応付ける。そ
して、これらの対応付けされた複数の空間、画像座標値
の組の対応関係から撮像装置の各パラメータを算出す
る。
[Operation and Effect] The calibration device for a visual sensor according to the present invention has the above-described configuration. First, the entire calibration work is located at an arbitrary position within a field of view of the imaging device (camera). Position the camera in the posture. Next, the calibration work is imaged, and the position and direction of the reference teaching point are recognized from the image. For example,
If the teaching point is a perfect circle and the reference teaching point is an ellipse, the ratio of the minor axis to the major axis on the image is determined. The position of the reference point on the image is recognized from the area centroid, and the direction on the image is recognized from the major axis and minor axis directions of the ellipse. Then, the coordinate values of each teaching point on the image and the coordinates of each teaching point on the calibration work are associated with each other from the reference point and direction on the image obtained in this manner. Then, each parameter of the imaging device is calculated from the correspondence between the set of the plurality of associated spaces and image coordinate values.

【0012】このように、平面上に配置された教示点の
みからなるキャリブレーションワークを利用してキャリ
ブレーションが実行できるので、装置、処理手順等を簡
略化できる。そして、基準教示点の形状から基準点位置
および方向を認識できるため、画像上の各教示点とキャ
リブレーションワーク上の各教示点を自動的に対応付け
することができ、人為的な誤りを排除して、かかる高速
の処理が可能となる。
As described above, since the calibration can be performed by using the calibration work including only the teaching points arranged on the plane, the apparatus and the processing procedure can be simplified. Since the position and direction of the reference point can be recognized from the shape of the reference teaching point, each teaching point on the image can be automatically associated with each teaching point on the calibration work, eliminating human errors. Thus, such high-speed processing can be performed.

【0013】また、パラメータの演算においては、まず
空間の2次元座標(x,y)と画像座標(X,Y)の対
応についてのパラメータを求める。そして、このパラメ
ータを求めた後、他のパラメータを変数として、再度実
際に得られた複数の空間、画像座標値の組を用いて数値
演算を行い、これらの他のパラメータの値を求める。従
って、他のパラメータの算出の際に、最初に求めたパラ
メータについての誤差が累積することなく、精度の高い
パラメータが算出できる。特に、工場等での利用を考慮
すると、測定対象に対し垂直に近い方向にカメラを設置
する場合が多い。これは、測定対象を斜め方向からカメ
ラで観測すると歪んだ画像として撮影されるためであ
る。本装置では、カメラの配置に制限を受けず、キャリ
ブレーションワークに対し垂直に近い状態でも高精度な
キャリブレーションが可能であるため、適用範囲が非常
に広く有効なキャリブレーションを行うことができる。
In the calculation of the parameters, first, parameters relating to the correspondence between the two-dimensional coordinates (x, y) of the space and the image coordinates (X, Y) are obtained. Then, after obtaining these parameters, the other parameters are used as variables, and a numerical operation is performed again using a set of a plurality of actually obtained space and image coordinate values to obtain the values of these other parameters. Therefore, when calculating other parameters, highly accurate parameters can be calculated without accumulating errors for the parameters obtained first. In particular, in consideration of use in a factory or the like, a camera is often installed in a direction nearly perpendicular to a measurement target. This is because when a measurement target is observed from an oblique direction with a camera, the measurement target is captured as a distorted image. The present apparatus is not limited by the arrangement of the cameras, and can perform high-precision calibration even in a state close to perpendicular to the calibration work. Therefore, the applicable range is very wide, and effective calibration can be performed.

【0014】[0014]

【実施例】図1は本発明における装置の概念図を示して
おり、カメラ1の視野内にキャリブレーションワーク2
が入るように配置し、画像処理装置3によってキャリブ
レーションワーク2を撮像する。その画像は演算部4に
送られ、キャリブレーションワーク2の基準教示点から
基準位置、方向を検出する。その基準位置、方向とデー
タ入力部5よりあらかじめ与えられている教示点の配列
情報から演算部4において画像中での各教示点の座標値
と、空間座標位置の対応付けを行う。最後に各教示点の
画像、空間座標値の組から同様に演算部4においてキャ
リブレーション演算を行い、カメラパメータを求める。
得られたカメラパラメータはデータ出力部6により、他
の装置に送るなどして後の処理に利用する。
FIG. 1 is a conceptual diagram of an apparatus according to the present invention.
The calibration work 2 is imaged by the image processing device 3. The image is sent to the arithmetic unit 4 and the reference position and direction are detected from the reference teaching point of the calibration work 2. The arithmetic unit 4 associates the coordinate values of each teaching point in the image with the spatial coordinate position from the reference position, direction, and array information of the teaching points given in advance by the data input unit 5. Finally, a calibration calculation is similarly performed in the calculation unit 4 from the set of the image of each teaching point and the spatial coordinate values, and camera parameters are obtained.
The obtained camera parameters are sent to another device by the data output unit 6 and used in subsequent processing.

【0015】図2はキャリブレーションワーク2を示し
ている。このようにワーク平面上に複数個の教示点マー
クを配置し、その内のひとつは方向性を持った基準教示
点を含める。この図では例として基準教示点は楕円、そ
の他の教示点は真円の形をしているが、基準教示点に方
向性を持った形状が必要となる以外は、その形状に特に
制限はない。
FIG. 2 shows the calibration work 2. Thus, a plurality of teaching point marks are arranged on the work plane, and one of them includes a reference teaching point having directionality. In this figure, the reference teaching point has an elliptical shape as an example, and the other teaching points have a perfect circle shape. However, there is no particular limitation on the shape, except that a directional shape is required for the reference teaching point. .

【0016】図3は、自動的に各教示点の空間座標値と
画像座標値との対応付けを行う処理手順の一例を示して
いる。
FIG. 3 shows an example of a processing procedure for automatically associating the spatial coordinate values of each teaching point with the image coordinate values.

【0017】ステップ1では輝度レベルの2値化処理等
により画像の領域分割を行い、教示点部分が0の値を持
った画素の集りになるよう領域処理を行う。
In step 1, the image is divided into regions by a luminance level binarization process or the like, and the region processing is performed so that the teaching point portion is a group of pixels having a value of 0.

【0018】次にステップ2では各領域に対し慣性モー
メントを計算し、長径、短径を求める。そして、長径に
対する短径の比がもっとも小さい領域を基準教示点の領
域とする。この例では基準教示点は楕円で、基準点以外
は真円であるため、基準教示点の領域では長径に対する
短径の比が他の領域と比較して小さくなる。そして、基
準教示点の領域の面積重心を基準原点、長軸、短軸方向
をそれぞれx,y軸とする。
Next, in step 2, a moment of inertia is calculated for each area to determine a major axis and a minor axis. An area where the ratio of the minor axis to the major axis is the smallest is defined as the area of the reference teaching point. In this example, the reference teaching point is an ellipse and a circle other than the reference point is a perfect circle. Therefore, the ratio of the minor axis to the major axis is smaller in the area of the reference teaching point than in other areas. The area center of gravity of the area of the reference teaching point is defined as the reference origin, and the major axis and the minor axis are defined as x and y axes, respectively.

【0019】ステップ3では先に求めた基準原点とx,
y軸の方向から、各教示点の画像座標値とあらかじめ与
えておいた空間座標値との対応付けを行う。
In step 3, the reference origin obtained earlier and x,
From the direction of the y-axis, the image coordinate value of each teaching point is correlated with the spatial coordinate value given in advance.

【0020】すなわち、図4に示すように、基準点から
x軸の方向に領域を探していき、初めて見つかった領域
を教示点1としてラベル付けする。次に同様の方法で教
示点1からx軸方向に領域を探し、見つかった領域を教
示点2とする。同様の方法で教示点3までラベル付けを
行えば、つぎはあらかじめ与えておいた配列情報を基に
基準原点からy軸方向に領域を探し、見つかった領域を
教示点4とする。その後先と同じように教示点4からx
軸方向に領域を探し、教示点5〜7までをラベル付けす
る。このような処理を繰り返して、基準原点、x,y軸
方向及び教示点の配列情報を基に、1〜15までのラベ
ル付けを行い、各ラベル付けされた領域の面積重心を教
示点の画像座標として、あらかじめ与えておいた各教示
点の空間座標値と対応付けを自動的に行う。
That is, as shown in FIG. 4, an area is searched in the x-axis direction from the reference point, and the area found for the first time is labeled as a teaching point 1. Next, an area is searched in the x-axis direction from the teaching point 1 in the same manner, and the found area is set as the teaching point 2. If the labeling is performed up to the teaching point 3 in the same manner, an area is searched from the reference origin in the y-axis direction based on the array information given in advance, and the found area is set as the teaching point 4. Then from the teaching point 4 to x
The area is searched in the axial direction, and the teaching points 5 to 7 are labeled. By repeating such processing, labeling from 1 to 15 is performed based on the reference origin, the x and y axis directions and the arrangement information of the teaching points, and the area centroid of each labeled area is represented by the image of the teaching point. The coordinates are automatically associated with the spatial coordinate values of the teaching points that have been given in advance.

【0021】この例では、基準教示点を含めて16個の
教示点がキャリブレーションワークに存在するが、教示
点の配列情報を変更することで、任意の個数、配列に対
応することができる。
In this example, there are 16 teaching points including the reference teaching points in the calibration work. However, by changing the arrangement information of the teaching points, it is possible to correspond to an arbitrary number and arrangement.

【0022】また、この例では画像の2値化や領域分割
などにより キャリブレーションワークの基準原点、方
向及び各教示点の位置を求めているが、教示点の輪郭画
像などにより各教示点の特徴量を求めるなどのその他の
方法も考えられるため、本発明では特にその処理方法に
限定はしない。なお、本発明では教示点はすべてキャリ
ブレーションワークの平面上に位置しているため、あら
かじめ与える各教示点の空間座標値の内、z軸方向の値
はすべてゼロとして与える。
In this example, the reference origin and direction of the calibration work and the position of each teaching point are obtained by binarizing the image, dividing the area, and the like. The present invention is not particularly limited to the processing method, because other methods such as obtaining the amount can be considered. In the present invention, since all the teaching points are located on the plane of the calibration work, all the values in the z-axis direction among the spatial coordinate values of each teaching point given in advance are given as zero.

【0023】図5はカメラモデルの構造を示している。
点Pが存在する空間座標系Ow 内にカメラを基準とした
座標系Oc が存在している。この時、点PをOw からみ
た座標値(xw ,yw ,zw )とOc からみた座標値
(x,y,z)で表す。さらに点PはOc から焦点距離
fだけ離れてzc 軸に垂直な平面上のイメージ座標系O
i によっても表され、Oc Pとカメラの受光面であるx
i ,yi 平面との交点Pu (Xu ,Yu )として観測さ
れる。一方画像処理装置内では点Pはフレーム座標系O
f 内でPf(Xf ,Yf )で観測される。このとき各座
標値には以下の関係がある。 (xw ,yw ,zw )と
(x,y,z)の関係は、
FIG. 5 shows the structure of the camera model.
Coordinate system O c where the camera as a reference in the space coordinate system O w where the point P exists is present. At this time, representing a point P O w as viewed from the coordinate values (x w, y w, z w) and O c as viewed from the coordinate values (x, y, z). Further, the point P is located on the plane perpendicular to the z c axis at a focal distance f from the O c image coordinate system O.
Also represented by i , O c P and x which is the light receiving surface of the camera
It is observed as an intersection P u (X u , Y u ) with the i , y i plane. On the other hand, in the image processing apparatus, the point P is in the frame coordinate system O
f within Pf (X f, Y f) is observed at. At this time, each coordinate value has the following relationship. The relationship between (x w , y w , z w ) and (x, y, z) is

【数1】 ここでR,TはそれぞれOw からOc への回転行列、並
進ベクトルであり以下のように表される。
(Equation 1) Here, R and T are a rotation matrix and a translation vector from O w to O c , respectively, and are expressed as follows.

【0024】[0024]

【数2】 次に(x,y,z)と(Xu ,Yu )との関係は以下の
式で表される。
(Equation 2) Next (x, y, z) and (X u, Y u) relationship with is expressed by the following equation.

【0025】[0025]

【数3】 ここでfはカメラレンズの焦点距離である。(Equation 3) Here, f is the focal length of the camera lens.

【0026】そして、(Xu ,Yu )と(Xf ,Yf
との関係は以下の式で表される。
Then, (X u , Y u ) and (X f , Y f )
Is expressed by the following equation.

【0027】[0027]

【数4】 ここでCx ,Cy はそれぞれフレーム座標系でのOi
座標値であり、(Cx,Cy )をイメージセンタと呼
ぶ。またdx ,dy はカメラの隣り合った受光素子の中
心間距離であり、sx はFc をカメラの水平駆動周波
数、Ff を画像処理装置のA/Dコンバータの周波数と
すると、sx =Fc /Ff で表される値である。
(Equation 4) Here, C x and C y are the coordinate values of O i in the frame coordinate system, respectively, and (C x , C y ) is called an image center. The d x, d y is the distance between the centers of light receiving elements adjacent the camera, s x is the horizontal driving frequency of the camera F c, when an A / D converter of the frequency of the image processing apparatus F f, s is a value represented by x = F c / F f.

【0028】以上の関係式から、先に求めた複数個の教
示点の空間、画像座標値の組をもとに、カメラパラメー
タを求める。
Based on the above relational expression, camera parameters are obtained based on the set of a plurality of teaching point spaces and image coordinate values previously obtained.

【0029】複数個の教示点の空間座標値と画像座標値
をそれぞれ(xwi,ywi,zwi),(Xfi,Yfi)(i
=1,2,…,15)とし、いま、点PからOc のz軸
に垂線を下したときのその交点をPo とすると、Oi
u ‖Po Pであるから、xYu −yXu =0である。式
1〜4及びzwi=0(i−1,2,…,15)から
The spatial coordinate values and the image coordinate values of a plurality of teaching points are respectively represented by ( xwi , ywi , zwi ), ( Xfi , Yfi ) (i
= 1, 2,..., 15), and assuming that the intersection point when a perpendicular line is drawn from the point P to the z-axis of O c is P o , O i P
because it is u ‖P o P, it is a xY u -yX u = 0. From Expressions 1 to 4 and zwi = 0 (i-1, 2,..., 15)

【数5】 上式を変形して(Equation 5) Transform the above formula

【数6】 上式を5点以上の(xwi,ywi,0)(Xfi,Yfi)を
用いて最小2乗法などにより解けば、Ty -11 ,Ty
-12 ,Ty -1x ,Ty -14 ,Ty -15 が求めら
れる。次に
(Equation 6) The above equation 5 or more (x wi, y wi, 0 ) (X fi, Y fi) Solving the least squares method or the like using, T y -1 r 1, T y
-1 r 2, T y -1 T x, T y -1 r 4, T y -1 r 5 is obtained. next

【数7】 とすれば回転行列Rの正規直交性から(Equation 7) From the orthonormality of the rotation matrix R,

【数8】 となる。ここで、(Equation 8) Becomes here,

【数9】 ただしCの行あるいは列がすべてゼロの場合は(Equation 9) However, if all the rows or columns of C are zero,

【数10】 ここで、r´i ,r´j はゼロでないCの列あるいは行
の要素である。
(Equation 10) Here, r ′ i and r ′ j are elements of a non-zero C column or row.

【0030】これでTy 2 が得られたので、Ty =√
(Ty 2 ) ≧0としてTy -11 ,Ty -12 ,Ty -1
x ,Ty -14 ,Ty -15 からr1 ,r2 ,r4
5 ,Tx y を求める。
Now that T y 2 has been obtained, T y = √
Assuming that (T y 2 ) ≧ 0, T y -1 r 1 , T y -1 r 2 , T y -1
From T x , T y -1 r 4 , T y -1 r 5 , r 1 , r 2 , r 4 ,
r 5 , T x T y are obtained.

【0031】ただしTy ≧0としてr1 ,r2 ,r4
5 ,Tx ,Ty を求めたため、教示点の空間、画像座
標値を使って、Ty の符号の妥当性を調べる。つまり、
いま得られたパラメータと式1,4から、任意の
(xwi,ywi,zwi),(Xfi,Yfi)の組に対する
(xi ,yi ,zi ),(Xui,Yui)を求めた時、x
i とXui及びyi とYuiのどちらか一方でも符号が異な
ればTy ≧0とした仮定が誤りであると判断し、先に求
めたr1 ,r2 ,r4 ,r5 ,Tx ,Ty の符号を反転
させる。これは図5においてxi とXui及びyi とYui
が必ず同符号になることを利用した判定である。
However, when T y ≧ 0, r 1 , r 2 , r 4 ,
Since r 5 , T x , and T y have been obtained, the validity of the sign of T y is checked using the space of the teaching point and the image coordinate values. That is,
From the parameters just obtained and equations (1) and (4), (x i , y i , z i ), (X ui ,) for an arbitrary set of (x wi , y wi , z wi ) and (X fi , Y fi ) Y ui ), x
If the signs of i and X ui and y i and Y ui are different, it is determined that the assumption that T y ≧ 0 is erroneous, and r 1 , r 2 , r 4 , r 5 , The signs of T x and T y are inverted. This corresponds to x i and X ui and y i and Y ui in FIG.
Is a determination using the fact that is always the same sign.

【0032】ここまでのカメラパラメータの算出方法は
先に述べたツサイの提案する手法とほぼ同じである。し
かし本発明は、まだ求められていないカメラパラメータ
の算出方法に関し、ロジャー・ツサイの手法とは異な
り、カメラ配置にとらわれず高精度にカメラパラメータ
を求めることができる。
The calculation method of the camera parameters so far is almost the same as the method proposed by Tsusai described above. However, the present invention relates to a camera parameter calculation method that has not yet been determined, and unlike the method of Roger Tsusai, can obtain the camera parameter with high accuracy regardless of the camera arrangement.

【0033】つまり、式1〜4をまとめるとThat is, when the expressions 1 to 4 are put together,

【数11】 w =0であるから、変形して[Equation 11] Since z w = 0, transform

【数12】 ただし、(Equation 12) However,

【数13】 である。(Equation 13) It is.

【0034】これまでのところで、式12の右辺に含ま
れるr1 ,r2 ,r4 ,r5 ,Tx,Ty は既知の値で
ある。よって、教示点データ(xwi,ywi,zwi),
(Xfi,Yfi)を使って、r´7 ,r´8 ,T´z を最
小2乗法で求めることができる。
Up to now, r 1 , r 2 , r 4 , r 5 , T x , and T y included in the right side of Expression 12 are known values. Therefore, the teaching point data ( xwi , ywi , zwi ),
Using (X fi , Y fi ), r ′ 7 , r ′ 8 , and T ′ z can be obtained by the least square method.

【0035】ここで回転行列Rの正規直交性から、以下
の式が成り立つのは明らかである。
Here, from the orthonormality of the rotation matrix R, it is clear that the following equation holds.

【数14】 上式を変形して[Equation 14] Transform the above formula

【数15】 となる。ただしf>0である。(Equation 15) Becomes However, f> 0.

【0036】ここで、r3 2 ,r6 2 ,r9 2 は回転行
列Rの正規直交性を利用して以下の式で求められるから
Here, r 3 2 , r 6 2 , and r 9 2 can be obtained by the following equation using the orthonormality of the rotation matrix R.

【数16】 上式のr9 2 を式15に代入すれば焦点距離fが求めら
れる。さらに式13からfを使って残りのパラメータ,
7 ,r8 ,Tz が求められる。
(Equation 16) The focal length f is determined by substituting r 9 2 in the above equation in Equation 15. Further, using Equation 13 to f, the remaining parameters,
r 7 , r 8 and T z are obtained.

【0037】最後にr1 ,r2 ,r4 ,r5 ,r7 ,r
8 と式16のr3 2 ,r6 2 ,r9 2 から先と同様に回
転行列Rの正規直交性を利用して、r3 ,r6 ,r9
符号を求める。
Finally, r 1 , r 2 , r 4 , r 5 , r 7 , r
The codes of r 3 , r 6 , and r 9 are obtained from r 3 2 , r 6 2 , and r 9 2 in Equation 8 and Expression 16 using the orthonormality of the rotation matrix R in the same manner as described above.

【0038】以上で複数個の教示点の空間、画像座標値
の組(xwi,ywi,zwi),(Xfi,Yfi)からすべて
のカメラパラメータが求められた。
As described above, all camera parameters are obtained from the space of a plurality of teaching points and a set of image coordinate values ( xwi , ywi , zwi ) and ( Xfi , Yfi ).

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る自動キャリブレーション装置の概
念図である。
FIG. 1 is a conceptual diagram of an automatic calibration device according to the present invention.

【図2】キャリブレーションワークの平面図である。FIG. 2 is a plan view of a calibration work.

【図3】教示点の空間座標値と画像座標値の対応付けを
行う処理手順を示した図である。
FIG. 3 is a diagram showing a processing procedure for associating a spatial coordinate value of a teaching point with an image coordinate value.

【図4】教示点のラベリングを説明するためのキャリブ
レーションワークの斜視図である。
FIG. 4 is a perspective view of a calibration work for explaining labeling of a teaching point.

【図5】カメラモデルを説明するための図である。FIG. 5 is a diagram illustrating a camera model.

【符号の説明】[Explanation of symbols]

1 カメラ 2 キャリブレーションワーク 3 画像処理装置 4 演算部 Reference Signs List 1 camera 2 calibration work 3 image processing device 4 arithmetic unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森部 弘 愛知県愛知郡長久手町大字長湫字横道41 番地の1 株式会社豊田中央研究所内 (72)発明者 松浦 潤二 愛知県豊田市トヨタ町1番地 トヨタ自 動車株式会社内 (56)参考文献 特開 平4−181106(JP,A) 特開 昭64−2889(JP,A) 特開 昭63−61903(JP,A) 特開 昭61−277012(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 102 B25J 19/02 - 19/06 G06T 1/00 H04N 7/18 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Hiroshi Moribe 41-41, Yokomichi, Chukumi-cho, Nagakute-cho, Aichi-gun, Aichi Prefecture Inside Toyota Central R & D Laboratories Co., Ltd. (56) References JP-A-4-181106 (JP, A) JP-A-64-2889 (JP, A) JP-A-63-61903 (JP, A) JP-A-61-277012 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G01B 11/00-11/30 102 B25J 19/02-19/06 G06T 1/00 H04N 7/18

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 視覚センサのキャリブレーションを自動
的に行う装置であって、 方向性を持つ特定形状の基準教示点を含む複数の教示点
を平面上に有するキャリブレーションワークを撮像する
ための撮像手段と、 この撮像手段で得た画像における基準教示点の位置、形
状から、画像中における基準点の位置及び方向を認識す
る位置方向認識手段と、 認識された座標に基づいて各教示点の空間座標値と撮像
手段において得た各教示点の画像座標値の対応付けを行
う座標間対応付け手段と、 対応付けされた複数の空間、画像座標値の組の対応関係
から撮像手段の各パラメータを算出するキャリブレーシ
ョン演算手段と、 を含むことを特徴とする視覚センサの自動キャリブレー
ション装置。
An apparatus for automatically calibrating a visual sensor, comprising: an image pickup device for picking up an image of a calibration work having a plurality of teaching points including a reference teaching point of a specific shape having directionality on a plane. Means, position and orientation recognizing means for recognizing the position and direction of the reference point in the image from the position and shape of the reference teaching point in the image obtained by the imaging means, and a space for each teaching point based on the recognized coordinates. An inter-coordinate associating means for associating the coordinate values with the image coordinate values of the respective teaching points obtained by the imaging means; and a plurality of associated spaces and respective parameters of the imaging means from the correspondence relationship of the set of image coordinate values. An automatic calibration device for a visual sensor, comprising: calibration calculation means for calculating.
【請求項2】 請求項1記載の装置において、 上記キャリブレーション演算手段は、各教示点の空間、
画像座標の組を用いてキャリブレーションワークの平面
上の座標値と画像座標の対応についての撮像手段のパラ
メータを求めた後、再度各教示点の空間、画像座標の組
を用いてキャリブレーションワークの平面に直角な方向
の座標も含めた空間座標と画像座標の対応についての撮
像手段のパラメータを求めることを特徴とする視覚セン
サの自動キャリブレーション装置。
2. The apparatus according to claim 1, wherein said calibration calculation means includes:
After obtaining the parameters of the imaging means for the correspondence between the coordinate values on the plane of the calibration work and the image coordinates using the set of image coordinates, the space of each teaching point and the set of the image coordinates are again used by using the set of image coordinates. An automatic calibration device for a visual sensor, wherein a parameter of an image pickup means is obtained for a correspondence between spatial coordinates including coordinates in a direction perpendicular to a plane and image coordinates.
JP04284526A 1992-10-22 1992-10-22 Automatic calibration device for vision sensor Expired - Fee Related JP3138080B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04284526A JP3138080B2 (en) 1992-10-22 1992-10-22 Automatic calibration device for vision sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04284526A JP3138080B2 (en) 1992-10-22 1992-10-22 Automatic calibration device for vision sensor

Publications (2)

Publication Number Publication Date
JPH06137840A JPH06137840A (en) 1994-05-20
JP3138080B2 true JP3138080B2 (en) 2001-02-26

Family

ID=17679623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04284526A Expired - Fee Related JP3138080B2 (en) 1992-10-22 1992-10-22 Automatic calibration device for vision sensor

Country Status (1)

Country Link
JP (1) JP3138080B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009172119A (en) * 2008-01-24 2009-08-06 Brother Ind Ltd Sewing machine
JP2009201704A (en) * 2008-02-28 2009-09-10 Brother Ind Ltd Sewing machine
US8091493B2 (en) 2008-01-24 2012-01-10 Brother Kogyo Kabushiki Kaisha Sewing machine, and computer-readable storage medium storing sewing machine control program
US8267024B2 (en) 2008-01-24 2012-09-18 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050107A (en) * 2001-08-07 2003-02-21 Matsushita Electric Ind Co Ltd Camera calibration device
JP3793100B2 (en) * 2002-02-14 2006-07-05 キヤノン株式会社 Information processing method, apparatus, and recording medium
JP4766839B2 (en) * 2003-08-28 2011-09-07 富士通株式会社 Measuring method, measuring system and program
JP2005186193A (en) * 2003-12-25 2005-07-14 Nachi Fujikoshi Corp Calibration method and three-dimensional position measuring method for robot
JP4757142B2 (en) 2006-08-10 2011-08-24 キヤノン株式会社 Imaging environment calibration method and information processing apparatus
JP4916280B2 (en) * 2006-08-17 2012-04-11 国立大学法人 宮崎大学 Automatic calibration apparatus and calibration method
JP5815761B2 (en) 2014-01-23 2015-11-17 ファナック株式会社 Visual sensor data creation system and detection simulation system
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10347048B2 (en) 2015-12-02 2019-07-09 Seiko Epson Corporation Controlling a display of a head-mounted display device
JP6308248B2 (en) * 2016-06-22 2018-04-11 オムロン株式会社 Guidance device for conveyor tracking etc.
JP6881188B2 (en) 2017-09-27 2021-06-02 オムロン株式会社 Position detectors and programs
CN111380457B (en) * 2018-12-29 2024-02-06 上海晨兴希姆通电子科技有限公司 Positioning method and system for material tray
JP6670974B1 (en) * 2019-12-02 2020-03-25 ジック株式会社 Robot coordinate system alignment method, alignment system, and alignment device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009172119A (en) * 2008-01-24 2009-08-06 Brother Ind Ltd Sewing machine
US8091493B2 (en) 2008-01-24 2012-01-10 Brother Kogyo Kabushiki Kaisha Sewing machine, and computer-readable storage medium storing sewing machine control program
US8196535B2 (en) 2008-01-24 2012-06-12 Brother Kogyo Kabushiki Kaisha Sewing machine, and computer-readable storage medium storing sewing machine control program
US8267024B2 (en) 2008-01-24 2012-09-18 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
JP2009201704A (en) * 2008-02-28 2009-09-10 Brother Ind Ltd Sewing machine

Also Published As

Publication number Publication date
JPH06137840A (en) 1994-05-20

Similar Documents

Publication Publication Date Title
JP3138080B2 (en) Automatic calibration device for vision sensor
JP6280525B2 (en) System and method for runtime determination of camera miscalibration
US8520067B2 (en) Method for calibrating a measuring system
Tsai A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses
US6728417B1 (en) Measurement apparatus
CN110666798B (en) Robot vision calibration method based on perspective transformation model
CN109859272B (en) Automatic focusing binocular camera calibration method and device
CN108648237B (en) Space positioning method based on vision
JP2004340840A (en) Distance measuring device, distance measuring method and distance measuring program
JP2006148745A (en) Camera calibration method and apparatus
JP2009042162A (en) Calibration device and method therefor
CN110136211A (en) A kind of workpiece localization method and system based on active binocular vision technology
CN117173254A (en) Camera calibration method, system, device and electronic equipment
CN114612447A (en) Image processing method and device based on data calibration and image processing equipment
CN111986267A (en) Coordinate system calibration method of multi-camera vision system
Yamauchi et al. Calibration of a structured light system by observing planar object from unknown viewpoints
Zhang et al. Improved camera calibration method and accuracy analysis for binocular vision
JPH0626770B2 (en) Workpiece fitting method
CN116758160B (en) Method for detecting pose of optical element assembly process based on orthogonal vision system and assembly method
CN112785647A (en) Three-eye stereo image detection method and system
CN112507755A (en) Target object six-degree-of-freedom positioning method and system for minimizing two-dimensional code corner re-projection error
Tsai et al. Overview of a unified calibration trio for robot eye, eye-to-hand, and hand calibration using 3D machine vision
CN117437393A (en) Active alignment algorithm for micro LED chip
CN114299153B (en) Camera array synchronous calibration method and system for oversized power equipment
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081208

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081208

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091208

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees