JP2017056546A - Measurement system used for calibrating mechanical parameters of robot - Google Patents
Measurement system used for calibrating mechanical parameters of robot Download PDFInfo
- Publication number
- JP2017056546A JP2017056546A JP2016168082A JP2016168082A JP2017056546A JP 2017056546 A JP2017056546 A JP 2017056546A JP 2016168082 A JP2016168082 A JP 2016168082A JP 2016168082 A JP2016168082 A JP 2016168082A JP 2017056546 A JP2017056546 A JP 2017056546A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- light receiving
- target
- machine tool
- receiving device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
Description
ロボットおよび工作機械を備えた計測装置に関する。 The present invention relates to a measuring apparatus including a robot and a machine tool.
産業用の多関節ロボットの全動作範囲にわたって位置決め精度を向上させるために、機構パラメータのキャリブレーションを自動的に行うことが公知である。 It is known to automatically calibrate mechanism parameters in order to improve positioning accuracy over the entire operating range of industrial articulated robots.
特許文献1には、ターゲットを認識する受光デバイスを用いてロボットの先端位置と制御可能な駆動軸の変位との関係を自動的に計測するとともに、機構部の寸法誤差およびその弾性変形量等の定式化可能な誤差を求める方法が開示されている。また、特許文献1には、ロボットの全動作範囲にわたって精度向上を実現するために、複数のターゲットを設置するとともに、それぞれのターゲットに対して複数回の計測を行うことが記載されている。
In
ロボットの作業範囲内において位置決め精度を均一に向上することを目的として、ロボットの作業範囲内に複数のターゲットを設置して、それぞれのターゲットに対して複数回の計測を行う場合、各ターゲット位置の誤差を、同定計算すべきパラメータに追加する必要がある。そのため、設置されるターゲットの数が増えるのに従って計測回数を増やす必要がある。例えば、特許文献1に記載された発明では、計測すべきターゲットの位置が1つ増えると、ターゲット位置の誤差パラメータが3つ増えることになる。計測位置および姿勢を1つ増やせば、同定計算に利用できる式の数が3つ増えるので、誤差パラメータの増大に対応するためにターゲットの位置を1つ増やす度に計測位置および姿勢を1つ増やす必要がある。
In order to improve the positioning accuracy evenly within the robot work range, if multiple targets are installed within the robot work range and each target is measured multiple times, It is necessary to add an error to the parameter to be identified and calculated. Therefore, it is necessary to increase the number of measurements as the number of installed targets increases. For example, in the invention described in
ロボットの作業範囲内において位置決め精度を均一に向上させることを目的として複数のターゲットに対して複数回の計測を行う際に、より簡素な態様で計測できる計測装置が求められている。 There is a need for a measurement device that can perform measurement in a simpler manner when performing multiple measurements on a plurality of targets for the purpose of uniformly improving positioning accuracy within the robot's work range.
本願の1番目の発明によれば、受光デバイスをアームの先端に備えた多関節のロボットと、前記ロボットの動作範囲内に設けられた工作機械と、を備えていて、前記受光デバイスを利用して前記工作機械に固定されたターゲットを計測する計測装置であって、前記ターゲットは、前記受光デバイスの受光面上に結像した該ターゲットの位置の情報、および前記受光デバイスと該ターゲットとの間の距離に関連する長さの情報を特定可能にする幾何学的特徴を有しており、前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記ターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定する計測位置姿勢決定部と、前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めする位置決め部と、前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの前記位置の情報および前記長さの情報に基づいて、前記受光デバイスと前記ターゲットとの間の距離の情報を検出するターゲット検出部と、前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動するロボット移動部と、前記ロボット移動部によって移動させられた後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶するロボット終点記憶部と、前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求める計算部と、を備えることを特徴とする計測装置が提供される。
本願の2番目の発明によれば、1番目の発明に係る計測装置において、前記計測位置姿勢決定部は、前記受光デバイスと前記ターゲットの所定点との間の距離が一定であり、かつ該所定点を通る前記受光デバイスの視線の傾きが異なるような前記複数の計測位置姿勢を決定するように構成される。
本願の3番目の発明によれば、1番目の発明に係る計測装置において、前記計測位置姿勢決定部は、前記ターゲットの所定点を通る前記受光デバイスの視線の姿勢が一定であり、かつ前記受光デバイスと前記ターゲットの該所定点との間の距離が異なるような前記複数の計測位置姿勢を決定するように構成される。
本願の4番目の発明によれば、1番目の発明に係る計測装置において、前記計測位置姿勢決定部は、前記複数の計測位置および姿勢を自動的に生成するように構成される。
本願の5番目の発明によれば、1番目から4番目のいずれかの発明に係る計測装置において、前記計算部は、ニュートンラプソン法、遺伝的アルゴリズムおよびニューラルネットワークを含む非線形問題の最適化法を利用することにより、前記ロボットの機構パラメータの誤差を求めるように構成される。
本願の6番目の発明によれば、1番目から5番目のいずれかの発明に係る計測装置において、前記受光デバイスは、2次元画像を撮像するように構成されるCCDカメラである。
本願の7番目の発明によれば、1番目の発明に係る計測装置において、前記ターゲットが円形状のマークを有しており、前記長さの情報は、前記受光デバイスの受光面に結像した前記マークに対応する楕円の長軸長を含む。
本願の8番目の発明によれば、1番目から5番目のいずれかの発明に係る計測装置において、前記受光デバイスは、受光量分布の重心を求めるように構成されるPSDである。
本願の9番目の発明によれば、8番目の発明に係る計測装置において、前記ターゲットは発光体である。
本願の10番目の発明によれば、1番目から9番目のいずれかの発明に係る計測装置において、前記計算部は、前記受光デバイスの注視点の位置と、前記ターゲットに形成されたマークの所定点の位置との誤差に基づいて、前記ロボットの機構パラメータの誤差を求めるように構成される。
本願の11番目の発明によれば、受光デバイスをアームの先端に備えた多関節のロボットと、前記ロボットの動作範囲内に設けられた工作機械と、を備える計測装置を用いて、前記ロボットの機構パラメータを校正するキャリブレーション方法であって、前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記工作機械に固定されたターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定し、前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めし、前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの位置の情報、および長さの情報に基づいて前記受光デバイスと前記ターゲットとの間の距離の情報を検出し、前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動し、前記差に基づいて移動した後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶し、前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求めることを含む、キャリブレーション方法が提供される。
本願の12番目の発明によれば、11番目の発明に係るキャリブレーション方法において、前記ロボットの機構パラメータの誤差を求める際に、前記受光デバイスの注視点の位置と、前記ターゲットに形成されたマークの所定点の位置との誤差に基づいて、前記ロボットの機構パラメータの誤差を求めることを含む。
According to a first invention of the present application, an articulated robot provided with a light receiving device at the tip of an arm, and a machine tool provided within an operation range of the robot, the light receiving device is used. Measuring a target fixed to the machine tool, wherein the target is information on a position of the target imaged on a light receiving surface of the light receiving device, and between the light receiving device and the target. A geometric feature that enables identification of length information related to a distance of the machine tool, and a plurality of stop positions of the machine tool, and when the machine tool is disposed at the plurality of stop positions. A measurement position and orientation determination unit for determining a plurality of measurement positions and orientations of the robot such that the target is included in the field of view of the light receiving device; and the machine tool is stopped in the plurality of stops. And sequentially positioning the robot at the plurality of measurement positions and postures respectively corresponding to the plurality of stop positions, and imaging the target on the light receiving surface of the light receiving device. Based on information on the position of the target and information on the length, a target detection unit that detects information on a distance between the light receiving device and the target, and the machine tool is disposed at the stop position and In a state where the robot is arranged at the measurement position and posture, the difference between the position of the target on the light receiving surface of the light receiving device and a predetermined portion of the image acquired by the light receiving device is within a predetermined error. And the difference between the distance information and a predetermined value is within a predetermined error. The robot moving unit that moves the robot, and the position and posture of the robot after being moved by the robot moving unit, the end point associated with the stop position and the measurement position and posture of the machine tool An error of a mechanism parameter of the robot based on the plurality of stop positions and the plurality of end positions and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures; There is provided a measuring device comprising: a calculation unit that simultaneously obtains a relative relationship between the coordinate system of the robot and the coordinate system of the machine tool.
According to a second invention of the present application, in the measurement apparatus according to the first invention, the measurement position / orientation determination unit has a constant distance between the light receiving device and a predetermined point of the target, and The plurality of measurement positions and orientations are determined such that the line-of-sight inclinations of the light receiving devices passing through a fixed point are different.
According to a third invention of the present application, in the measurement apparatus according to the first invention, the measurement position / orientation determination unit has an attitude of a line of sight of the light receiving device passing through a predetermined point of the target, and the light receiving The plurality of measurement positions and postures are determined such that distances between a device and the predetermined point of the target are different.
According to the fourth invention of the present application, in the measurement apparatus according to the first invention, the measurement position and orientation determination unit is configured to automatically generate the plurality of measurement positions and orientations.
According to a fifth invention of the present application, in the measuring apparatus according to any one of the first to fourth inventions, the calculation unit performs a nonlinear problem optimization method including a Newton-Raphson method, a genetic algorithm, and a neural network. By using this, it is configured to obtain an error of the mechanism parameter of the robot.
According to a sixth invention of the present application, in the measuring apparatus according to any one of the first to fifth inventions, the light receiving device is a CCD camera configured to capture a two-dimensional image.
According to a seventh invention of the present application, in the measuring apparatus according to the first invention, the target has a circular mark, and the length information is imaged on a light receiving surface of the light receiving device. The major axis length of the ellipse corresponding to the mark is included.
According to the eighth invention of the present application, in the measuring apparatus according to any one of the first to fifth inventions, the light receiving device is a PSD configured to obtain a center of gravity of the received light amount distribution.
According to the ninth aspect of the present application, in the measuring apparatus according to the eighth aspect, the target is a light emitter.
According to a tenth invention of the present application, in the measuring apparatus according to any one of the first to ninth inventions, the calculation unit includes a position of a gazing point of the light receiving device and a mark formed on the target. Based on an error from the position of the fixed point, an error in the mechanism parameter of the robot is obtained.
According to an eleventh invention of the present application, using a measuring device including an articulated robot having a light receiving device at the tip of an arm, and a machine tool provided in the operation range of the robot, A calibration method for calibrating mechanism parameters, wherein a plurality of stop positions of the machine tool and a target fixed to the machine tool when the machine tool is disposed at the plurality of stop positions are received by the light receiving device. Determining a plurality of measurement positions and postures of the robot to be included in the field of view of the device, sequentially positioning the machine tool at the plurality of stop positions, and corresponding to the plurality of stop positions, respectively; The robot is sequentially positioned at the measurement position and posture of the image, the target is imaged on the light receiving surface of the light receiving device, and the The distance between the light receiving device and the target is detected based on the position information of the target and the length information, the machine tool is placed at the stop position, and the robot is moved to the measurement position and orientation. The difference between the position of the target on the light receiving surface of the light receiving device and a predetermined portion of the image acquired by the light receiving device is within a predetermined error, and the distance information The robot is moved so that a difference from a predetermined value is within a predetermined error, and the position and posture of the robot after moving based on the difference are set as the stop position of the machine tool and the It is stored as an end point associated with the measurement position and posture, and is stored in the plurality of stop positions and the plurality of measurement positions and postures. Based on a plurality of corresponding end points and a plurality of stop positions, an error of a mechanism parameter of the robot and a relative relationship between the coordinate system of the robot and the coordinate system of the machine tool are simultaneously obtained. A calibration method is provided.
According to the twelfth invention of the present application, in the calibration method according to the eleventh invention, when the error of the mechanism parameter of the robot is obtained, the position of the gazing point of the light receiving device and the mark formed on the target Determining an error in the mechanism parameter of the robot based on an error from the position of the predetermined point.
これら並びに他の本発明の目的、特徴および利点は、添付図面に示される本発明の例示的な実施形態に係る詳細な説明を参照することによって、より明らかになるであろう。 These and other objects, features and advantages of the present invention will become more apparent by referring to the detailed description of exemplary embodiments of the present invention shown in the accompanying drawings.
本発明によれば、工作機械を移動させることによって複数の位置に配置されるターゲットに対して計測を行い、ロボットの機構パラメータを補正する。それにより、複数のターゲットを設置する場合に比べて少ない計測回数で、ロボットの動作範囲にわたって精度を均一に向上させられる。また、本発明によれば、機構パラメータの誤差と同時に、ロボット座標系と工作機械座標系との間の相対姿勢関係を表す回転行列の誤差を求められるようになる。 According to the present invention, measurement is performed on targets arranged at a plurality of positions by moving the machine tool, and the mechanism parameters of the robot are corrected. Thereby, the accuracy can be improved uniformly over the operating range of the robot with a smaller number of measurements than when a plurality of targets are installed. Further, according to the present invention, simultaneously with the error of the mechanism parameter, the error of the rotation matrix representing the relative posture relationship between the robot coordinate system and the machine tool coordinate system can be obtained.
以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の構成要素は、本発明の理解を助けるために縮尺が適宜変更されている。同一または対応する構成要素には、同一の参照符号が使用される。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The components of the illustrated embodiment are appropriately scaled to assist in understanding the present invention. The same reference numerals are used for identical or corresponding components.
図1は、一実施形態に係る計測装置10の構成を概略的に示す図である。計測装置10は、多関節ロボット1と、ロボット1の動作範囲内に設けられた工作機械8と、を備えている。図1に示されるように、ロボット1は、アーム1aおよびベース1bを含む任意の公知の構成を有するロボットである。ロボット1は、ロボット1を制御するロボット制御装置5に接続されている。アーム1aの先端、すなわちツール取付面32には、カメラ4が取り付けられている。
FIG. 1 is a diagram schematically illustrating a configuration of a
ロボット1には、ロボット座標系Σbおよびメカニカルインタフェイス座標系Σfがそれぞれ設定される。ロボット座標系Σbは、ロボット1のベース1bに固定された、すなわち作業空間に固定された座標系である。メカニカルインタフェイス座標系Σfは、ツール取付面32に固定されていて、ロボット1の動作に従ってその位置および姿勢が変化する座標系である。ロボット制御装置5は、メカニカルインタフェイス座標系Σfの原点の位置および姿勢を常時取得するように構成される。
The
操作キーを備えた公知の教示操作盤18が、ロボット制御装置5に接続されている。作業者は、操作キーを手動で操作することにより、ロボット1を操作することができる。
A known
工作機械8には、工作機械座標系Σmが設定される。工作機械8は、公知の操作キーを備えており、作業者は、操作キーを操作することにより、工作機械8を操作することができるとともに、工作機械8に固定されているターゲット6の、工作機械座標系Σmにおける位置の変化量を取得することができる。
A machine tool coordinate system Σm is set for the machine tool 8. The machine tool 8 includes known operation keys, and an operator can operate the machine tool 8 by operating the operation keys, and the machine tool 8 of the
カメラ4は、例えばCCDカメラであり、撮像により2次元画像を受光面(CCDアレイ面上)で検出する機能を持つ公知の受光デバイスである。カメラ4は、LCDまたはCRT等からなるモニタ3を備えた画像処理装置2に接続されている。本実施形態において、カメラ4は、工作機械8に固定されているターゲット6のマーク7を撮像するために使用される。一実施形態において、ターゲット6は光源を備えた発光体であってもよい。その場合、受光量分布の重心を求めるように構成されたPSD(Position Sensitive Detector)が受光デバイスとして使用される。
The
ロボット制御装置5は、図2に示されるような公知のブロック構成を有する。すなわち、ロボット制御装置5は、メインCPU(以下、単に「CPU」と称する。)11に接続されたバス17に対して、メモリ12、教示操作盤用インタフェイス13、外部装置用の入出力インタフェイス16、サーボ制御部15および通信インタフェイス14が並列に接続されている。メモリ12は、RAM、ROM、不揮発性メモリ等を含んでいる。
The
教示操作盤用インタフェイス13に接続される教示操作盤18は、ディスプレイを備えた公知の構成を有している。作業者は、教示操作盤18を手動で操作することにより、ロボットの動作プログラムの作成、修正および登録、または各種パラメータの設定、或いは教示された動作プログラムの再生運転、ジョグ送り等を実行できる。
The
ロボット1およびロボット制御装置5の基本機能を制御するシステムプログラムは、メモリ12のROMに格納される。また、アプリケーションに応じて教示されるロボットの動作プログラムおよび関連する設定データは、メモリ12の不揮発性メモリに格納される。また、後述する種々の処理(機構パラメータを求める際のロボットの移動およびそのための画像処理装置との通信等を行うための処理)のためのプログラム、パラメータ等のデータもメモリ12の不揮発性メモリに格納される。
A system program for controlling basic functions of the
メモリ12のRAMは、CPU11によって実行される種々の処理に関連するデータを一時的に記憶するために使用される。サーボ制御部15は、サーボ制御器#1〜#n(nはロボットの軸総数であり、例えば、n=6である)を備えている。サーボ制御部15は、移動指令と、各軸に設けられたパルスコーダ(図示せず)から受信するフィードバック信号と、に基づいて、サーボアンプA1〜Anに対してトルク指令を出力する。移動指令は、ロボット1を制御するための演算処理(軌道計画作成およびそれに基づく補間、逆変換等)に従って公知の方法で作成される。
The RAM of the
各々のサーボアンプA1〜Anは、対応するトルク指令に基づいて各軸のサーボモータに電流を供給してそれらを駆動する。通信インタフェイス14は、画像処理装置2(図1参照)に接続されている。通信インタフェイス14を介して、画像処理装置2とロボット制御装置5との間で後述する計測に関連する指令および計測結果データ等の送受信が行なわれる。
Each of the servo amplifiers A1 to An supplies current to the servo motors of the respective axes based on the corresponding torque commands and drives them. The
画像処理装置2は、図3に示されるような公知のブロック構成を有する。画像処理装置2は、マイクロプロセッサから構成されるCPU20を有している。CPU20には、バスライン30を介して、ROM21、画像処理プロセッサ22、カメラインタフェイス23、モニタインタフェイス24、入力機器(I/O)25、フレームメモリ(画像メモリ)26、不揮発性メモリ27、RAM28および通信インタフェイス29がそれぞれ接続されている。
The
カメラインタフェイス23には、撮像手段であるカメラ4(例えば、CCDカメラ)が接続されている。カメラ4は、電子シャッタ機能を有しており、カメラインタフェイス23を介して受信する撮影指令に応答して、撮影を実行するように構成される。カメラ4によって撮影された映像データは、カメラインタフェイス23を介して、グレイスケール信号の形式でフレームメモリ26に格納される。
The
モニタインタフェイス24は、モニタ3(図1参照)に接続されている。モニタ3は、カメラ4による撮影中の画像、フレームメモリ26に格納された過去の画像、および画像処理プロセッサ22によって処理された画像等を必要に応じて表示する。
The
図1に示されるように、ロボット1のツール取付面32に取付けられたカメラ4は、工作機械8に固定されているターゲット6のマーク7を撮像する。フレームメモリ26に格納されたマーク7の映像信号は、画像処理プロセッサ22を利用して解析され、その2次元位置および大きさ等が求められる(詳細は後述)。マーク7は、カメラ4の受光面に結像するターゲット6の位置の情報およびカメラ4とターゲット6との間の距離に関連する長さの情報を特定可能にする、ターゲット6の幾何学的特徴である。
As shown in FIG. 1, the
画像処理に必要な解析プログラムおよびパラメータ等は、不揮発性メモリ27に格納されている。また、RAM28は、CPU20によって実行される種々の処理に関連するデータを一時的に記憶するために使用される。通信インタフェイス29は、ロボット制御装置5の通信インタフェイス14を介してロボット制御装置5に接続される。
An analysis program and parameters necessary for image processing are stored in the
図1を再度参照すれば、カメラ4の視線40が、カメラ4の代表点(例えば、カメラレンズの中心)からターゲット6に向かって延びる直線として描かれている。図1に示す座標系Σvは、視線40を代表する座標系である。座標系Σvは、原点が視線40上に位置するとともに、1つの座標軸(例えば、Z軸)が視線40に一致するように設定される。
Referring again to FIG. 1, the line of
なお、メカニカルインタフェイス座標系Σfは、前述したようにツール取付面32の位置および姿勢を代表する座標系であるものの、本明細書においては、ロボット1の位置および姿勢を代表する座標系でもある。すなわち、特に言及されない限り、「ロボットの位置」とは、ロボット座標系Σbにおける、メカニカルインタフェイス座標系Σfの原点の位置を意味する。「ロボットの位置」にロボットの姿勢が含まれる場合、「ロボットの位置」は、ロボット座標系Σbにおける、メカニカルインタフェイス座標系Σfの原点の位置および姿勢を意味する。
Note that the mechanical interface coordinate system Σf is a coordinate system that represents the position and orientation of the
本実施形態に係る計測装置10は、ロボット1の機構パラメータを校正するためにターゲット6のマーク7を検出する。図1に示されるように、ロボット制御装置5は、計測位置姿勢決定部51と、位置決め部52と、ターゲット検出部53と、ロボット移動部54と、ロボット終点記憶部55と、計算部56と、を備えている。
The measuring
計測位置姿勢決定部51は、工作機械8の複数の停止位置と、工作機械8が複数の停止位置に配置されているときに、ターゲット6がカメラ4の視野内に含まれるようなロボット1の複数の計測位置および姿勢と、を決定する。
The measurement position /
計測位置姿勢決定部51は、カメラ4とターゲット6の所定点との間の距離が一定であり、かつ該所定点を通るカメラ4の視線の傾きが異なるような複数の計測位置姿勢を決定するように構成されてもよい。
The measurement position and
計測位置姿勢決定部51は、ターゲット6の所定点を通るカメラ4の視線の姿勢が一定であり、かつカメラ4とターゲット6の該所定点との間の距離が異なるような複数の計測位置姿勢を決定するように構成されてもよい。
The measurement position /
計測位置姿勢決定部51は、複数の計測位置および姿勢を自動的に生成するように構成されてもよい。
The measurement position and
位置決め部52は、工作機械8を複数の停止位置に順次位置決めするとともに、複数の停止位置にそれぞれ対応する複数の計測位置および姿勢にロボット1を順次位置決めする。
The positioning unit 52 sequentially positions the machine tool 8 at a plurality of stop positions, and sequentially positions the
ターゲット検出部53は、ターゲット6をカメラ4の受光面上に結像するとともに、ターゲット6の位置の情報および長さの情報に基づいて、カメラ4とターゲット6との間の距離の情報を検出する。
The target detection unit 53 forms an image of the
ロボット移動部54は、工作機械8を停止位置に配置するとともにロボット1を計測位置および姿勢に配置した状態において、カメラ4の受光面上におけるターゲット6の位置と、カメラ4によって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、ロボット1を移動する。
The
ロボット終点記憶部55は、ロボット移動部54によって移動させられた後のロボット1の位置および姿勢を、工作機械8の停止位置および計測位置および姿勢に関連付けられた終点として記憶する。
The robot end
計算部56は、複数の停止位置および複数の計測位置および姿勢にそれぞれ対応する複数の終点と複数の停止位置とに基づいて、ロボット1の機構パラメータの誤差、およびロボット座標系Σbと工作機械座標系Σmとの間の相対関係を同時に求める。
Based on the plurality of end points and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures, the
計算部56は、ニュートンラプソン法、遺伝的アルゴリズムおよびニューラルネットワークを含む非線形問題の最適化法を利用することにより、ロボット1の機構パラメータの誤差を求めるように構成されてもよい。
The
図4および図5のフローチャートを参照して、本実施形態に係る計測装置において実行される機構パラメータのキャリブレーション方法について説明する。図4は、工作機械8の処理の概略を示すフローチャートであり、図5は、ロボット1の処理の概略を示すフローチャートである。
A mechanism parameter calibration method executed in the measurement apparatus according to the present embodiment will be described with reference to the flowcharts of FIGS. 4 and 5. FIG. 4 is a flowchart showing an outline of processing of the machine tool 8, and FIG. 5 is a flowchart showing an outline of processing of the
ステップM1では、ターゲット6を工作機械8に固定する。ステップR1では、ロボット1のツール取付面32にカメラ4を取付ける。ターゲット6およびカメラ4は、正確な位置に設置されなくてもよいものの、計測途中で位置が変化しないように固定される。
In step M1, the
ステップM2では、画像上のターゲット6の移動方向および移動距離と、工作機械8の移動方向および移動距離との間の関係を求める。ステップR2では、画像上のターゲット6の移動方向および移動距離と、ロボット1の移動方向および移動距離との間の関係を求める。これらの関係は、ロボット1または工作機械8をどのように動かせば、画像上のターゲット6を意図する方向に意図する距離だけ移動させられるかを求めるために使用される。例えば、ロボット1または工作機械8を複数回並進移動させ、その都度、カメラ4の受光面上に結像したターゲット6の図形の特徴値を検出することによって、ロボット1または工作機械8の各軸の移動方向および移動距離と、ターゲット6の特徴値の変化との間の関係が求められる。
In step M2, a relationship between the moving direction and moving distance of the
本実施形態では、工作機械8のm個の停止位置に対して、ロボット1のni個(i=1,2,・・・,m)の計測位置および姿勢で計測をそれぞれ実行する。工作機械8の停止位置の番号を指標「i」で表す。工作機械座標系Σmにおけるi番目の工作機械の停止位置をMpiで表す。
In the present embodiment, the measurement is performed at n i (i = 1, 2,..., M) measurement positions and postures of the
ステップM3では、指標iに「1」を入力する。ステップM4では、作業者が工作機械8を初期停止位置Mp1に移動させる。工作機械8は、Mp1を記録し、移動完了信号をロボット制御装置5に送信する。
In Step M3, “1” is input to the index i. In step M4, the operator moves the machine tool 8 to the initial stop position M p 1 . The machine tool 8 records M p 1 and transmits a movement completion signal to the
ロボット制御装置5が移動完了信号を受信したら(ステップR3)、ステップR4に進み、指標iが「1」であるか否かを判定する。指標iが「1」である場合、ステップR5に進み、工作機械8が停止位置Mp1に配置されているときにおいて、ターゲット6のマーク7がカメラ4の視野内に入るように(例えば、画像処理装置2のモニタ3にマーク7が映るように)、作業者がロボット1を移動させる。
When the
ステップR6では、工作機械が停止位置Mp1に配置されているときの、ロボット座標系Σbにおけるマーク7の所定点の位置(ターゲット6の初期位置)Bptと、メカニカルインタフェイス座標系Σfにおけるカメラ4の注視点31の位置FpSと、を自動的に計測する。
In step R6, when the machine tool is arranged at the stop position M p 1, and B p t (the initial position of the target 6) a position of a predetermined point of the
ステップR6での計測を実行するために、例えば、特許文献2に記載された公知技術を利用できる。この公知技術によれば、カメラ4の注視点31をロボット座標系Σbにおけるマーク7の所定点に合わせた状態で複数の方向から(複数のロボット姿勢で)計測を行い、注視点31の位置FpSおよびマーク7の所定点の位置Bptを算出する。注視点31を、ロボットの手先に装着されたツール先端点(TCP(Tool Center Point)に置換して考えれば、この方法は、ロボット座標系の所定点に複数方向から機械的にタッチアップして、TCPおよびマーク7の所定点の位置を算出する従来の方法に類似している。
In order to execute the measurement in step R6, for example, a known technique described in
なお、この段階では、カメラ4およびターゲット6の位置を高精度に計算する必要はない。すなわち、注視点31をターゲット6の所定点に一致させた状態で注視点31周りにロボット1の姿勢を変化させたときに、ターゲット6がカメラ4の視野から外れない程度であれば十分である。
At this stage, it is not necessary to calculate the positions of the
ステップR7では、工作機械8が停止位置Mpiに配置されているときのターゲット6の位置に対する、ni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を決定するとともに、ロボット制御装置5が、計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を記録する。
In step R7, n i measurement positions and postures B P ′ i, j (j = 1, 2,...) With respect to the position of the
本実施例では、計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を後述するように自動的に算出する。まず、指標iが「1」であるとき、工作機械が停止位置Mp1に配置されているときのターゲット6の位置に対するロボット1のn個の位置および姿勢を、ステップR6において算出されたロボット座標系Σbにおけるターゲット6の初期位置Bptと、メカニカルインタフェイス座標系Σfにおけるカメラ4の注視点31の位置FpSと、に基づいて、自動的に算出して記録する。
In this embodiment, the measurement position and orientation B P ′ i, j (j = 1, 2,..., N i ) are automatically calculated as described later. First, when the index i is “1”, the n positions and postures of the
n個の位置および姿勢は、第1の例として、カメラ4とマーク7の所定点との間の距離が一定であり、かつその所定点を通るカメラ4の視線40の傾きが異なる複数の位置および姿勢を含んでいてもよい。或いは、n個の位置および姿勢は、第2の例として、マーク7の所定点を通るカメラ4の視線40の姿勢が一定であり、かつカメラ4とその所定点との間の距離が異なる複数の位置および姿勢を含んでいてもよい。
As a first example, the n positions and postures are a plurality of positions where the distance between the
図6は、第1の例に従って、カメラ4とマーク7の所定点との間の距離が一定であり、かつ所定点を通るカメラ4の視線40の傾きが異なる3つの位置および姿勢を示している。
FIG. 6 shows three positions and postures in which the distance between the
なお、n個の位置および姿勢を自動的に算出するために、先ずステップR6でカメラ4の注視点31とターゲット6とを位置合わせして得られたロボット1の位置および姿勢を基本位置姿勢とし、次にカメラ4の注視点31の位置を一定とした上でカメラ4の姿勢角に所定値を加算してもよい。それにより、ロボット1の動作範囲内に含まれる複数の位置および姿勢が自動的に生成される。
In order to automatically calculate n positions and postures, the position and posture of the
或いは、カメラ4の注視点31の位置を一定とした上でロボット1の動作範囲に対応するカメラ4の姿勢角の範囲を算出するとともに、その姿勢角の範囲に含まれる任意の複数の角度(例えば、姿勢角範囲を等分して得られる角度)に対して、複数の位置および姿勢を生成する方法を採用してもよい。
Alternatively, the range of the posture angle of the
このようにして工作機械8が停止位置Mp1に配置されているときのターゲット6の位置に対するロボットのn個の位置および姿勢を自動算出して記録した後、指標iが「1」であるときは、n個の位置および姿勢の中からn1個の位置および姿勢を選択し、工作機械8が停止位置Mp1に配置されているときのターゲット6の位置に対するロボット1のn1個の計測位置および姿勢BP’1,j(j=1,2,・・・,n1)として決定し、記録する。
In this way, after automatically calculating and recording the n positions and postures of the robot with respect to the position of the
ステップR8では、工作機械8が停止位置Mpiに配置されているときのターゲット6の位置について、ロボット1のni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を起点として順番に「自動タッチアップ処理」を実行する。「自動タッチアップ処理」終了時点のロボット1の位置および姿勢BPi,j(j=1,2,・・・,ni)を終点として記録し、ロボット制御装置5が「自動タッチアップ処理」終了信号を工作機械8に送信する。「自動タッチアップ処理」では、カメラ4の受光面上に結像したマーク7の形状の幾何学的特徴を示す値またはパラメータが所定の条件を満足するように、ロボット1を移動させる。
In step R8, n i measurement positions and postures B P ′ i, j (j = 1, 2, j ) of the
「自動タッチアップ処理」の詳細を図7A、図7B、図8A、図8Bおよび図9を参照して説明する。例えば、マーク7は、中心の位置を示す十字線が描かれた円形状を有しており、カメラ4の受光面上に結像されたターゲット6の幾何学的特徴値は、楕円の中心位置および長軸長とする(図7B参照)。通常、カメラ4の受光面は、ターゲット6のマーク7の平面に対して傾斜しているので、円形のマーク7は、画像上において楕円として現れることになる。マーク7は、円形以外の他の形状または文字或いは記号であってもよい。
Details of the “automatic touch-up process” will be described with reference to FIGS. 7A, 7B, 8A, 8B, and 9. FIG. For example, the
カメラ4とターゲット6との位置がずれている場合(図7A参照)、図7Bに示されるように、受光面に結像された楕円形のマーク画像7aが、受光面の所定点(例えば、受光面の中心M)からずれており、また、マーク画像7aの長軸長がマーク7の直径よりも短くなっている。
When the positions of the
そこで、図8Aおよび図8Bに示されるように、ロボット1を移動させることによって、マーク画像7aの中心が受光面の中心Mに一致するように、かつマーク画像7aの長軸長がマーク7の直径に一致するように、カメラ4とターゲット6との間の相対位置関係を変化させる。
Therefore, as shown in FIGS. 8A and 8B, by moving the
より具体的には、受光面上においてマーク画像7aの中心と受光面の中心Mとの差、並びにマーク画像7aの長軸長とマーク7の直径との差が、予め定められる誤差以内になるよう自動的にロボット1を移動させる。受光面上では画像処理によってマーク画像7aの特徴値を検出できるので、検出結果に従って、上記処理を実行できる。
More specifically, the difference between the center of the
図9を参照して、カメラ4によって撮像されたマーク画像7aを画像上の中心Mに移動させるとともに、画像の大きさを適合させる「自動タッチアップ処理」について説明する。
With reference to FIG. 9, an “automatic touch-up process” for moving the
ステップS1では、カメラ4によってマーク7を撮像する。これにより、例えば図7Bに示されるマーク画像7aが得られる。
In step S <b> 1, the
ステップS2では、画像上におけるマーク7の図形の位置および大きさ(例えば、画面上におけるマーク画像7aの中心位置およびマーク画像7aの長軸長)を画像処理装置2によって検出する。
In step S2, the
ステップS3では、ステップS2で求められたターゲット6の図形の位置および大きさが、画像上における所定点(例えば、受光面の中心点M)および所定長(例えば、マーク7の直径)にそれぞれ一致しているか否かを判定する。具体的には、中心点Mとマーク画像7aの中心との間の距離、およびマーク画像7aの長軸長とマーク7の直径との差が、いずれも、画像上において許容可能な予め定められる誤差、すなわち閾距離δimage以下である場合、ターゲット6の位置および大きさが所定点および所定長に「一致」していると判定し、処理を終了する。
In step S3, the position and size of the figure of the
前述した距離の差および長軸長と直径との差の少なくともいずれか一方が閾距離δimageよりも大きい場合、ターゲット6の位置および大きさが所定点および所定長に対して「不一致」であると判定し、ステップS4へ進む。なお、画像上における距離は、例えば、当該距離に対応する正方形の「画素」の数に置換して計測することができる。
When at least one of the distance difference and the difference between the major axis length and the diameter is larger than the threshold distance δ image , the position and size of the
ステップS4では、マーク画像7aを画像上の中心Mに移動させるとともに、マーク画像7aの長軸長が所定値に一致するようにロボット並進指令を作成する。ここで、ロボット並進指令とは、ロボット1の姿勢、すなわちメカニカルインタフェイス座標系Σfの姿勢を、空間に固定されたロボット座標系Σbにおいて変更することなく、ロボット1を移動させる移動指令を意味する。
In step S4, the
ステップS5では、前述したロボット並進指令に従って、ロボット1を移動させる。ロボット1の移動が完了したらステップS1へ戻る。そして、ステップS3において「一致」の判定が出されるまで、ステップS1〜S5の処理を繰り返す。
In step S5, the
前述した「自動タッチアップ処理」を終了した時点のロボット位置(終点)は、画像上におけるマーク7の中心位置と所定点との間の距離、およびマーク画像7aの長軸長と所定の大きさとの差がいずれも閾距離δimage以下になっている。
The robot position (end point) at the time when the above-mentioned “automatic touch-up process” is completed is the distance between the center position of the
再び図4を参照し、工作機械8が、ステップM5において「自動タッチアップ処理」終了信号を受信した場合、ステップM6に進む。ステップM6では、指標iが「m」に等しいか否かを判定する。指標iが「m」よりも小さい場合、ステップM7において、指標iが「1」だけインクリメントされるとともに、ステップM4に戻る。そして、ステップM4において、作業者が工作機械8を次の停止位置Mpiに移動させ、工作機械8は停止位置Mpiを記録するとともに、移動完了信号をロボット制御装置5に送信する。
Referring to FIG. 4 again, when the machine tool 8 receives the “automatic touch-up process” end signal in step M5, the process proceeds to step M6. In step M6, it is determined whether or not the index i is equal to “m”. If the index i is smaller than “m”, the index i is incremented by “1” in step M7, and the process returns to step M4. In
図5を参照し、ステップR3において、ロボット制御装置5が移動完了信号を受信した場合、ステップR4に進む。ステップR4では、指標iが「1」に等しいか否かを判定する。指標iが「1」より大きい場合、ステップR7に進み、工作機械8が停止位置Mpiに配置されているときのターゲット位置に対するni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を決定する。本実施形態においては、指標iが「1」であるときにステップR7で記録されたn個の位置および姿勢を利用して、計測位置および姿勢を自動的に算出する。
Referring to FIG. 5, when the
次に、計測位置および姿勢の算出方法について説明する。まず、ステップM2で求められた画像上におけるターゲット6の移動と工作機械8の移動との間の関係と、ステップR2で求められた画像上におけるターゲット6の移動とロボット1の移動との間の関係と、に基づいて、ロボット座標系Σbと工作機械座標系Σmとの間の相対姿勢関係を表す回転行列BRMを求める。
Next, a method for calculating the measurement position and orientation will be described. First, the relationship between the movement of the
なお、この段階では、回転行列BRMを高精度に計算しなくてもよい。例えば、ターゲット6がカメラ4の視野内に含まれている状態から工作機械8を並進移動させてターゲット6を移動させたときに、回転行列BRMから計算されたロボット座標系Σbにおけるターゲット6の移動方向および移動距離だけロボット1を並進移動させて、ターゲット6がカメラ4の視野から外れない程度であれば十分である。
At this stage, the rotation matrix B R M may not be calculated with high accuracy. For example, the target in the case, the rotation matrix B R M calculated robot coordinate system Σb from the
そして、指標iが「1」であるときにステップR7において記録したn個の位置および姿勢の中からni個の位置および姿勢を選択し、BRM(Mpi−Mp1)だけ平行移動させた位置および姿勢を、工作機械8が停止位置Mpiに配置されているときのターゲット6の位置に対するロボット1のni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)として決定する。ロボット制御装置5は、計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を記録する。
Then, when the index i is “1”, n i positions and orientations are selected from the n positions and orientations recorded in
ステップR8では、BP’i,j(j=1,2,・・・,ni)を起点として順番に「自動タッチアップ処理」を実行する。「自動タッチアップ処理」終了時点のロボット位置姿勢BPi,j(j=1,2,・・・,ni)を終点として記録するとともに、ロボット制御装置5が「自動タッチアップ処理」終了信号を工作機械8に送信する。
In step R8, B P 'i, j (j = 1,2, ···, n i) to execute the "automatic touch-up process" in turn as a starting point. The robot position / posture B P i, j (j = 1, 2,..., N i ) at the end of the “automatic touch-up process” is recorded as the end point, and the
工作機械8が「自動タッチアップ処理」終了信号を受信した場合(ステップM5)、ステップM6に進み、指標iが「m」に等しいか否かを判定する。指標iが「m」よりも小さい場合、ステップM7に戻り、ステップM7,M4,R3,R4,R7,R8,M5,M6の処理が繰返し実行される。 When the machine tool 8 receives the “automatic touch-up process” end signal (step M5), the process proceeds to step M6 to determine whether or not the index i is equal to “m”. When the index i is smaller than “m”, the process returns to step M7, and the processes of steps M7, M4, R3, R4, R7, R8, M5, and M6 are repeatedly executed.
ステップM6で指標iが「m」に等しいと判定された場合、工作機械8のすべての停止位置への移動が完了したことを意味する。その場合、ステップM8に進み、工作機械8は、計測終了信号をロボット制御装置5に送信する。
If it is determined in step M6 that the index i is equal to “m”, this means that the movement of the machine tool 8 to all the stop positions has been completed. In this case, the process proceeds to step M8, and the machine tool 8 transmits a measurement end signal to the
指標iが「m」であるときに、ステップM4の処理が実行される前にステップR3が実行されたり、またはステップM8の処理が実行される前にステップR9が実行されたりした場合、ステップR10,R9,R3の処理が繰返し実行される。 When the index i is “m”, if step R3 is executed before the process of step M4 is executed, or if step R9 is executed before the process of step M8 is executed, step R10 is executed. , R9, R3 are repeatedly executed.
ステップR9において、ロボット制御装置5が計測終了信号を受信した場合、工作機械8の各停止位置および各終点におけるロボット1の位置および姿勢に基づいて、ロボット1の機構パラメータと、ロボット座標系Σbと工作機械座標系Σmとの間の回転行列を計算し、更新する。具体的には、ステップR11において、工作機械8の各停止位置および各終点におけるロボット1の位置および姿勢について、ロボット座標系Σbにおける注視点31の位置とターゲット6の位置とが一致していることを前提として、ロボットのp個の機構パラメータPK,0=[Pk,0,1,Pk,0,2,,・・・,Pk,0,p]の誤差と、メカニカルインタフェイス座標系Σfにおける注視点31の位置FpS=[XS,YS,ZS]の誤差と、工作機械8が停止位置Mp1に配置されているときのロボット座標系Σbにおけるマーク7の所定点の位置Bpt=[Xt,Yt,Zt]の誤差と、ロボット座標系Σbと工作機械座標系Σmとの間の回転行列BRMの誤差とを同定計算する。回転行列BRMは、オイラー角等により3つの変数R=[φ,θ,ψ]を用いて表現され得る。
In step R9, when the
機構パラメータPK,0、注視点31の位置FpS、およびマーク7の所定点の位置Bpt、変数Rの誤差のパラメータをPID=[ΔPk,ΔPS,ΔPt,ΔR]とする。誤差パラメータPIDは、以下のように同定計算される。
Kinematic parameters P K, 0, position F p S of the
ターゲット6の位置Bptは、工作機械8が停止位置Mp1に配置されているときのロボット座標系Σbにおけるターゲット6の位置である。したがって、工作機械8が停止位置Mpiに配置されているときのロボット座標系Σbにおけるターゲット6の位置は、工作機械8の移動距離(Mpi−Mp1)に基づいて、式:Bpt+BRM(Mpi−Mp1)を計算することによって求められる。
Position B p t of the
「自動タッチアップ処理」終了時点のロボットの位置および姿勢(終点)BPi,j(j=1,2,・・・,ni)の位置を表すベクトルをBpi,jとし、姿勢を表す回転行列をBRi,jとすると、ロボット座標系Σbにおける注視点31の位置は、メカニカルインタフェイス座標系Σfにおける注視点31の位置FpSを用いて、式:Bpi,j+BRi,j FpSを計算することによって求められる。
And "automatic touch-up processing" position and posture (end point) B P i of the robot end, j (j = 1,2, ··· , n i) a vector representing the position of the B p i, and j, posture B R i a rotation matrix representing the, when j, the position of the
理想的な状態、すなわち誤差パラメータPIDのすべての成分がゼロであり、工作機械8の位置決めに誤差がない場合は、工作機械8の各停止位置Mpi(i=1,2,・・・,m)について、ロボット座標系Σbにおける注視点31の位置Bpi,j+BRi,j FpS(j=1,2,・・・,ni)が、ロボット座標系Σbにおけるターゲット6の位置Bpt+BRM(Mpi−Mp1)に一致することになる。
In an ideal state, that is, when all components of the error parameter P ID are zero and there is no error in positioning of the machine tool 8, each stop position M pi (i = 1, 2,. ·, m) for the position B p i of the
誤差が生じない理想的な状態に対し、実際には、機構パラメータまたは回転行列の誤差を含む誤差パラメータPIDに従って、ロボット座標系Σbにおける注視点31の位置と、ターゲット6の位置との間には位置誤差ei,j=(Bpi,j+BRi,j FpS)−(Bpt+BRM(Mpi−Mp1))が存在する。幾何学的関係から分かるように、ロボット1の各駆動軸の値を一定値に固定して考えた場合は、Bpi,j+BRi,j FpSはPIDの関数になる。したがって、ei,jもPIDの関数になる。
In contrast to an ideal state in which no error occurs, in practice, between the position of the
ニュートンラプソン法を用いて、工作機械8の各停止位置、各終点におけるロボット1の位置および姿勢に対応するロボット座標系Σbにおける注視点31の位置Bpi,j+BRi,j FpSと、ロボット座標系Σbにおけるターゲット位置Bpt+BRM(Mpi−Mp1)との誤差E=[e1,1,・・・,ei,j,・・・,em,nm]が最小値をとるようなPIDを求める。そして、ロボット1の機構パラメータが算出された値に置換されることによって更新される。
Using Newton Raphson method, the stop position of the machine tool 8, the position B p i of the
本実施形態に係る計算システムによれば、工作機械8の高い位置決め精度を利用して、工作機械8の移動距離から工作機械8に固定されたターゲット6の位置が求められる。そのため、ターゲット6の位置を増やす度に計測位置および姿勢を増やす必要がなくなる。具体的には、本実施形態においては、回転行列の誤差パラメータが3つ増えるものの、計測されるターゲットの位置の数mを増やしても、同定計算されるべきパラメータは増えない。そのため、2箇所のターゲット位置について計測を行う場合(m=2)、同定計算するために必要な計測位置および姿勢の数は複数のターゲットを設置する場合と変わらない。しかしながら、3箇所以上のターゲット位置について計測を行う場合(m>2)、同定計算するために必要な計測位置および姿勢の数は、複数のターゲットを設置する場合とくらべてm−2だけ少なくできる。
According to the calculation system according to the present embodiment, the position of the
このように、本実施形態によれば、簡素な態様で、ロボット1の動作範囲において均一にロボット1の位置決め精度を向上させられる。また、機構パラメータの誤差と同時に、ロボット座標系Σbと工作機械座標系Σmとの間の回転行列の誤差を求めることができる。
Thus, according to the present embodiment, the positioning accuracy of the
以上、本発明の種々の実施形態について説明したが、当業者であれば、他の実施形態によっても本発明の意図する作用効果を実現できることを認識するであろう。特に、本発明の範囲を逸脱することなく、前述した実施形態の構成要素を削除または置換することができるし、或いは公知の手段をさらに付加することができる。また、本明細書において明示的または暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。 Although various embodiments of the present invention have been described above, those skilled in the art will recognize that the functions and effects intended by the present invention can be realized by other embodiments. In particular, the constituent elements of the above-described embodiments can be deleted or replaced without departing from the scope of the present invention, or known means can be further added. In addition, it is obvious to those skilled in the art that the present invention can be implemented by arbitrarily combining features of a plurality of embodiments disclosed explicitly or implicitly in this specification.
1 ロボット
2 画像処理装置
3 モニタ
4 カメラ
5 ロボット制御装置
6 ターゲット
7 マーク
8 工作機械
10 計測装置
11 メインCPU
12 メモリ
13 教示操作盤用インタフェイス
14 通信インタフェイス(ロボット制御装置側)
15 サーボ制御部
16 外部装置用の入出力インタフェイス
17 バス
18 教示操作盤
20 CPU
21 ROM
22 画像処理プロセッサ
23 カメラインタフェイス
24 モニタインタフェイス
25 入力機器
26 フレームメモリ
27 不揮発性メモリ
28 RAM
29 通信インタフェイス(画像処理装置側)
30 バスライン
31 注視点
32 ツール取付面
40 視線
51 計測位置姿勢決定部
52 位置決め部
53 ターゲット検出部
54 ロボット移動部
55 ロボット終点記憶部
56 計算部
DESCRIPTION OF
12
15
21 ROM
22
29 Communication interface (image processing device side)
30
Claims (12)
前記ターゲットは、前記受光デバイスの受光面上に結像した該ターゲットの位置の情報、および前記受光デバイスと該ターゲットとの間の距離に関連する長さの情報を特定可能にする幾何学的特徴を有しており、
前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記ターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定する計測位置姿勢決定部と、
前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めする位置決め部と、
前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの前記位置の情報および前記長さの情報に基づいて、前記受光デバイスと前記ターゲットとの間の距離の情報を検出するターゲット検出部と、
前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動するロボット移動部と、
前記ロボット移動部によって移動させられた後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶するロボット終点記憶部と、
前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求める計算部と、を備えることを特徴とする計測装置。 An articulated robot having a light receiving device at the tip of an arm, and a machine tool provided within an operation range of the robot, and a target fixed to the machine tool using the light receiving device A measuring device for measuring,
The target is a geometric feature that enables identification of information on a position of the target imaged on a light receiving surface of the light receiving device and information on a length related to a distance between the light receiving device and the target. Have
A plurality of stop positions of the machine tool, and a plurality of measurement positions and postures of the robot such that the target is included in the field of view of the light receiving device when the machine tool is disposed at the plurality of stop positions. And a measurement position and orientation determination unit for determining
A positioning unit that sequentially positions the machine tool at the plurality of stop positions and sequentially positions the robot at the plurality of measurement positions and postures respectively corresponding to the plurality of stop positions;
The target forms an image on the light receiving surface of the light receiving device, and detects information on the distance between the light receiving device and the target based on the position information and the length information of the target. A detection unit;
In a state where the machine tool is disposed at the stop position and the robot is disposed at the measurement position and posture, the position of the target on the light receiving surface of the light receiving device and a predetermined portion of an image acquired by the light receiving device A robot moving unit that moves the robot so that a difference between the distance information and a predetermined value is within a predetermined error.
A robot end point storage unit for storing the position and posture of the robot after being moved by the robot moving unit as an end point associated with the stop position of the machine tool and the measurement position and posture;
Based on the plurality of end points and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures, the mechanism parameter error of the robot, the robot coordinate system, and the machine tool And a calculation unit for simultaneously obtaining a relative relationship with the coordinate system.
前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記工作機械に固定されたターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定し、
前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めし、
前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの位置の情報、および長さの情報に基づいて前記受光デバイスと前記ターゲットとの間の距離の情報を検出し、
前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動し、
前記差に基づいて移動した後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶し、
前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求めることを含む、キャリブレーション方法。 A calibration method for calibrating mechanism parameters of a robot using a measuring device including an articulated robot having a light receiving device at the tip of an arm and a machine tool provided within an operation range of the robot. And
A plurality of stop positions of the machine tool, and a target fixed to the machine tool when the machine tool is disposed at the plurality of stop positions, and included in a field of view of the light receiving device. Determine multiple measurement positions and postures,
Sequentially positioning the machine tool at the plurality of stop positions, and sequentially positioning the robot at the plurality of measurement positions and postures respectively corresponding to the plurality of stop positions;
The target is imaged on the light receiving surface of the light receiving device, and information on the distance between the light receiving device and the target is detected based on information on the position of the target and information on the length,
In a state where the machine tool is disposed at the stop position and the robot is disposed at the measurement position and posture, the position of the target on the light receiving surface of the light receiving device and a predetermined portion of an image acquired by the light receiving device And the robot is moved so that the difference between the distance information is within a predetermined error, and the difference between the distance information and the predetermined value is within a predetermined error,
Storing the position and posture of the robot after moving based on the difference as an end point associated with the stop position and the measurement position and posture of the machine tool;
Based on the plurality of end points and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures, the mechanism parameter error of the robot, the robot coordinate system, and the machine tool A calibration method including simultaneously obtaining a relative relationship with a coordinate system of
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016116702.9A DE102016116702B4 (en) | 2015-09-14 | 2016-09-07 | Measuring system for calibrating the mechanical parameters of a robot |
US15/263,967 US10035268B2 (en) | 2015-09-14 | 2016-09-13 | Measurement system used for calibrating mechanical parameters of robot |
CN201610822064.9A CN106514651B (en) | 2015-09-14 | 2016-09-13 | Measuring device and calibration method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015180613 | 2015-09-14 | ||
JP2015180613 | 2015-09-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017056546A true JP2017056546A (en) | 2017-03-23 |
JP6235664B2 JP6235664B2 (en) | 2017-11-22 |
Family
ID=58391256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016168082A Active JP6235664B2 (en) | 2015-09-14 | 2016-08-30 | Measuring device used to calibrate mechanism parameters of robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6235664B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107462157A (en) * | 2017-09-06 | 2017-12-12 | 西安工程大学 | A kind of Novel numerical control machine rigging error measurement apparatus based on LED light spectrum |
JP2019040264A (en) * | 2017-08-22 | 2019-03-14 | ファナック株式会社 | Cooperation system of machine tool and robot |
CN113084827A (en) * | 2021-04-01 | 2021-07-09 | 北京飞影科技有限公司 | Method and device for calibrating optical center position of camera device |
DE102021103726A1 (en) | 2020-03-13 | 2021-09-16 | Omron Corporation | Measurement parameter optimization method and device as well as computer control program |
JP2021148763A (en) * | 2020-03-13 | 2021-09-27 | オムロン株式会社 | Method and device for optimizing measurement parameters and computer control program |
WO2022034965A1 (en) * | 2020-08-11 | 2022-02-17 | 주식회사 엠앤디 | Filter replacement device |
KR20220023900A (en) * | 2020-08-21 | 2022-03-03 | 한국생산기술연구원 | Alignment device of robot coordinate system and specimen coordinate system and coordinate system alignment method using the same |
JP2022530589A (en) * | 2019-09-11 | 2022-06-30 | Dmg森精機株式会社 | Robot-mounted mobile devices, systems and machine tools |
CN115008476A (en) * | 2022-08-09 | 2022-09-06 | 广州数控设备有限公司 | Robot calibration method and device based on equivalent kinematics model |
WO2022195938A1 (en) * | 2021-03-15 | 2022-09-22 | Dmg森精機株式会社 | Robot system positioning accuracy measurement method |
CN116423529A (en) * | 2023-06-14 | 2023-07-14 | 极限人工智能(北京)有限公司 | Robot parameter calibration method and system based on constraint of double-position sensitive device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08174453A (en) * | 1994-12-26 | 1996-07-09 | Hitachi Zosen Corp | Measuring device of positioning error in robot device and correcting method for positioning error |
JP2005342832A (en) * | 2004-06-02 | 2005-12-15 | Fanuc Ltd | Robot system |
JP2008012604A (en) * | 2006-07-03 | 2008-01-24 | Fanuc Ltd | Measuring apparatus and method of its calibration |
US20110066393A1 (en) * | 2009-09-16 | 2011-03-17 | Kuka Roboter Gmbh | Calibration Of A Manipulator |
JP2012006122A (en) * | 2010-06-25 | 2012-01-12 | Panasonic Electric Works Co Ltd | Production system |
WO2014037993A1 (en) * | 2012-09-04 | 2014-03-13 | 富士機械製造株式会社 | Work device |
-
2016
- 2016-08-30 JP JP2016168082A patent/JP6235664B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08174453A (en) * | 1994-12-26 | 1996-07-09 | Hitachi Zosen Corp | Measuring device of positioning error in robot device and correcting method for positioning error |
JP2005342832A (en) * | 2004-06-02 | 2005-12-15 | Fanuc Ltd | Robot system |
JP2008012604A (en) * | 2006-07-03 | 2008-01-24 | Fanuc Ltd | Measuring apparatus and method of its calibration |
US20110066393A1 (en) * | 2009-09-16 | 2011-03-17 | Kuka Roboter Gmbh | Calibration Of A Manipulator |
JP2012006122A (en) * | 2010-06-25 | 2012-01-12 | Panasonic Electric Works Co Ltd | Production system |
WO2014037993A1 (en) * | 2012-09-04 | 2014-03-13 | 富士機械製造株式会社 | Work device |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019040264A (en) * | 2017-08-22 | 2019-03-14 | ファナック株式会社 | Cooperation system of machine tool and robot |
CN107462157B (en) * | 2017-09-06 | 2019-10-25 | 西安工程大学 | A kind of numerically-controlled machine tool rigging error measuring device based on LED light spectrum |
CN107462157A (en) * | 2017-09-06 | 2017-12-12 | 西安工程大学 | A kind of Novel numerical control machine rigging error measurement apparatus based on LED light spectrum |
JP7482364B2 (en) | 2019-09-11 | 2024-05-14 | Dmg森精機株式会社 | Robot-mounted mobile device and system |
JP2022530589A (en) * | 2019-09-11 | 2022-06-30 | Dmg森精機株式会社 | Robot-mounted mobile devices, systems and machine tools |
DE102021103726B4 (en) | 2020-03-13 | 2022-12-29 | Omron Corporation | Measurement parameter optimization method and device and computer control program |
DE102021103726A1 (en) | 2020-03-13 | 2021-09-16 | Omron Corporation | Measurement parameter optimization method and device as well as computer control program |
JP2021148763A (en) * | 2020-03-13 | 2021-09-27 | オムロン株式会社 | Method and device for optimizing measurement parameters and computer control program |
JP7450857B2 (en) | 2020-03-13 | 2024-03-18 | オムロン株式会社 | Measurement parameter optimization method and device, and computer control program |
US11816754B2 (en) | 2020-03-13 | 2023-11-14 | Omron Corporation | Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium |
WO2022034965A1 (en) * | 2020-08-11 | 2022-02-17 | 주식회사 엠앤디 | Filter replacement device |
KR102398139B1 (en) * | 2020-08-21 | 2022-05-18 | 한국생산기술연구원 | Alignment device of robot coordinate system and specimen coordinate system and coordinate system alignment method using the same |
KR20220023900A (en) * | 2020-08-21 | 2022-03-03 | 한국생산기술연구원 | Alignment device of robot coordinate system and specimen coordinate system and coordinate system alignment method using the same |
WO2022195938A1 (en) * | 2021-03-15 | 2022-09-22 | Dmg森精機株式会社 | Robot system positioning accuracy measurement method |
CN113084827A (en) * | 2021-04-01 | 2021-07-09 | 北京飞影科技有限公司 | Method and device for calibrating optical center position of camera device |
CN115008476B (en) * | 2022-08-09 | 2022-12-13 | 广州数控设备有限公司 | Robot calibration method and device based on equivalent kinematics model |
CN115008476A (en) * | 2022-08-09 | 2022-09-06 | 广州数控设备有限公司 | Robot calibration method and device based on equivalent kinematics model |
CN116423529A (en) * | 2023-06-14 | 2023-07-14 | 极限人工智能(北京)有限公司 | Robot parameter calibration method and system based on constraint of double-position sensitive device |
CN116423529B (en) * | 2023-06-14 | 2023-10-27 | 极限人工智能(北京)有限公司 | Robot parameter calibration method and system based on constraint of double-position sensitive device |
Also Published As
Publication number | Publication date |
---|---|
JP6235664B2 (en) | 2017-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6235664B2 (en) | Measuring device used to calibrate mechanism parameters of robot | |
US10035268B2 (en) | Measurement system used for calibrating mechanical parameters of robot | |
JP4267005B2 (en) | Measuring apparatus and calibration method | |
JP4298757B2 (en) | Robot mechanism calibration apparatus and method | |
CN108453701B (en) | Method for controlling robot, method for teaching robot, and robot system | |
JP5850962B2 (en) | Robot system using visual feedback | |
JP4191080B2 (en) | Measuring device | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
US9221176B2 (en) | Robot system and method for controlling the same | |
EP3157715B1 (en) | Method for calibrating a robot and a robot system | |
JP6812095B2 (en) | Control methods, programs, recording media, robotic devices, and manufacturing methods for articles | |
JP6430986B2 (en) | Positioning device using robot | |
US20110029131A1 (en) | Apparatus and method for measuring tool center point position of robot | |
WO2021012122A1 (en) | Robot hand-eye calibration method and apparatus, computing device, medium and product | |
TW201403277A (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
JP2005149299A (en) | Teaching position correction apparatus | |
JP6922204B2 (en) | Controls, robots and robot systems | |
EP3421930A1 (en) | Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method | |
CN106003021A (en) | Robot, robot control device, and robotic system | |
CN109531604B (en) | Robot control device for performing calibration, measurement system, and calibration method | |
JP6410411B2 (en) | Pattern matching apparatus and pattern matching method | |
TWI853525B (en) | Non-transitory computer-readable medium recording thereon marker position registration program, a marker position registration device, method, and markers used in the method | |
JP7583942B2 (en) | ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, AND ROBOT CONTROL METHOD | |
WO2024062535A1 (en) | Robot control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6235664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |