[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017056546A - Measurement system used for calibrating mechanical parameters of robot - Google Patents

Measurement system used for calibrating mechanical parameters of robot Download PDF

Info

Publication number
JP2017056546A
JP2017056546A JP2016168082A JP2016168082A JP2017056546A JP 2017056546 A JP2017056546 A JP 2017056546A JP 2016168082 A JP2016168082 A JP 2016168082A JP 2016168082 A JP2016168082 A JP 2016168082A JP 2017056546 A JP2017056546 A JP 2017056546A
Authority
JP
Japan
Prior art keywords
robot
light receiving
target
machine tool
receiving device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016168082A
Other languages
Japanese (ja)
Other versions
JP6235664B2 (en
Inventor
裕介 村田
Yusuke Murata
裕介 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to DE102016116702.9A priority Critical patent/DE102016116702B4/en
Priority to US15/263,967 priority patent/US10035268B2/en
Priority to CN201610822064.9A priority patent/CN106514651B/en
Publication of JP2017056546A publication Critical patent/JP2017056546A/en
Application granted granted Critical
Publication of JP6235664B2 publication Critical patent/JP6235664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a measurement system capable of performing measurement in a simpler manner when performing measurement plural times for a plurality of targets for the purpose of improving positioning accuracy of a robot.SOLUTION: A measurement system 10 includes a multi-articulated robot 1 having a light receiving device 4 at a front end of an arm, and a machine tool 8, and utilizes the light receiving device 4 to measure a target 6 fixed to the machine tool 8. The robot 1 is moved such that, in a state where the machine tool 8 is positioned at each stop position and the robot 1 is positioned in the measurement position and posture, the difference between a target 6 on a light receiving surface of the light receiving device 4 and an image acquired by the light receiving device 4 falls within a predetermined error. The system stores positions and postures of the robot 1 after being moved as end points. Based on the plurality of stop positions and the plurality of end points, the system simultaneously obtains the error of the mechanical parameters of the robot 1 and the relative relationship between the robot coordinate system Σb and the machine coordinate system Σm.SELECTED DRAWING: Figure 1

Description

ロボットおよび工作機械を備えた計測装置に関する。   The present invention relates to a measuring apparatus including a robot and a machine tool.

産業用の多関節ロボットの全動作範囲にわたって位置決め精度を向上させるために、機構パラメータのキャリブレーションを自動的に行うことが公知である。   It is known to automatically calibrate mechanism parameters in order to improve positioning accuracy over the entire operating range of industrial articulated robots.

特許文献1には、ターゲットを認識する受光デバイスを用いてロボットの先端位置と制御可能な駆動軸の変位との関係を自動的に計測するとともに、機構部の寸法誤差およびその弾性変形量等の定式化可能な誤差を求める方法が開示されている。また、特許文献1には、ロボットの全動作範囲にわたって精度向上を実現するために、複数のターゲットを設置するとともに、それぞれのターゲットに対して複数回の計測を行うことが記載されている。   In Patent Document 1, a light receiving device for recognizing a target is used to automatically measure the relationship between the tip position of a robot and the displacement of a controllable drive shaft. A method for determining a formalizable error is disclosed. Patent Document 1 describes that a plurality of targets are installed and measurement is performed a plurality of times for each target in order to improve accuracy over the entire operation range of the robot.

ロボットの作業範囲内において位置決め精度を均一に向上することを目的として、ロボットの作業範囲内に複数のターゲットを設置して、それぞれのターゲットに対して複数回の計測を行う場合、各ターゲット位置の誤差を、同定計算すべきパラメータに追加する必要がある。そのため、設置されるターゲットの数が増えるのに従って計測回数を増やす必要がある。例えば、特許文献1に記載された発明では、計測すべきターゲットの位置が1つ増えると、ターゲット位置の誤差パラメータが3つ増えることになる。計測位置および姿勢を1つ増やせば、同定計算に利用できる式の数が3つ増えるので、誤差パラメータの増大に対応するためにターゲットの位置を1つ増やす度に計測位置および姿勢を1つ増やす必要がある。   In order to improve the positioning accuracy evenly within the robot work range, if multiple targets are installed within the robot work range and each target is measured multiple times, It is necessary to add an error to the parameter to be identified and calculated. Therefore, it is necessary to increase the number of measurements as the number of installed targets increases. For example, in the invention described in Patent Document 1, when the position of the target to be measured increases by one, the error parameter of the target position increases by three. If the number of measurement positions and postures is increased by one, the number of formulas that can be used for identification calculation increases by three. Therefore, the measurement position and posture are increased by one each time the target position is increased by one in order to cope with the increase in error parameters. There is a need.

特開2008−012604号公報JP 2008-012604 A 特開2005−201824号公報JP 2005-201824 A

ロボットの作業範囲内において位置決め精度を均一に向上させることを目的として複数のターゲットに対して複数回の計測を行う際に、より簡素な態様で計測できる計測装置が求められている。   There is a need for a measurement device that can perform measurement in a simpler manner when performing multiple measurements on a plurality of targets for the purpose of uniformly improving positioning accuracy within the robot's work range.

本願の1番目の発明によれば、受光デバイスをアームの先端に備えた多関節のロボットと、前記ロボットの動作範囲内に設けられた工作機械と、を備えていて、前記受光デバイスを利用して前記工作機械に固定されたターゲットを計測する計測装置であって、前記ターゲットは、前記受光デバイスの受光面上に結像した該ターゲットの位置の情報、および前記受光デバイスと該ターゲットとの間の距離に関連する長さの情報を特定可能にする幾何学的特徴を有しており、前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記ターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定する計測位置姿勢決定部と、前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めする位置決め部と、前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの前記位置の情報および前記長さの情報に基づいて、前記受光デバイスと前記ターゲットとの間の距離の情報を検出するターゲット検出部と、前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動するロボット移動部と、前記ロボット移動部によって移動させられた後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶するロボット終点記憶部と、前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求める計算部と、を備えることを特徴とする計測装置が提供される。
本願の2番目の発明によれば、1番目の発明に係る計測装置において、前記計測位置姿勢決定部は、前記受光デバイスと前記ターゲットの所定点との間の距離が一定であり、かつ該所定点を通る前記受光デバイスの視線の傾きが異なるような前記複数の計測位置姿勢を決定するように構成される。
本願の3番目の発明によれば、1番目の発明に係る計測装置において、前記計測位置姿勢決定部は、前記ターゲットの所定点を通る前記受光デバイスの視線の姿勢が一定であり、かつ前記受光デバイスと前記ターゲットの該所定点との間の距離が異なるような前記複数の計測位置姿勢を決定するように構成される。
本願の4番目の発明によれば、1番目の発明に係る計測装置において、前記計測位置姿勢決定部は、前記複数の計測位置および姿勢を自動的に生成するように構成される。
本願の5番目の発明によれば、1番目から4番目のいずれかの発明に係る計測装置において、前記計算部は、ニュートンラプソン法、遺伝的アルゴリズムおよびニューラルネットワークを含む非線形問題の最適化法を利用することにより、前記ロボットの機構パラメータの誤差を求めるように構成される。
本願の6番目の発明によれば、1番目から5番目のいずれかの発明に係る計測装置において、前記受光デバイスは、2次元画像を撮像するように構成されるCCDカメラである。
本願の7番目の発明によれば、1番目の発明に係る計測装置において、前記ターゲットが円形状のマークを有しており、前記長さの情報は、前記受光デバイスの受光面に結像した前記マークに対応する楕円の長軸長を含む。
本願の8番目の発明によれば、1番目から5番目のいずれかの発明に係る計測装置において、前記受光デバイスは、受光量分布の重心を求めるように構成されるPSDである。
本願の9番目の発明によれば、8番目の発明に係る計測装置において、前記ターゲットは発光体である。
本願の10番目の発明によれば、1番目から9番目のいずれかの発明に係る計測装置において、前記計算部は、前記受光デバイスの注視点の位置と、前記ターゲットに形成されたマークの所定点の位置との誤差に基づいて、前記ロボットの機構パラメータの誤差を求めるように構成される。
本願の11番目の発明によれば、受光デバイスをアームの先端に備えた多関節のロボットと、前記ロボットの動作範囲内に設けられた工作機械と、を備える計測装置を用いて、前記ロボットの機構パラメータを校正するキャリブレーション方法であって、前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記工作機械に固定されたターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定し、前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めし、前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの位置の情報、および長さの情報に基づいて前記受光デバイスと前記ターゲットとの間の距離の情報を検出し、前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動し、前記差に基づいて移動した後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶し、前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求めることを含む、キャリブレーション方法が提供される。
本願の12番目の発明によれば、11番目の発明に係るキャリブレーション方法において、前記ロボットの機構パラメータの誤差を求める際に、前記受光デバイスの注視点の位置と、前記ターゲットに形成されたマークの所定点の位置との誤差に基づいて、前記ロボットの機構パラメータの誤差を求めることを含む。
According to a first invention of the present application, an articulated robot provided with a light receiving device at the tip of an arm, and a machine tool provided within an operation range of the robot, the light receiving device is used. Measuring a target fixed to the machine tool, wherein the target is information on a position of the target imaged on a light receiving surface of the light receiving device, and between the light receiving device and the target. A geometric feature that enables identification of length information related to a distance of the machine tool, and a plurality of stop positions of the machine tool, and when the machine tool is disposed at the plurality of stop positions. A measurement position and orientation determination unit for determining a plurality of measurement positions and orientations of the robot such that the target is included in the field of view of the light receiving device; and the machine tool is stopped in the plurality of stops. And sequentially positioning the robot at the plurality of measurement positions and postures respectively corresponding to the plurality of stop positions, and imaging the target on the light receiving surface of the light receiving device. Based on information on the position of the target and information on the length, a target detection unit that detects information on a distance between the light receiving device and the target, and the machine tool is disposed at the stop position and In a state where the robot is arranged at the measurement position and posture, the difference between the position of the target on the light receiving surface of the light receiving device and a predetermined portion of the image acquired by the light receiving device is within a predetermined error. And the difference between the distance information and a predetermined value is within a predetermined error. The robot moving unit that moves the robot, and the position and posture of the robot after being moved by the robot moving unit, the end point associated with the stop position and the measurement position and posture of the machine tool An error of a mechanism parameter of the robot based on the plurality of stop positions and the plurality of end positions and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures; There is provided a measuring device comprising: a calculation unit that simultaneously obtains a relative relationship between the coordinate system of the robot and the coordinate system of the machine tool.
According to a second invention of the present application, in the measurement apparatus according to the first invention, the measurement position / orientation determination unit has a constant distance between the light receiving device and a predetermined point of the target, and The plurality of measurement positions and orientations are determined such that the line-of-sight inclinations of the light receiving devices passing through a fixed point are different.
According to a third invention of the present application, in the measurement apparatus according to the first invention, the measurement position / orientation determination unit has an attitude of a line of sight of the light receiving device passing through a predetermined point of the target, and the light receiving The plurality of measurement positions and postures are determined such that distances between a device and the predetermined point of the target are different.
According to the fourth invention of the present application, in the measurement apparatus according to the first invention, the measurement position and orientation determination unit is configured to automatically generate the plurality of measurement positions and orientations.
According to a fifth invention of the present application, in the measuring apparatus according to any one of the first to fourth inventions, the calculation unit performs a nonlinear problem optimization method including a Newton-Raphson method, a genetic algorithm, and a neural network. By using this, it is configured to obtain an error of the mechanism parameter of the robot.
According to a sixth invention of the present application, in the measuring apparatus according to any one of the first to fifth inventions, the light receiving device is a CCD camera configured to capture a two-dimensional image.
According to a seventh invention of the present application, in the measuring apparatus according to the first invention, the target has a circular mark, and the length information is imaged on a light receiving surface of the light receiving device. The major axis length of the ellipse corresponding to the mark is included.
According to the eighth invention of the present application, in the measuring apparatus according to any one of the first to fifth inventions, the light receiving device is a PSD configured to obtain a center of gravity of the received light amount distribution.
According to the ninth aspect of the present application, in the measuring apparatus according to the eighth aspect, the target is a light emitter.
According to a tenth invention of the present application, in the measuring apparatus according to any one of the first to ninth inventions, the calculation unit includes a position of a gazing point of the light receiving device and a mark formed on the target. Based on an error from the position of the fixed point, an error in the mechanism parameter of the robot is obtained.
According to an eleventh invention of the present application, using a measuring device including an articulated robot having a light receiving device at the tip of an arm, and a machine tool provided in the operation range of the robot, A calibration method for calibrating mechanism parameters, wherein a plurality of stop positions of the machine tool and a target fixed to the machine tool when the machine tool is disposed at the plurality of stop positions are received by the light receiving device. Determining a plurality of measurement positions and postures of the robot to be included in the field of view of the device, sequentially positioning the machine tool at the plurality of stop positions, and corresponding to the plurality of stop positions, respectively; The robot is sequentially positioned at the measurement position and posture of the image, the target is imaged on the light receiving surface of the light receiving device, and the The distance between the light receiving device and the target is detected based on the position information of the target and the length information, the machine tool is placed at the stop position, and the robot is moved to the measurement position and orientation. The difference between the position of the target on the light receiving surface of the light receiving device and a predetermined portion of the image acquired by the light receiving device is within a predetermined error, and the distance information The robot is moved so that a difference from a predetermined value is within a predetermined error, and the position and posture of the robot after moving based on the difference are set as the stop position of the machine tool and the It is stored as an end point associated with the measurement position and posture, and is stored in the plurality of stop positions and the plurality of measurement positions and postures. Based on a plurality of corresponding end points and a plurality of stop positions, an error of a mechanism parameter of the robot and a relative relationship between the coordinate system of the robot and the coordinate system of the machine tool are simultaneously obtained. A calibration method is provided.
According to the twelfth invention of the present application, in the calibration method according to the eleventh invention, when the error of the mechanism parameter of the robot is obtained, the position of the gazing point of the light receiving device and the mark formed on the target Determining an error in the mechanism parameter of the robot based on an error from the position of the predetermined point.

これら並びに他の本発明の目的、特徴および利点は、添付図面に示される本発明の例示的な実施形態に係る詳細な説明を参照することによって、より明らかになるであろう。   These and other objects, features and advantages of the present invention will become more apparent by referring to the detailed description of exemplary embodiments of the present invention shown in the accompanying drawings.

本発明によれば、工作機械を移動させることによって複数の位置に配置されるターゲットに対して計測を行い、ロボットの機構パラメータを補正する。それにより、複数のターゲットを設置する場合に比べて少ない計測回数で、ロボットの動作範囲にわたって精度を均一に向上させられる。また、本発明によれば、機構パラメータの誤差と同時に、ロボット座標系と工作機械座標系との間の相対姿勢関係を表す回転行列の誤差を求められるようになる。   According to the present invention, measurement is performed on targets arranged at a plurality of positions by moving the machine tool, and the mechanism parameters of the robot are corrected. Thereby, the accuracy can be improved uniformly over the operating range of the robot with a smaller number of measurements than when a plurality of targets are installed. Further, according to the present invention, simultaneously with the error of the mechanism parameter, the error of the rotation matrix representing the relative posture relationship between the robot coordinate system and the machine tool coordinate system can be obtained.

一実施形態に係る計測装置の構成を概略的に示した図である。It is the figure which showed schematically the structure of the measuring device which concerns on one Embodiment. 一実施形態に係るロボット制御装置のブロック構成を示した図である。It is the figure which showed the block configuration of the robot control apparatus which concerns on one Embodiment. 一実施形態に係る画像処理装置のブロック構成を示した図である。It is the figure which showed the block configuration of the image processing apparatus which concerns on one Embodiment. 一実施形態に従って実行される工作機械の処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the process of the machine tool performed according to one Embodiment. 一実施形態に従って実行されるロボットの処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the process of the robot performed according to one Embodiment. 図5のフローチャートのステップR7における処理に関連する説明図である。It is explanatory drawing relevant to the process in step R7 of the flowchart of FIG. カメラおよびターゲットの相対位置関係を示す図である。It is a figure which shows the relative positional relationship of a camera and a target. 図7Aに対応するモニタ画面を示す図である。It is a figure which shows the monitor screen corresponding to FIG. 7A. カメラおよびターゲットの相対位置関係を示す図である。It is a figure which shows the relative positional relationship of a camera and a target. 図8Aに対応するモニタ画面を示す図である。It is a figure which shows the monitor screen corresponding to FIG. 8A. 図5のフローチャートのステップR8における処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the process in step R8 of the flowchart of FIG.

以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の構成要素は、本発明の理解を助けるために縮尺が適宜変更されている。同一または対応する構成要素には、同一の参照符号が使用される。   Embodiments of the present invention will be described below with reference to the accompanying drawings. The components of the illustrated embodiment are appropriately scaled to assist in understanding the present invention. The same reference numerals are used for identical or corresponding components.

図1は、一実施形態に係る計測装置10の構成を概略的に示す図である。計測装置10は、多関節ロボット1と、ロボット1の動作範囲内に設けられた工作機械8と、を備えている。図1に示されるように、ロボット1は、アーム1aおよびベース1bを含む任意の公知の構成を有するロボットである。ロボット1は、ロボット1を制御するロボット制御装置5に接続されている。アーム1aの先端、すなわちツール取付面32には、カメラ4が取り付けられている。   FIG. 1 is a diagram schematically illustrating a configuration of a measurement apparatus 10 according to an embodiment. The measuring device 10 includes an articulated robot 1 and a machine tool 8 provided within the operation range of the robot 1. As shown in FIG. 1, the robot 1 is a robot having any known configuration including an arm 1a and a base 1b. The robot 1 is connected to a robot control device 5 that controls the robot 1. The camera 4 is attached to the tip of the arm 1a, that is, the tool attachment surface 32.

ロボット1には、ロボット座標系Σbおよびメカニカルインタフェイス座標系Σfがそれぞれ設定される。ロボット座標系Σbは、ロボット1のベース1bに固定された、すなわち作業空間に固定された座標系である。メカニカルインタフェイス座標系Σfは、ツール取付面32に固定されていて、ロボット1の動作に従ってその位置および姿勢が変化する座標系である。ロボット制御装置5は、メカニカルインタフェイス座標系Σfの原点の位置および姿勢を常時取得するように構成される。   The robot 1 is set with a robot coordinate system Σb and a mechanical interface coordinate system Σf. The robot coordinate system Σb is a coordinate system fixed to the base 1b of the robot 1, that is, fixed to the work space. The mechanical interface coordinate system Σf is a coordinate system that is fixed to the tool mounting surface 32 and that changes its position and posture according to the operation of the robot 1. The robot controller 5 is configured to constantly acquire the position and orientation of the origin of the mechanical interface coordinate system Σf.

操作キーを備えた公知の教示操作盤18が、ロボット制御装置5に接続されている。作業者は、操作キーを手動で操作することにより、ロボット1を操作することができる。   A known teaching operation panel 18 having operation keys is connected to the robot control device 5. The operator can operate the robot 1 by manually operating the operation keys.

工作機械8には、工作機械座標系Σmが設定される。工作機械8は、公知の操作キーを備えており、作業者は、操作キーを操作することにより、工作機械8を操作することができるとともに、工作機械8に固定されているターゲット6の、工作機械座標系Σmにおける位置の変化量を取得することができる。   A machine tool coordinate system Σm is set for the machine tool 8. The machine tool 8 includes known operation keys, and an operator can operate the machine tool 8 by operating the operation keys, and the machine tool 8 of the target 6 fixed to the machine tool 8 can be operated. The amount of change in position in the machine coordinate system Σm can be acquired.

カメラ4は、例えばCCDカメラであり、撮像により2次元画像を受光面(CCDアレイ面上)で検出する機能を持つ公知の受光デバイスである。カメラ4は、LCDまたはCRT等からなるモニタ3を備えた画像処理装置2に接続されている。本実施形態において、カメラ4は、工作機械8に固定されているターゲット6のマーク7を撮像するために使用される。一実施形態において、ターゲット6は光源を備えた発光体であってもよい。その場合、受光量分布の重心を求めるように構成されたPSD(Position Sensitive Detector)が受光デバイスとして使用される。   The camera 4 is a CCD camera, for example, and is a known light receiving device having a function of detecting a two-dimensional image on the light receiving surface (on the CCD array surface) by imaging. The camera 4 is connected to an image processing apparatus 2 having a monitor 3 made of LCD or CRT. In the present embodiment, the camera 4 is used to image the mark 7 of the target 6 fixed to the machine tool 8. In one embodiment, the target 6 may be a light emitter that includes a light source. In this case, a PSD (Position Sensitive Detector) configured to obtain the center of gravity of the received light amount distribution is used as the light receiving device.

ロボット制御装置5は、図2に示されるような公知のブロック構成を有する。すなわち、ロボット制御装置5は、メインCPU(以下、単に「CPU」と称する。)11に接続されたバス17に対して、メモリ12、教示操作盤用インタフェイス13、外部装置用の入出力インタフェイス16、サーボ制御部15および通信インタフェイス14が並列に接続されている。メモリ12は、RAM、ROM、不揮発性メモリ等を含んでいる。   The robot controller 5 has a known block configuration as shown in FIG. That is, the robot control device 5 has a memory 12, a teaching operation panel interface 13, and an input / output interface for an external device connected to a bus 17 connected to a main CPU (hereinafter simply referred to as "CPU") 11. The face 16, the servo control unit 15, and the communication interface 14 are connected in parallel. The memory 12 includes a RAM, a ROM, a nonvolatile memory, and the like.

教示操作盤用インタフェイス13に接続される教示操作盤18は、ディスプレイを備えた公知の構成を有している。作業者は、教示操作盤18を手動で操作することにより、ロボットの動作プログラムの作成、修正および登録、または各種パラメータの設定、或いは教示された動作プログラムの再生運転、ジョグ送り等を実行できる。   The teaching operation panel 18 connected to the teaching operation panel interface 13 has a known configuration including a display. By manually operating the teaching operation panel 18, the operator can execute creation, correction and registration of the robot operation program, setting of various parameters, reproduction operation of the taught operation program, jog feed, and the like.

ロボット1およびロボット制御装置5の基本機能を制御するシステムプログラムは、メモリ12のROMに格納される。また、アプリケーションに応じて教示されるロボットの動作プログラムおよび関連する設定データは、メモリ12の不揮発性メモリに格納される。また、後述する種々の処理(機構パラメータを求める際のロボットの移動およびそのための画像処理装置との通信等を行うための処理)のためのプログラム、パラメータ等のデータもメモリ12の不揮発性メモリに格納される。   A system program for controlling basic functions of the robot 1 and the robot controller 5 is stored in the ROM of the memory 12. The robot operation program taught in accordance with the application and the related setting data are stored in the nonvolatile memory of the memory 12. In addition, the nonvolatile memory of the memory 12 also stores programs, parameters, and other data for various processes described later (processing for moving the robot when obtaining the mechanism parameters and communicating with the image processing apparatus for that purpose). Stored.

メモリ12のRAMは、CPU11によって実行される種々の処理に関連するデータを一時的に記憶するために使用される。サーボ制御部15は、サーボ制御器#1〜#n(nはロボットの軸総数であり、例えば、n=6である)を備えている。サーボ制御部15は、移動指令と、各軸に設けられたパルスコーダ(図示せず)から受信するフィードバック信号と、に基づいて、サーボアンプA1〜Anに対してトルク指令を出力する。移動指令は、ロボット1を制御するための演算処理(軌道計画作成およびそれに基づく補間、逆変換等)に従って公知の方法で作成される。   The RAM of the memory 12 is used for temporarily storing data related to various processes executed by the CPU 11. The servo control unit 15 includes servo controllers # 1 to #n (n is the total number of axes of the robot, for example, n = 6). The servo control unit 15 outputs a torque command to the servo amplifiers A1 to An based on the movement command and a feedback signal received from a pulse coder (not shown) provided on each axis. The movement command is created by a known method in accordance with arithmetic processing for controlling the robot 1 (trajectory plan creation and interpolation and inverse transformation based thereon).

各々のサーボアンプA1〜Anは、対応するトルク指令に基づいて各軸のサーボモータに電流を供給してそれらを駆動する。通信インタフェイス14は、画像処理装置2(図1参照)に接続されている。通信インタフェイス14を介して、画像処理装置2とロボット制御装置5との間で後述する計測に関連する指令および計測結果データ等の送受信が行なわれる。   Each of the servo amplifiers A1 to An supplies current to the servo motors of the respective axes based on the corresponding torque commands and drives them. The communication interface 14 is connected to the image processing apparatus 2 (see FIG. 1). Via the communication interface 14, commands related to measurement and measurement result data, which will be described later, are transmitted and received between the image processing apparatus 2 and the robot control apparatus 5.

画像処理装置2は、図3に示されるような公知のブロック構成を有する。画像処理装置2は、マイクロプロセッサから構成されるCPU20を有している。CPU20には、バスライン30を介して、ROM21、画像処理プロセッサ22、カメラインタフェイス23、モニタインタフェイス24、入力機器(I/O)25、フレームメモリ(画像メモリ)26、不揮発性メモリ27、RAM28および通信インタフェイス29がそれぞれ接続されている。   The image processing apparatus 2 has a known block configuration as shown in FIG. The image processing apparatus 2 has a CPU 20 composed of a microprocessor. The CPU 20 has a ROM 21, an image processor 22, a camera interface 23, a monitor interface 24, an input device (I / O) 25, a frame memory (image memory) 26, a nonvolatile memory 27, via a bus line 30. A RAM 28 and a communication interface 29 are connected to each other.

カメラインタフェイス23には、撮像手段であるカメラ4(例えば、CCDカメラ)が接続されている。カメラ4は、電子シャッタ機能を有しており、カメラインタフェイス23を介して受信する撮影指令に応答して、撮影を実行するように構成される。カメラ4によって撮影された映像データは、カメラインタフェイス23を介して、グレイスケール信号の形式でフレームメモリ26に格納される。   The camera interface 23 is connected to a camera 4 (for example, a CCD camera) that is an imaging unit. The camera 4 has an electronic shutter function, and is configured to execute shooting in response to a shooting command received via the camera interface 23. Video data photographed by the camera 4 is stored in the frame memory 26 in the form of a gray scale signal via the camera interface 23.

モニタインタフェイス24は、モニタ3(図1参照)に接続されている。モニタ3は、カメラ4による撮影中の画像、フレームメモリ26に格納された過去の画像、および画像処理プロセッサ22によって処理された画像等を必要に応じて表示する。   The monitor interface 24 is connected to the monitor 3 (see FIG. 1). The monitor 3 displays an image being captured by the camera 4, a past image stored in the frame memory 26, an image processed by the image processor 22, and the like as necessary.

図1に示されるように、ロボット1のツール取付面32に取付けられたカメラ4は、工作機械8に固定されているターゲット6のマーク7を撮像する。フレームメモリ26に格納されたマーク7の映像信号は、画像処理プロセッサ22を利用して解析され、その2次元位置および大きさ等が求められる(詳細は後述)。マーク7は、カメラ4の受光面に結像するターゲット6の位置の情報およびカメラ4とターゲット6との間の距離に関連する長さの情報を特定可能にする、ターゲット6の幾何学的特徴である。   As shown in FIG. 1, the camera 4 attached to the tool attachment surface 32 of the robot 1 images the mark 7 of the target 6 fixed to the machine tool 8. The video signal of the mark 7 stored in the frame memory 26 is analyzed using the image processor 22 and its two-dimensional position, size, etc. are obtained (details will be described later). The mark 7 makes it possible to specify the position information of the target 6 that forms an image on the light receiving surface of the camera 4 and the length information related to the distance between the camera 4 and the target 6. It is.

画像処理に必要な解析プログラムおよびパラメータ等は、不揮発性メモリ27に格納されている。また、RAM28は、CPU20によって実行される種々の処理に関連するデータを一時的に記憶するために使用される。通信インタフェイス29は、ロボット制御装置5の通信インタフェイス14を介してロボット制御装置5に接続される。   An analysis program and parameters necessary for image processing are stored in the nonvolatile memory 27. The RAM 28 is used for temporarily storing data related to various processes executed by the CPU 20. The communication interface 29 is connected to the robot control device 5 via the communication interface 14 of the robot control device 5.

図1を再度参照すれば、カメラ4の視線40が、カメラ4の代表点(例えば、カメラレンズの中心)からターゲット6に向かって延びる直線として描かれている。図1に示す座標系Σvは、視線40を代表する座標系である。座標系Σvは、原点が視線40上に位置するとともに、1つの座標軸(例えば、Z軸)が視線40に一致するように設定される。   Referring again to FIG. 1, the line of sight 40 of the camera 4 is drawn as a straight line extending from the representative point of the camera 4 (for example, the center of the camera lens) toward the target 6. A coordinate system Σv shown in FIG. 1 is a coordinate system representing the line of sight 40. The coordinate system Σv is set so that the origin is located on the line of sight 40 and one coordinate axis (for example, the Z axis) coincides with the line of sight 40.

なお、メカニカルインタフェイス座標系Σfは、前述したようにツール取付面32の位置および姿勢を代表する座標系であるものの、本明細書においては、ロボット1の位置および姿勢を代表する座標系でもある。すなわち、特に言及されない限り、「ロボットの位置」とは、ロボット座標系Σbにおける、メカニカルインタフェイス座標系Σfの原点の位置を意味する。「ロボットの位置」にロボットの姿勢が含まれる場合、「ロボットの位置」は、ロボット座標系Σbにおける、メカニカルインタフェイス座標系Σfの原点の位置および姿勢を意味する。   Note that the mechanical interface coordinate system Σf is a coordinate system that represents the position and orientation of the tool mounting surface 32 as described above, but is also a coordinate system that represents the position and orientation of the robot 1 in this specification. . That is, unless otherwise specified, the “robot position” means the position of the origin of the mechanical interface coordinate system Σf in the robot coordinate system Σb. When the “robot position” includes the posture of the robot, the “robot position” means the position and posture of the origin of the mechanical interface coordinate system Σf in the robot coordinate system Σb.

本実施形態に係る計測装置10は、ロボット1の機構パラメータを校正するためにターゲット6のマーク7を検出する。図1に示されるように、ロボット制御装置5は、計測位置姿勢決定部51と、位置決め部52と、ターゲット検出部53と、ロボット移動部54と、ロボット終点記憶部55と、計算部56と、を備えている。   The measuring apparatus 10 according to the present embodiment detects the mark 7 of the target 6 in order to calibrate the mechanism parameter of the robot 1. As shown in FIG. 1, the robot control device 5 includes a measurement position and orientation determination unit 51, a positioning unit 52, a target detection unit 53, a robot moving unit 54, a robot end point storage unit 55, and a calculation unit 56. It is equipped with.

計測位置姿勢決定部51は、工作機械8の複数の停止位置と、工作機械8が複数の停止位置に配置されているときに、ターゲット6がカメラ4の視野内に含まれるようなロボット1の複数の計測位置および姿勢と、を決定する。   The measurement position / orientation determination unit 51 includes a plurality of stop positions of the machine tool 8 and the robot 1 in which the target 6 is included in the field of view of the camera 4 when the machine tool 8 is disposed at the plurality of stop positions. A plurality of measurement positions and postures are determined.

計測位置姿勢決定部51は、カメラ4とターゲット6の所定点との間の距離が一定であり、かつ該所定点を通るカメラ4の視線の傾きが異なるような複数の計測位置姿勢を決定するように構成されてもよい。   The measurement position and orientation determination unit 51 determines a plurality of measurement positions and orientations such that the distance between the camera 4 and the predetermined point of the target 6 is constant and the inclination of the line of sight of the camera 4 passing through the predetermined point is different. It may be configured as follows.

計測位置姿勢決定部51は、ターゲット6の所定点を通るカメラ4の視線の姿勢が一定であり、かつカメラ4とターゲット6の該所定点との間の距離が異なるような複数の計測位置姿勢を決定するように構成されてもよい。   The measurement position / posture determination unit 51 has a plurality of measurement position / postures in which the posture of the line of sight of the camera 4 passing through a predetermined point of the target 6 is constant and the distance between the camera 4 and the predetermined point of the target 6 is different. May be configured to determine.

計測位置姿勢決定部51は、複数の計測位置および姿勢を自動的に生成するように構成されてもよい。   The measurement position and orientation determination unit 51 may be configured to automatically generate a plurality of measurement positions and orientations.

位置決め部52は、工作機械8を複数の停止位置に順次位置決めするとともに、複数の停止位置にそれぞれ対応する複数の計測位置および姿勢にロボット1を順次位置決めする。   The positioning unit 52 sequentially positions the machine tool 8 at a plurality of stop positions, and sequentially positions the robot 1 at a plurality of measurement positions and postures respectively corresponding to the plurality of stop positions.

ターゲット検出部53は、ターゲット6をカメラ4の受光面上に結像するとともに、ターゲット6の位置の情報および長さの情報に基づいて、カメラ4とターゲット6との間の距離の情報を検出する。   The target detection unit 53 forms an image of the target 6 on the light receiving surface of the camera 4 and detects information on the distance between the camera 4 and the target 6 based on the position information and length information of the target 6. To do.

ロボット移動部54は、工作機械8を停止位置に配置するとともにロボット1を計測位置および姿勢に配置した状態において、カメラ4の受光面上におけるターゲット6の位置と、カメラ4によって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、ロボット1を移動する。   The robot moving unit 54 positions the target 6 on the light receiving surface of the camera 4 and the image acquired by the camera 4 in a state where the machine tool 8 is disposed at the stop position and the robot 1 is disposed at the measurement position and posture. The robot 1 is moved so that the difference from the predetermined location is within a predetermined error, and the difference between the distance information and the predetermined value is within a predetermined error.

ロボット終点記憶部55は、ロボット移動部54によって移動させられた後のロボット1の位置および姿勢を、工作機械8の停止位置および計測位置および姿勢に関連付けられた終点として記憶する。   The robot end point storage unit 55 stores the position and posture of the robot 1 after being moved by the robot moving unit 54 as an end point associated with the stop position, measurement position, and posture of the machine tool 8.

計算部56は、複数の停止位置および複数の計測位置および姿勢にそれぞれ対応する複数の終点と複数の停止位置とに基づいて、ロボット1の機構パラメータの誤差、およびロボット座標系Σbと工作機械座標系Σmとの間の相対関係を同時に求める。   Based on the plurality of end points and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures, the calculation unit 56 determines the error of the mechanism parameter of the robot 1, the robot coordinate system Σb, and the machine tool coordinates. The relative relationship with the system Σm is simultaneously obtained.

計算部56は、ニュートンラプソン法、遺伝的アルゴリズムおよびニューラルネットワークを含む非線形問題の最適化法を利用することにより、ロボット1の機構パラメータの誤差を求めるように構成されてもよい。   The calculation unit 56 may be configured to obtain an error of the mechanism parameter of the robot 1 by using a nonlinear problem optimization method including a Newton-Raphson method, a genetic algorithm, and a neural network.

図4および図5のフローチャートを参照して、本実施形態に係る計測装置において実行される機構パラメータのキャリブレーション方法について説明する。図4は、工作機械8の処理の概略を示すフローチャートであり、図5は、ロボット1の処理の概略を示すフローチャートである。   A mechanism parameter calibration method executed in the measurement apparatus according to the present embodiment will be described with reference to the flowcharts of FIGS. 4 and 5. FIG. 4 is a flowchart showing an outline of processing of the machine tool 8, and FIG. 5 is a flowchart showing an outline of processing of the robot 1.

ステップM1では、ターゲット6を工作機械8に固定する。ステップR1では、ロボット1のツール取付面32にカメラ4を取付ける。ターゲット6およびカメラ4は、正確な位置に設置されなくてもよいものの、計測途中で位置が変化しないように固定される。   In step M1, the target 6 is fixed to the machine tool 8. In step R1, the camera 4 is attached to the tool mounting surface 32 of the robot 1. The target 6 and the camera 4 do not need to be installed at accurate positions, but are fixed so that the positions do not change during measurement.

ステップM2では、画像上のターゲット6の移動方向および移動距離と、工作機械8の移動方向および移動距離との間の関係を求める。ステップR2では、画像上のターゲット6の移動方向および移動距離と、ロボット1の移動方向および移動距離との間の関係を求める。これらの関係は、ロボット1または工作機械8をどのように動かせば、画像上のターゲット6を意図する方向に意図する距離だけ移動させられるかを求めるために使用される。例えば、ロボット1または工作機械8を複数回並進移動させ、その都度、カメラ4の受光面上に結像したターゲット6の図形の特徴値を検出することによって、ロボット1または工作機械8の各軸の移動方向および移動距離と、ターゲット6の特徴値の変化との間の関係が求められる。   In step M2, a relationship between the moving direction and moving distance of the target 6 on the image and the moving direction and moving distance of the machine tool 8 is obtained. In step R2, a relationship between the moving direction and moving distance of the target 6 on the image and the moving direction and moving distance of the robot 1 is obtained. These relationships are used to determine how the robot 1 or machine tool 8 can be moved to move the target 6 on the image in the intended direction by the intended distance. For example, each axis of the robot 1 or the machine tool 8 is detected by translating the robot 1 or the machine tool 8 a plurality of times and detecting the feature values of the figure of the target 6 imaged on the light receiving surface of the camera 4 each time. The relationship between the movement direction and the movement distance and the change in the characteristic value of the target 6 is obtained.

本実施形態では、工作機械8のm個の停止位置に対して、ロボット1のni個(i=1,2,・・・,m)の計測位置および姿勢で計測をそれぞれ実行する。工作機械8の停止位置の番号を指標「i」で表す。工作機械座標系Σmにおけるi番目の工作機械の停止位置をMiで表す。 In the present embodiment, the measurement is performed at n i (i = 1, 2,..., M) measurement positions and postures of the robot 1 with respect to m stop positions of the machine tool 8. The number of the stop position of the machine tool 8 is represented by an index “i”. The stop position of the i-th machine tool in the machine tool coordinate system Σm represented by M p i.

ステップM3では、指標iに「1」を入力する。ステップM4では、作業者が工作機械8を初期停止位置M1に移動させる。工作機械8は、M1を記録し、移動完了信号をロボット制御装置5に送信する。 In Step M3, “1” is input to the index i. In step M4, the operator moves the machine tool 8 to the initial stop position M p 1 . The machine tool 8 records M p 1 and transmits a movement completion signal to the robot controller 5.

ロボット制御装置5が移動完了信号を受信したら(ステップR3)、ステップR4に進み、指標iが「1」であるか否かを判定する。指標iが「1」である場合、ステップR5に進み、工作機械8が停止位置M1に配置されているときにおいて、ターゲット6のマーク7がカメラ4の視野内に入るように(例えば、画像処理装置2のモニタ3にマーク7が映るように)、作業者がロボット1を移動させる。 When the robot control device 5 receives the movement completion signal (step R3), the process proceeds to step R4 to determine whether or not the index i is “1”. When the index i is “1”, the process proceeds to step R5 so that the mark 7 of the target 6 falls within the field of view of the camera 4 when the machine tool 8 is located at the stop position M p 1 (for example, The operator moves the robot 1 so that the mark 7 appears on the monitor 3 of the image processing apparatus 2.

ステップR6では、工作機械が停止位置M1に配置されているときの、ロボット座標系Σbにおけるマーク7の所定点の位置(ターゲット6の初期位置)Btと、メカニカルインタフェイス座標系Σfにおけるカメラ4の注視点31の位置FSと、を自動的に計測する。 In step R6, when the machine tool is arranged at the stop position M p 1, and B p t (the initial position of the target 6) a position of a predetermined point of the mark 7 in the robot coordinate system .SIGMA.b, mechanical interface coordinate system Σf The position F p S of the gazing point 31 of the camera 4 is automatically measured.

ステップR6での計測を実行するために、例えば、特許文献2に記載された公知技術を利用できる。この公知技術によれば、カメラ4の注視点31をロボット座標系Σbにおけるマーク7の所定点に合わせた状態で複数の方向から(複数のロボット姿勢で)計測を行い、注視点31の位置FpSおよびマーク7の所定点の位置Btを算出する。注視点31を、ロボットの手先に装着されたツール先端点(TCP(Tool Center Point)に置換して考えれば、この方法は、ロボット座標系の所定点に複数方向から機械的にタッチアップして、TCPおよびマーク7の所定点の位置を算出する従来の方法に類似している。 In order to execute the measurement in step R6, for example, a known technique described in Patent Document 2 can be used. According to this known technique, measurement is performed from a plurality of directions (with a plurality of robot postures) with the gazing point 31 of the camera 4 aligned with a predetermined point of the mark 7 in the robot coordinate system Σb, and the position F of the gazing point 31 is determined. and calculates the position B p t of a predetermined point of p S and the mark 7. If the gaze point 31 is replaced with a tool tip point (TCP (Tool Center Point)) attached to the hand of the robot, this method can mechanically touch up a predetermined point in the robot coordinate system from multiple directions. , Similar to the conventional method of calculating the position of a predetermined point of TCP and mark 7.

なお、この段階では、カメラ4およびターゲット6の位置を高精度に計算する必要はない。すなわち、注視点31をターゲット6の所定点に一致させた状態で注視点31周りにロボット1の姿勢を変化させたときに、ターゲット6がカメラ4の視野から外れない程度であれば十分である。   At this stage, it is not necessary to calculate the positions of the camera 4 and the target 6 with high accuracy. In other words, it is sufficient if the target 6 does not deviate from the field of view of the camera 4 when the posture of the robot 1 is changed around the gazing point 31 with the gazing point 31 coincident with a predetermined point of the target 6. .

ステップR7では、工作機械8が停止位置Miに配置されているときのターゲット6の位置に対する、ni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を決定するとともに、ロボット制御装置5が、計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を記録する。 In step R7, n i measurement positions and postures B P ′ i, j (j = 1, 2,...) With respect to the position of the target 6 when the machine tool 8 is disposed at the stop position M p i. , N i ), and the robot controller 5 records the measurement position and orientation B P ′ i, j (j = 1, 2,..., N i ).

本実施例では、計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を後述するように自動的に算出する。まず、指標iが「1」であるとき、工作機械が停止位置M1に配置されているときのターゲット6の位置に対するロボット1のn個の位置および姿勢を、ステップR6において算出されたロボット座標系Σbにおけるターゲット6の初期位置Btと、メカニカルインタフェイス座標系Σfにおけるカメラ4の注視点31の位置FpSと、に基づいて、自動的に算出して記録する。 In this embodiment, the measurement position and orientation B P ′ i, j (j = 1, 2,..., N i ) are automatically calculated as described later. First, when the index i is “1”, the n positions and postures of the robot 1 relative to the position of the target 6 when the machine tool is placed at the stop position M p 1 are calculated in step R6. and the initial position B p t of the target 6 in the coordinate system .SIGMA.b, a position F p S of the focus point 31 of the camera 4 in the mechanical interface coordinate system .SIGMA.f, based on, automatically calculated and recorded.

n個の位置および姿勢は、第1の例として、カメラ4とマーク7の所定点との間の距離が一定であり、かつその所定点を通るカメラ4の視線40の傾きが異なる複数の位置および姿勢を含んでいてもよい。或いは、n個の位置および姿勢は、第2の例として、マーク7の所定点を通るカメラ4の視線40の姿勢が一定であり、かつカメラ4とその所定点との間の距離が異なる複数の位置および姿勢を含んでいてもよい。   As a first example, the n positions and postures are a plurality of positions where the distance between the camera 4 and the predetermined point of the mark 7 is constant and the inclination of the line of sight 40 of the camera 4 passing through the predetermined point is different. And may include posture. Alternatively, as a second example, the n positions and postures are plural in which the posture of the line of sight 40 of the camera 4 passing through the predetermined point of the mark 7 is constant and the distance between the camera 4 and the predetermined point is different. May include the position and posture.

図6は、第1の例に従って、カメラ4とマーク7の所定点との間の距離が一定であり、かつ所定点を通るカメラ4の視線40の傾きが異なる3つの位置および姿勢を示している。   FIG. 6 shows three positions and postures in which the distance between the camera 4 and the predetermined point of the mark 7 is constant and the inclination of the line of sight 40 of the camera 4 passing through the predetermined point is different according to the first example. Yes.

なお、n個の位置および姿勢を自動的に算出するために、先ずステップR6でカメラ4の注視点31とターゲット6とを位置合わせして得られたロボット1の位置および姿勢を基本位置姿勢とし、次にカメラ4の注視点31の位置を一定とした上でカメラ4の姿勢角に所定値を加算してもよい。それにより、ロボット1の動作範囲内に含まれる複数の位置および姿勢が自動的に生成される。   In order to automatically calculate n positions and postures, the position and posture of the robot 1 obtained by aligning the gazing point 31 of the camera 4 with the target 6 in step R6 is set as a basic position and posture. Then, a predetermined value may be added to the attitude angle of the camera 4 while keeping the position of the gazing point 31 of the camera 4 constant. Thereby, a plurality of positions and postures included in the operation range of the robot 1 are automatically generated.

或いは、カメラ4の注視点31の位置を一定とした上でロボット1の動作範囲に対応するカメラ4の姿勢角の範囲を算出するとともに、その姿勢角の範囲に含まれる任意の複数の角度(例えば、姿勢角範囲を等分して得られる角度)に対して、複数の位置および姿勢を生成する方法を採用してもよい。   Alternatively, the range of the posture angle of the camera 4 corresponding to the movement range of the robot 1 is calculated with the position of the gazing point 31 of the camera 4 being fixed, and any of a plurality of angles ( For example, a method of generating a plurality of positions and postures with respect to an angle obtained by equally dividing the posture angle range may be employed.

このようにして工作機械8が停止位置M1に配置されているときのターゲット6の位置に対するロボットのn個の位置および姿勢を自動算出して記録した後、指標iが「1」であるときは、n個の位置および姿勢の中からn1個の位置および姿勢を選択し、工作機械8が停止位置M1に配置されているときのターゲット6の位置に対するロボット1のn1個の計測位置および姿勢BP’1,j(j=1,2,・・・,n1)として決定し、記録する。 In this way, after automatically calculating and recording the n positions and postures of the robot with respect to the position of the target 6 when the machine tool 8 is placed at the stop position M p 1 , the index i is “1”. When n 1 positions and postures are selected from the n positions and postures, n 1 of the robot 1 with respect to the position of the target 6 when the machine tool 8 is located at the stop position M p 1 is selected. Measurement position and orientation B P ′ 1, j (j = 1, 2,..., N 1 ) and recorded.

ステップR8では、工作機械8が停止位置Miに配置されているときのターゲット6の位置について、ロボット1のni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を起点として順番に「自動タッチアップ処理」を実行する。「自動タッチアップ処理」終了時点のロボット1の位置および姿勢Bi,j(j=1,2,・・・,ni)を終点として記録し、ロボット制御装置5が「自動タッチアップ処理」終了信号を工作機械8に送信する。「自動タッチアップ処理」では、カメラ4の受光面上に結像したマーク7の形状の幾何学的特徴を示す値またはパラメータが所定の条件を満足するように、ロボット1を移動させる。 In step R8, n i measurement positions and postures B P ′ i, j (j = 1, 2, j ) of the robot 1 with respect to the position of the target 6 when the machine tool 8 is disposed at the stop position M p i . .., N i ) as starting points, the “automatic touch-up process” is executed in order. The position and orientation B P i, j (j = 1, 2,..., N i ) of the robot 1 at the end of the “automatic touch-up process” are recorded as end points, and the robot controller 5 performs “automatic touch-up process”. "End signal is transmitted to the machine tool 8." In the “automatic touch-up process”, the robot 1 is moved so that the value or parameter indicating the geometric feature of the shape of the mark 7 formed on the light receiving surface of the camera 4 satisfies a predetermined condition.

「自動タッチアップ処理」の詳細を図7A、図7B、図8A、図8Bおよび図9を参照して説明する。例えば、マーク7は、中心の位置を示す十字線が描かれた円形状を有しており、カメラ4の受光面上に結像されたターゲット6の幾何学的特徴値は、楕円の中心位置および長軸長とする(図7B参照)。通常、カメラ4の受光面は、ターゲット6のマーク7の平面に対して傾斜しているので、円形のマーク7は、画像上において楕円として現れることになる。マーク7は、円形以外の他の形状または文字或いは記号であってもよい。   Details of the “automatic touch-up process” will be described with reference to FIGS. 7A, 7B, 8A, 8B, and 9. FIG. For example, the mark 7 has a circular shape in which a cross line indicating the center position is drawn, and the geometric feature value of the target 6 imaged on the light receiving surface of the camera 4 is the center position of the ellipse. And the long axis length (see FIG. 7B). Usually, since the light receiving surface of the camera 4 is inclined with respect to the plane of the mark 7 of the target 6, the circular mark 7 appears as an ellipse on the image. The mark 7 may be a shape other than a circle, or a character or a symbol.

カメラ4とターゲット6との位置がずれている場合(図7A参照)、図7Bに示されるように、受光面に結像された楕円形のマーク画像7aが、受光面の所定点(例えば、受光面の中心M)からずれており、また、マーク画像7aの長軸長がマーク7の直径よりも短くなっている。   When the positions of the camera 4 and the target 6 are shifted (see FIG. 7A), as shown in FIG. 7B, an elliptical mark image 7a formed on the light receiving surface is a predetermined point (for example, It is deviated from the center M) of the light receiving surface, and the major axis length of the mark image 7a is shorter than the diameter of the mark 7.

そこで、図8Aおよび図8Bに示されるように、ロボット1を移動させることによって、マーク画像7aの中心が受光面の中心Mに一致するように、かつマーク画像7aの長軸長がマーク7の直径に一致するように、カメラ4とターゲット6との間の相対位置関係を変化させる。   Therefore, as shown in FIGS. 8A and 8B, by moving the robot 1, the center of the mark image 7a coincides with the center M of the light receiving surface, and the major axis length of the mark image 7a is the mark 7 The relative positional relationship between the camera 4 and the target 6 is changed so as to match the diameter.

より具体的には、受光面上においてマーク画像7aの中心と受光面の中心Mとの差、並びにマーク画像7aの長軸長とマーク7の直径との差が、予め定められる誤差以内になるよう自動的にロボット1を移動させる。受光面上では画像処理によってマーク画像7aの特徴値を検出できるので、検出結果に従って、上記処理を実行できる。   More specifically, the difference between the center of the mark image 7a and the center M of the light receiving surface on the light receiving surface, and the difference between the major axis length of the mark image 7a and the diameter of the mark 7 are within a predetermined error. The robot 1 is automatically moved. Since the feature value of the mark image 7a can be detected by image processing on the light receiving surface, the above processing can be executed according to the detection result.

図9を参照して、カメラ4によって撮像されたマーク画像7aを画像上の中心Mに移動させるとともに、画像の大きさを適合させる「自動タッチアップ処理」について説明する。   With reference to FIG. 9, an “automatic touch-up process” for moving the mark image 7a captured by the camera 4 to the center M on the image and adapting the size of the image will be described.

ステップS1では、カメラ4によってマーク7を撮像する。これにより、例えば図7Bに示されるマーク画像7aが得られる。   In step S <b> 1, the mark 7 is imaged by the camera 4. Thereby, for example, a mark image 7a shown in FIG. 7B is obtained.

ステップS2では、画像上におけるマーク7の図形の位置および大きさ(例えば、画面上におけるマーク画像7aの中心位置およびマーク画像7aの長軸長)を画像処理装置2によって検出する。   In step S2, the image processing device 2 detects the position and size of the figure of the mark 7 on the image (for example, the center position of the mark image 7a on the screen and the long axis length of the mark image 7a).

ステップS3では、ステップS2で求められたターゲット6の図形の位置および大きさが、画像上における所定点(例えば、受光面の中心点M)および所定長(例えば、マーク7の直径)にそれぞれ一致しているか否かを判定する。具体的には、中心点Mとマーク画像7aの中心との間の距離、およびマーク画像7aの長軸長とマーク7の直径との差が、いずれも、画像上において許容可能な予め定められる誤差、すなわち閾距離δimage以下である場合、ターゲット6の位置および大きさが所定点および所定長に「一致」していると判定し、処理を終了する。 In step S3, the position and size of the figure of the target 6 obtained in step S2 are respectively equal to a predetermined point (for example, the center point M of the light receiving surface) and a predetermined length (for example, the diameter of the mark 7) on the image. Determine whether you are doing it. Specifically, the distance between the center point M and the center of the mark image 7a and the difference between the major axis length of the mark image 7a and the diameter of the mark 7 are all determined in advance that is acceptable on the image. If the error is equal to or smaller than the threshold distance δ image, it is determined that the position and size of the target 6 “match” the predetermined point and the predetermined length, and the process is terminated.

前述した距離の差および長軸長と直径との差の少なくともいずれか一方が閾距離δimageよりも大きい場合、ターゲット6の位置および大きさが所定点および所定長に対して「不一致」であると判定し、ステップS4へ進む。なお、画像上における距離は、例えば、当該距離に対応する正方形の「画素」の数に置換して計測することができる。 When at least one of the distance difference and the difference between the major axis length and the diameter is larger than the threshold distance δ image , the position and size of the target 6 are “mismatched” with respect to the predetermined point and the predetermined length. And the process proceeds to step S4. The distance on the image can be measured, for example, by replacing it with the number of square “pixels” corresponding to the distance.

ステップS4では、マーク画像7aを画像上の中心Mに移動させるとともに、マーク画像7aの長軸長が所定値に一致するようにロボット並進指令を作成する。ここで、ロボット並進指令とは、ロボット1の姿勢、すなわちメカニカルインタフェイス座標系Σfの姿勢を、空間に固定されたロボット座標系Σbにおいて変更することなく、ロボット1を移動させる移動指令を意味する。   In step S4, the mark image 7a is moved to the center M on the image, and a robot translation command is created so that the long axis length of the mark image 7a matches a predetermined value. Here, the robot translation command means a movement command for moving the robot 1 without changing the posture of the robot 1, that is, the posture of the mechanical interface coordinate system Σf, in the robot coordinate system Σb fixed in space. .

ステップS5では、前述したロボット並進指令に従って、ロボット1を移動させる。ロボット1の移動が完了したらステップS1へ戻る。そして、ステップS3において「一致」の判定が出されるまで、ステップS1〜S5の処理を繰り返す。   In step S5, the robot 1 is moved in accordance with the robot translation command described above. When the movement of the robot 1 is completed, the process returns to step S1. Then, the processes in steps S1 to S5 are repeated until “match” is determined in step S3.

前述した「自動タッチアップ処理」を終了した時点のロボット位置(終点)は、画像上におけるマーク7の中心位置と所定点との間の距離、およびマーク画像7aの長軸長と所定の大きさとの差がいずれも閾距離δimage以下になっている。 The robot position (end point) at the time when the above-mentioned “automatic touch-up process” is completed is the distance between the center position of the mark 7 on the image and the predetermined point, the long axis length of the mark image 7a and the predetermined size. The difference between them is less than the threshold distance δ image .

再び図4を参照し、工作機械8が、ステップM5において「自動タッチアップ処理」終了信号を受信した場合、ステップM6に進む。ステップM6では、指標iが「m」に等しいか否かを判定する。指標iが「m」よりも小さい場合、ステップM7において、指標iが「1」だけインクリメントされるとともに、ステップM4に戻る。そして、ステップM4において、作業者が工作機械8を次の停止位置Miに移動させ、工作機械8は停止位置Miを記録するとともに、移動完了信号をロボット制御装置5に送信する。 Referring to FIG. 4 again, when the machine tool 8 receives the “automatic touch-up process” end signal in step M5, the process proceeds to step M6. In step M6, it is determined whether or not the index i is equal to “m”. If the index i is smaller than “m”, the index i is incremented by “1” in step M7, and the process returns to step M4. In step M 4, the operator moves the machine tool 8 to the next stop position M p i , and the machine tool 8 records the stop position M p i and transmits a movement completion signal to the robot controller 5.

図5を参照し、ステップR3において、ロボット制御装置5が移動完了信号を受信した場合、ステップR4に進む。ステップR4では、指標iが「1」に等しいか否かを判定する。指標iが「1」より大きい場合、ステップR7に進み、工作機械8が停止位置Miに配置されているときのターゲット位置に対するni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を決定する。本実施形態においては、指標iが「1」であるときにステップR7で記録されたn個の位置および姿勢を利用して、計測位置および姿勢を自動的に算出する。 Referring to FIG. 5, when the robot controller 5 receives the movement completion signal in step R3, the process proceeds to step R4. In Step R4, it is determined whether or not the index i is equal to “1”. When the index i is larger than “1”, the process proceeds to step R7, where n i measurement positions and postures B P ′ i, j (j with respect to the target position when the machine tool 8 is disposed at the stop position M p i = 1, 2,..., N i ). In the present embodiment, the measurement position and orientation are automatically calculated using the n positions and orientations recorded in step R7 when the index i is “1”.

次に、計測位置および姿勢の算出方法について説明する。まず、ステップM2で求められた画像上におけるターゲット6の移動と工作機械8の移動との間の関係と、ステップR2で求められた画像上におけるターゲット6の移動とロボット1の移動との間の関係と、に基づいて、ロボット座標系Σbと工作機械座標系Σmとの間の相対姿勢関係を表す回転行列BMを求める。 Next, a method for calculating the measurement position and orientation will be described. First, the relationship between the movement of the target 6 and the movement of the machine tool 8 on the image obtained in step M2, and the movement between the movement of the target 6 and the robot 1 on the image obtained in step R2. the relationship, based on the obtained rotation matrix B R M representing the relative orientation relationship between the robot coordinate system Σb a machine tool coordinate system .SIGMA.m.

なお、この段階では、回転行列BMを高精度に計算しなくてもよい。例えば、ターゲット6がカメラ4の視野内に含まれている状態から工作機械8を並進移動させてターゲット6を移動させたときに、回転行列BMから計算されたロボット座標系Σbにおけるターゲット6の移動方向および移動距離だけロボット1を並進移動させて、ターゲット6がカメラ4の視野から外れない程度であれば十分である。 At this stage, the rotation matrix B R M may not be calculated with high accuracy. For example, the target in the case, the rotation matrix B R M calculated robot coordinate system Σb from the target 6 is a machine tool 8 from the state of being included in the field of view of the camera 4 by translational movement to move the target 6 6 It is sufficient that the robot 1 is translated by the movement direction and the movement distance, and the target 6 does not deviate from the field of view of the camera 4.

そして、指標iが「1」であるときにステップR7において記録したn個の位置および姿勢の中からni個の位置および姿勢を選択し、BMMiM1)だけ平行移動させた位置および姿勢を、工作機械8が停止位置Miに配置されているときのターゲット6の位置に対するロボット1のni個の計測位置および姿勢BP’i,j(j=1,2,・・・,ni)として決定する。ロボット制御装置5は、計測位置および姿勢BP’i,j(j=1,2,・・・,ni)を記録する。 Then, when the index i is “1”, n i positions and orientations are selected from the n positions and orientations recorded in step R 7, and only B R M ( M p i −M p 1 ) is selected. the position and orientation obtained by parallel movement, n i pieces of measurement position and orientation B P 'i of the robot 1 relative to the position of the target 6 when the machine tool 8 is arranged at the stop position M p i, j (j = 1, 2,..., N i ). The robot controller 5 records the measurement position and orientation B P ′ i, j (j = 1, 2,..., N i ).

ステップR8では、BP’i,j(j=1,2,・・・,ni)を起点として順番に「自動タッチアップ処理」を実行する。「自動タッチアップ処理」終了時点のロボット位置姿勢Bi,j(j=1,2,・・・,ni)を終点として記録するとともに、ロボット制御装置5が「自動タッチアップ処理」終了信号を工作機械8に送信する。 In step R8, B P 'i, j (j = 1,2, ···, n i) to execute the "automatic touch-up process" in turn as a starting point. The robot position / posture B P i, j (j = 1, 2,..., N i ) at the end of the “automatic touch-up process” is recorded as the end point, and the robot controller 5 ends the “automatic touch-up process”. A signal is transmitted to the machine tool 8.

工作機械8が「自動タッチアップ処理」終了信号を受信した場合(ステップM5)、ステップM6に進み、指標iが「m」に等しいか否かを判定する。指標iが「m」よりも小さい場合、ステップM7に戻り、ステップM7,M4,R3,R4,R7,R8,M5,M6の処理が繰返し実行される。   When the machine tool 8 receives the “automatic touch-up process” end signal (step M5), the process proceeds to step M6 to determine whether or not the index i is equal to “m”. When the index i is smaller than “m”, the process returns to step M7, and the processes of steps M7, M4, R3, R4, R7, R8, M5, and M6 are repeatedly executed.

ステップM6で指標iが「m」に等しいと判定された場合、工作機械8のすべての停止位置への移動が完了したことを意味する。その場合、ステップM8に進み、工作機械8は、計測終了信号をロボット制御装置5に送信する。   If it is determined in step M6 that the index i is equal to “m”, this means that the movement of the machine tool 8 to all the stop positions has been completed. In this case, the process proceeds to step M8, and the machine tool 8 transmits a measurement end signal to the robot control device 5.

指標iが「m」であるときに、ステップM4の処理が実行される前にステップR3が実行されたり、またはステップM8の処理が実行される前にステップR9が実行されたりした場合、ステップR10,R9,R3の処理が繰返し実行される。   When the index i is “m”, if step R3 is executed before the process of step M4 is executed, or if step R9 is executed before the process of step M8 is executed, step R10 is executed. , R9, R3 are repeatedly executed.

ステップR9において、ロボット制御装置5が計測終了信号を受信した場合、工作機械8の各停止位置および各終点におけるロボット1の位置および姿勢に基づいて、ロボット1の機構パラメータと、ロボット座標系Σbと工作機械座標系Σmとの間の回転行列を計算し、更新する。具体的には、ステップR11において、工作機械8の各停止位置および各終点におけるロボット1の位置および姿勢について、ロボット座標系Σbにおける注視点31の位置とターゲット6の位置とが一致していることを前提として、ロボットのp個の機構パラメータPK,0=[Pk,0,1,Pk,0,2,,・・・,Pk,0,p]の誤差と、メカニカルインタフェイス座標系Σfにおける注視点31の位置FpS=[XS,YS,ZS]の誤差と、工作機械8が停止位置M1に配置されているときのロボット座標系Σbにおけるマーク7の所定点の位置Bpt=[Xt,Yt,Zt]の誤差と、ロボット座標系Σbと工作機械座標系Σmとの間の回転行列BMの誤差とを同定計算する。回転行列BMは、オイラー角等により3つの変数R=[φ,θ,ψ]を用いて表現され得る。 In step R9, when the robot control device 5 receives the measurement end signal, the mechanism parameters of the robot 1 and the robot coordinate system Σb are determined based on the position and posture of the robot 1 at each stop position and each end point of the machine tool 8. Calculate and update the rotation matrix with the machine tool coordinate system Σm. Specifically, in step R11, the position of the gazing point 31 and the position of the target 6 in the robot coordinate system Σb coincide with each other at each stop position and end point of the machine tool 8 in the robot coordinate system Σb. , The error of p mechanism parameters P K, 0 = [P k, 0,1 , P k, 0,2 ,..., P k, 0, p ] and the mechanical interface of the robot The error of the position F p S = [X S , Y S , Z S ] of the gazing point 31 in the coordinate system Σf and the mark 7 in the robot coordinate system Σb when the machine tool 8 is located at the stop position M p 1 the position of a predetermined point B p t = [X t, Y t, Z t] and the error of identifying calculate the error of the rotation matrix B R M between the robot coordinate system Σb a machine tool coordinate system .SIGMA.m. The rotation matrix B R M can be expressed using three variables R = [φ, θ, ψ] according to Euler angles or the like.

機構パラメータPK,0、注視点31の位置FpS、およびマーク7の所定点の位置Bt、変数Rの誤差のパラメータをPID=[ΔPk,ΔPS,ΔPt,ΔR]とする。誤差パラメータPIDは、以下のように同定計算される。 Kinematic parameters P K, 0, position F p S of the gaze point 31, and the position B p t of a predetermined point of the mark 7, the variable parameter P ID = error in R [ΔP k, ΔP S, ΔP t, ΔR] And The error parameter P ID is identified and calculated as follows.

ターゲット6の位置Btは、工作機械8が停止位置M1に配置されているときのロボット座標系Σbにおけるターゲット6の位置である。したがって、工作機械8が停止位置Miに配置されているときのロボット座標系Σbにおけるターゲット6の位置は、工作機械8の移動距離(MiM1)に基づいて、式:BtBMMiM1)を計算することによって求められる。 Position B p t of the target 6 is the position of the target 6 in the robot coordinate system Σb when machine 8 is arranged at the stop position M p 1. Therefore, the position of the target 6 in the robot coordinate system Σb when the machine tool 8 is located at the stop position M p i is based on the movement distance ( M p i −M p 1 ) of the machine tool 8 using the formula: B p t + B R M - is determined by calculating the (M p i M p 1) .

「自動タッチアップ処理」終了時点のロボットの位置および姿勢(終点)Bi,j(j=1,2,・・・,ni)の位置を表すベクトルをBi,jとし、姿勢を表す回転行列をBi,jとすると、ロボット座標系Σbにおける注視点31の位置は、メカニカルインタフェイス座標系Σfにおける注視点31の位置FSを用いて、式:Bi,jBi,j FSを計算することによって求められる。 And "automatic touch-up processing" position and posture (end point) B P i of the robot end, j (j = 1,2, ··· , n i) a vector representing the position of the B p i, and j, posture B R i a rotation matrix representing the, when j, the position of the gaze point 31 in the robot coordinate system Σb uses the position F p S of the gaze point 31 in the mechanical interface coordinate system .SIGMA.f, wherein: B p i, j + B R i, is determined by calculating the j F p S.

理想的な状態、すなわち誤差パラメータPIDのすべての成分がゼロであり、工作機械8の位置決めに誤差がない場合は、工作機械8の各停止位置Mi(i=1,2,・・・,m)について、ロボット座標系Σbにおける注視点31の位置Bi,jBi,j FpS(j=1,2,・・・,ni)が、ロボット座標系Σbにおけるターゲット6の位置BtBMMiM1)に一致することになる。 In an ideal state, that is, when all components of the error parameter P ID are zero and there is no error in positioning of the machine tool 8, each stop position M pi (i = 1, 2,. ·, m) for the position B p i of the gaze point 31 in the robot coordinate system Σb, j + B R i, j F p S (j = 1,2, ···, n i) is the robot coordinate system .SIGMA.b will correspond to the - (M p 1 M p i ) position B p t + B R M of the target 6 in.

誤差が生じない理想的な状態に対し、実際には、機構パラメータまたは回転行列の誤差を含む誤差パラメータPIDに従って、ロボット座標系Σbにおける注視点31の位置と、ターゲット6の位置との間には位置誤差ei,j=(Bi,jBi,j FS)−(BtBMMiM1))が存在する。幾何学的関係から分かるように、ロボット1の各駆動軸の値を一定値に固定して考えた場合は、Bi,jBi,j FSはPIDの関数になる。したがって、ei,jもPIDの関数になる。 In contrast to an ideal state in which no error occurs, in practice, between the position of the gazing point 31 in the robot coordinate system Σb and the position of the target 6 according to the error parameter P ID including the mechanism parameter or rotation matrix error. Has a position error e i, j = ( B p i, j + B R i, j F p S ) − ( B p t + B R M ( M p i −M p 1 )). As can be seen from the geometrical relationship, when the value of each drive axis of the robot 1 is fixed at a constant value, B p i, j + B R i, j F p S is a function of P ID. . Therefore, e i, j is also a function of P ID .

ニュートンラプソン法を用いて、工作機械8の各停止位置、各終点におけるロボット1の位置および姿勢に対応するロボット座標系Σbにおける注視点31の位置Bi,jBi,j FSと、ロボット座標系Σbにおけるターゲット位置BtBMMpiM1)との誤差E=[e1,1,・・・,ei,j,・・・,em,nm]が最小値をとるようなPIDを求める。そして、ロボット1の機構パラメータが算出された値に置換されることによって更新される。 Using Newton Raphson method, the stop position of the machine tool 8, the position B p i of the gaze point 31 in the robot coordinate system Σb corresponding to the position and posture of the robot 1 in each endpoint, j + B R i, j F p S and the target position in the robot coordinate system Σb B p t + B R M (M p i - M p 1) error between E = [e 1,1, ···, e i, j, ···, P ID such that e m, nm ] takes the minimum value is obtained. Then, the robot 1 is updated by replacing the mechanism parameter of the robot 1 with the calculated value.

本実施形態に係る計算システムによれば、工作機械8の高い位置決め精度を利用して、工作機械8の移動距離から工作機械8に固定されたターゲット6の位置が求められる。そのため、ターゲット6の位置を増やす度に計測位置および姿勢を増やす必要がなくなる。具体的には、本実施形態においては、回転行列の誤差パラメータが3つ増えるものの、計測されるターゲットの位置の数mを増やしても、同定計算されるべきパラメータは増えない。そのため、2箇所のターゲット位置について計測を行う場合(m=2)、同定計算するために必要な計測位置および姿勢の数は複数のターゲットを設置する場合と変わらない。しかしながら、3箇所以上のターゲット位置について計測を行う場合(m>2)、同定計算するために必要な計測位置および姿勢の数は、複数のターゲットを設置する場合とくらべてm−2だけ少なくできる。   According to the calculation system according to the present embodiment, the position of the target 6 fixed to the machine tool 8 is obtained from the moving distance of the machine tool 8 using the high positioning accuracy of the machine tool 8. Therefore, it is not necessary to increase the measurement position and posture each time the position of the target 6 is increased. Specifically, in the present embodiment, although the error parameter of the rotation matrix increases by three, the parameter to be identified and calculated does not increase even if the number m of target positions to be measured is increased. Therefore, when measurement is performed for two target positions (m = 2), the number of measurement positions and orientations necessary for identification calculation is the same as when a plurality of targets are installed. However, when measurement is performed for three or more target positions (m> 2), the number of measurement positions and postures required for identification calculation can be reduced by m-2 compared to the case where a plurality of targets are installed. .

このように、本実施形態によれば、簡素な態様で、ロボット1の動作範囲において均一にロボット1の位置決め精度を向上させられる。また、機構パラメータの誤差と同時に、ロボット座標系Σbと工作機械座標系Σmとの間の回転行列の誤差を求めることができる。   Thus, according to the present embodiment, the positioning accuracy of the robot 1 can be improved uniformly in the operation range of the robot 1 in a simple manner. Further, simultaneously with the mechanism parameter error, the error of the rotation matrix between the robot coordinate system Σb and the machine tool coordinate system Σm can be obtained.

以上、本発明の種々の実施形態について説明したが、当業者であれば、他の実施形態によっても本発明の意図する作用効果を実現できることを認識するであろう。特に、本発明の範囲を逸脱することなく、前述した実施形態の構成要素を削除または置換することができるし、或いは公知の手段をさらに付加することができる。また、本明細書において明示的または暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。   Although various embodiments of the present invention have been described above, those skilled in the art will recognize that the functions and effects intended by the present invention can be realized by other embodiments. In particular, the constituent elements of the above-described embodiments can be deleted or replaced without departing from the scope of the present invention, or known means can be further added. In addition, it is obvious to those skilled in the art that the present invention can be implemented by arbitrarily combining features of a plurality of embodiments disclosed explicitly or implicitly in this specification.

1 ロボット
2 画像処理装置
3 モニタ
4 カメラ
5 ロボット制御装置
6 ターゲット
7 マーク
8 工作機械
10 計測装置
11 メインCPU
12 メモリ
13 教示操作盤用インタフェイス
14 通信インタフェイス(ロボット制御装置側)
15 サーボ制御部
16 外部装置用の入出力インタフェイス
17 バス
18 教示操作盤
20 CPU
21 ROM
22 画像処理プロセッサ
23 カメラインタフェイス
24 モニタインタフェイス
25 入力機器
26 フレームメモリ
27 不揮発性メモリ
28 RAM
29 通信インタフェイス(画像処理装置側)
30 バスライン
31 注視点
32 ツール取付面
40 視線
51 計測位置姿勢決定部
52 位置決め部
53 ターゲット検出部
54 ロボット移動部
55 ロボット終点記憶部
56 計算部
DESCRIPTION OF SYMBOLS 1 Robot 2 Image processing apparatus 3 Monitor 4 Camera 5 Robot control apparatus 6 Target 7 Mark 8 Machine tool 10 Measuring apparatus 11 Main CPU
12 Memory 13 Interface for teaching operation panel 14 Communication interface (robot controller side)
15 Servo Control Unit 16 Input / Output Interface for External Device 17 Bus 18 Teaching Operation Panel 20 CPU
21 ROM
22 Image Processor 23 Camera Interface 24 Monitor Interface 25 Input Device 26 Frame Memory 27 Nonvolatile Memory 28 RAM
29 Communication interface (image processing device side)
30 Bus line 31 Gaze point 32 Tool mounting surface 40 Line of sight 51 Measurement position / orientation determination unit 52 Positioning unit 53 Target detection unit 54 Robot movement unit 55 Robot end point storage unit 56 Calculation unit

Claims (12)

受光デバイスをアームの先端に備えた多関節のロボットと、前記ロボットの動作範囲内に設けられた工作機械と、を備えていて、前記受光デバイスを利用して前記工作機械に固定されたターゲットを計測する計測装置であって、
前記ターゲットは、前記受光デバイスの受光面上に結像した該ターゲットの位置の情報、および前記受光デバイスと該ターゲットとの間の距離に関連する長さの情報を特定可能にする幾何学的特徴を有しており、
前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記ターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定する計測位置姿勢決定部と、
前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めする位置決め部と、
前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの前記位置の情報および前記長さの情報に基づいて、前記受光デバイスと前記ターゲットとの間の距離の情報を検出するターゲット検出部と、
前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動するロボット移動部と、
前記ロボット移動部によって移動させられた後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶するロボット終点記憶部と、
前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求める計算部と、を備えることを特徴とする計測装置。
An articulated robot having a light receiving device at the tip of an arm, and a machine tool provided within an operation range of the robot, and a target fixed to the machine tool using the light receiving device A measuring device for measuring,
The target is a geometric feature that enables identification of information on a position of the target imaged on a light receiving surface of the light receiving device and information on a length related to a distance between the light receiving device and the target. Have
A plurality of stop positions of the machine tool, and a plurality of measurement positions and postures of the robot such that the target is included in the field of view of the light receiving device when the machine tool is disposed at the plurality of stop positions. And a measurement position and orientation determination unit for determining
A positioning unit that sequentially positions the machine tool at the plurality of stop positions and sequentially positions the robot at the plurality of measurement positions and postures respectively corresponding to the plurality of stop positions;
The target forms an image on the light receiving surface of the light receiving device, and detects information on the distance between the light receiving device and the target based on the position information and the length information of the target. A detection unit;
In a state where the machine tool is disposed at the stop position and the robot is disposed at the measurement position and posture, the position of the target on the light receiving surface of the light receiving device and a predetermined portion of an image acquired by the light receiving device A robot moving unit that moves the robot so that a difference between the distance information and a predetermined value is within a predetermined error.
A robot end point storage unit for storing the position and posture of the robot after being moved by the robot moving unit as an end point associated with the stop position of the machine tool and the measurement position and posture;
Based on the plurality of end points and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures, the mechanism parameter error of the robot, the robot coordinate system, and the machine tool And a calculation unit for simultaneously obtaining a relative relationship with the coordinate system.
前記計測位置姿勢決定部は、前記受光デバイスと前記ターゲットの所定点との間の距離が一定であり、かつ該所定点を通る前記受光デバイスの視線の傾きが異なるような前記複数の計測位置姿勢を決定するように構成される、請求項1に記載の計測装置。   The measurement position and orientation determination unit includes a plurality of measurement position and orientations such that a distance between the light receiving device and a predetermined point of the target is constant, and a line-of-sight inclination of the light receiving device passing through the predetermined point is different. The measuring device of claim 1, wherein the measuring device is configured to determine 前記計測位置姿勢決定部は、前記ターゲットの所定点を通る前記受光デバイスの視線の姿勢が一定であり、かつ前記受光デバイスと前記ターゲットの該所定点との間の距離が異なるような前記複数の計測位置姿勢を決定するように構成される、請求項1に記載の計測装置。   The measurement position / orientation determination unit is configured such that the attitude of the line of sight of the light receiving device passing through the predetermined point of the target is constant and the distance between the light receiving device and the predetermined point of the target is different. The measurement device according to claim 1, wherein the measurement device is configured to determine a measurement position and orientation. 前記計測位置姿勢決定部は、前記複数の計測位置および姿勢を自動的に生成するように構成される、請求項1に記載の計測装置。   The measurement apparatus according to claim 1, wherein the measurement position and orientation determination unit is configured to automatically generate the plurality of measurement positions and orientations. 前記計算部は、ニュートンラプソン法、遺伝的アルゴリズムおよびニューラルネットワークを含む非線形問題の最適化法を利用することにより、前記ロボットの機構パラメータの誤差を求めるように構成される、請求項1〜4のいずれか1項に記載の計測装置。   5. The calculation unit according to claim 1, wherein the calculation unit is configured to obtain an error of a mechanism parameter of the robot by using a nonlinear problem optimization method including a Newton-Raphson method, a genetic algorithm, and a neural network. The measuring apparatus of any one of Claims. 前記受光デバイスは、2次元画像を撮像するように構成されるCCDカメラである、請求項1〜5のいずれか1項に記載の計測装置。   The measurement device according to claim 1, wherein the light receiving device is a CCD camera configured to capture a two-dimensional image. 前記ターゲットが円形状のマークを有しており、前記長さの情報は、前記受光デバイスの受光面に結像した前記マークに対応する楕円の長軸長を含む、請求項1に記載の計測装置。   The measurement according to claim 1, wherein the target has a circular mark, and the length information includes a major axis length of an ellipse corresponding to the mark imaged on a light receiving surface of the light receiving device. apparatus. 前記受光デバイスは、受光量分布の重心を求めるように構成されるPSDである、請求項1〜5のいずれか1項に記載の計測装置。   The measuring device according to claim 1, wherein the light receiving device is a PSD configured to obtain a center of gravity of a received light amount distribution. 前記ターゲットは発光体である、請求項8に記載の計測装置。   The measuring device according to claim 8, wherein the target is a light emitter. 前記計算部は、前記受光デバイスの注視点の位置と、前記ターゲットに形成されたマークの所定点の位置との誤差に基づいて、前記ロボットの機構パラメータの誤差を求めるように構成される、請求項1〜9のいずれか1項に記載の計測装置。   The calculation unit is configured to obtain an error of a mechanism parameter of the robot based on an error between a position of a gazing point of the light receiving device and a position of a predetermined point of a mark formed on the target. Item 10. The measuring device according to any one of Items 1 to 9. 受光デバイスをアームの先端に備えた多関節のロボットと、前記ロボットの動作範囲内に設けられた工作機械と、を備える計測装置を用いて、前記ロボットの機構パラメータを校正するキャリブレーション方法であって、
前記工作機械の複数の停止位置と、前記工作機械が前記複数の停止位置に配置されているときに、前記工作機械に固定されたターゲットが前記受光デバイスの視野内に含まれるような前記ロボットの複数の計測位置および姿勢と、を決定し、
前記工作機械を前記複数の停止位置に順次位置決めするとともに、前記複数の停止位置にそれぞれ対応する前記複数の計測位置および姿勢に前記ロボットを順次位置決めし、
前記ターゲットを前記受光デバイスの受光面上に結像するとともに、前記ターゲットの位置の情報、および長さの情報に基づいて前記受光デバイスと前記ターゲットとの間の距離の情報を検出し、
前記工作機械を前記停止位置に配置するとともに前記ロボットを前記計測位置および姿勢に配置した状態において、前記受光デバイスの受光面上における前記ターゲットの位置と、前記受光デバイスによって取得される画像の所定箇所との差が、予め定められる誤差以内になり、かつ前記距離の情報と予め定められる値との差が、予め定められる誤差以内になるように、前記ロボットを移動し、
前記差に基づいて移動した後の前記ロボットの位置および姿勢を、前記工作機械の停止位置および前記計測位置および姿勢に関連付けられた終点として記憶し、
前記複数の停止位置および前記複数の計測位置および姿勢にそれぞれ対応する複数の前記終点と前記複数の停止位置とに基づいて、前記ロボットの機構パラメータの誤差、および前記ロボットの座標系と前記工作機械の座標系との間の相対関係を同時に求めることを含む、キャリブレーション方法。
A calibration method for calibrating mechanism parameters of a robot using a measuring device including an articulated robot having a light receiving device at the tip of an arm and a machine tool provided within an operation range of the robot. And
A plurality of stop positions of the machine tool, and a target fixed to the machine tool when the machine tool is disposed at the plurality of stop positions, and included in a field of view of the light receiving device. Determine multiple measurement positions and postures,
Sequentially positioning the machine tool at the plurality of stop positions, and sequentially positioning the robot at the plurality of measurement positions and postures respectively corresponding to the plurality of stop positions;
The target is imaged on the light receiving surface of the light receiving device, and information on the distance between the light receiving device and the target is detected based on information on the position of the target and information on the length,
In a state where the machine tool is disposed at the stop position and the robot is disposed at the measurement position and posture, the position of the target on the light receiving surface of the light receiving device and a predetermined portion of an image acquired by the light receiving device And the robot is moved so that the difference between the distance information is within a predetermined error, and the difference between the distance information and the predetermined value is within a predetermined error,
Storing the position and posture of the robot after moving based on the difference as an end point associated with the stop position and the measurement position and posture of the machine tool;
Based on the plurality of end points and the plurality of stop positions respectively corresponding to the plurality of stop positions and the plurality of measurement positions and postures, the mechanism parameter error of the robot, the robot coordinate system, and the machine tool A calibration method including simultaneously obtaining a relative relationship with a coordinate system of
前記ロボットの機構パラメータの誤差を求める際に、前記受光デバイスの注視点の位置と、前記ターゲットに形成されたマークの所定点の位置との誤差に基づいて、前記ロボットの機構パラメータの誤差を求めることを含む、請求項11に記載のキャリブレーション方法。   When determining the error of the mechanism parameter of the robot, the error of the mechanism parameter of the robot is determined based on the error between the position of the gazing point of the light receiving device and the position of the predetermined point of the mark formed on the target. The calibration method according to claim 11, further comprising:
JP2016168082A 2015-09-14 2016-08-30 Measuring device used to calibrate mechanism parameters of robot Active JP6235664B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102016116702.9A DE102016116702B4 (en) 2015-09-14 2016-09-07 Measuring system for calibrating the mechanical parameters of a robot
US15/263,967 US10035268B2 (en) 2015-09-14 2016-09-13 Measurement system used for calibrating mechanical parameters of robot
CN201610822064.9A CN106514651B (en) 2015-09-14 2016-09-13 Measuring device and calibration method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015180613 2015-09-14
JP2015180613 2015-09-14

Publications (2)

Publication Number Publication Date
JP2017056546A true JP2017056546A (en) 2017-03-23
JP6235664B2 JP6235664B2 (en) 2017-11-22

Family

ID=58391256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016168082A Active JP6235664B2 (en) 2015-09-14 2016-08-30 Measuring device used to calibrate mechanism parameters of robot

Country Status (1)

Country Link
JP (1) JP6235664B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107462157A (en) * 2017-09-06 2017-12-12 西安工程大学 A kind of Novel numerical control machine rigging error measurement apparatus based on LED light spectrum
JP2019040264A (en) * 2017-08-22 2019-03-14 ファナック株式会社 Cooperation system of machine tool and robot
CN113084827A (en) * 2021-04-01 2021-07-09 北京飞影科技有限公司 Method and device for calibrating optical center position of camera device
DE102021103726A1 (en) 2020-03-13 2021-09-16 Omron Corporation Measurement parameter optimization method and device as well as computer control program
JP2021148763A (en) * 2020-03-13 2021-09-27 オムロン株式会社 Method and device for optimizing measurement parameters and computer control program
WO2022034965A1 (en) * 2020-08-11 2022-02-17 주식회사 엠앤디 Filter replacement device
KR20220023900A (en) * 2020-08-21 2022-03-03 한국생산기술연구원 Alignment device of robot coordinate system and specimen coordinate system and coordinate system alignment method using the same
JP2022530589A (en) * 2019-09-11 2022-06-30 Dmg森精機株式会社 Robot-mounted mobile devices, systems and machine tools
CN115008476A (en) * 2022-08-09 2022-09-06 广州数控设备有限公司 Robot calibration method and device based on equivalent kinematics model
WO2022195938A1 (en) * 2021-03-15 2022-09-22 Dmg森精機株式会社 Robot system positioning accuracy measurement method
CN116423529A (en) * 2023-06-14 2023-07-14 极限人工智能(北京)有限公司 Robot parameter calibration method and system based on constraint of double-position sensitive device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08174453A (en) * 1994-12-26 1996-07-09 Hitachi Zosen Corp Measuring device of positioning error in robot device and correcting method for positioning error
JP2005342832A (en) * 2004-06-02 2005-12-15 Fanuc Ltd Robot system
JP2008012604A (en) * 2006-07-03 2008-01-24 Fanuc Ltd Measuring apparatus and method of its calibration
US20110066393A1 (en) * 2009-09-16 2011-03-17 Kuka Roboter Gmbh Calibration Of A Manipulator
JP2012006122A (en) * 2010-06-25 2012-01-12 Panasonic Electric Works Co Ltd Production system
WO2014037993A1 (en) * 2012-09-04 2014-03-13 富士機械製造株式会社 Work device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08174453A (en) * 1994-12-26 1996-07-09 Hitachi Zosen Corp Measuring device of positioning error in robot device and correcting method for positioning error
JP2005342832A (en) * 2004-06-02 2005-12-15 Fanuc Ltd Robot system
JP2008012604A (en) * 2006-07-03 2008-01-24 Fanuc Ltd Measuring apparatus and method of its calibration
US20110066393A1 (en) * 2009-09-16 2011-03-17 Kuka Roboter Gmbh Calibration Of A Manipulator
JP2012006122A (en) * 2010-06-25 2012-01-12 Panasonic Electric Works Co Ltd Production system
WO2014037993A1 (en) * 2012-09-04 2014-03-13 富士機械製造株式会社 Work device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040264A (en) * 2017-08-22 2019-03-14 ファナック株式会社 Cooperation system of machine tool and robot
CN107462157B (en) * 2017-09-06 2019-10-25 西安工程大学 A kind of numerically-controlled machine tool rigging error measuring device based on LED light spectrum
CN107462157A (en) * 2017-09-06 2017-12-12 西安工程大学 A kind of Novel numerical control machine rigging error measurement apparatus based on LED light spectrum
JP7482364B2 (en) 2019-09-11 2024-05-14 Dmg森精機株式会社 Robot-mounted mobile device and system
JP2022530589A (en) * 2019-09-11 2022-06-30 Dmg森精機株式会社 Robot-mounted mobile devices, systems and machine tools
DE102021103726B4 (en) 2020-03-13 2022-12-29 Omron Corporation Measurement parameter optimization method and device and computer control program
DE102021103726A1 (en) 2020-03-13 2021-09-16 Omron Corporation Measurement parameter optimization method and device as well as computer control program
JP2021148763A (en) * 2020-03-13 2021-09-27 オムロン株式会社 Method and device for optimizing measurement parameters and computer control program
JP7450857B2 (en) 2020-03-13 2024-03-18 オムロン株式会社 Measurement parameter optimization method and device, and computer control program
US11816754B2 (en) 2020-03-13 2023-11-14 Omron Corporation Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium
WO2022034965A1 (en) * 2020-08-11 2022-02-17 주식회사 엠앤디 Filter replacement device
KR102398139B1 (en) * 2020-08-21 2022-05-18 한국생산기술연구원 Alignment device of robot coordinate system and specimen coordinate system and coordinate system alignment method using the same
KR20220023900A (en) * 2020-08-21 2022-03-03 한국생산기술연구원 Alignment device of robot coordinate system and specimen coordinate system and coordinate system alignment method using the same
WO2022195938A1 (en) * 2021-03-15 2022-09-22 Dmg森精機株式会社 Robot system positioning accuracy measurement method
CN113084827A (en) * 2021-04-01 2021-07-09 北京飞影科技有限公司 Method and device for calibrating optical center position of camera device
CN115008476B (en) * 2022-08-09 2022-12-13 广州数控设备有限公司 Robot calibration method and device based on equivalent kinematics model
CN115008476A (en) * 2022-08-09 2022-09-06 广州数控设备有限公司 Robot calibration method and device based on equivalent kinematics model
CN116423529A (en) * 2023-06-14 2023-07-14 极限人工智能(北京)有限公司 Robot parameter calibration method and system based on constraint of double-position sensitive device
CN116423529B (en) * 2023-06-14 2023-10-27 极限人工智能(北京)有限公司 Robot parameter calibration method and system based on constraint of double-position sensitive device

Also Published As

Publication number Publication date
JP6235664B2 (en) 2017-11-22

Similar Documents

Publication Publication Date Title
JP6235664B2 (en) Measuring device used to calibrate mechanism parameters of robot
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
JP4267005B2 (en) Measuring apparatus and calibration method
JP4298757B2 (en) Robot mechanism calibration apparatus and method
CN108453701B (en) Method for controlling robot, method for teaching robot, and robot system
JP5850962B2 (en) Robot system using visual feedback
JP4191080B2 (en) Measuring device
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
US9221176B2 (en) Robot system and method for controlling the same
EP3157715B1 (en) Method for calibrating a robot and a robot system
JP6812095B2 (en) Control methods, programs, recording media, robotic devices, and manufacturing methods for articles
JP6430986B2 (en) Positioning device using robot
US20110029131A1 (en) Apparatus and method for measuring tool center point position of robot
WO2021012122A1 (en) Robot hand-eye calibration method and apparatus, computing device, medium and product
TW201403277A (en) Robot system, robot, robot control device, robot control method, and robot control program
JP2005149299A (en) Teaching position correction apparatus
JP6922204B2 (en) Controls, robots and robot systems
EP3421930A1 (en) Three-dimensional shape data and texture information generation system, photographing control program, and three-dimensional shape data and texture information generation method
CN106003021A (en) Robot, robot control device, and robotic system
CN109531604B (en) Robot control device for performing calibration, measurement system, and calibration method
JP6410411B2 (en) Pattern matching apparatus and pattern matching method
TWI853525B (en) Non-transitory computer-readable medium recording thereon marker position registration program, a marker position registration device, method, and markers used in the method
JP7583942B2 (en) ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, AND ROBOT CONTROL METHOD
WO2024062535A1 (en) Robot control device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171026

R150 Certificate of patent or registration of utility model

Ref document number: 6235664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150