JP2021024056A - Calibration device - Google Patents
Calibration device Download PDFInfo
- Publication number
- JP2021024056A JP2021024056A JP2019145546A JP2019145546A JP2021024056A JP 2021024056 A JP2021024056 A JP 2021024056A JP 2019145546 A JP2019145546 A JP 2019145546A JP 2019145546 A JP2019145546 A JP 2019145546A JP 2021024056 A JP2021024056 A JP 2021024056A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- sensor
- parameter
- unit
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットやセンサの位置や姿勢等の状態を示す各種パラメータを、より適切な値に更新する、キャリブレーション装置に関する。 The present invention relates to a calibration device that updates various parameters indicating states such as the position and posture of a robot or a sensor to more appropriate values.
従来のキャリブレーション装置としては、特許文献1に記載のものが知られている。この文献の要約書には、「単一のカメラ又はステレオカメラのキャリブレーションに関し、予め画像座標系でキャリブレーション範囲を設定し、任意の範囲でキャリブレーションすることを可能とする」ための解決手段として、「ロボットにターゲットマークを設置すると共に、当該ロボットを動かしてカメラの視野内の複数個所でターゲットマークを検出することで、当該ロボットのロボット座標系とカメラの画像座標系の対応付けを行うキャリブレーション装置であって、カメラの画像座標系における画像範囲を設定する画像範囲設定部と、キャリブレーション実行前に、ロボットを動かしてターゲットマークを検出することで、画像範囲に相当するロボットの動作範囲を計測するキャリブレーション範囲計測部を備える」キャリブレーション装置が開示されている。
As a conventional calibration device, the one described in
すなわち、特許文献1のキャリブレーション装置では、ロボットのアーム先端を連続的に動かし、アーム先端に取り付けたターゲットマークを複数個所で検出することで、視覚センサ(単眼カメラ、ステレオカメラ)のキャリブレーションを行っている。
That is, in the calibration device of
しかしながら、特許文献1で用いる多関節ロボットアームでは、各関節の製造誤差や制御誤差等が累積してアーム先端のターゲットマークに現れるため、ターゲットマークの実位置は誤差のない理論上の位置からずれており、ターゲットマークの実位置に基づいて視覚センサをキャリブレーションしても、そのキャリブレーションが適切でない可能性が高かった。
However, in the articulated robot arm used in
そこで、本発明では、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新できる、キャリブレーション装置を提供することを目的とする。 Therefore, the present invention provides a calibration device capable of updating various parameters of a robot or a sensor to more appropriate values without using an unstable reference such as a target mark attached to the tip of the arm of the robot. The purpose.
上記課題を解決するため、本発明のキャリブレーション装置は、センサの出力に基づいてセンサデータを生成するセンサデータ取得部と、ロボットを制御するロボット制御部と、前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットを計測した仮想データを生成する仮想データ生成部と、前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、を具備するものとした。 In order to solve the above problems, the calibration device of the present invention relates to a sensor data acquisition unit that generates sensor data based on the output of the sensor, a robot control unit that controls the robot, sensor parameters related to the sensor, and the robot. A data storage unit that stores robot parameters, a virtual data generation unit that generates virtual data that measures the robot from the sensor in the virtual space based on the sensor parameters and the robot parameters, and the sensor data and the virtual An environment determination unit that compares data and determines the difference between the two, a relative position / orientation estimation unit that searches for the sensor parameter or the robot parameter that reduces the difference, and the sensor parameter or the sensor parameter stored in the data storage unit. It is assumed that the sensor parameter searched by the relative position / orientation estimation unit or the update unit for updating the robot parameter to the robot parameter is provided.
本発明のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットやセンサの各種パラメータをより適切な値に更新することができる。 According to the calibration device of the present invention, various parameters of the robot and the sensor can be updated to more appropriate values without using an unstable reference such as a target mark attached to the tip of the arm of the robot.
以下、図面を用いて、本発明のセンサ位置姿勢キャリブレーション装置の実施例を説明する。 Hereinafter, examples of the sensor position / orientation calibration device of the present invention will be described with reference to the drawings.
図1から図7を用いて、本発明の実施例1に係るキャリブレーション装置1を説明する。
The
図1は、本実施例のキャリブレーション装置1の機能ブロックを、ロボット2、センサ3、ターゲットマーク4の概略配置と共に示した図である。以下では、ロボット2、センサ3、ターゲットマーク4を概説した後、キャリブレーション装置1の詳細を説明する。
FIG. 1 is a diagram showing a functional block of the
<ロボット2、センサ3、ターゲットマーク4>
ロボット2は、アーム先端のロボットハンドで物体を把持する多関節ロボットアームであり、キャリブレーション装置1が備えるロボット制御部1aからの指令に応じて、各関節の回転角θやロボットハンドの開閉状態等が制御される。本実施例はロボットハンドに限らず、吸着ハンドなどの各種エンドエフェクタにおいても適用可能である。なお、以下では、関節数が三個であるロボット2を例に説明するが、本発明の適用対象は、関節数が三個のロボット2に限定されないことは言うまでもない。
<
The
センサ3は、設置位置が既知のターゲットマーク4を背景として、その手前のロボット2を観測するカメラ、レーザ変位計等である。なお、以下では、センサ3がカメラであるものとして説明する。
The
ターゲットマーク4は、平面上に複数のマークを配置したものである。センサ3とターゲットマーク4の相対位置や相対姿勢が異なる場合、センサ3で観測されるターゲットマーク4の見え方が異なることを利用して、センサ3とターゲットマーク4の相対位置や相対姿勢を検出することができる。なお、ターゲットマーク4上に配置する複数のマークは、個々が同等のものであっても良いし、個々に識別可能なユニークなものであっても良い。
The target mark 4 is a plurality of marks arranged on a plane. When the relative position and the relative posture of the
ここで、図2を用いて、本実施例に関連する座標系を説明する。同図において、Wはワールド座標系であり、ロボット2、センサ3、ターゲットマーク4、または、ロボット2に把持される物体の位置等を特定する際の基準となる座標系である。Rはロボット2の不動点(例えばベース)を原点としたロボット座標系であり、ワールド座標系Wの各軸方向を維持したまま平行移動した座標系である。Sはセンサ3の不動点(例えばカメラの受光素子)を原点としたセンサ座標系であり、センサ3の視線方向をSz軸とし、このSz軸と直交するようにSx軸とSy軸を設定した座標系である。
Here, the coordinate system related to this embodiment will be described with reference to FIG. In the figure, W is a world coordinate system, which is a reference system for specifying the position of the
また、CRSは、センサ座標系S上の座標とロボット座標系R上の座標を相互に座標変換する係数である。この係数CRSを利用することで、センサ3が検出したセンサ座標系S上の物体の位置と形状を、ロボット座標系R上の物体の位置と形状として認識できるので、ロボット制御部1aは、ロボット座標系R上での座標を用いて、ロボット2に所望の物体の把持などを指令することができる。
Further, C RS is a coefficient for mutually converting the coordinates on the sensor coordinate system S and the coordinates on the robot coordinate system R. By using this coefficient C RS , the position and shape of the object on the sensor coordinate system S detected by the
このような係数CRSを用いて座標変換を行う場合、係数CRSが適切であれば、センサ3の検出結果をロボット2に正確に伝達することができるが、係数CRSが不適切であれば、センサ3の検出結果をロボット2に正確に伝達することができず、例えば、ロボット2が所望の物体を正しく把持できないなどの不具合が生じる恐れがある。
When performing coordinate conversion using such a coefficient C RS , if the coefficient C RS is appropriate, the detection result of the
係数CRSの精度は、後述するセンサパラメータPSやロボットパラメータPRに依拠するため、これらのパラメータを最適化できれば、係数CRSも自ずと最適化される。そこで、本実施例のキャリブレーション装置1では、センサパラメータPSやロボットパラメータPRを自動的に最適化できるようにすることで、作業者の熟練度に拘わらず係数CRSを容易に最適化できるようにした。
Accuracy of the coefficient C RS, in order to rely on sensor parameter P S and the robot parameters P R to be described later, if optimization of these parameters, the coefficient C RS is also naturally optimized. Therefore, the
<キャリブレーション装置1>
ここで図1に戻り、係数CRSを最適化するために必要な、キャリブレーション装置1の詳細構造を説明する。なお、キャリブレーション装置1は、実際には、CPU等の演算装置、半導体メモリ等の主記憶装置、ハードディスク等の補助記憶装置、および、通信装置などのハードウェアを備えたパソコン等の計算機である。そして、補助記憶装置に記録されたデータベースを参照しながら、主記憶装置にロードされたプログラムを演算装置が実行することで、図1に示す各機能を実現する。ここに示す各機能の詳細は後述するが、以下では、計算機分野での周知技術は適宜省略する。
<
Here, returning to FIG. 1, the detailed structure of the
図1に示すように、本実施例のキャリブレーション装置1は、ロボット制御部1a、データ記憶部1b、仮想撮像データ生成部1c、センサデータ取得部1d、撮像環境判定部1e、相対位置姿勢推定部1f、ロボットパラメータ更新部1g、センサパラメータ更新部1hを備えている。
As shown in FIG. 1, the
ロボット制御部1aは、ロボット2と双方向に通信し、ロボット2の姿勢や挙動を制御する。例えば、ロボット制御部1aは、ロボット2の各関節の回転角θ1〜θ3を指定することで、ロボット2の姿勢を制御する。以下では、ロボット制御部1aからロボット2に送信される回転角θ1〜θ3の組み合わせを姿勢情報ISと称する。
The robot control unit 1a communicates with the
データ記憶部1bは、後述する仮想データ生成部1cで仮想撮像データDVを生成するために用いる、環境情報IE、センサパラメータPS、ロボットパラメータPRを記憶している。なお、環境情報IEは、例えば、ワールド座標系Wにおける、ロボット2、センサ3、ターゲットマーク4の設置位置等の情報である。センサパラメータPSは、例えば、センサ3がカメラである場合は、その焦点距離(fx、fy)、歪係数、光軸中心(cu、cv)等の内部パラメータと、センサの世界座標系に対する並進移動(Tx、Ty、Tz)、回転(r11〜r33の3x3行列)を示す外部パラメータである。ロボットパラメータPRは、例えば、ロボット2の各アームの姿勢(各関節の回転角θ)やロボットハンドの開閉状態のパラメータである。
Data storage unit 1b is used to generate a virtual image pickup data D V in the virtual data generation unit 1c to be described later, the environment information I E, sensor parameters P S, and stores the robot parameters P R. The environmental information IE is, for example, information such as the installation positions of the
仮想撮像データ生成部1cは、データ記憶部1bから取得した環境情報IE、センサパラメータPS、ロボットパラメータPRに基づいて、仮想撮像データDVを生成する。ここでの仮想撮像データDVの生成処理を、図3のフローチャートを用いて説明する。 Virtual imaging data generation unit 1c is environmental information I E obtained from the data storage unit 1b, the sensor parameter P S, based on the robot parameter P R, to generate the virtual image pickup data D V. The generation processing of the virtual image pickup data D V of now be described with reference to the flowchart of FIG.
まず、ステップS31では、仮想撮像データ生成部1cは、データ記憶部1bから環境情報IEを取得し、それに基づいて、仮想空間上にロボット2V、センサ3V、ターゲットマーク4Vを配置する。次に、ステップS32では、仮想撮像データ生成部1cは、データ記憶部1bから取得したロボットパラメータPRに基づいて、仮想空間上のロボット2Vに各関節の回転角θやロボットハンドの開閉状態を設定する。次に、ステップS33では、仮想撮像データ生成部1cは、データ記憶部1bから取得したセンサパラメータPSに基づいて、仮想空間上のセンサ3V(カメラ)に内部パラメータを設定する。これにより、後述する図8の仮想空間データ表示領域5bに例示するような、ロボット2V、センサ3V、ターゲットマーク4Vが、仮想空間上に配置されることとなる。
First, in step S31, the virtual imaging data generation unit 1c acquires the environment information I E from the data storage unit 1b, based on it, to place the robot 2 V, sensor 3 V, the target mark 4 V in the virtual space .. Next, in step S32, the virtual imaging data generation unit 1c on the basis of the robot parameters P R obtained from the data storage unit 1b, the opening and closing state of the rotation angle θ and the robot hand of each joint in the
最後に、ステップS34では、仮想撮像データ生成部1cは、仮想空間上のロボット2Vとターゲットマーク4Vを、仮想空間上のセンサ3Vの視点から撮像したものに相当する仮想撮像データDVを生成する。
Finally, in step S34, the virtual imaging data generation unit 1c is a
仮想空間上の任意の点(x,y,z)を仮想撮像データDVに投影するには、例えば、式1を利用する。なお、式1において、u、vは仮想撮像データDV上に仮想的に設定したuv座標系(仮想座標系)における座標である。fx,fyは、カメラの画素あたりの焦点距離であり、カメラの焦点距離をカメラの画素の縦、横の物理的な間隔で割った値である。cu、cvは、カメラの光軸と仮想撮像データDVが交差する、仮想座標系における光軸中心の座標である。
Any point on the virtual space to projection (x, y, z) of the virtual image pickup data D V, for example, utilizing
センサデータ取得部1dは、実際のロボット2とターゲットマーク4を、実際のセンサ3の視点から観測した出力に基づいて、センサデータDSを取得する。本実施例では、センサ3をカメラとしているので、ここで取得されるセンサデータDSは画像データである。
Sensor
撮像環境判定部1eでは、仮想撮像データ生成部1cが出力する仮想撮像データDVと、センサデータ取得部1dが出力するセンサデータDSを比較し、撮像環境を判定する。ここでの処理の詳細を、図4と図5を用いて説明する。
In the imaging environment judging unit 1e, it compares the virtual imaging data D V output by the virtual imaging data generation unit 1c, and the sensor data D S to the sensor
図4は、仮想撮像データDVとセンサデータDSのマッチング処理の説明図であり、(a)は、データ記憶部1bに記憶されたパラメータに基づき仮想撮像データ生成部1cで生成された仮想撮像データDV、(b)は、センサ3の実際の出力に基づいて生成されたセンサデータDS、(c)は、仮想撮像データDVとセンサデータDSのマッチング処理である。 Figure 4 is an explanatory diagram of the matching process of the virtual image pickup data D V and the sensor data D S, (a), the virtual generated by the virtual imaging data generation unit 1c based on the stored in the data storage unit 1b parameters imaging data D V, (b), the sensor data D S, which is generated on the basis of the actual output of the sensor 3 (c) is a process of matching the virtual image pickup data D V and the sensor data D S.
仮想撮像データDVとセンサデータDSが大きく相違していることから明らかなように、図4は、データ記憶部1bに記憶されたパラメータが実態と乖離しており、その修正が必要な状況に相当するものである。 As it is evident from the virtual image pickup data D V and the sensor data D S is greatly different, 4, parameters stored in the data storage unit 1b has deviated the actual situation that requires the modification Is equivalent to.
パラメータを最適化するには、センサデータDSと一致する仮想撮像データDVを生成できるパラメータを選択すればよい。具体的には、(c)マッチング処理に示すように、仮想撮像データDVをセンサデータDSと一致させるのに必要な回転処理と移動処理を施すと同等のパラメータ調整を行えば良い。 To optimize the parameters may be selected parameters that can generate a virtual image pickup data D V, which coincides with the sensor data D S. Specifically, as shown in (c) matching process may be performed the same parameter adjustment when subjected to moving processing and rotation processing necessary virtual imaging data D V to match the sensor data D S.
図5は、撮像環境判定部1eで実行される撮像環境判定処理の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of the imaging environment determination process executed by the imaging environment determination unit 1e.
まず、ステップS51では、撮像環境判定部1eは、センサデータDSと仮想撮像データDVを取得する。次に、ステップS52では、撮像環境判定部1eは、両データに含まれるターゲットマーク4の基準マーカ位置を計測し、ステップS53では、撮像環境判定部1eは、両データ間の対応点をマッチングする。 First, in step S51, the imaging environment judging section 1e obtains the sensor data D S and the virtual image pickup data D V. Next, in step S52, the imaging environment determination unit 1e measures the reference marker position of the target mark 4 included in both data, and in step S53, the imaging environment determination unit 1e matches the corresponding points between the two data. ..
以上のステップS51からS53の処理により、撮像環境判定部1eは、仮想撮像データDVをセンサデータDSと一致させるのに必要な回転量と移動量を演算できるので、ステップS54では、撮像環境判定部1eは、これらの回転量または移動量が所定の閾値以上であるかを判定する。そして、パラメータのキャリブレーションに必要な回転量と移動量が閾値未満のときは、撮像環境判定部1eは、現在記憶されているパラメータは実態に則した有効なものと判断し、データ記憶部1bのパラメータを更新せずに本フローチャートの処理を終了する。 By the processing of S53 from step S51 described above, the imaging environment judging unit 1e, since it calculates the movement amount and the rotation amount required virtual imaging data D V to match the sensor data D S, at step S54, the imaging environment The determination unit 1e determines whether these rotation amounts or movement amounts are equal to or greater than a predetermined threshold value. Then, when the amount of rotation and the amount of movement required for parameter calibration are less than the threshold value, the imaging environment determination unit 1e determines that the currently stored parameters are valid according to the actual situation, and the data storage unit 1b The processing of this flowchart is terminated without updating the parameters of.
一方、仮想撮像データDVをセンサデータDSと一致させるのに必要な回転量または移動量が閾値以上のときは、撮像環境判定部1eは、データ記憶部1bに現在記憶されているパラメータが実態に則しておらず修正が必要と判断し、パラメータ修正のための相対位置姿勢推定処理に移行する。 On the other hand, when the rotational amount or the amount of movement required to match the virtual imaging data D V sensor data D S is not less than the threshold value, the imaging environment judging unit 1e includes parameters currently stored in the data storage portion 1b It is judged that the correction is necessary because it does not conform to the actual situation, and the process shifts to the relative position / orientation estimation process for parameter correction.
相対位置姿勢推定処理に移行すると、まず、ステップS55では、相対位置姿勢推定部1fは、仮想撮像データDVとセンサデータDSのターゲットマーク4の差異を最小化するセンサパラメータPSを探索する。例えば、センサパラメータPSが、PS1、PS2、PS3、PS4の四種類であれば、センサパラメータPS1から順に、ターゲットマーク4の差異を最小化する最適値を求めていく。次に、ステップS56では、相対位置姿勢推定部1fは、仮想撮像データDVとセンサデータDSのロボット2の差異を最小化するロボットパラメータPRを探索する。例えば、ロボットパラメータPRが、PR1、PR2、PR3、PR4の四種類であれば、ロボットパラメータPR1から順に、ロボット2の差異を最小化する最適値を求めていく。
After shifting to the relative position and orientation estimation processing, first, in step S55, the relative position and orientation estimation unit 1f searches the sensor parameters P S that minimizes the difference between the target mark the fourth virtual imaging data D V and the sensor data D S .. For example, a sensor parameters P S is, if four types of P S1, P S2, P S3 , P S4, in order from the sensor parameter P S1, will seek the optimum value that minimizes the difference between the target mark 4. Next, in step S56, the relative position and orientation estimation unit 1f searches the robot parameters P R that minimizes the difference of the
そして、ステップS57では、ロボットパラメータ更新部1gまたはセンサパラメータ更新部1hは、データ記憶部1bに記憶された各パラメータを、ステップS55、ステップS56で求めた各パラメータの最適値に更新する。なお、図5では、センサパラメータPSの最適値探索の後に、ロボットパラメータPRの最適値探索を行ったが、仮想撮像データDVとセンサデータDSを比較した場合のロボット2側の差異がターゲットマーク4側の差異よりも大きかった場合は、ロボットパラメータPRの最適値を探索した後に、センサパラメータPSの最適値を探索しても良い。
Then, in step S57, the robot parameter updating unit 1g or the sensor parameter updating unit 1h updates each parameter stored in the data storage unit 1b to the optimum value of each parameter obtained in steps S55 and S56. In FIG. 5, after the optimum value search of the sensor parameter P S, were subjected to optimum value search of the robot parameters P R, the difference of the
次に、図6と図7を用いて、ロボット2の姿勢精度の評価方法を説明する。
Next, a method of evaluating the posture accuracy of the
ロボット2の姿勢精度を評価する場合、まず、ロボット制御部1aは、任意の姿勢情報IS(θ1、θ2、θ3)をロボット2に送信する。このとき、ロボット2は、図6(a)に示す姿勢となるので、姿勢情報ISに対応する誤差量dを測定し記録する。
When evaluating the posture accuracy of the
次に、ロボット制御部1aは、姿勢情報ISの回転角θ1だけを回転角θ1’に変更した、姿勢情報IS’(θ1’、θ2、θ3)をロボット2に送信する。このとき、ロボット2は、図6(b)に示す姿勢となるので、姿勢情報IS’に対応する誤差量d’を測定し記録する。
Next, the robot control unit 1a is sent 'was changed to the posture information I S' only rotation angle theta 1 of the posture information I S
そして、誤差量dと誤差量d’が相違し、かつ、誤差量d’が大きい場合は、回転角度θ1に対応する間接の姿勢精度が悪いか、その間接より先端側のリンクの精度が悪いと判定することができる。 If the error amount d and the error amount d'are different and the error amount d'is large, the indirect posture accuracy corresponding to the rotation angle θ 1 is poor, or the accuracy of the link on the tip side of the indirect is poor. It can be judged to be bad.
以上のような姿勢精度の評価作業を多数の姿勢情報ISに対して実行することで、図7に例示するような、姿勢情報ISと誤差量dの対応表を作成することができる。そして、ここに示す姿勢情報ISと誤差量dの関係から、重回帰分析やロジスティック回帰分析など一般的な解析手法によって誤差量dを増加または減少させる姿勢情報ISの要素、または姿勢情報ISの要素の組み合わせを求めることができるため、それを最適なロボットパラメータPRと特定することができる。 By executing the evaluation work attitude accuracy as described above for a number of orientation information I S, as illustrated in FIG. 7, it is possible to create a correspondence table of orientation information I S and the error amount d. Then, the relationship between the orientation information I S and the error amount d shown here, the elements of multiple regression analysis and attitude information increases or decreases the error amount d by a general analysis method such as logistic regression analysis I S or attitude information I, it is possible to obtain the combination of S elements, it is possible to identify it with optimal robot parameters P R.
そして、図5や図7に基づいて修正されたセンサパラメータPSとロボットパラメータPRに基づいて係数CRSを演算し、この係数CRSを用いてセンサ座標系S・ロボット座標系Rの座標変換を実施することで、ロボット2の近傍の物体の位置や形状を正しく認識できるため、ロボット2はその物体を適切に把持できるようになる。
Then, 5 and on the basis of the sensor parameters P S and the robot parameters P R that has been modified with reference to FIG calculates the coefficients C RS, coordinates of the sensor coordinate system S · robot coordinate system R using the coefficients C RS By performing the conversion, the position and shape of an object in the vicinity of the
以上で説明したように、本実施例のキャリブレーション装置によれば、ロボットのアーム先端に取り付けたターゲットマークのような不安定な基準を用いることなく、ロボットの状態を規定するロボットパラメータPRや、センサの状態を規定するセンサパラメータPSをより適切な値にキャリブレーションすることをできる。そして、それらのパラメータを用いることで、ロボットの制御がより正確になり、例えば、ロボットハンドで物体をより正確に把持できるようになる。 As explained above, according to the calibration apparatus of the present embodiment, without using unstable criteria, such as target marks attached to the arm tip of the robot, Ya robot parameter P R that define the state of the robot , possible to calibrate the sensor parameters P S which defines the state of the sensor to a more appropriate value. Then, by using these parameters, the control of the robot becomes more accurate, and for example, the robot hand can grasp the object more accurately.
次に、図8を用いて、本発明の実施例2に係るキャリブレーション装置1を説明する。なお、実施例1との共通点は重複説明を省略する。
Next, the
実施例1では、キャリブレーション装置1がセンサパラメータPSとロボットパラメータPRを自動的に更新したが、本実施例では、相対位置姿勢推定部1fでの処理に作業者が関与できるようにした。
In the first embodiment, the
図8は、キャリブレーション装置1と接続した表示装置に表示される、キャリブレーションツールのアプリケーションソフトの表示画面5の一例である。
FIG. 8 is an example of the display screen 5 of the application software of the calibration tool displayed on the display device connected to the
ここに示すように、表示画面5には、撮像データ表示領域5a、仮想空間データ表示領域5b、センサパラメータ設定領域5c、ロボットパラメータ設定領域5d、決定ボタン5e、および、ポインタ5fが表示されている。
As shown here, the image pickup
撮像データ表示領域5aには、センサ3が実際に取得したセンサデータDSと、現在のセンサパラメータPS、ロボットパラメータPRを利用して仮想撮像データ生成部1cで生成した仮想撮像データDVが並べて表示されている。なお、両者が相違すれば、現在のセンサパラメータPSまたはロボットパラメータPRが不適切であり、両者が一致すれば、現在のセンサパラメータPSとロボットパラメータPRが適切であることは実施例1と同様である。
The imaging
仮想空間データ表示領域5bには、仮想空間上における、ロボット2V、センサ3V、ターゲットマーク4Vの配置が表示されおり、センサパラメータ設定領域5c、ロボットパラメータ設定領域5dに表示されている各種パラメータを調整することで、撮像データ表示領域5aに表示される仮想撮像データDVと、仮想空間データ表示領域5bに表示されるロボット2Vの状態が変化する。
The arrangement of the robot 2 V , the
このような表示画面5にて、作業者が、ポインタ5fを操作して、センサパラメータ設定領域5cやロボットパラメータ設定領域5dの各パラメータを適切に設定すると、センサデータDSと仮想撮像データDVが略一致する。このとき、作業者が決定ボタン5eを押すと、ロボットパラメータ更新部1gとセンサパラメータ更新部1hは、表示中の各パラメータ値に基づいて、データ記憶部1bに記憶された各パラメータを更新する。
At such a display screen 5, the operator operates the
以上で説明した実施例2の構成によれば、実施例1と同等の効果を得ることができるだけでなく、作業者は何れのパラメータに問題があったのかを直感的な操作により容易に把握することができる。 According to the configuration of the second embodiment described above, not only the same effect as that of the first embodiment can be obtained, but also the operator can easily grasp which parameter has a problem by an intuitive operation. be able to.
1…キャリブレーション装置、
1a…ロボット制御部、
1b…データ記憶部、
1c…仮想撮像データ生成部、
1d…センサデータ取得部、
1e…撮像環境判定部、
1f…相対位置姿勢推定部、
1g…ロボットパラメータ更新部、
1h…センサパラメータ更新部、
2、2V…ロボット、
3、3V…センサ、
4、4V…ターゲットマーク、
5…表示画面、
5a…撮像データ表示領域5a、
5b…仮想空間データ表示領域
5c…センサパラメータ設定領域
5d…ロボットパラメータ設定領域
5e…決定ボタン
5f…ポインタ
1 ... Calibration device,
1a ... Robot control unit,
1b ... Data storage unit,
1c ... Virtual imaging data generator,
1d ... Sensor data acquisition unit,
1e ... Imaging environment judgment unit,
1f ... Relative position / orientation estimation unit,
1g ... Robot parameter update unit,
1h ... Sensor parameter update unit,
2, 2 V ... Robot,
3, 3 V ... sensor,
4, 4 V ... Target mark,
5 ... Display screen,
5a ... Imaging
5b ... Virtual space
Claims (6)
ロボットを制御するロボット制御部と、
前記センサに関するセンサパラメータと前記ロボットに関するロボットパラメータを記憶したデータ記憶部と、
前記センサパラメータおよび前記ロボットパラメータに基づいて、仮想空間上の前記センサから前記ロボットを計測した仮想データを生成する仮想データ生成部と、
前記センサデータと前記仮想データを比較し、両者の差異を判定する環境判定部と、
前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索する相対位置姿勢推定部と、
前記データ記憶部に記憶された前記センサパラメータまたは前記ロボットパラメータを前記相対位置姿勢推定部で探索した前記センサパラメータまたは前記ロボットパラメータに更新する更新部と、
を具備することを特徴とするキャリブレーション装置。 A sensor data acquisition unit that generates sensor data based on the output of the sensor,
A robot control unit that controls the robot and
A data storage unit that stores sensor parameters related to the sensor and robot parameters related to the robot, and
A virtual data generation unit that generates virtual data obtained by measuring the robot from the sensor in the virtual space based on the sensor parameter and the robot parameter.
An environment determination unit that compares the sensor data and the virtual data and determines the difference between the two.
A relative position / orientation estimation unit that searches for the sensor parameter or the robot parameter that reduces the difference, and
An update unit that updates the sensor parameter or the robot parameter stored in the data storage unit to the sensor parameter or the robot parameter searched by the relative position / orientation estimation unit, and an update unit.
A calibration device characterized by comprising.
前記環境判定部は、前記仮想データを前記センサデータと一致させるのに必要な回転量または移動量を求め、
前記相対位置姿勢推定部は、前記回転量または前記移動量が閾値以上の場合に、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索し、前記回転量または前記移動量が前記閾値未満の場合には、前記差異を小さくする前記センサパラメータまたは前記ロボットパラメータを探索しないことを特徴とするキャリブレーション装置。 In the calibration apparatus according to claim 1,
The environment determination unit obtains the amount of rotation or movement required to match the virtual data with the sensor data.
When the rotation amount or the movement amount is equal to or more than the threshold value, the relative position / orientation estimation unit searches for the sensor parameter or the robot parameter that reduces the difference, and the rotation amount or the movement amount is less than the threshold value. In some cases, a calibration device that does not search for the sensor parameter or the robot parameter that reduces the difference.
前記データ記憶部は、前記センサと前記ロボットの位置に関する環境情報を更に記憶しており、
仮想データ生成部は、前記環境情報に基づいて前記センサと前記ロボットを配置した仮想空間上の前記センサから前記ロボットを観測することで、前記仮想データを生成することを特徴とするキャリブレーション装置。 In the calibration apparatus according to claim 1 or 2.
The data storage unit further stores environmental information regarding the positions of the sensor and the robot.
The virtual data generation unit is a calibration device that generates the virtual data by observing the robot from the sensor in the virtual space in which the sensor and the robot are arranged based on the environmental information.
前記ロボットは、多関節ロボットアームであり、
前記ロボットパラメータは、前記多関節ロボットアームの各関節の回転角、または、ロボットに装着されたエンドエフェクタの動作状態であることを特徴とするキャリブレーション装置。 In the calibration apparatus according to claim 1 or 2.
The robot is an articulated robot arm.
The robot parameter is a calibration device characterized in that the rotation angle of each joint of the articulated robot arm or the operating state of an end effector mounted on the robot.
前記センサはカメラであり、
前記センサパラメータは、前記カメラの、位置姿勢、焦点距離、歪係数、または、光軸中心であることを特徴とするキャリブレーション装置。 In the calibration apparatus according to claim 1 or 2.
The sensor is a camera
A calibration device characterized in that the sensor parameter is the position / orientation, focal length, distortion coefficient, or optical axis center of the camera.
前記相対位置姿勢推定部での探索には、作業者が入力した前記センサパラメータまたは前記ロボットパラメータを用いることを特徴とするキャリブレーション装置。 In the calibration apparatus according to claim 1,
A calibration device characterized in that the sensor parameter or the robot parameter input by an operator is used for the search by the relative position / orientation estimation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145546A JP7264763B2 (en) | 2019-08-07 | 2019-08-07 | calibration device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145546A JP7264763B2 (en) | 2019-08-07 | 2019-08-07 | calibration device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021024056A true JP2021024056A (en) | 2021-02-22 |
JP7264763B2 JP7264763B2 (en) | 2023-04-25 |
Family
ID=74664274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019145546A Active JP7264763B2 (en) | 2019-08-07 | 2019-08-07 | calibration device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7264763B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013191128A (en) * | 2012-03-15 | 2013-09-26 | Omron Corp | Simulator, simulation method, and simulation program |
JP2014014912A (en) * | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | Robot system, robot, robot control device, robot control method and robot control program |
JP2015136770A (en) * | 2014-01-23 | 2015-07-30 | ファナック株式会社 | Data creation system of visual sensor, and detection simulation system |
JP2017094406A (en) * | 2015-11-18 | 2017-06-01 | オムロン株式会社 | Simulation device, simulation method, and simulation program |
JP2018144160A (en) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device |
-
2019
- 2019-08-07 JP JP2019145546A patent/JP7264763B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013191128A (en) * | 2012-03-15 | 2013-09-26 | Omron Corp | Simulator, simulation method, and simulation program |
JP2014014912A (en) * | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | Robot system, robot, robot control device, robot control method and robot control program |
JP2015136770A (en) * | 2014-01-23 | 2015-07-30 | ファナック株式会社 | Data creation system of visual sensor, and detection simulation system |
JP2017094406A (en) * | 2015-11-18 | 2017-06-01 | オムロン株式会社 | Simulation device, simulation method, and simulation program |
JP2018144160A (en) * | 2017-03-03 | 2018-09-20 | 株式会社キーエンス | Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recorded device |
Also Published As
Publication number | Publication date |
---|---|
JP7264763B2 (en) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10035268B2 (en) | Measurement system used for calibrating mechanical parameters of robot | |
JP4267005B2 (en) | Measuring apparatus and calibration method | |
CN106457562B (en) | Method and robot system for calibration machine people | |
JP7237483B2 (en) | Robot system control method, control program, recording medium, control device, robot system, article manufacturing method | |
US10906182B2 (en) | Method of teaching robot and robot system | |
CN101239469B (en) | Calibration device and method for robot mechanism | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP6489776B2 (en) | Coordinate system calibration method, robot system, program, and recording medium | |
JP6235664B2 (en) | Measuring device used to calibrate mechanism parameters of robot | |
JP5371927B2 (en) | Coordinate system calibration method and robot system | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
US20160354929A1 (en) | Robot, robot control device, and robot system | |
CN108453701A (en) | Control method, the method for teaching robot and the robot system of robot | |
CN111278608B (en) | Calibration article for 3D vision robot system | |
CN101909828A (en) | Method and system for the high-precision positioning of at least one object in a final location in space | |
JP2015042437A (en) | Robot system and calibration method of robot system | |
KR20080088165A (en) | Robot calibration method | |
JPH1063317A (en) | Method for combining coordinate system in robot and visual sensor system | |
WO2018043524A1 (en) | Robot system, robot system control device, and robot system control method | |
JP2012223871A (en) | Origin correction method and system of robot joint | |
TW202102347A (en) | Calibration method of vision-guided robot arm only needing to specify a positioning mark in the calibration target to perform calibration | |
KR20130075712A (en) | A laser-vision sensor and calibration method thereof | |
JP2013173191A (en) | Robot apparatus, robot control apparatus, robot control method, and robot control program | |
JP7264763B2 (en) | calibration device | |
TWI853525B (en) | Non-transitory computer-readable medium recording thereon marker position registration program, a marker position registration device, method, and markers used in the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7264763 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |