JP2015100874A - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP2015100874A JP2015100874A JP2013242632A JP2013242632A JP2015100874A JP 2015100874 A JP2015100874 A JP 2015100874A JP 2013242632 A JP2013242632 A JP 2013242632A JP 2013242632 A JP2013242632 A JP 2013242632A JP 2015100874 A JP2015100874 A JP 2015100874A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- posture
- workpiece
- hand
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットシステムに関するものである。 The present invention relates to a robot system.
産業用のロボット、例えば加工ワークのバリ取り用ロボットを動作させる場合、該ロボットを動作させる動作プログラム(以下、「教示プログラム」と称する)を作成する必要がある。この教示プログラムを作成する方法として、例えば実際のバリ取り加工ラインにおいて、実機としてのロボットを用いて行うオンライン方式と、コンピューターによるシミュレーションを用いて実際のライン外で行うオフライン方式とが存在している。 When operating an industrial robot, for example, a deburring robot for a workpiece, it is necessary to create an operation program for operating the robot (hereinafter referred to as a “teaching program”). As a method for creating this teaching program, for example, in an actual deburring line, there are an online system that uses a robot as an actual machine and an offline system that uses a computer simulation to perform outside the actual line. .
このうち、オフライン方式の場合、ロボットモデルを含む作業環境の三次元モデル及びワークの三次元モデルを作成して表示画面に表示し、その表示画面上において、作業のポイントとなるティーチポイント(教示点とも称する)を設定するとともに、各ティーチポイントの通過順序などを定めて動作プログラムを作成する。
このようなシミュレーション方式の場合には、バリ取り加工ラインを停止させる必要がなく、しかも、ほぼ実際の作業環境にあった動作の設定が容易に可能となる利点がある。
Of these, in the offline method, a 3D model of the work environment including the robot model and a 3D model of the work are created and displayed on the display screen, and teach points (teaching points) that are the work points on the display screen. (Also referred to as “also called”), and an operation program is created by determining the passing order of each teach point.
In the case of such a simulation method, there is an advantage that it is not necessary to stop the deburring line, and that it is possible to easily set the operation in accordance with the actual work environment.
ところで、産業用ロボットの制御を行うためのプログラム言語としては、コンパイラータイプやインタプリタータイプ等がある。いずれのタイプのロボット言語の場合も、作業者であるユーザーは、これらの言語が表示された画面を参照してプログラム言語の編集を行う。すなわち、ロボットの行う作業内容をロボット言語によるプログラムリストとして表示しているので、実際の作業内容を把握するのが難しいという問題点があり、プログラムに関する特別な知識と経験が要求される。 By the way, as a programming language for controlling an industrial robot, there are a compiler type and an interpreter type. In any type of robot language, a user who is an operator edits a program language with reference to a screen on which these languages are displayed. That is, since the work contents performed by the robot are displayed as a program list in the robot language, there is a problem that it is difficult to grasp the actual work contents, and special knowledge and experience regarding the program are required.
従来ではこのような課題に対し、特許文献1に示されるように、ユーザーとのインターフェイス機能を備えた産業用ロボットの教示のために使用されるプログラムの表示、作成や編集を簡易に視覚的に行う技術が開示されている。 Conventionally, as shown in Japanese Patent Application Laid-Open No. 2004-133620, such a problem is easily displayed visually by displaying, creating and editing a program used for teaching an industrial robot having an interface function with a user. Techniques to do are disclosed.
しかしながら、上述した従来の技術においては以下に示す課題がある。特許文献1によれば、加工関連対象物の工作機械に対するハンドリング作業をロボットに実行させる作業プログラムをオフラインで作成するとともに、特許文献1に示されるように加工プログラムを視覚的に表示する。
一方、ラインに流れる加工ワークは種類や形状が単一のものもあれば異なるものもあり、加工ワークが変更される度に、プログラムの修正をパソコン上で逐次、ツール座標系若しくはパーツ座標系のいずれか一方の座標系を用いて、教示点を教示するため、正確性に欠けるおそれがあった。
However, the conventional techniques described above have the following problems. According to
On the other hand, machining workpieces flowing in a line may be of a single type or shape, or may be different, and each time the machining workpiece is changed, the program correction is sequentially performed on the personal computer in the tool coordinate system or part coordinate system. Since either one of the coordinate systems is used to teach the teaching point, there is a risk of lack of accuracy.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[適用例1]本適用例に係るロボットシステムは、ワークを把持するロボットと、前記ロボットに前記ワークの把持姿勢情報を教示する教示装置と、を含み、前記教示装置は、第1座標系における前記ロボットによる前記ワークの第1の把持姿勢と第2座標系における前記ロボットによる前記ワークの第2の把持姿勢とを受け付けることによって、前記ロボットに前記把持姿勢情報を教示する、ことを特徴とする。 Application Example 1 A robot system according to this application example includes a robot that grips a workpiece, and a teaching device that teaches the robot about gripping posture information of the workpiece, and the teaching device is in a first coordinate system. The robot is instructed of the grip posture information by receiving a first grip posture of the workpiece by the robot and a second grip posture of the workpiece by the robot in a second coordinate system. .
本適用例によれば、ワークを把持するロボットにワークの把持姿勢情報を教示するとき、第1座標系で決定した第1の把持姿勢と、第2座標系で決定した第2の把持姿勢とを受け付けることによって、最終的な把持姿勢情報を決定するので、直感的に姿勢を調整しやすく、より正確に把持姿勢情報を教示することができる。 According to this application example, when teaching the workpiece gripping posture information to the robot that grips the workpiece, the first gripping posture determined in the first coordinate system and the second gripping posture determined in the second coordinate system Since the final gripping posture information is determined by accepting, it is easy to intuitively adjust the posture, and the gripping posture information can be taught more accurately.
[適用例2]上記適用例に記載のロボットシステムにおいて、前記教示装置は、前記第1の把持姿勢と前記第2の把持姿勢とを受け付けるための入力受付画面を表示する表示部を含み、前記入力受付画面は、前記第1の把持姿勢を入力する第1入力部と、前記第2の把持姿勢を入力する第2入力部と、入力された前記第1の把持姿勢と前記第2の把持姿勢とに基づいて、前記ロボットによる前記ワークの把持姿勢を表示する把持姿勢表示部と、を含む、ことを特徴とする。 Application Example 2 In the robot system according to the application example, the teaching device includes a display unit that displays an input reception screen for receiving the first gripping posture and the second gripping posture, The input reception screen includes a first input unit that inputs the first gripping posture, a second input unit that inputs the second gripping posture, the input first gripping posture, and the second gripping And a gripping posture display unit that displays a gripping posture of the workpiece by the robot based on the posture.
本適用例によれば、第1座標系で決定した第1の把持姿勢と、第2座標系で決定した第2の把持姿勢と、を重ね合わせて視覚的に表示して最終的な把持姿勢情報を容易に決定できる。 According to this application example, the first gripping posture determined in the first coordinate system and the second gripping posture determined in the second coordinate system are superimposed and visually displayed, and the final gripping posture is displayed. Information can be easily determined.
[適用例3]上記適用例に記載のロボットシステムにおいて、前記第1座標系は、前記ワークに設けられた原点に基づくパーツ座標系である、ことを特徴とする。 Application Example 3 In the robot system according to the application example, the first coordinate system is a parts coordinate system based on an origin provided on the workpiece.
本適用例によれば、第1座標系を容易に決定できる。 According to this application example, the first coordinate system can be easily determined.
[適用例4]上記適用例に記載のロボットシステムにおいて、前記第2座標系は、前記ロボットのハンドに設けられた原点に基づくハンド座標系である、ことを特徴とする。 Application Example 4 In the robot system according to the application example, the second coordinate system is a hand coordinate system based on an origin provided in the hand of the robot.
本適用例によれば、第2座標系を容易に決定できる。 According to this application example, the second coordinate system can be easily determined.
[適用例5]上記適用例に記載のロボットシステムにおいて、前記教示装置は、前記第1の把持姿勢を受け付けた後、前記第2の把持姿勢を受け付ける、ことを特徴とする。 Application Example 5 In the robot system according to the application example described above, the teaching apparatus receives the second holding posture after receiving the first holding posture.
本適用例によれば、パーツ座標系における第1の把持姿勢を決定した後、ハンド座標系における第2の把持姿勢を決定するので、直感的に把持姿勢を調整しやすい。 According to this application example, since the second gripping posture in the hand coordinate system is determined after the first gripping posture in the part coordinate system is determined, it is easy to intuitively adjust the gripping posture.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.本実施形態の手法
図1は、本実施形態に係るロボットシステム構成例を示す図である。図2は、本実施形態に係るハンド12を示す図である。まず、本実施形態の手法について説明する。図1を用いて後述するように、本実施形態はアーム及びアームの先端に設けられるハンド(把持部)を有するロボットの制御装置等の把持姿勢情報の教示方法に関する。このような産業用ロボットでは、アーム及びハンドを操作することにより、パレット等に載せられたワーク(処理の対象となる物体)に対して処理を行う。処理の具体例としては、把持する、加工する、向きを変える、及び移動させる等が考えられる。
1. FIG. 1 is a diagram illustrating a configuration example of a robot system according to the present embodiment. FIG. 2 is a diagram illustrating the
産業用ロボットに処理を行わせる際には、一連の作業内容(以下、適宜シナリオと表記する)を設定する必要がある。シナリオの例としては、ワークを把持してから特定の面を下にして置くという例が考えられる。その他にも、右手でワークを把持した後、左手に持ち替えて、右手でワークの特定位置に部品を取り付ける、といったシナリオが想定される。 When processing an industrial robot, it is necessary to set a series of work contents (hereinafter referred to as scenarios as appropriate). As an example of a scenario, an example in which a workpiece is held and then placed with a specific surface facing down can be considered. In addition, a scenario may be assumed in which a workpiece is gripped with the right hand, then is moved to the left hand, and a part is attached to a specific position of the workpiece with the right hand.
しかし、シナリオが設定されたとしてもロボットに対してより正確に処理を行わせることは容易ではない。
例えば、ワークの把持方法を教示するときに、数値又はスライダーなどでハンドの把持点(x,y,z)と、xyz軸周りの回転(α,β,γ)を入力すると、ワークとハンドとが指定した位置姿勢でグラフィカルに表示され、図を見ながら把持位置や把持姿勢情報を教示する。図はグローバル座標系で作業環境が表示されてもよいし、ワーク等の対象物の座標系で対象物が表示されてもよい。その座標系におけるハンドの位置姿勢を教示したいが、複数の軸が回転するときの動きは直感的に分かりにくい。
However, even if a scenario is set, it is not easy for the robot to perform processing more accurately.
For example, when teaching a gripping method of a workpiece, if a gripping point (x, y, z) of a hand and a rotation (α, β, γ) around the xyz axis are input by numerical values or sliders, Is graphically displayed at the specified position and orientation, and teaches the grip position and grip posture information while viewing the figure. In the figure, the work environment may be displayed in a global coordinate system, or the object may be displayed in the coordinate system of the object such as a workpiece. I want to teach the position and orientation of the hand in the coordinate system, but it is difficult to intuitively understand the movement when multiple axes rotate.
そこで本出願人は、シナリオに従ってより正確な把持姿勢を決定する手法を提案する。上述の例で言えば、パーツ座標系(第1座標系)で教示した把持姿勢情報と、ハンド座標系(第2座標系)で教示した把持姿勢情報を合成して、最終的な把持姿勢情報を決定する。具体的には、xyz軸周りに回転させて図2に示すハンド12の方向を大まかに決めた後、微調整を行う。つまり、ハンド12を指定した角度でxyz軸周りに回転した後で、ハンド12の姿勢(の軸)に対して回転を入力(指定)する。このようにすることで、より正確に、把持姿勢情報を教示することができる。なお、ハンド座標系とは、ロボットのハンドの位置を元にした座標系であり、パーツ座標系とは、ワークの向いている方向を元にした座標系である。
Therefore, the present applicant proposes a method for determining a more accurate gripping posture according to a scenario. In the above example, the gripping posture information taught in the parts coordinate system (first coordinate system) and the gripping posture information taught in the hand coordinate system (second coordinate system) are combined to obtain the final gripping posture information. To decide. Specifically, after rotating around the xyz axis to roughly determine the direction of the
ここで、軸周りの回転行列について説明する。軸周りの回転行列は、点(x,y,z)を順にx軸周りに角度α、y軸周りに角度β、z軸周りに角度γだけ回転させた場合、次式(1)で表される。 Here, the rotation matrix around the axis will be described. The rotation matrix around the axis is expressed by the following equation (1) when the point (x, y, z) is rotated by an angle α around the x axis, an angle β around the y axis, and an angle γ around the z axis. Is done.
また、任意の軸周りの回転行列は、ベクトルA(a,b,c)周りに角度θ回転させた場合、次式(2)で表される。 A rotation matrix around an arbitrary axis is expressed by the following equation (2) when the angle θ is rotated around the vector A (a, b, c).
2.ロボットシステム構成例
本実施形態に係るロボット制御装置を含むロボットシステムの構成例を図1を用いて説明する。ロボットシステムは、教示装置2と、撮像装置4と、ロボット6とを含む。ただし、ロボットシステムは図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。ロボット6は、アーム10及びハンド12を有し、教示装置2からの動作指示に従い処理を行う。例えばパレット14に載せられたワークに対して処理を行う。撮像装置4は、例えばワークを撮影可能な位置(パレットの直上でもよいし、ロボット6のハンド12に取り付けられてもよい)に設けられ、主にワークの撮影を行う。そして、撮像画像の情報からワークの位置や姿勢等に関する情報を検出する。検出した情報は例えば教示装置2等に送られてもよいし、直接ロボット6に送られてもよい。また、ワークの位置や姿勢等に関する情報を検出できればよいため、撮像装置4による撮像画像の取得以外の手法(例えばレーザー等を用いた3次元スキャン)を用いてもよい。
2. Robot System Configuration Example A configuration example of a robot system including the robot control apparatus according to the present embodiment will be described with reference to FIG. The robot system includes a
次に、図3及び図4を参照して教示装置2について説明する。
図3は、本実施形態に係る詳細なロボットシステム構成例を示す図である。教示装置2は、図3に示すように、一般的なコンピューターと同様の構成であり、記憶部16と、処理部18と、表示部20と、外部I/F部22とを含む。
Next, the
FIG. 3 is a diagram illustrating a detailed configuration example of the robot system according to the present embodiment. As shown in FIG. 3, the
記憶部16は、データベースを記憶したり、処理部18等のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。記憶部16は、ワークデータベース24(以下データベースを適宜DBと表記する)と、ロボットDB26とを含み、ロボットDB26は、アームDB28と、ハンドDB30を含む。当該ロボットが複数のアームを備える場合は、アームDB28とハンドDB30とは複数個であってもよい。
The
ワークDB24はワークの大きさ、形状、姿勢等の情報を記憶する。
The
ロボットDB26はロボットに関するデータを記憶する。具体的にはアームDB28でアームの形状、可動範囲等を記憶し、ハンドDB30でハンドの形状、大きさ等の情報を記憶する。ただし、記憶部16は図3の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
The
処理部18は、記憶部16からのデータや、外部I/F部22において受信した撮像装置あるいはロボットからの情報等に基づいて種々の処理を行う。この処理部18の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
The
処理部18は、ワーク位置演算部32と、画像処理部34と、把持パターン情報取得部36とを含む。処理部18は図3の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
The
ワーク位置演算部32は、ワークの位置を演算する。例えば外部I/F部22において撮像装置4から取得したデータを用いてワーク位置を演算する。
The work
画像処理部34は、撮像装置4からの撮像画像情報を取得し、種々の画像処理を行う。なお、ここでは画像処理部34は、教示装置2の処理部18に設けられるものとしたがこれに限定されるものではない。画像処理部は撮像装置4に内蔵されてもよい。
The
把持パターン情報取得部36は、記憶部16のデータベースに記憶された情報に基づいて、動作指示を実行可能な把持パターン情報を取得する。具体的に取得される把持パターン群については後述する。
The grip pattern
表示部20は、各種の表示画面を表示するためのものであり、例えば液晶ディスプレイや有機ELディスプレイなどにより実現できる。
The
外部I/F部22は、教示装置2に対するユーザーからの入力等を行ったり、撮像装置4やロボット6からの情報を受け付けたりするためのインターフェイスである。ユーザーからの入力等に関しては、スイッチやボタン、キーボード、あるいはマウス等から構成されてもよい。
The external I /
撮像装置4は、上述したように、例えばワークを撮影可能な位置に設けられ、主にワークの撮影を行う。本実施形態においては撮像画像情報をそのまま教示装置2に送信するものとするが、これに限定されるものではない。例えば、教示装置2の処理部18の一部(例えば画像処理部34等)を撮像装置4に持たせてもよい。その場合、撮像画像に対して画像処理が施された後の情報が出力されることになる。
As described above, the
また、ロボット6は、アーム10及びハンド12の他に制御部38を含む。制御部38は、教示装置2からの情報を受け付け、ロボット6の各部(アーム10及びハンド12等)の制御を行う。
The
3.把持姿勢情報の教示方法
次に、把持姿勢情報の教示方法について説明する。具体的には、フローチャートを用いて処理の流れを説明する。
図4は、本実施形態に係る入力受付画面の例を示した図である。教示装置2は表示部20に図4に示すような入力受付画面を表示する。入力受付画面はハンド12の把持点及び姿勢を入力する画面である。入力受付画面は、「座標と姿勢の入力」の把持点及び姿勢の入力を促す第1入力部Dと、「微調整」のPoseA周りの回転の入力を促す第2入力部Eと、及びワークとハンド12との位置関係をグラフィカルに表示する把持姿勢表示部Fと、を備える。
3. Gripping posture information teaching method Next, a gripping posture information teaching method will be described. Specifically, the flow of processing will be described using a flowchart.
FIG. 4 is a diagram illustrating an example of an input reception screen according to the present embodiment. The
ワーク及びハンド12は、入力受付画面の把持姿勢表示部Fにパーツ座標系を基準とするxyz軸座標で表示される。ワーク及びハンド12はハンド座標系で表示されてもよい。ハンド12は鉛筆型で表示される。ハンド12は、鉛筆型の先端がハンド12の先端位置(把持点)として表示される。ハンド12は、鉛筆型の先の棒40(PoseA)と棒42(PoseB)とでハンド12の姿勢として表示される。
The work and the
教示装置2は、ユーザーに対して入力受付画面の第1入力部Dで把持点と姿勢との入力を促す。及び、教示装置2は、ユーザーに対して入力受付画面の第2入力部Eに微調整(上記回転後のPoseA周りの回転)の入力を促す。なお、回転後とは、ワークに対してハンド12の把持点と姿勢とがある程度決まった姿勢のことである。つまり現在の姿勢に対してPoseA(棒40)を軸に回転を指定することを促す。教示装置2は、このレイアウト設計に基づく各ユニットの設置領域上の把持姿勢情報を、ロボット6に教示する。
The
なお、図4の入力受付画面において、棒40がハンド12の前(先端)の方向を示し、PoseAと呼び、棒42の方向がハンド12の指の開く方向を示し、PoseBと呼ぶ。また、第1入力部D及び第2入力部Eのスライダーで入力、又は、エディットボックスに数値を入れ、Enterキーで確定すると、図のハンド12の把持点及び姿勢に反映される。また、微調整は現在のハンドのPoseAを軸に回転するので、xyz軸周りの回転を変更した場合、PoseA周りの回転は0に戻してもよい。
In the input acceptance screen of FIG. 4, the
ここで、入力受付画面に具体的な数値を設定して説明する。図4に示すように、第1入力部Dの把持点が(x,y,z)=(−49,15,21)である。ワークを斜めから把持したい場合の姿勢が、x軸周りの回転α=37度、y軸周りの回転β=10度、z軸周りの回転γ=−34度とした場合、上式(1)に代入すると、姿勢を回転させる前のハンド12の前方向(PoseA)は(x,y,z)=(1,0,0)なので、領域GのPoseAに表示するように、(x’,y’,z’)=(0.82,−0.36,−0.45)(なお、これは小数第3位を四捨五入)の方向を向いている。姿勢を回転させる前のハンド12の指の開閉方向(PoseB)は(x,y,z)=(0,0,1)なので、(x’,y’,z’)=(0.17,−0.59,0.79)(図示せず)となる。
Here, a specific numerical value is set on the input reception screen. As shown in FIG. 4, the gripping point of the first input unit D is (x, y, z) = (− 49, 15, 21). When it is desired to hold the workpiece from an oblique angle, the rotation α around the x axis is α = 37 degrees, the rotation around the y axis is β = 10 degrees, and the rotation around the z axis is γ = −34 degrees. , The forward direction (Pose A) of the
この回転後にハンド12の前方向(PoseA)はそのままで指の開閉方向(PoseB)だけを変えたいとき、軸周りの回転α,β,γの数値を変えて姿勢を合わせるのは困難なので、回転した状態でのハンド12の前方向(PoseA)を軸として回転を指定する。
After this rotation, if you want to change only the finger opening / closing direction (Pose B) while keeping the forward direction (Pose A) of the
例えば、第2入力部Eの微調整が、PoseA周りの回転θ=−28度とした場合、回転軸のPoseAは(a,b,c)=(0.82,−0.36,−0.45)なので、式(2)に代入すると、領域GのPoseBが(x”,y”,z”)=(0.41,−0.19,0.89)(なお、これは小数第3位を四捨五入)となる。 For example, when the fine adjustment of the second input unit E is a rotation θ around −A = −28 degrees, Pose A of the rotation axis is (a, b, c) = (0.82, −0.36, −0) .45), so when substituting into the expression (2), Pose B of the region G is (x ″, y ″, z ″) = (0.41, −0.19, 0.89) Rounded 3rd).
図5及び図7は、本実施形態に係る処理を説明するためのフローチャートである。図6は、フローチャートの説明に用いられる状況の具体例である。なお、具体例として図6に示したように、場所P1にあるワークを、面Cを下にして場所P2に移動する単腕ロボットの例を用いるが、図5のフローチャートの処理はこの具体例に限定されるものではない。 5 and 7 are flowcharts for explaining processing according to the present embodiment. FIG. 6 is a specific example of the situation used for explaining the flowchart. As a specific example, as shown in FIG. 6, an example of a single-arm robot that moves a workpiece at the place P1 to the place P2 with the surface C facing down is used. The processing of the flowchart in FIG. It is not limited to.
この処理が開始されると、まず、ステップS10において、処理部18はユーザーからの入力を受け付ける。具体的には例えば、「場所P1にあるワークを、面Cを下にして場所P2に置く」といった入力が考えられる。
When this process is started, first, in step S10, the
そして、ステップS12において、処理部18は入力に応じてシナリオの作成処理を開始し、ステップS14において、処理部18はシナリオの作成が可能であるかの判定を行う。シナリオは例えば、(1)ワークの状況を確認する(2)ハンドでワークを把持する(3)ワークの面Cを下にして場所P2に置く、といったシナリオが考えられる。ステップS14でシナリオの作成が不可能であった場合には、ステップS30において、処理部18は表示部20にエラーを表示して処理を終了する。
In step S12, the
ステップS14でシナリオが作成可能であった場合には、ステップS16において、処理部18はシナリオを単位動作に分解した上で分析し、ステップS18において、処理部18はロボット6が動作可能かの判定を行う。
If a scenario can be created in step S14, in step S16, the
具体的には、上述(2)のハンド12でワークを把持する、というステップに関しては、場所P1がアームの可動範囲内であるか、ハンド12及びワークの形状、大きさから考えて把持可能であるか等の判定が行われる。
Specifically, regarding the step of gripping the workpiece with the
そして、ステップS18でロボット6が動作可能であった場合には、ステップS20において、処理部18は全ての単位動作の分析が完了したかの判定を行い、完了していなければ次の単位動作の分析を行い、完了した場合にはステップS22に移行する。また、ステップS18において、動作不可能と判定した場合には、ステップS12に戻ってシナリオを再作成する。
If the
次に、ステップS22において、処理部18は全動作の分析を行い、ステップS24において、処理部18は動作の流れに不都合がないか確認する。動作可能であればステップS26へ移行し、不可能であればステップS12に戻ってシナリオを再作成する。
Next, in step S22, the
ステップS26では、処理部18は複数の把持パターンの候補が残った場合に、提示する把持パターンの選択を行う。
In step S <b> 26, the
そして、ステップS28において、処理部18はロボット6への命令を作成し送信する。
In step S28, the
なお、ステップS18において単位動作分析の結果動作不可能とされた場合の対処例について説明する。例えば、場所P1あるいはP2が遠いため、アーム10が届かないということであれば、双腕ロボットの場合もう一方のハンドを用いるシナリオに変更する。また、右手だけあるいは左手だけでは、場所P1とP2との両方に届かないという場合には、途中で持ち替えをするシナリオに変更する。ワークが大きく片手で把持できない場合には、両手のひらで挟んで持ち上げるシナリオに変更すればよい。
A coping example in the case where the operation is not possible as a result of the unit operation analysis in step S18 will be described. For example, if the location P1 or P2 is far and the
続いてステップS10の入力における(2)ハンド12でワークを把持する手法の入力について説明する。まず、図7に示すように、ステップS50において、処理部18は、入力受付画面の第1入力部Dで、ユーザーからパーツ座標系(第1座標系)におけるロボットによるワークの把持点と姿勢との入力を受け付ける。
Next, (2) input of a technique for gripping a workpiece with the
次に、ステップS52において、処理部18は、ユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢との入力を基に表示部20にハンド12及びワークを入力受付画面の把持姿勢表示部Fに表示し、ユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢とに不都合がないか確認の入力を受け付ける。不都合がなければ、パーツ座標系におけるロボットによるワークの第1の把持姿勢を決定し、ステップS54へ移行する。不都合があればステップS50に戻ってユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢との入力を受け付ける。
Next, in step S52, the
次に、ステップS54において、処理部18は、入力受付画面の第2入力部Eで、ユーザーからハンド座標系(第2座標系)におけるロボットによるワークの姿勢の微調整の入力を受け付ける。
Next, in step S54, the
具体的には、現在のハンド12の座標軸に対して姿勢の入力を受け付ける。つまり、第1の把持姿勢の画像を視覚的に入力受付画面の把持姿勢表示部Fに表示するとともに、ハンド座標系におけるロボットによるワークの第2の把持姿勢の入力を受け付ける。
Specifically, an input of a posture with respect to the current coordinate axis of the
次に、ステップS56において、処理部18は、ユーザーからの姿勢の微調整の入力を基に表示部20にハンド12及びワークを入力受付画面の把持姿勢表示部Fに表示し、ユーザーからの姿勢の微調整に不都合がないか確認の入力を受け付ける。不都合があればステップS54に戻ってユーザーからの姿勢の微調整の入力を受け付け、不都合がなければ第2の把持姿勢を決定し、ステップS10のサブルーチンを終了する。
Next, in step S56, the
上記ステップS50〜S56の手順により、パーツ座標系におけるワークの第1の把持姿勢を決定した後、ハンド座標系におけるワークの第2の把持姿勢の入力を受け付けることになる。また、第1の把持姿勢と第2の把持姿勢とを用いて、ロボットに教示する把持姿勢情報が決定され、上記ステップS28において、処理部18はロボット6へ把持姿勢情報を送信する。
After the first gripping posture of the workpiece in the part coordinate system is determined by the steps S50 to S56, the input of the second gripping posture of the workpiece in the hand coordinate system is accepted. Also, using the first holding posture and the second holding posture, the holding posture information to be taught to the robot is determined, and in step S28, the
本実施形態によれば、ワークとハンド12とを表示した図を見ながらワークを把持するハンド12の把持点と姿勢とを教示するとき、パーツ座標系で決定した第1の把持姿勢と、ハンド座標系で決定した第2の把持姿勢とを重ね合わせて視覚的に表示して、最終的な把持姿勢情報を決定するので、直感的に姿勢を調整しやすく、より正確に把持姿勢情報を教示することができる。また、パーツ座標系における第1の把持姿勢を決定した後、ハンド座標系における第2の把持姿勢を決定するので、直感的に把持姿勢情報を調整しやすい。
According to the present embodiment, when teaching the gripping point and posture of the
なお、以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またロボット制御装置及びロボットシステム等の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the robot control device and the robot system are not limited to those described in this embodiment, and various modifications can be made.
2…教示装置 4…撮像装置 6…ロボット 10…アーム 12…ハンド 14…パレット 16…記憶部 18…処理部 20…表示部 22…外部I/F部 24…ワークDB 26…ロボットDB 28…アームDB 30…ハンドDB 32…ワーク位置演算部 34…画像処理部 36…把持パターン情報取得部 38…制御部 40,42…棒。
2 ...
Claims (5)
前記ロボットに前記ワークの把持姿勢情報を教示する教示装置と、を含み、
前記教示装置は、
第1座標系における前記ロボットによる前記ワークの第1の把持姿勢と第2座標系における前記ロボットによる前記ワークの第2の把持姿勢とを受け付けることによって、前記ロボットに前記把持姿勢情報を教示する、
ことを特徴とするロボットシステム。 A robot that grips the workpiece;
A teaching device for teaching the robot the gripping posture information of the workpiece,
The teaching device includes:
Teaching the robot the gripping posture information by receiving a first gripping posture of the workpiece by the robot in a first coordinate system and a second gripping posture of the workpiece by the robot in a second coordinate system;
A robot system characterized by this.
前記教示装置は、前記第1の把持姿勢と前記第2の把持姿勢とを受け付けるための入力受付画面を表示する表示部を含み、
前記入力受付画面は、
前記第1の把持姿勢を入力する第1入力部と、
前記第2の把持姿勢を入力する第2入力部と、
入力された前記第1の把持姿勢と前記第2の把持姿勢とに基づいて、前記ロボットによる前記ワークの把持姿勢を表示する把持姿勢表示部と、を含む、
ことを特徴とするロボットシステム。 The robot system according to claim 1,
The teaching device includes a display unit that displays an input reception screen for receiving the first holding posture and the second holding posture,
The input acceptance screen is
A first input unit for inputting the first holding posture;
A second input unit for inputting the second gripping posture;
A gripping posture display unit that displays the gripping posture of the workpiece by the robot based on the input first gripping posture and the second gripping posture.
A robot system characterized by this.
前記第1座標系は、前記ワークに設けられた原点に基づくパーツ座標系である、
ことを特徴とするロボットシステム。 The robot system according to claim 1 or 2,
The first coordinate system is a part coordinate system based on an origin provided on the workpiece.
A robot system characterized by this.
前記第2座標系は、前記ロボットのハンドに設けられた原点に基づくハンド座標系である、
ことを特徴とするロボットシステム。 The robot system according to any one of claims 1 to 3,
The second coordinate system is a hand coordinate system based on an origin provided in the robot hand.
A robot system characterized by this.
前記教示装置は、
前記第1の把持姿勢を受け付けた後、前記第2の把持姿勢を受け付ける、
ことを特徴とするロボットシステム。 The robot system according to any one of claims 1 to 4, wherein
The teaching device includes:
Accepting the second gripping posture after receiving the first gripping posture;
A robot system characterized by this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242632A JP2015100874A (en) | 2013-11-25 | 2013-11-25 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242632A JP2015100874A (en) | 2013-11-25 | 2013-11-25 | Robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015100874A true JP2015100874A (en) | 2015-06-04 |
Family
ID=53377040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013242632A Pending JP2015100874A (en) | 2013-11-25 | 2013-11-25 | Robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015100874A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108724179A (en) * | 2017-04-21 | 2018-11-02 | 精工爱普生株式会社 | control device, robot and robot system |
CN109551459A (en) * | 2017-09-25 | 2019-04-02 | 发那科株式会社 | Robot system and method for taking out work |
CN110461550A (en) * | 2017-03-24 | 2019-11-15 | 三菱电机株式会社 | The generating means and generation method of robot program |
-
2013
- 2013-11-25 JP JP2013242632A patent/JP2015100874A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110461550A (en) * | 2017-03-24 | 2019-11-15 | 三菱电机株式会社 | The generating means and generation method of robot program |
CN108724179A (en) * | 2017-04-21 | 2018-11-02 | 精工爱普生株式会社 | control device, robot and robot system |
CN109551459A (en) * | 2017-09-25 | 2019-04-02 | 发那科株式会社 | Robot system and method for taking out work |
JP2019058960A (en) * | 2017-09-25 | 2019-04-18 | ファナック株式会社 | Robot system and workpiece take-out method |
US11845194B2 (en) | 2017-09-25 | 2023-12-19 | Fanuc Corporation | Robot system and workpiece picking method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9311608B2 (en) | Teaching system and teaching method | |
JP6311421B2 (en) | Teaching system, robot system, and teaching method | |
JP4271232B2 (en) | Apparatus, method, program, and recording medium for executing offline programming of robot | |
JP6379874B2 (en) | Teaching system, robot system, and teaching method | |
US9186792B2 (en) | Teaching system, teaching method and robot system | |
EP3875230A1 (en) | External input device, robot system, control method for robot system, control program, and recording medium | |
CN110977931A (en) | Robot control device and display device using augmented reality and mixed reality | |
US20190202058A1 (en) | Method of programming an industrial robot | |
CN108000523B (en) | Simulation device, simulation method, and recording medium for simulating operation of robot system | |
JP5154616B2 (en) | Offline teaching method | |
JP2006048244A (en) | Working program generating device | |
JP2007286976A (en) | Robot simulation apparatus | |
TW201606467A (en) | Teaching data-generating device and teaching data-generating method for work robot | |
JP2018176333A (en) | Offline programming apparatus and method having workpiece position detection program generation function using contact sensor | |
JP2019188545A (en) | Robot control device | |
JP2019089201A (en) | Teaching data creation device, method for controlling teaching data creation device, and robot system | |
JP2015100874A (en) | Robot system | |
JP5813931B2 (en) | Teaching data correction system | |
US20180088569A1 (en) | Off-line-programming jog assist device, jog assist method, and recording medium storing jog assist program | |
JP2020175471A (en) | Information processing device, information processing method, program and recording medium | |
JP2015222196A (en) | Three dimensional measuring machine and method for measuring shape using the same | |
CN109773581B (en) | Method for applying robot to reappear machining | |
JPH06134684A (en) | Teaching method of robot track | |
JP2015116631A (en) | Control device, robot, control method, and robot system | |
US20230226688A1 (en) | Robot programming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160616 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160624 |