[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015100874A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2015100874A
JP2015100874A JP2013242632A JP2013242632A JP2015100874A JP 2015100874 A JP2015100874 A JP 2015100874A JP 2013242632 A JP2013242632 A JP 2013242632A JP 2013242632 A JP2013242632 A JP 2013242632A JP 2015100874 A JP2015100874 A JP 2015100874A
Authority
JP
Japan
Prior art keywords
robot
posture
workpiece
hand
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013242632A
Other languages
Japanese (ja)
Inventor
佳織 佐藤
Kaori Sato
佳織 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013242632A priority Critical patent/JP2015100874A/en
Publication of JP2015100874A publication Critical patent/JP2015100874A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot system capable of easily adjusting an attitude intuitionally and teaching the gripping attitude information more precisely.SOLUTION: A robot system comprises: a robot 6 for gripping a workpiece; and a teaching device 2 for teaching the robot 6 the gripping position information of the workpiece. The teaching device 2 receives the first gripping position of the workpiece by the robot 6 in a first coordinate system and a second gripping position of the workpiece by the robot 6 in a second coordinate system thereby to teach the robot the gripping position information.

Description

本発明は、ロボットシステムに関するものである。   The present invention relates to a robot system.

産業用のロボット、例えば加工ワークのバリ取り用ロボットを動作させる場合、該ロボットを動作させる動作プログラム(以下、「教示プログラム」と称する)を作成する必要がある。この教示プログラムを作成する方法として、例えば実際のバリ取り加工ラインにおいて、実機としてのロボットを用いて行うオンライン方式と、コンピューターによるシミュレーションを用いて実際のライン外で行うオフライン方式とが存在している。   When operating an industrial robot, for example, a deburring robot for a workpiece, it is necessary to create an operation program for operating the robot (hereinafter referred to as a “teaching program”). As a method for creating this teaching program, for example, in an actual deburring line, there are an online system that uses a robot as an actual machine and an offline system that uses a computer simulation to perform outside the actual line. .

このうち、オフライン方式の場合、ロボットモデルを含む作業環境の三次元モデル及びワークの三次元モデルを作成して表示画面に表示し、その表示画面上において、作業のポイントとなるティーチポイント(教示点とも称する)を設定するとともに、各ティーチポイントの通過順序などを定めて動作プログラムを作成する。
このようなシミュレーション方式の場合には、バリ取り加工ラインを停止させる必要がなく、しかも、ほぼ実際の作業環境にあった動作の設定が容易に可能となる利点がある。
Of these, in the offline method, a 3D model of the work environment including the robot model and a 3D model of the work are created and displayed on the display screen, and teach points (teaching points) that are the work points on the display screen. (Also referred to as “also called”), and an operation program is created by determining the passing order of each teach point.
In the case of such a simulation method, there is an advantage that it is not necessary to stop the deburring line, and that it is possible to easily set the operation in accordance with the actual work environment.

ところで、産業用ロボットの制御を行うためのプログラム言語としては、コンパイラータイプやインタプリタータイプ等がある。いずれのタイプのロボット言語の場合も、作業者であるユーザーは、これらの言語が表示された画面を参照してプログラム言語の編集を行う。すなわち、ロボットの行う作業内容をロボット言語によるプログラムリストとして表示しているので、実際の作業内容を把握するのが難しいという問題点があり、プログラムに関する特別な知識と経験が要求される。   By the way, as a programming language for controlling an industrial robot, there are a compiler type and an interpreter type. In any type of robot language, a user who is an operator edits a program language with reference to a screen on which these languages are displayed. That is, since the work contents performed by the robot are displayed as a program list in the robot language, there is a problem that it is difficult to grasp the actual work contents, and special knowledge and experience regarding the program are required.

従来ではこのような課題に対し、特許文献1に示されるように、ユーザーとのインターフェイス機能を備えた産業用ロボットの教示のために使用されるプログラムの表示、作成や編集を簡易に視覚的に行う技術が開示されている。   Conventionally, as shown in Japanese Patent Application Laid-Open No. 2004-133620, such a problem is easily displayed visually by displaying, creating and editing a program used for teaching an industrial robot having an interface function with a user. Techniques to do are disclosed.

特開2012−22546号公報JP 2012-22546 A

しかしながら、上述した従来の技術においては以下に示す課題がある。特許文献1によれば、加工関連対象物の工作機械に対するハンドリング作業をロボットに実行させる作業プログラムをオフラインで作成するとともに、特許文献1に示されるように加工プログラムを視覚的に表示する。
一方、ラインに流れる加工ワークは種類や形状が単一のものもあれば異なるものもあり、加工ワークが変更される度に、プログラムの修正をパソコン上で逐次、ツール座標系若しくはパーツ座標系のいずれか一方の座標系を用いて、教示点を教示するため、正確性に欠けるおそれがあった。
However, the conventional techniques described above have the following problems. According to Patent Document 1, an operation program for causing a robot to perform a processing operation on a machine tool of a processing-related object is created offline, and the processing program is visually displayed as disclosed in Patent Document 1.
On the other hand, machining workpieces flowing in a line may be of a single type or shape, or may be different, and each time the machining workpiece is changed, the program correction is sequentially performed on the personal computer in the tool coordinate system or part coordinate system. Since either one of the coordinate systems is used to teach the teaching point, there is a risk of lack of accuracy.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]本適用例に係るロボットシステムは、ワークを把持するロボットと、前記ロボットに前記ワークの把持姿勢情報を教示する教示装置と、を含み、前記教示装置は、第1座標系における前記ロボットによる前記ワークの第1の把持姿勢と第2座標系における前記ロボットによる前記ワークの第2の把持姿勢とを受け付けることによって、前記ロボットに前記把持姿勢情報を教示する、ことを特徴とする。   Application Example 1 A robot system according to this application example includes a robot that grips a workpiece, and a teaching device that teaches the robot about gripping posture information of the workpiece, and the teaching device is in a first coordinate system. The robot is instructed of the grip posture information by receiving a first grip posture of the workpiece by the robot and a second grip posture of the workpiece by the robot in a second coordinate system. .

本適用例によれば、ワークを把持するロボットにワークの把持姿勢情報を教示するとき、第1座標系で決定した第1の把持姿勢と、第2座標系で決定した第2の把持姿勢とを受け付けることによって、最終的な把持姿勢情報を決定するので、直感的に姿勢を調整しやすく、より正確に把持姿勢情報を教示することができる。   According to this application example, when teaching the workpiece gripping posture information to the robot that grips the workpiece, the first gripping posture determined in the first coordinate system and the second gripping posture determined in the second coordinate system Since the final gripping posture information is determined by accepting, it is easy to intuitively adjust the posture, and the gripping posture information can be taught more accurately.

[適用例2]上記適用例に記載のロボットシステムにおいて、前記教示装置は、前記第1の把持姿勢と前記第2の把持姿勢とを受け付けるための入力受付画面を表示する表示部を含み、前記入力受付画面は、前記第1の把持姿勢を入力する第1入力部と、前記第2の把持姿勢を入力する第2入力部と、入力された前記第1の把持姿勢と前記第2の把持姿勢とに基づいて、前記ロボットによる前記ワークの把持姿勢を表示する把持姿勢表示部と、を含む、ことを特徴とする。   Application Example 2 In the robot system according to the application example, the teaching device includes a display unit that displays an input reception screen for receiving the first gripping posture and the second gripping posture, The input reception screen includes a first input unit that inputs the first gripping posture, a second input unit that inputs the second gripping posture, the input first gripping posture, and the second gripping And a gripping posture display unit that displays a gripping posture of the workpiece by the robot based on the posture.

本適用例によれば、第1座標系で決定した第1の把持姿勢と、第2座標系で決定した第2の把持姿勢と、を重ね合わせて視覚的に表示して最終的な把持姿勢情報を容易に決定できる。   According to this application example, the first gripping posture determined in the first coordinate system and the second gripping posture determined in the second coordinate system are superimposed and visually displayed, and the final gripping posture is displayed. Information can be easily determined.

[適用例3]上記適用例に記載のロボットシステムにおいて、前記第1座標系は、前記ワークに設けられた原点に基づくパーツ座標系である、ことを特徴とする。   Application Example 3 In the robot system according to the application example, the first coordinate system is a parts coordinate system based on an origin provided on the workpiece.

本適用例によれば、第1座標系を容易に決定できる。   According to this application example, the first coordinate system can be easily determined.

[適用例4]上記適用例に記載のロボットシステムにおいて、前記第2座標系は、前記ロボットのハンドに設けられた原点に基づくハンド座標系である、ことを特徴とする。   Application Example 4 In the robot system according to the application example, the second coordinate system is a hand coordinate system based on an origin provided in the hand of the robot.

本適用例によれば、第2座標系を容易に決定できる。   According to this application example, the second coordinate system can be easily determined.

[適用例5]上記適用例に記載のロボットシステムにおいて、前記教示装置は、前記第1の把持姿勢を受け付けた後、前記第2の把持姿勢を受け付ける、ことを特徴とする。   Application Example 5 In the robot system according to the application example described above, the teaching apparatus receives the second holding posture after receiving the first holding posture.

本適用例によれば、パーツ座標系における第1の把持姿勢を決定した後、ハンド座標系における第2の把持姿勢を決定するので、直感的に把持姿勢を調整しやすい。   According to this application example, since the second gripping posture in the hand coordinate system is determined after the first gripping posture in the part coordinate system is determined, it is easy to intuitively adjust the gripping posture.

本実施形態に係るロボットシステム構成例を示す図。The figure which shows the robot system structural example which concerns on this embodiment. 本実施形態に係るハンドを示す図。The figure which shows the hand which concerns on this embodiment. 本実施形態に係る詳細なロボットシステム構成例を示す図。The figure which shows the detailed robot system structural example which concerns on this embodiment. 本実施形態に係る入力受付画面の例を示した図。The figure which showed the example of the input reception screen which concerns on this embodiment. 本実施形態に係る処理を説明するためのフローチャート。The flowchart for demonstrating the process which concerns on this embodiment. フローチャートの説明に用いられる状況の具体例。A specific example of a situation used for explaining a flowchart. 本実施形態に係る処理を説明するためのフローチャート。The flowchart for demonstrating the process which concerns on this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.本実施形態の手法
図1は、本実施形態に係るロボットシステム構成例を示す図である。図2は、本実施形態に係るハンド12を示す図である。まず、本実施形態の手法について説明する。図1を用いて後述するように、本実施形態はアーム及びアームの先端に設けられるハンド(把持部)を有するロボットの制御装置等の把持姿勢情報の教示方法に関する。このような産業用ロボットでは、アーム及びハンドを操作することにより、パレット等に載せられたワーク(処理の対象となる物体)に対して処理を行う。処理の具体例としては、把持する、加工する、向きを変える、及び移動させる等が考えられる。
1. FIG. 1 is a diagram illustrating a configuration example of a robot system according to the present embodiment. FIG. 2 is a diagram illustrating the hand 12 according to the present embodiment. First, the method of this embodiment will be described. As will be described later with reference to FIG. 1, the present embodiment relates to a method for teaching gripping posture information of a robot control device or the like having an arm and a hand (grip unit) provided at the tip of the arm. In such an industrial robot, a work (an object to be processed) placed on a pallet or the like is processed by operating an arm and a hand. As specific examples of processing, grasping, processing, changing the direction, moving, and the like can be considered.

産業用ロボットに処理を行わせる際には、一連の作業内容(以下、適宜シナリオと表記する)を設定する必要がある。シナリオの例としては、ワークを把持してから特定の面を下にして置くという例が考えられる。その他にも、右手でワークを把持した後、左手に持ち替えて、右手でワークの特定位置に部品を取り付ける、といったシナリオが想定される。   When processing an industrial robot, it is necessary to set a series of work contents (hereinafter referred to as scenarios as appropriate). As an example of a scenario, an example in which a workpiece is held and then placed with a specific surface facing down can be considered. In addition, a scenario may be assumed in which a workpiece is gripped with the right hand, then is moved to the left hand, and a part is attached to a specific position of the workpiece with the right hand.

しかし、シナリオが設定されたとしてもロボットに対してより正確に処理を行わせることは容易ではない。
例えば、ワークの把持方法を教示するときに、数値又はスライダーなどでハンドの把持点(x,y,z)と、xyz軸周りの回転(α,β,γ)を入力すると、ワークとハンドとが指定した位置姿勢でグラフィカルに表示され、図を見ながら把持位置や把持姿勢情報を教示する。図はグローバル座標系で作業環境が表示されてもよいし、ワーク等の対象物の座標系で対象物が表示されてもよい。その座標系におけるハンドの位置姿勢を教示したいが、複数の軸が回転するときの動きは直感的に分かりにくい。
However, even if a scenario is set, it is not easy for the robot to perform processing more accurately.
For example, when teaching a gripping method of a workpiece, if a gripping point (x, y, z) of a hand and a rotation (α, β, γ) around the xyz axis are input by numerical values or sliders, Is graphically displayed at the specified position and orientation, and teaches the grip position and grip posture information while viewing the figure. In the figure, the work environment may be displayed in a global coordinate system, or the object may be displayed in the coordinate system of the object such as a workpiece. I want to teach the position and orientation of the hand in the coordinate system, but it is difficult to intuitively understand the movement when multiple axes rotate.

そこで本出願人は、シナリオに従ってより正確な把持姿勢を決定する手法を提案する。上述の例で言えば、パーツ座標系(第1座標系)で教示した把持姿勢情報と、ハンド座標系(第2座標系)で教示した把持姿勢情報を合成して、最終的な把持姿勢情報を決定する。具体的には、xyz軸周りに回転させて図2に示すハンド12の方向を大まかに決めた後、微調整を行う。つまり、ハンド12を指定した角度でxyz軸周りに回転した後で、ハンド12の姿勢(の軸)に対して回転を入力(指定)する。このようにすることで、より正確に、把持姿勢情報を教示することができる。なお、ハンド座標系とは、ロボットのハンドの位置を元にした座標系であり、パーツ座標系とは、ワークの向いている方向を元にした座標系である。   Therefore, the present applicant proposes a method for determining a more accurate gripping posture according to a scenario. In the above example, the gripping posture information taught in the parts coordinate system (first coordinate system) and the gripping posture information taught in the hand coordinate system (second coordinate system) are combined to obtain the final gripping posture information. To decide. Specifically, after rotating around the xyz axis to roughly determine the direction of the hand 12 shown in FIG. 2, fine adjustment is performed. That is, after the hand 12 is rotated around the xyz axis at a specified angle, rotation is input (specified) with respect to the attitude (axis) of the hand 12. By doing so, the grip posture information can be taught more accurately. The hand coordinate system is a coordinate system based on the position of the robot's hand, and the part coordinate system is a coordinate system based on the direction in which the workpiece is facing.

ここで、軸周りの回転行列について説明する。軸周りの回転行列は、点(x,y,z)を順にx軸周りに角度α、y軸周りに角度β、z軸周りに角度γだけ回転させた場合、次式(1)で表される。   Here, the rotation matrix around the axis will be described. The rotation matrix around the axis is expressed by the following equation (1) when the point (x, y, z) is rotated by an angle α around the x axis, an angle β around the y axis, and an angle γ around the z axis. Is done.

Figure 2015100874
図2のようにハンド12の前をz軸、指の開閉方向をx軸とした場合に、回転後のベクトルは、ハンド12の前方向は式(1)の(x,y,z)に(0,0,1)、回転後のハンド12の指の開閉方向は式(1)の(x,y,z)に(1,0,0)を代入すれば求められる。
Figure 2015100874
As shown in FIG. 2, when the front of the hand 12 is the z-axis and the opening / closing direction of the finger is the x-axis, the vector after the rotation is represented by (x, y, z) in the expression (1). (0, 0, 1), the opening / closing direction of the finger of the hand 12 after rotation can be obtained by substituting (1, 0, 0) for (x, y, z) in the equation (1).

また、任意の軸周りの回転行列は、ベクトルA(a,b,c)周りに角度θ回転させた場合、次式(2)で表される。   A rotation matrix around an arbitrary axis is expressed by the following equation (2) when the angle θ is rotated around the vector A (a, b, c).

Figure 2015100874
式(1)で回転後に手首の周りに回転させて微調整しようとした場合、式(1)で計算したハンド12の前方向のベクトルをA、ユーザーが入力した角度を角度θとして式(2)でハンド12の指の開閉方向が計算できる。以下、ロボットシステム構成例を説明し、把持姿勢情報の教示方法を、フローチャートを用いて説明する。
Figure 2015100874
In the case of trying to finely adjust by rotating around the wrist after the rotation in Expression (1), the forward vector of the hand 12 calculated in Expression (1) is A, and the angle input by the user is the angle θ. ) To calculate the opening / closing direction of the finger of the hand 12. Hereinafter, a configuration example of the robot system will be described, and a teaching method of gripping posture information will be described using a flowchart.

2.ロボットシステム構成例
本実施形態に係るロボット制御装置を含むロボットシステムの構成例を図1を用いて説明する。ロボットシステムは、教示装置2と、撮像装置4と、ロボット6とを含む。ただし、ロボットシステムは図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。ロボット6は、アーム10及びハンド12を有し、教示装置2からの動作指示に従い処理を行う。例えばパレット14に載せられたワークに対して処理を行う。撮像装置4は、例えばワークを撮影可能な位置(パレットの直上でもよいし、ロボット6のハンド12に取り付けられてもよい)に設けられ、主にワークの撮影を行う。そして、撮像画像の情報からワークの位置や姿勢等に関する情報を検出する。検出した情報は例えば教示装置2等に送られてもよいし、直接ロボット6に送られてもよい。また、ワークの位置や姿勢等に関する情報を検出できればよいため、撮像装置4による撮像画像の取得以外の手法(例えばレーザー等を用いた3次元スキャン)を用いてもよい。
2. Robot System Configuration Example A configuration example of a robot system including the robot control apparatus according to the present embodiment will be described with reference to FIG. The robot system includes a teaching device 2, an imaging device 4, and a robot 6. However, the robot system is not limited to the configuration of FIG. 1, and various modifications such as omitting some of these components or adding other components are possible. The robot 6 has an arm 10 and a hand 12 and performs processing in accordance with an operation instruction from the teaching device 2. For example, processing is performed on the workpiece placed on the pallet 14. The imaging device 4 is provided, for example, at a position where the workpiece can be photographed (may be directly above the pallet or attached to the hand 12 of the robot 6), and mainly photographs the workpiece. Then, information relating to the position and posture of the workpiece is detected from the information of the captured image. For example, the detected information may be sent to the teaching device 2 or the like, or may be sent directly to the robot 6. Further, since it is only necessary to be able to detect information related to the position, posture, etc. of the workpiece, a method other than acquisition of a captured image by the imaging device 4 (for example, three-dimensional scanning using a laser) may be used.

次に、図3及び図4を参照して教示装置2について説明する。
図3は、本実施形態に係る詳細なロボットシステム構成例を示す図である。教示装置2は、図3に示すように、一般的なコンピューターと同様の構成であり、記憶部16と、処理部18と、表示部20と、外部I/F部22とを含む。
Next, the teaching device 2 will be described with reference to FIGS. 3 and 4.
FIG. 3 is a diagram illustrating a detailed configuration example of the robot system according to the present embodiment. As shown in FIG. 3, the teaching apparatus 2 has the same configuration as a general computer, and includes a storage unit 16, a processing unit 18, a display unit 20, and an external I / F unit 22.

記憶部16は、データベースを記憶したり、処理部18等のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。記憶部16は、ワークデータベース24(以下データベースを適宜DBと表記する)と、ロボットDB26とを含み、ロボットDB26は、アームDB28と、ハンドDB30を含む。当該ロボットが複数のアームを備える場合は、アームDB28とハンドDB30とは複数個であってもよい。   The storage unit 16 stores a database and serves as a work area for the processing unit 18 and the like, and its function can be realized by a memory such as a RAM or an HDD (hard disk drive). The storage unit 16 includes a work database 24 (hereinafter referred to as DB as appropriate) and a robot DB 26. The robot DB 26 includes an arm DB 28 and a hand DB 30. When the robot includes a plurality of arms, the arm DB 28 and the hand DB 30 may be plural.

ワークDB24はワークの大きさ、形状、姿勢等の情報を記憶する。   The work DB 24 stores information such as the size, shape, and posture of the work.

ロボットDB26はロボットに関するデータを記憶する。具体的にはアームDB28でアームの形状、可動範囲等を記憶し、ハンドDB30でハンドの形状、大きさ等の情報を記憶する。ただし、記憶部16は図3の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。   The robot DB 26 stores data related to the robot. Specifically, the arm DB 28 stores the shape of the arm, the movable range, and the like, and the hand DB 30 stores information such as the shape and size of the hand. However, the memory | storage part 16 is not limited to the structure of FIG. 3, Various deformation | transformation implementations, such as abbreviate | omitting some of these components and adding another component, are possible.

処理部18は、記憶部16からのデータや、外部I/F部22において受信した撮像装置あるいはロボットからの情報等に基づいて種々の処理を行う。この処理部18の機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。   The processing unit 18 performs various processes based on data from the storage unit 16, information from the imaging device or robot received by the external I / F unit 22, and the like. The function of the processing unit 18 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.

処理部18は、ワーク位置演算部32と、画像処理部34と、把持パターン情報取得部36とを含む。処理部18は図3の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。   The processing unit 18 includes a work position calculation unit 32, an image processing unit 34, and a grip pattern information acquisition unit 36. The processing unit 18 is not limited to the configuration shown in FIG. 3, and various modifications such as omitting some of these components or adding other components are possible.

ワーク位置演算部32は、ワークの位置を演算する。例えば外部I/F部22において撮像装置4から取得したデータを用いてワーク位置を演算する。   The work position calculation unit 32 calculates the position of the work. For example, the work position is calculated using data acquired from the imaging device 4 in the external I / F unit 22.

画像処理部34は、撮像装置4からの撮像画像情報を取得し、種々の画像処理を行う。なお、ここでは画像処理部34は、教示装置2の処理部18に設けられるものとしたがこれに限定されるものではない。画像処理部は撮像装置4に内蔵されてもよい。   The image processing unit 34 acquires captured image information from the imaging device 4 and performs various image processing. Although the image processing unit 34 is provided in the processing unit 18 of the teaching device 2 here, the present invention is not limited to this. The image processing unit may be built in the imaging device 4.

把持パターン情報取得部36は、記憶部16のデータベースに記憶された情報に基づいて、動作指示を実行可能な把持パターン情報を取得する。具体的に取得される把持パターン群については後述する。   The grip pattern information acquisition unit 36 acquires grip pattern information that can execute an operation instruction based on information stored in the database of the storage unit 16. A specific acquired grip pattern group will be described later.

表示部20は、各種の表示画面を表示するためのものであり、例えば液晶ディスプレイや有機ELディスプレイなどにより実現できる。   The display unit 20 is for displaying various display screens, and can be realized by, for example, a liquid crystal display or an organic EL display.

外部I/F部22は、教示装置2に対するユーザーからの入力等を行ったり、撮像装置4やロボット6からの情報を受け付けたりするためのインターフェイスである。ユーザーからの入力等に関しては、スイッチやボタン、キーボード、あるいはマウス等から構成されてもよい。   The external I / F unit 22 is an interface for performing input from the user to the teaching device 2 and receiving information from the imaging device 4 and the robot 6. The input from the user may be configured from a switch, button, keyboard, mouse or the like.

撮像装置4は、上述したように、例えばワークを撮影可能な位置に設けられ、主にワークの撮影を行う。本実施形態においては撮像画像情報をそのまま教示装置2に送信するものとするが、これに限定されるものではない。例えば、教示装置2の処理部18の一部(例えば画像処理部34等)を撮像装置4に持たせてもよい。その場合、撮像画像に対して画像処理が施された後の情報が出力されることになる。   As described above, the imaging device 4 is provided, for example, at a position where a workpiece can be photographed, and mainly photographs the workpiece. In the present embodiment, the captured image information is transmitted as it is to the teaching device 2, but the present invention is not limited to this. For example, a part of the processing unit 18 of the teaching device 2 (for example, the image processing unit 34) may be provided in the imaging device 4. In this case, information after image processing is performed on the captured image is output.

また、ロボット6は、アーム10及びハンド12の他に制御部38を含む。制御部38は、教示装置2からの情報を受け付け、ロボット6の各部(アーム10及びハンド12等)の制御を行う。   The robot 6 includes a control unit 38 in addition to the arm 10 and the hand 12. The control unit 38 receives information from the teaching device 2 and controls each unit (arm 10, hand 12, etc.) of the robot 6.

3.把持姿勢情報の教示方法
次に、把持姿勢情報の教示方法について説明する。具体的には、フローチャートを用いて処理の流れを説明する。
図4は、本実施形態に係る入力受付画面の例を示した図である。教示装置2は表示部20に図4に示すような入力受付画面を表示する。入力受付画面はハンド12の把持点及び姿勢を入力する画面である。入力受付画面は、「座標と姿勢の入力」の把持点及び姿勢の入力を促す第1入力部Dと、「微調整」のPoseA周りの回転の入力を促す第2入力部Eと、及びワークとハンド12との位置関係をグラフィカルに表示する把持姿勢表示部Fと、を備える。
3. Gripping posture information teaching method Next, a gripping posture information teaching method will be described. Specifically, the flow of processing will be described using a flowchart.
FIG. 4 is a diagram illustrating an example of an input reception screen according to the present embodiment. The teaching device 2 displays an input reception screen as shown in FIG. The input reception screen is a screen for inputting the gripping point and posture of the hand 12. The input reception screen includes a first input unit D that prompts input of a gripping point and posture of “input of coordinates and orientation”, a second input unit E that prompts input of rotation around “Position A” of “fine adjustment”, and a workpiece And a gripping posture display unit F that graphically displays a positional relationship between the hand 12 and the hand 12.

ワーク及びハンド12は、入力受付画面の把持姿勢表示部Fにパーツ座標系を基準とするxyz軸座標で表示される。ワーク及びハンド12はハンド座標系で表示されてもよい。ハンド12は鉛筆型で表示される。ハンド12は、鉛筆型の先端がハンド12の先端位置(把持点)として表示される。ハンド12は、鉛筆型の先の棒40(PoseA)と棒42(PoseB)とでハンド12の姿勢として表示される。   The work and the hand 12 are displayed in the xyz-axis coordinates on the basis of the part coordinate system on the grip posture display part F of the input reception screen. The work and the hand 12 may be displayed in a hand coordinate system. The hand 12 is displayed in a pencil shape. The hand 12 has a pencil-shaped tip displayed as the tip position (grip point) of the hand 12. The hand 12 is displayed as a posture of the hand 12 with a pencil-shaped tip rod 40 (Pose A) and a rod 42 (Pose B).

教示装置2は、ユーザーに対して入力受付画面の第1入力部Dで把持点と姿勢との入力を促す。及び、教示装置2は、ユーザーに対して入力受付画面の第2入力部Eに微調整(上記回転後のPoseA周りの回転)の入力を促す。なお、回転後とは、ワークに対してハンド12の把持点と姿勢とがある程度決まった姿勢のことである。つまり現在の姿勢に対してPoseA(棒40)を軸に回転を指定することを促す。教示装置2は、このレイアウト設計に基づく各ユニットの設置領域上の把持姿勢情報を、ロボット6に教示する。   The teaching device 2 prompts the user to input the grip point and the posture with the first input unit D of the input reception screen. The teaching device 2 prompts the user to input a fine adjustment (rotation around the position A after the rotation) to the second input unit E of the input reception screen. The term “after rotation” refers to a posture in which the gripping point and posture of the hand 12 are determined to some extent with respect to the workpiece. That is, it is urged to designate the rotation with the axis of the Pose A (bar 40) for the current posture. The teaching device 2 teaches the robot 6 the gripping posture information on the installation area of each unit based on this layout design.

なお、図4の入力受付画面において、棒40がハンド12の前(先端)の方向を示し、PoseAと呼び、棒42の方向がハンド12の指の開く方向を示し、PoseBと呼ぶ。また、第1入力部D及び第2入力部Eのスライダーで入力、又は、エディットボックスに数値を入れ、Enterキーで確定すると、図のハンド12の把持点及び姿勢に反映される。また、微調整は現在のハンドのPoseAを軸に回転するので、xyz軸周りの回転を変更した場合、PoseA周りの回転は0に戻してもよい。   In the input acceptance screen of FIG. 4, the bar 40 indicates the front (front end) direction of the hand 12 and is referred to as “Pose A”, and the direction of the bar 42 indicates the direction in which the finger of the hand 12 opens and is referred to as “Pose B”. Also, when the values are entered with the sliders of the first input part D and the second input part E, or a numerical value is entered in the edit box and confirmed with the Enter key, it is reflected in the gripping point and posture of the hand 12 in the figure. Further, since the fine adjustment rotates around the current hand's Pose A, the rotation around the Poses A may be returned to 0 when the rotation around the xyz axis is changed.

ここで、入力受付画面に具体的な数値を設定して説明する。図4に示すように、第1入力部Dの把持点が(x,y,z)=(−49,15,21)である。ワークを斜めから把持したい場合の姿勢が、x軸周りの回転α=37度、y軸周りの回転β=10度、z軸周りの回転γ=−34度とした場合、上式(1)に代入すると、姿勢を回転させる前のハンド12の前方向(PoseA)は(x,y,z)=(1,0,0)なので、領域GのPoseAに表示するように、(x’,y’,z’)=(0.82,−0.36,−0.45)(なお、これは小数第3位を四捨五入)の方向を向いている。姿勢を回転させる前のハンド12の指の開閉方向(PoseB)は(x,y,z)=(0,0,1)なので、(x’,y’,z’)=(0.17,−0.59,0.79)(図示せず)となる。   Here, a specific numerical value is set on the input reception screen. As shown in FIG. 4, the gripping point of the first input unit D is (x, y, z) = (− 49, 15, 21). When it is desired to hold the workpiece from an oblique angle, the rotation α around the x axis is α = 37 degrees, the rotation around the y axis is β = 10 degrees, and the rotation around the z axis is γ = −34 degrees. , The forward direction (Pose A) of the hand 12 before rotating the posture is (x, y, z) = (1, 0, 0), so that (x ′, y ′, z ′) = (0.82, −0.36, −0.45) (note that this is rounded off to the third decimal place). Since the opening / closing direction (Pose B) of the finger of the hand 12 before the posture is rotated is (x, y, z) = (0, 0, 1), (x ′, y ′, z ′) = (0.17, −0.59, 0.79) (not shown).

この回転後にハンド12の前方向(PoseA)はそのままで指の開閉方向(PoseB)だけを変えたいとき、軸周りの回転α,β,γの数値を変えて姿勢を合わせるのは困難なので、回転した状態でのハンド12の前方向(PoseA)を軸として回転を指定する。   After this rotation, if you want to change only the finger opening / closing direction (Pose B) while keeping the forward direction (Pose A) of the hand 12, it is difficult to adjust the posture by changing the numerical values of the rotation α, β, γ around the axis. In this state, the rotation is designated with the front direction (Pose A) of the hand 12 as an axis.

例えば、第2入力部Eの微調整が、PoseA周りの回転θ=−28度とした場合、回転軸のPoseAは(a,b,c)=(0.82,−0.36,−0.45)なので、式(2)に代入すると、領域GのPoseBが(x”,y”,z”)=(0.41,−0.19,0.89)(なお、これは小数第3位を四捨五入)となる。   For example, when the fine adjustment of the second input unit E is a rotation θ around −A = −28 degrees, Pose A of the rotation axis is (a, b, c) = (0.82, −0.36, −0) .45), so when substituting into the expression (2), Pose B of the region G is (x ″, y ″, z ″) = (0.41, −0.19, 0.89) Rounded 3rd).

図5及び図7は、本実施形態に係る処理を説明するためのフローチャートである。図6は、フローチャートの説明に用いられる状況の具体例である。なお、具体例として図6に示したように、場所P1にあるワークを、面Cを下にして場所P2に移動する単腕ロボットの例を用いるが、図5のフローチャートの処理はこの具体例に限定されるものではない。   5 and 7 are flowcharts for explaining processing according to the present embodiment. FIG. 6 is a specific example of the situation used for explaining the flowchart. As a specific example, as shown in FIG. 6, an example of a single-arm robot that moves a workpiece at the place P1 to the place P2 with the surface C facing down is used. The processing of the flowchart in FIG. It is not limited to.

この処理が開始されると、まず、ステップS10において、処理部18はユーザーからの入力を受け付ける。具体的には例えば、「場所P1にあるワークを、面Cを下にして場所P2に置く」といった入力が考えられる。   When this process is started, first, in step S10, the processing unit 18 receives an input from the user. Specifically, for example, an input such as “Place the work in the place P1 on the place P2 with the surface C facing down” can be considered.

そして、ステップS12において、処理部18は入力に応じてシナリオの作成処理を開始し、ステップS14において、処理部18はシナリオの作成が可能であるかの判定を行う。シナリオは例えば、(1)ワークの状況を確認する(2)ハンドでワークを把持する(3)ワークの面Cを下にして場所P2に置く、といったシナリオが考えられる。ステップS14でシナリオの作成が不可能であった場合には、ステップS30において、処理部18は表示部20にエラーを表示して処理を終了する。   In step S12, the processing unit 18 starts a scenario creation process in response to the input, and in step S14, the processing unit 18 determines whether the scenario can be created. For example, a scenario is conceivable in which (1) the state of the workpiece is confirmed (2) the workpiece is gripped by the hand (3) the surface C of the workpiece is placed on the place P2 with the surface C facing down. If a scenario cannot be created in step S14, the processing unit 18 displays an error on the display unit 20 and ends the process in step S30.

ステップS14でシナリオが作成可能であった場合には、ステップS16において、処理部18はシナリオを単位動作に分解した上で分析し、ステップS18において、処理部18はロボット6が動作可能かの判定を行う。   If a scenario can be created in step S14, in step S16, the processing unit 18 decomposes the scenario into unit motions and analyzes it. In step S18, the processing unit 18 determines whether the robot 6 can operate. I do.

具体的には、上述(2)のハンド12でワークを把持する、というステップに関しては、場所P1がアームの可動範囲内であるか、ハンド12及びワークの形状、大きさから考えて把持可能であるか等の判定が行われる。   Specifically, regarding the step of gripping the workpiece with the hand 12 in the above (2), it can be gripped considering whether the place P1 is within the movable range of the arm or the shape and size of the hand 12 and the workpiece. It is determined whether or not there is.

そして、ステップS18でロボット6が動作可能であった場合には、ステップS20において、処理部18は全ての単位動作の分析が完了したかの判定を行い、完了していなければ次の単位動作の分析を行い、完了した場合にはステップS22に移行する。また、ステップS18において、動作不可能と判定した場合には、ステップS12に戻ってシナリオを再作成する。   If the robot 6 is operable in step S18, in step S20, the processing unit 18 determines whether the analysis of all unit motions has been completed. The analysis is performed, and if completed, the process proceeds to step S22. If it is determined in step S18 that the operation is impossible, the process returns to step S12 to recreate the scenario.

次に、ステップS22において、処理部18は全動作の分析を行い、ステップS24において、処理部18は動作の流れに不都合がないか確認する。動作可能であればステップS26へ移行し、不可能であればステップS12に戻ってシナリオを再作成する。   Next, in step S22, the processing unit 18 analyzes all operations, and in step S24, the processing unit 18 confirms whether there is any inconvenience in the flow of operations. If the operation is possible, the process proceeds to step S26. If the operation is not possible, the process returns to step S12 to recreate the scenario.

ステップS26では、処理部18は複数の把持パターンの候補が残った場合に、提示する把持パターンの選択を行う。   In step S <b> 26, the processing unit 18 selects a grip pattern to be presented when a plurality of grip pattern candidates remain.

そして、ステップS28において、処理部18はロボット6への命令を作成し送信する。   In step S28, the processing unit 18 creates and sends a command to the robot 6.

なお、ステップS18において単位動作分析の結果動作不可能とされた場合の対処例について説明する。例えば、場所P1あるいはP2が遠いため、アーム10が届かないということであれば、双腕ロボットの場合もう一方のハンドを用いるシナリオに変更する。また、右手だけあるいは左手だけでは、場所P1とP2との両方に届かないという場合には、途中で持ち替えをするシナリオに変更する。ワークが大きく片手で把持できない場合には、両手のひらで挟んで持ち上げるシナリオに変更すればよい。   A coping example in the case where the operation is not possible as a result of the unit operation analysis in step S18 will be described. For example, if the location P1 or P2 is far and the arm 10 cannot reach, the scenario is changed to a scenario using the other hand in the case of a double-arm robot. In addition, if it is impossible to reach both the places P1 and P2 with only the right hand or the left hand, the scenario is changed to a scenario in which the hand is changed halfway. If the workpiece is large and cannot be gripped with one hand, the scenario may be changed to a scenario in which it is lifted with both palms.

続いてステップS10の入力における(2)ハンド12でワークを把持する手法の入力について説明する。まず、図7に示すように、ステップS50において、処理部18は、入力受付画面の第1入力部Dで、ユーザーからパーツ座標系(第1座標系)におけるロボットによるワークの把持点と姿勢との入力を受け付ける。   Next, (2) input of a technique for gripping a workpiece with the hand 12 in the input in step S10 will be described. First, as shown in FIG. 7, in step S50, the processing unit 18 uses the first input unit D on the input reception screen to determine the workpiece gripping point and posture by the robot in the part coordinate system (first coordinate system) from the user. Accepts input.

次に、ステップS52において、処理部18は、ユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢との入力を基に表示部20にハンド12及びワークを入力受付画面の把持姿勢表示部Fに表示し、ユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢とに不都合がないか確認の入力を受け付ける。不都合がなければ、パーツ座標系におけるロボットによるワークの第1の把持姿勢を決定し、ステップS54へ移行する。不都合があればステップS50に戻ってユーザーからパーツ座標系におけるロボットによるワークの把持点と姿勢との入力を受け付ける。   Next, in step S52, the processing unit 18 receives the hand 12 and the workpiece on the display unit 20 based on the input of the gripping point and posture of the workpiece by the robot in the part coordinate system from the user. And an input for confirming whether there is any inconvenience in the gripping point and posture of the workpiece by the robot in the part coordinate system is received from the user. If there is no inconvenience, the first gripping posture of the workpiece by the robot in the part coordinate system is determined, and the process proceeds to step S54. If there is inconvenience, the process returns to step S50, and the input of the gripping point and posture of the workpiece by the robot in the part coordinate system is received from the user.

次に、ステップS54において、処理部18は、入力受付画面の第2入力部Eで、ユーザーからハンド座標系(第2座標系)におけるロボットによるワークの姿勢の微調整の入力を受け付ける。   Next, in step S54, the processing unit 18 receives an input from the user for fine adjustment of the posture of the workpiece by the robot in the hand coordinate system (second coordinate system) at the second input unit E on the input reception screen.

具体的には、現在のハンド12の座標軸に対して姿勢の入力を受け付ける。つまり、第1の把持姿勢の画像を視覚的に入力受付画面の把持姿勢表示部Fに表示するとともに、ハンド座標系におけるロボットによるワークの第2の把持姿勢の入力を受け付ける。   Specifically, an input of a posture with respect to the current coordinate axis of the hand 12 is received. That is, the image of the first gripping posture is visually displayed on the gripping posture display unit F of the input receiving screen, and the input of the second gripping posture of the workpiece by the robot in the hand coordinate system is received.

次に、ステップS56において、処理部18は、ユーザーからの姿勢の微調整の入力を基に表示部20にハンド12及びワークを入力受付画面の把持姿勢表示部Fに表示し、ユーザーからの姿勢の微調整に不都合がないか確認の入力を受け付ける。不都合があればステップS54に戻ってユーザーからの姿勢の微調整の入力を受け付け、不都合がなければ第2の把持姿勢を決定し、ステップS10のサブルーチンを終了する。   Next, in step S56, the processing unit 18 displays the hand 12 and the workpiece on the display unit 20 on the gripping posture display unit F of the input reception screen based on the fine adjustment input from the user, and the posture from the user. An input for confirming whether there is any inconvenience in the fine adjustment of is accepted. If there is any inconvenience, the process returns to step S54 and accepts the input of fine adjustment of the posture from the user. If there is no inconvenience, the second holding posture is determined, and the subroutine of step S10 is ended.

上記ステップS50〜S56の手順により、パーツ座標系におけるワークの第1の把持姿勢を決定した後、ハンド座標系におけるワークの第2の把持姿勢の入力を受け付けることになる。また、第1の把持姿勢と第2の把持姿勢とを用いて、ロボットに教示する把持姿勢情報が決定され、上記ステップS28において、処理部18はロボット6へ把持姿勢情報を送信する。   After the first gripping posture of the workpiece in the part coordinate system is determined by the steps S50 to S56, the input of the second gripping posture of the workpiece in the hand coordinate system is accepted. Also, using the first holding posture and the second holding posture, the holding posture information to be taught to the robot is determined, and in step S28, the processing unit 18 transmits the holding posture information to the robot 6.

本実施形態によれば、ワークとハンド12とを表示した図を見ながらワークを把持するハンド12の把持点と姿勢とを教示するとき、パーツ座標系で決定した第1の把持姿勢と、ハンド座標系で決定した第2の把持姿勢とを重ね合わせて視覚的に表示して、最終的な把持姿勢情報を決定するので、直感的に姿勢を調整しやすく、より正確に把持姿勢情報を教示することができる。また、パーツ座標系における第1の把持姿勢を決定した後、ハンド座標系における第2の把持姿勢を決定するので、直感的に把持姿勢情報を調整しやすい。   According to the present embodiment, when teaching the gripping point and posture of the hand 12 that grips the workpiece while looking at the figure displaying the workpiece and the hand 12, the first gripping posture determined in the parts coordinate system and the hand The second gripping posture determined in the coordinate system is overlaid and visually displayed to determine the final gripping posture information, so it is easy to intuitively adjust the posture and teach the gripping posture information more accurately can do. In addition, since the second gripping posture in the hand coordinate system is determined after the first gripping posture in the part coordinate system is determined, it is easy to intuitively adjust the gripping posture information.

なお、以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またロボット制御装置及びロボットシステム等の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. Further, the configuration and operation of the robot control device and the robot system are not limited to those described in this embodiment, and various modifications can be made.

2…教示装置 4…撮像装置 6…ロボット 10…アーム 12…ハンド 14…パレット 16…記憶部 18…処理部 20…表示部 22…外部I/F部 24…ワークDB 26…ロボットDB 28…アームDB 30…ハンドDB 32…ワーク位置演算部 34…画像処理部 36…把持パターン情報取得部 38…制御部 40,42…棒。   2 ... Teaching device 4 ... Imaging device 6 ... Robot 10 ... Arm 12 ... Hand 14 ... Pallet 16 ... Storage unit 18 ... Processing unit 20 ... Display unit 22 ... External I / F unit 24 ... Work DB 26 ... Robot DB 28 ... Arm DB 30 ... hand DB 32 ... work position calculation unit 34 ... image processing unit 36 ... grip pattern information acquisition unit 38 ... control unit 40, 42 ... bar.

Claims (5)

ワークを把持するロボットと、
前記ロボットに前記ワークの把持姿勢情報を教示する教示装置と、を含み、
前記教示装置は、
第1座標系における前記ロボットによる前記ワークの第1の把持姿勢と第2座標系における前記ロボットによる前記ワークの第2の把持姿勢とを受け付けることによって、前記ロボットに前記把持姿勢情報を教示する、
ことを特徴とするロボットシステム。
A robot that grips the workpiece;
A teaching device for teaching the robot the gripping posture information of the workpiece,
The teaching device includes:
Teaching the robot the gripping posture information by receiving a first gripping posture of the workpiece by the robot in a first coordinate system and a second gripping posture of the workpiece by the robot in a second coordinate system;
A robot system characterized by this.
請求項1に記載のロボットシステムにおいて、
前記教示装置は、前記第1の把持姿勢と前記第2の把持姿勢とを受け付けるための入力受付画面を表示する表示部を含み、
前記入力受付画面は、
前記第1の把持姿勢を入力する第1入力部と、
前記第2の把持姿勢を入力する第2入力部と、
入力された前記第1の把持姿勢と前記第2の把持姿勢とに基づいて、前記ロボットによる前記ワークの把持姿勢を表示する把持姿勢表示部と、を含む、
ことを特徴とするロボットシステム。
The robot system according to claim 1,
The teaching device includes a display unit that displays an input reception screen for receiving the first holding posture and the second holding posture,
The input acceptance screen is
A first input unit for inputting the first holding posture;
A second input unit for inputting the second gripping posture;
A gripping posture display unit that displays the gripping posture of the workpiece by the robot based on the input first gripping posture and the second gripping posture.
A robot system characterized by this.
請求項1又は2に記載のロボットシステムにおいて、
前記第1座標系は、前記ワークに設けられた原点に基づくパーツ座標系である、
ことを特徴とするロボットシステム。
The robot system according to claim 1 or 2,
The first coordinate system is a part coordinate system based on an origin provided on the workpiece.
A robot system characterized by this.
請求項1乃至3のいずれか一項に記載のロボットシステムにおいて、
前記第2座標系は、前記ロボットのハンドに設けられた原点に基づくハンド座標系である、
ことを特徴とするロボットシステム。
The robot system according to any one of claims 1 to 3,
The second coordinate system is a hand coordinate system based on an origin provided in the robot hand.
A robot system characterized by this.
請求項1乃至4のいずれか一項に記載のロボットシステムにおいて、
前記教示装置は、
前記第1の把持姿勢を受け付けた後、前記第2の把持姿勢を受け付ける、
ことを特徴とするロボットシステム。
The robot system according to any one of claims 1 to 4, wherein
The teaching device includes:
Accepting the second gripping posture after receiving the first gripping posture;
A robot system characterized by this.
JP2013242632A 2013-11-25 2013-11-25 Robot system Pending JP2015100874A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013242632A JP2015100874A (en) 2013-11-25 2013-11-25 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013242632A JP2015100874A (en) 2013-11-25 2013-11-25 Robot system

Publications (1)

Publication Number Publication Date
JP2015100874A true JP2015100874A (en) 2015-06-04

Family

ID=53377040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013242632A Pending JP2015100874A (en) 2013-11-25 2013-11-25 Robot system

Country Status (1)

Country Link
JP (1) JP2015100874A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108724179A (en) * 2017-04-21 2018-11-02 精工爱普生株式会社 control device, robot and robot system
CN109551459A (en) * 2017-09-25 2019-04-02 发那科株式会社 Robot system and method for taking out work
CN110461550A (en) * 2017-03-24 2019-11-15 三菱电机株式会社 The generating means and generation method of robot program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110461550A (en) * 2017-03-24 2019-11-15 三菱电机株式会社 The generating means and generation method of robot program
CN108724179A (en) * 2017-04-21 2018-11-02 精工爱普生株式会社 control device, robot and robot system
CN109551459A (en) * 2017-09-25 2019-04-02 发那科株式会社 Robot system and method for taking out work
JP2019058960A (en) * 2017-09-25 2019-04-18 ファナック株式会社 Robot system and workpiece take-out method
US11845194B2 (en) 2017-09-25 2023-12-19 Fanuc Corporation Robot system and workpiece picking method

Similar Documents

Publication Publication Date Title
US9311608B2 (en) Teaching system and teaching method
JP6311421B2 (en) Teaching system, robot system, and teaching method
JP4271232B2 (en) Apparatus, method, program, and recording medium for executing offline programming of robot
JP6379874B2 (en) Teaching system, robot system, and teaching method
US9186792B2 (en) Teaching system, teaching method and robot system
EP3875230A1 (en) External input device, robot system, control method for robot system, control program, and recording medium
CN110977931A (en) Robot control device and display device using augmented reality and mixed reality
US20190202058A1 (en) Method of programming an industrial robot
CN108000523B (en) Simulation device, simulation method, and recording medium for simulating operation of robot system
JP5154616B2 (en) Offline teaching method
JP2006048244A (en) Working program generating device
JP2007286976A (en) Robot simulation apparatus
TW201606467A (en) Teaching data-generating device and teaching data-generating method for work robot
JP2018176333A (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2019188545A (en) Robot control device
JP2019089201A (en) Teaching data creation device, method for controlling teaching data creation device, and robot system
JP2015100874A (en) Robot system
JP5813931B2 (en) Teaching data correction system
US20180088569A1 (en) Off-line-programming jog assist device, jog assist method, and recording medium storing jog assist program
JP2020175471A (en) Information processing device, information processing method, program and recording medium
JP2015222196A (en) Three dimensional measuring machine and method for measuring shape using the same
CN109773581B (en) Method for applying robot to reappear machining
JPH06134684A (en) Teaching method of robot track
JP2015116631A (en) Control device, robot, control method, and robot system
US20230226688A1 (en) Robot programming

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160616

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624