JP2018192569A - プログラミング装置及びロボット制御方法 - Google Patents
プログラミング装置及びロボット制御方法 Download PDFInfo
- Publication number
- JP2018192569A JP2018192569A JP2017098861A JP2017098861A JP2018192569A JP 2018192569 A JP2018192569 A JP 2018192569A JP 2017098861 A JP2017098861 A JP 2017098861A JP 2017098861 A JP2017098861 A JP 2017098861A JP 2018192569 A JP2018192569 A JP 2018192569A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- program
- point
- destination
- destination point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39527—Workpiece detector, sensor mounted in, near hand, gripper
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
Description
ティーチング・プレイバックでは、ユーザが教示操作盤を用いた操作によりロボットを動かすことによって、ロボットに対して所定の動作を教示する。あるいは、ユーザがロボットを直接押したり引いたりして動かすことによって、ロボットに対して所定の動作を教示する。
ロボットは、これらの教示に基づいて、所定の動作を行うための動作プログラムを生成する。そして、この動作プログラムを用いることにより、ロボットは、教示終了後も所定の動作を正確に繰り返すことができる。
OPSを利用することにより、ロボットの実機を用いたティーチング・プレイバックを行うことなく、動作プログラムを生成することが可能となる。
このように、ロボットの立ち上げ時に行われる、教示作業やプログラミングは容易ではなく、ユーザにとって煩雑なものであった。
<実施形態の構成>
まず、図1を参照して、本実施形態であるロボット制御システム1全体の構成について説明する。図1に示すようにロボット制御システム1は、プログラミング装置10、ロボット20及びカメラ30を備える。
また、本実施形態では、プログラミング装置10が生成した動作プログラムによりロボット20の動作を制御する。この際に、カメラ30から取得したロボット20周辺の画像に基づいて、ロボットの動作プログラムに含まれる教示点の位置情報を補正する。これにより、本実施形態では、ユーザによるティーチング・プレイバックを行うことなく、ロボット20の動作の精度を高めることが可能となる。
次に、プログラミング装置10が備える機能ブロックについて説明をする。図1に示すようにプログラミング装置10は、入力部11、出力部12、プログラム生成部13、ロボット制御部14、移動先ポイント補正部15及び画像取得部16を含んで構成される。
作業手順書の内容の入力形式は特に限定されない。例えば、プログラミング言語に沿った形式で作業手順書の内容が入力されてもよいが、ユーザが容易に理解できる形式で作業手順書の内容が入力されるとよい。例えば後述するようにフローチャートの形式で入力されるようにするとよい。
入力された作業手順書の内容は、プログラム生成部13に対して出力される。入力部11は、例えば、キーボードやマウス、タッチパネルといった入力装置により実現される。
プログラム生成部13は、ユーザが作業手順書の内容を入力するためのユーザインタフェースを出力部12から出力する。
そして、プログラム生成部13は、ユーザインタフェースを参照したユーザから入力部11が受け付けた作業手順書の内容に基づいて、動作プログラムを生成する。生成した動作プログラムはロボット制御部14に対して出力される。
ただし、プログラム生成部13は、このような一般的な技術とは一部異なった方法にて動作プログラムを生成する。
具体的には、プログラム生成部13は、動作プログラムの生成に先立って、ロボット20の動作において経由するポイントの候補を多数作成しておく。
また、プログラム生成部13は、作業手順書の内容に基づいて、ロボット20が実際に経由する教示点(以下、適宜「ポイント」と呼ぶ。)を決定する際に比較的精度の要求されるポイントと、比較的精度の要求されないポイントの2つに大別する。
そして、前者の比較的精度の要求されるにポイントについては予め作成しておいたポイントの候補から取捨選択して繋ぎ合わせる。また、後者の比較的精度の要求されないポイントについては、予め作成したポイントの候補から選択するのではなく、適切と思われるポイントを任意に決定し、中継ポイントとして挿入する。
なお、プログラム生成部13による動作プログラムの生成の詳細な内容については、図2〜図4を参照して後述する。
なお、移動先ポイント補正部15による位置情報の補正の詳細な内容は、図5〜図9を参照して後述する。
次に、プログラム生成部13による動作プログラムの生成の詳細について説明をする。まず、動作プログラムの作成の前提となるロボット20の動作について説明する。ロボット20が動作をして何らかの作業を行うということは、ロボット20がその周辺の物品に対して接触/非接触を問わず何らかの作用を及ぼすこと、と捉えることができる。
その作用とは、掴む(例えば、物品の把持)、開放する(例えば、保持した物品を何処かに置く)、挟持する(スポット溶接のように2枚の板を挟む等)、回転させる(例えば、ねじを締めることや、物品同士を嵌め合せたりする等)、相対移動をする(例えば、切削具やレーザ光で物品を切断することや、物品同士を溶接する等)等を含む。
これにより、ロボット20は、グリッパ27により把持されたワーク(例えば、物品C)を所望の位置および姿勢に配置することができる。
この場合の、ベース部22、第1関節部23、第2関節部25及びグリッパ27等の駆動は、図1に示す駆動制御部21による制御により実現される。なお、ロボット20のような多関節ロボットの構造や制御については、当業者によく知られているので、これ以上の詳細な説明は省略する。
もう1つはポイントP4、ポイントP7、ポイントP8等に到達するために通過するポイントであって、ロボット20の各部が周囲と干渉しなければよい程度の低い位置精度で構わないポイントである。以下では、このようなポイントを「中継ポイント」と呼ぶ。なお、この中継ポイントは、一般に、エアカットポイント等の名称で呼ばれることもある。本例であれば、ポイントP1、ポイントP2、ポイントP3、ポイントP5、ポイントP6が中継ポイントに相当する。
他にも例えば、ポイントP7よりも高い位置にあるポイントP10や、ポイントP10よりも更に高い位置あるポイントP11の物品Bに対しての位置について定義して、それらと共に各ポイントにおける物品Bに対するグリッパ27の姿勢を定義して記憶しておく。
このようなポイントや姿勢の定義を多数準備して記憶しておくことで、それらが動作プログラムを構成する要素、すなわち、移動先ポイントとなる。
例えば、物品Cの大きさ等に基づいて、ポイントP7、ポイントP10、ポイントP11の何れかを選択して、ステップA12に対応する定義済みのポイントとして抽出する。例えば、物品Cが大きいため、ポイントP7に物品Cを移動すると、物品Cと物品Bが接触してしまうような場合には、ポイントP7ではなく、ポイントP10やポイントP11を選択する。本例では、ポイントP7をステップA12に対応する定義済みのポイントとして抽出する。
そして、抽出した各ステップに対応する定義済みのポイントを繋げれば、必要最小限の動作プログラムが生成されることになる。
具体的には、上記の移動先ポイントは、下記の[表1]に示すような組み合わせで記憶される。
また、移動先ポイントは複数用意されており、中継ポイントは任意に選択することが可能なことから、様々な作業手順に汎用的に適用して、動作プログラムを生成することが可能となる。
次に、移動先ポイント補正部15により行われる動作プログラムの補正の詳細について説明をする。以下では、物品Bと相対関係がある、ポイントP7及びポイントP8についての補正を例にとって説明する。
具体的には、図6に示すように、物品Bのような相対的な移動先ポイントが定義される物品に、カメラ30で捉えることが出来るような参照点Refを事前に配置する。例えば、参照点Refとして、物品Bの上にカメラ30が捉えることが出来るような視覚マークシールを貼り付ける。また、プログラム生成部13において動作プログラムを生成するのに用いる仮想空間における物品Bの同じ場所にも参照点Refを定義する。
物品Bに対して図8に示すように参照点Refが定義されると、例えば参照点RefとポイントP7の相対関係(図中のC7)が既知となる。従って、上記の[表1]に既出の移動先ポイントを列挙した、下記の[表2]を作成することができる。
このキャリブレーション作業について、以下説明する。図9は、上記の「参照点Refとカメラ30の相対関係が所定の状態」が実現された状態を示す図である。ここで、図9に図示する、U、T及びSはそれぞれ以下を意味する。
U:ロボット20(の基準位置)に対するグリッパ27の位置姿勢情報
(これは一般的に、ロボットコントローラと呼ばれるものにおいてロボット先端部の現在位置を表すデータとして随時取得可能である)
T:グリッパ27とカメラ30の相対関係情報 (未知数)
S:カメラ30と参照点Refの相対関係情報 (未知数)
P7・Inv(C7)=U・T・S
T・S=Inv(U)・P7・Inv(C7)≡Q
すると次の関係式
Px・Inv(Cx)=Ux・T・S=Ux・Q
が成り立つことから
Px=Ux・Q・Cx
を導くことができる。
そして、この導いた式に基づいて、動作プログラムの位置情報を補正することによりロボット20をPxに移動させれば、現場の実際のロボット20は望ましい位置に移動する。
次に、本実施形態の動作について図10のフローチャートを参照して説明をする。
ステップS11において、入力部11がユーザから作業手順書の内容の入力を受け付ける。
ステップS16において、ロボット制御部14は、動作プログラムに含まれる全ての作業手順が終了したか否かを判定する。
未だ全ての作業手順が終了していない場合は、ステップS16においてNoと判定され、処理はステップS14に戻る。そして、ステップS14から処理が繰り返される。
一方で、全ての作業手順が終了した場合は、ステップS16においてYesと判定され、処理は終了する。
グリッパ27が何れかの移動先ポイントの近傍に移動した場合、ステップS14においてYesと判定され、処理はステップS17に進む。
ステップS17において、移動先ポイント補正部15は、画像取得部16を介して撮像部31が撮像した、移動先ポイントの近傍の撮像画像を取得する。
参照点Refとカメラの相対関係が所定の状態になっていない場合は、ステップS18においてNoと判定され、ステップS19にてロボットを駆動してカメラの位置を調整した上で、処理はステップS17に戻る。そして、ステップS18の判定が再度行われる。
参照点Refとカメラの相対関係が所定の状態になった場合は、ステップS18においてYesと判定され、処理はステップS20に進む。
未だ全ての作業手順が終了していない場合は、ステップS16においてNoと判定され、処理はステップS14に戻る。そして、ステップS14から処理が繰り返される。
一方で、全ての作業手順が終了した場合は、ステップS16においてYesと判定され、処理は終了する。
つまり、ユーザがティーチング・プレイバックにより動作プログラムを調整する手間を省くことができる。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
例えば、プログラミング装置10の機能の一部をパーソナルコンピュータ等で実現するようにしてもよい。つまり、ロボットコントローラとパーソナルコンピュータとでプログラミング装置10を実現するようにしてもよい。
また、例えば、以下の<変形例>のような変形を加えるようにしてもよい。
上述した実施形態では、<動作プログラムの補正>との項目で、図6〜図9を参照して説明したように、物品Aや物品Bの上に、カメラ30で捉えることが出来るような参照点Refを事前に配置していた。例えば、参照点Refとして、物品Aや物品Bの上にカメラ30が捉えることが出来るような視覚マークをそれぞれシール等として貼り付けていた。
また、これら参照点Refと、これらに対応するデータとを表2に示すように対応付けて記憶しておき、このデータを利用して動作プログラムの補正を行っていた。
まず、図11Aには、参照点Refを示す視覚マークの例であって、上記のような追加情報を加えていない視覚マークの例を示す。移動先ポイント補正部15は、図11Aの例のような視覚マークを撮像データから取得し、これにより、参照点Refの位置を特定することができる。
視覚マークシールの像が、何れの物品に対応する参照点Refであるのかを識別することができる。つまり、本変形例によれば、カメラ30で捉えている物品が何であるかを確実に特定することができる、という効果を奏する。
なお、本変形例を更に変形して、論理情報を、二次元コード以外の態様で追加するようにしてもよい。また、論理情報に、表2における移動先ポイント情報等を含ませておき、これを移動先ポイント補正部15が取得するようにしてもよい。
次に、図12を参照して、本実施形態の適用例について説明をする。図12には、ロボット20と、ステーション50a〜ステーション50fと、走行軸40とを図示する。ステーション50a〜ステーション50fには、複数の物品(例えば、ステーション50aであれば物品a1〜物品a5)が配置されている。
次に、本実施形態の特徴について、一般的な教示方法との比較を行いながら説明する。
ロボットに何らかの意図を持った作業を教え込む操作・作業を(ロボットの)教示と呼ぶ。ここで教示を行う方法としては、例えば以下の(1)〜(3)のような複数の方法がある。
ロボットの基本的な機能として、教示操作盤を使ってマニュアル操作によって所定の関節軸を正負方向に移動させたり、仮想的な直交座標系空間内でロボットのエンドエフェクタをX+/−方向、Y+/−方向、Z+/−方向に移動させたり、あるいは所定のルールでエンドエフェクタの姿勢を変更したりするジョグ操作と呼ばれるものがある。これを使って、ロボットが置かれた現場で、ロボットを適当に移動させて移動先位置を記憶させ、移動と記憶を繰り返す。一連のロボット動作とその記憶が終わった後、先程記憶させた内容を再生する。
教示操作盤を使ったジョグ操作の代わりに、ロボットのエンドエフェクタやロボット本体をオペレータが直接押したり引いたりして移動させる。エンドエフェクタ近傍やロボットの関節軸などに力センサやトルクセンサなどが組み込まれていて、ロボットが受ける外力を検出して、あたかもオペレータがロボットを誘導しているかのようにロボットを移動制御する。このような方法でロボットを移動させた上で移動先位置を記憶させる。これも一種のティーチング・プレイバックである。
コンピュータの上で一種のシミュレーションシステムを構築し、そこにロボットが使われる環境を仮想的に再現した仮想空間と、そのロボットに対応する仮想ロボットを定義・設定し、このシミュレーションシステム上でロボットの動作プログラムを作成していく。
この「何らかの調整作業」が必要になる主な理由は次の(い)及び(ろ)の2つである。
一方、実際のロボットは、その機構部を構成する部品の寸法誤差、組立誤差、ロボットを動作させる制御上の位置決め誤差、重力の影響による機構部品の歪みなど様々な要因が重なり合って、誤差を含んだ位置に到達する。
動作プログラムが何も無い状態から教示作業を開始する上記の(1)や(2)の方法に比べれば、作業全体の手間は削減できるかもしれないが、教示点の数が多ければ微調整の手間も膨大になる。また微調整前の教示点の内容次第ではロボットが周辺装置等に衝突する可能性もある。例えば、スポット溶接ガンの先端が車体パネルにめり込む等の可能性がある。
先ず(い)の誤差に対しては、ロボットにエンドエフェクタを装着した状態で様々な動きをさせたところを、外部に設置した3次元測定器で計測する。この方法でロボットへの動作指令と3次元測定器で計測された実際のロボット到達位置の組み合わせを多数取得し、これら多数のデータを数学的に解析して機構部の誤差量や重力による歪み量を補正するための幾何学計算式を導出する。これに基づいてロボットの動作制御に所定の補正を加えることで、ロボットの絶対位置決め精度を向上させる。なお、この方法は必ずしも実際の現場で行う必要はなく、別の場所でロボット単体に対して事前に行っておくことが可能である。
具体的には、「移設前のロボットシステム=仮想空間内のロボットシステム」であるとして、仮想空間内の周辺装置等の所定箇所に少なくとも3箇所の基準マークを定義して、仮想ロボットに対するこれら基準マークの位置を事前に求めておき、「移設後のロボットシステム=実際の現場のロボットシステム」であるとして、仮想空間内で定義した基準マークの位置に相当する実際の周辺装置等の上の位置に実際の基準マークを設け、これを実際のロボットとカメラで計測するようにすればよい。
この方法は、1つの剛体の上に多数の教示点が存在しているようなケースにおいて、調整作業の手間を削減する効果が大きい。例えば、車体部品に対するスポット溶接などが典型的な例となる。
特に、図12を参照して説明したような記載の構成では、(a)〜(d)の方法での対応が難しい。
その理由であるが、仮に上記の(c)に示される調整作業の方法を行うと、各物品a1、a2、・・・・、f5の全て(30個)でそれぞれ少なくとも3箇所の視覚マークを設けてカメラによる計測を行わなければならず効率が悪いからである。特に、各物品での教示点の数が少ない場合には、なおさら非効率となる。
そのため、本実施形態によれば、図12に示すようなロボットシステムが対象である場合にも、非常に効率的に、かつ少ない手間でシステムの立ち上げを行うことができる、という効果を奏する。
11 入力部
12 出力部
13 プログラム生成部
14 ロボット制御部
15 移動先ポイント補正部
16 画像取得部
20 ロボット
21 駆動制御部
22 ベース部
23 第1関節部
24 第1アーム
25 第2関節部
26 第2アーム
27 グリッパ
30 カメラ
31 撮像部
40 走行軸
50 ステーション
Claims (8)
- 複数の移動先ポイントを経由する所定の動作をロボットに実行させるためのプログラムを生成するプログラム生成部と、
前記プログラムに基づいた制御により、前記ロボットに前記所定の動作を実行させるロボット制御部と、
前記移動先ポイントの位置と所定の相対関係がある位置に配置された参照点を撮像した撮像画像を取得する画像取得部と、
前記撮像画像及び前記所定の相対関係に基づいて、前記プログラムに含まれる前記移動先ポイントの情報を補正する移動先ポイント補正部と、を備え、
前記ロボット制御部は、前記補正後の移動先ポイントの情報に基づいて、前記ロボットを制御するプログラミング装置。 - 前記プログラム生成部は、
前記参照点の位置と前記所定の相関関係とを組にした情報に基づいて特定される移動先ポイントを、前記移動先ポイントの候補として複数記憶しており、
前記プログラム生成時に、前記移動先ポイントの候補から何れかの移動先ポイントを選択し、選択した前記移動先ポイントを経由する所定の動作をロボットに実行させるためのプログラムを生成する請求項1に記載のプログラミング装置。 - 前記プログラム生成部は、前記移動先ポイント間を前記ロボットが移動すると前記ロボットと他の物品とが干渉する場合に、前記干渉が発生しない経路にて前記ロボットが移動するように、前記移動先ポイント間の移動時に経由する中継ポイントを挿入して前記プログラムを生成する請求項1又は2に記載のプログラミング装置。
- 前記移動先ポイント補正部は、前記中継ポイントについての情報は補正しない請求項3に記載のプログラミング装置。
- 前記移動先ポイント補正部は、前記ロボットが前記所定の動作実行中に、これから前記ロボットが移動する移動先ポイントについての情報を補正する請求項1から4までの何れか1項に記載のプログラミング装置。
- 前記参照点が複数存在すると共に、前記参照点のそれぞれには各参照点を識別するための画像情報が含まれており、
前記画像取得部は、前記各参照点を識別するための画像情報も撮像し、
前記移動先ポイント補正部は、前記各参照点を識別するための画像情報に基づいて参照点を識別し、前記撮像画像及び前記所定の相対関係に基づいて、前記プログラムに含まれる前記識別した参照点に対応する前記移動先ポイントの情報を補正する請求項1から5までの何れか1項に記載のプログラミング装置。 - 異なる状況下で前記ロボットが動作する場合に、
前記プログラム生成部は、前記生成したプログラムを前記異なる状況それぞれに対応する数だけ複製し、
前記移動先ポイント補正部は、前記異なる状況それぞれに対応して前記複製されたプログラムそれぞれを補正することにより、前記異なる状況それぞれに対応する複数の補正後のプログラムを生成する請求項1から6までの何れか1項に記載のプログラミング装置。 - コンピュータが行うロボット制御方法であって、
複数の移動先ポイントを経由する所定の動作をロボットに実行させるためのプログラムを生成するプログラム生成ステップと、
前記プログラムに基づいた制御により、前記ロボットに前記所定の動作を実行させるロボット制御ステップと、
前記移動先ポイントの位置と所定の相対関係がある位置に配置された参照点を撮像した撮像画像を取得する画像取得ステップと、
前記撮像画像及び前記所定の相対関係に基づいて、前記プログラムに含まれる前記移動先ポイントの情報を補正する移動先ポイント補正ステップと、を前記コンピュータが行い、
前記ロボット制御ステップにおいて、前記補正後の移動先ポイントの情報に基づいて、前記ロボットを制御するロボット制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017098861A JP6538751B2 (ja) | 2017-05-18 | 2017-05-18 | プログラミング装置及びロボット制御方法 |
US15/948,046 US10647003B2 (en) | 2017-05-18 | 2018-04-09 | Programming device and robot control method |
US16/689,554 US11364636B2 (en) | 2017-05-18 | 2019-11-20 | Programming device and robot control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017098861A JP6538751B2 (ja) | 2017-05-18 | 2017-05-18 | プログラミング装置及びロボット制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018192569A true JP2018192569A (ja) | 2018-12-06 |
JP6538751B2 JP6538751B2 (ja) | 2019-07-03 |
Family
ID=64269918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017098861A Active JP6538751B2 (ja) | 2017-05-18 | 2017-05-18 | プログラミング装置及びロボット制御方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US10647003B2 (ja) |
JP (1) | JP6538751B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102258103B1 (ko) * | 2020-08-03 | 2021-05-31 | 주식회사 듀얼아이엔씨 | 제어 프로그램 자동 생성 방법 및 상기 방법을 수행하는 컴퓨팅 장치 |
KR102409623B1 (ko) * | 2021-07-16 | 2022-06-22 | 주식회사 듀얼아이엔씨 | 대상 시스템에 대한 모델링 방법 및 컴퓨팅 장치 |
DE112021005353T5 (de) | 2020-12-10 | 2023-08-31 | Fanuc Corporation | Bildverarbeitungssystem und Bildverarbeitungsverfahren |
WO2023181206A1 (ja) * | 2022-03-23 | 2023-09-28 | ファナック株式会社 | ロボットプログラミングシステム及びロボット制御装置 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11241795B2 (en) * | 2018-09-21 | 2022-02-08 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Soft package, robot system for processing the same, and method thereof |
JP7293713B2 (ja) * | 2019-02-25 | 2023-06-20 | 京セラドキュメントソリューションズ株式会社 | 把持機構及び組立装置 |
JP6898374B2 (ja) * | 2019-03-25 | 2021-07-07 | ファナック株式会社 | ロボット装置の動作を調整する動作調整装置およびロボット装置の動作を調整する動作調整方法 |
JP2021003794A (ja) * | 2019-06-27 | 2021-01-14 | ファナック株式会社 | ツールの作業位置のずれ量を取得する装置、及び方法 |
CN112659115B (zh) * | 2019-10-15 | 2022-12-09 | 深圳市大族机器人有限公司 | 工业机器人控制方法、装置、设备及存储介质 |
JP7415447B2 (ja) * | 2019-10-31 | 2024-01-17 | セイコーエプソン株式会社 | ロボットシステム |
CN114147727B (zh) * | 2022-02-07 | 2022-05-20 | 杭州灵西机器人智能科技有限公司 | 一种机器人位姿校正的方法、装置和系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784631A (ja) * | 1993-09-14 | 1995-03-31 | Fanuc Ltd | ロボットの教示プログラムの補正方法 |
JP2005138223A (ja) * | 2003-11-06 | 2005-06-02 | Fanuc Ltd | ロボット用位置データ修正装置 |
JP2006048244A (ja) * | 2004-08-02 | 2006-02-16 | Fanuc Ltd | 加工プログラム作成装置 |
JP2009208209A (ja) * | 2008-03-05 | 2009-09-17 | Ihi Corp | ロボット生産システム |
JP2015093356A (ja) * | 2013-11-13 | 2015-05-18 | 三菱電機株式会社 | 教示点補正装置および教示点補正方法 |
JP2015160277A (ja) * | 2014-02-27 | 2015-09-07 | ファナック株式会社 | ロボットの動作経路を生成するロボットシミュレーション装置 |
JP2015211997A (ja) * | 2014-05-07 | 2015-11-26 | 川田工業株式会社 | 作業システム |
WO2016151668A1 (ja) * | 2015-03-20 | 2016-09-29 | 富士機械製造株式会社 | ティーチング装置及び制御情報の生成方法 |
JP2017077614A (ja) * | 2015-10-22 | 2017-04-27 | キヤノン株式会社 | 教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009119589A (ja) | 2007-11-19 | 2009-06-04 | Yaskawa Electric Corp | ロボットシミュレータ |
JP6415190B2 (ja) * | 2014-09-03 | 2018-10-31 | キヤノン株式会社 | ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法 |
JP6523459B2 (ja) * | 2015-07-24 | 2019-05-29 | 株式会社Fuji | 部品実装機および部品実装システム |
JP6396516B2 (ja) * | 2017-01-12 | 2018-09-26 | ファナック株式会社 | 視覚センサのキャリブレーション装置、方法及びプログラム |
JP6572262B2 (ja) * | 2017-06-06 | 2019-09-04 | ファナック株式会社 | 教示位置修正装置および教示位置修正方法 |
JP6549644B2 (ja) * | 2017-06-27 | 2019-07-24 | ファナック株式会社 | 機械学習装置、ロボット制御システム及び機械学習方法 |
JP2019025572A (ja) * | 2017-07-28 | 2019-02-21 | セイコーエプソン株式会社 | ロボットの制御装置、ロボット、ロボットシステム、並びに、ロボットの異常を確認する方法 |
JP7130927B2 (ja) * | 2017-08-31 | 2022-09-06 | セイコーエプソン株式会社 | 制御装置およびロボットシステム |
JP6849631B2 (ja) * | 2018-04-23 | 2021-03-24 | ファナック株式会社 | 作業ロボットシステムおよび作業ロボット |
US11597100B2 (en) * | 2018-05-30 | 2023-03-07 | Fuji Corporation | Component mounting system |
-
2017
- 2017-05-18 JP JP2017098861A patent/JP6538751B2/ja active Active
-
2018
- 2018-04-09 US US15/948,046 patent/US10647003B2/en active Active
-
2019
- 2019-11-20 US US16/689,554 patent/US11364636B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784631A (ja) * | 1993-09-14 | 1995-03-31 | Fanuc Ltd | ロボットの教示プログラムの補正方法 |
JP2005138223A (ja) * | 2003-11-06 | 2005-06-02 | Fanuc Ltd | ロボット用位置データ修正装置 |
JP2006048244A (ja) * | 2004-08-02 | 2006-02-16 | Fanuc Ltd | 加工プログラム作成装置 |
JP2009208209A (ja) * | 2008-03-05 | 2009-09-17 | Ihi Corp | ロボット生産システム |
JP2015093356A (ja) * | 2013-11-13 | 2015-05-18 | 三菱電機株式会社 | 教示点補正装置および教示点補正方法 |
JP2015160277A (ja) * | 2014-02-27 | 2015-09-07 | ファナック株式会社 | ロボットの動作経路を生成するロボットシミュレーション装置 |
JP2015211997A (ja) * | 2014-05-07 | 2015-11-26 | 川田工業株式会社 | 作業システム |
WO2016151668A1 (ja) * | 2015-03-20 | 2016-09-29 | 富士機械製造株式会社 | ティーチング装置及び制御情報の生成方法 |
JP2017077614A (ja) * | 2015-10-22 | 2017-04-27 | キヤノン株式会社 | 教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102258103B1 (ko) * | 2020-08-03 | 2021-05-31 | 주식회사 듀얼아이엔씨 | 제어 프로그램 자동 생성 방법 및 상기 방법을 수행하는 컴퓨팅 장치 |
DE112021005353T5 (de) | 2020-12-10 | 2023-08-31 | Fanuc Corporation | Bildverarbeitungssystem und Bildverarbeitungsverfahren |
KR102409623B1 (ko) * | 2021-07-16 | 2022-06-22 | 주식회사 듀얼아이엔씨 | 대상 시스템에 대한 모델링 방법 및 컴퓨팅 장치 |
WO2023181206A1 (ja) * | 2022-03-23 | 2023-09-28 | ファナック株式会社 | ロボットプログラミングシステム及びロボット制御装置 |
Also Published As
Publication number | Publication date |
---|---|
US11364636B2 (en) | 2022-06-21 |
US10647003B2 (en) | 2020-05-12 |
US20180333859A1 (en) | 2018-11-22 |
JP6538751B2 (ja) | 2019-07-03 |
US20200086495A1 (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6538751B2 (ja) | プログラミング装置及びロボット制御方法 | |
Pan et al. | Recent progress on programming methods for industrial robots | |
JP7207851B2 (ja) | 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体 | |
JP5606816B2 (ja) | 溶接ロボットのティーチング装置およびティーチング方法 | |
JP4130703B2 (ja) | 作業領域操作方法及びベンディングプレス機に隷属するロボット | |
EP1936458B1 (en) | Device, method, program and recording medium for robot offline programming | |
CN108000523B (zh) | 模拟机器人系统的动作的模拟装置、模拟方法及记录介质 | |
WO1995008143A1 (fr) | Procede de correction de programmes d'apprentissage pour robots | |
JPWO2017064851A1 (ja) | ロボット教示方法及びロボットアーム制御装置 | |
WO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP2015150636A (ja) | ビジュアルフィードバックを利用したロボットシステム | |
CN103909516A (zh) | 机器人示教系统、机器人示教辅助装置和机器人示教方法 | |
JP2017094440A (ja) | ロボットのダイレクト教示方法 | |
JP2021030407A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2002018754A (ja) | ロボット装置及びその制御方法 | |
JP2019018272A (ja) | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム | |
CN110405729B (zh) | 机器人控制装置 | |
JP2008207262A (ja) | マニピュレータシステム | |
JP2012091304A (ja) | ティーチングデータ作成方法およびティーチングデータ作成装置 | |
CN114080590A (zh) | 使用先进扫描技术的机器人料箱拾取系统和方法 | |
EP3593957A1 (en) | Motion teaching apparatus, robot system, and motion teaching method | |
CN117381788A (zh) | 一种复合机器人高精度定位与智能作业引导方法 | |
JP4574580B2 (ja) | 作業ロボットのオフラインティーチング装置 | |
JPH05261682A (ja) | 産業用ロボットのキャリブレーション方式 | |
CN111882671A (zh) | 致动机械机器校准到静止标记 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180829 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6538751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |