JP2011251395A - ロボット教示システム - Google Patents
ロボット教示システム Download PDFInfo
- Publication number
- JP2011251395A JP2011251395A JP2010128477A JP2010128477A JP2011251395A JP 2011251395 A JP2011251395 A JP 2011251395A JP 2010128477 A JP2010128477 A JP 2010128477A JP 2010128477 A JP2010128477 A JP 2010128477A JP 2011251395 A JP2011251395 A JP 2011251395A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- work
- teaching
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003466 welding Methods 0.000 claims abstract description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 31
- 238000011960 computer-aided design Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 9
- 239000000203 mixture Substances 0.000 description 8
- 239000002131 composite material Substances 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
【課題】作業効率の向上化が図れ、なお且つ、危険も伴わないロボット教示システムを提供することを目的としている。
【解決手段】ワークWに対して溶接等の作業を行うロボット1と、前記ロボット1の作業現場を撮影可能な複数の多視点画像撮影カメラ2と、前記各多視点画像撮影カメラ2によって撮影された画像を取得し、且つ、その取得した画像から前記ロボット1の作業現場の任意視点画像を生成する画像生成手段と、前記生成された任意視点画像を表示する表示手段と、前記表示された画像を用いて前記ロボット1の作動を指示可能な指示手段と、前記指示手段によって指示された作動に応じて前記ロボット1を制御するロボット制御手段とを有してなる。
【選択図】図1
【解決手段】ワークWに対して溶接等の作業を行うロボット1と、前記ロボット1の作業現場を撮影可能な複数の多視点画像撮影カメラ2と、前記各多視点画像撮影カメラ2によって撮影された画像を取得し、且つ、その取得した画像から前記ロボット1の作業現場の任意視点画像を生成する画像生成手段と、前記生成された任意視点画像を表示する表示手段と、前記表示された画像を用いて前記ロボット1の作動を指示可能な指示手段と、前記指示手段によって指示された作動に応じて前記ロボット1を制御するロボット制御手段とを有してなる。
【選択図】図1
Description
本発明は、ワークに対して溶接等の作業を行うロボットを教示(ティーチング)するロボット教示システムに関する。
近年、様々な分野においてロボットによる作業が行われている。そして、この種のロボットは、制御装置からの信号に基づき、ワークに対して溶接やシーリング、あるいは塗装、切断、研磨、ハンドリング等の作業を行っている。また、そのロボットの作動にあたっては、作業者が、ティーチペンダントやコンピュータを用いて上記作業装置に上記ロボットの作業手順を教示させることで作動させている。
ところで、この作業手順を教示させる方法としては、一般に、オンラインティーチング方法とオフラインティーチング方法という2つの方法が知られている。オンラインティーチング方法とは、作業現場でワークを直接見ながら、ティーチペンダントを用いて上記ロボットの作業位置等を教示する方法である。一方、オフラインティーチング方法とは、作業現場以外のコンピュータにインストールされているオフラインティーチングソフトを使用して、ワーク及びロボットのCAD(computer−aided design)データを作成し、画面上に疑似的なワーク及びロボットの画像を描画した上で、キーボードやマウス等によって作業者に座標位置等のデータを入力させることで、上記ロボットに作業手順を教示させる方法である(例えば、特許文献1)。
しかしながら、上記のようなティーチング方法には次のような問題があった。すなわち、上記オンラインティーチング方法は、作業現場での作業となるため、ロボットへの教示作業中はロボット自体を停止させなければならず、それゆえ、設備稼働率の低下による生産性の悪化を招いてしまうという問題があった。また、当該方法は、実際の作業現場での作業となるため危険を伴うという問題があった。
一方、上記オフラインティーチング方法は、当該ロボットへの教示中も作業が行え、オンラインティーチング方法より利点を有する。しかしながら、当該方法では、実際の作業現場に存在するロボットのケーブル、ホース等が、ワークやロボット自身に、実際にどのように干渉するのか不明であり、そしてまた、当該方法では、ワークのCADデータを作成しているため、コンピュータ上の疑似的なワークと、実際のワークとの誤差が生じることが多々あり、実際はオフラインティーチング方法のみでロボットへの教示作業を完了させることができず、作業現場での修正作業が必要となっていた。そのため、作業者の作業負担が増大するばかりか、実際の作業現場での作業が必要となるため危険を伴うという問題があった。
そこで本発明は、上記事情に鑑み、作業効率の向上化が図れ、なお且つ、危険も伴わないロボット教示システムを提供することを目的としている。
上記目的を達成するために、本発明の請求項1に係るロボット教示システムを、図面の参照符号を付して示せば、ワークWに対して溶接等の作業を行うロボット1と、前記ロボット1の作業現場を撮影可能な複数の多視点画像撮影カメラ2と、前記各多視点画像撮影カメラ2によって撮影された画像を取得し、且つ、その取得した画像から前記ロボット1の作業現場の任意視点画像を生成する画像生成手段(画像生成部30)と、前記生成された任意視点画像を表示する表示手段(表示部35)と、前記表示された画像を用いて前記ロボット1の作動を指示可能な指示手段(指示部33)と、前記指示手段(指示部33)によって指示された作動に応じて前記ロボット1を制御するロボット制御手段(ロボット制御部37)とを有してなることを特徴としている。
また、請求項2に係るロボット教示システムは、上記請求項1に記載のロボット教示システムにおいて、前記ロボット1の3次元CADモデルを格納する3次元CADモデル格納手段(3次元CADモデル格納部31)と、前記3次元CADモデル格納手段(3次元CADモデル格納部31)に格納されている前記ロボット1の3次元CADモデルと前記画像生成手段(画像生成部30)によって生成される任意視点画像とを合成する画像合成手段(画像合成部36)とをさらに有し、前記画像合成手段(画像合成部36)によって合成された画像は、前記表示手段(表示部35)に表示され、その表示された画像は、前記指示手段(指示部33)によって前記ロボット1の作動を指示するために用いられてなることを特徴としている。
一方、請求項3に係るロボット教示システムは、上記請求項1又は2に記載のロボット教示システムにおいて、前記指示手段(指示部33)はマウスであり、前記表示手段(表示部35)に表示された画像をマウス操作することにより、前記ロボット1の作動を指示してなることを特徴としている。
次に、本発明の効果について、図面の参照符号を付して説明する。まず請求項1の発明にかかるロボット教示システムでは、複数の多視点画像撮影カメラ2によって撮影されたワークWに対して溶接等の作業を行うロボット1の作業現場の撮影画像が、画像生成手段(画像生成部30)にて任意視点画像として生成される。そして、その生成された任意視点画像が表示手段(表示部35)に表示される。これにより、作業者は、表示手段(表示部35)に表示された画像を用いて、マウス等の指示手段(指示部33)を用いて上記ロボット1の作動を指示することができる。そして、この作動指示に応じてロボット制御手段(ロボット制御部37)はロボット1の作動を制御することとなる。
そのため、表示手段(表示部35)にロボット1の作業現場のリアルタイム画像を表示することができ、その画像を用いて作業者は、ロボット1の教示作業を行うことができる。それゆえ、ロボット1のケーブル、ホース等が、ワークWやロボット1自身に、実際にどのように干渉するのか判断することができ、さらには、ワークWのCADデータを作成する必要がないため、コンピュータ上の疑似的なワークと、実際のワークとの誤差が生じにくくなる。したがって、作業現場での修正作業が必要なくなり、作業負担が大幅に軽減されるばかりか、遠隔地で作業を行うことができるため、危険を伴うということもない。また、作業現場で直接、ロボット1への教示作業を行う必要がないため、ロボット1への教示作業中にロボット1自体を停止させることがない。そのため、設備稼働率の低下による生産性の悪化を招いてしまうということもない。
したがって、本発明によれば、作業効率の向上化が図れると共に、危険が伴うということもない。
また、請求項2の発明によれば、画像生成手段(画像生成部30)にて生成したロボット1の作業現場の任意視点画像と3次元CADモデル格納手段(3次元CADモデル格納部31)にて格納されているロボット1の3次元CADモデルを、画像合成手段(画像合成部36)にて合成した画像を用いてロボット1の教示作業を行うことができる。そのため、教示作業の指示対象であるロボット1は表示手段(表示部35)に明確に表示されることとなるため、作業者は、その明確に表示された3次元CADモデルを用いてロボット1に対して的確な教示作業を行うことが可能となる。
したがって、本発明によれば、高精度な教示作業を行うことができる。
一方、請求項3の発明によれば、上記指示手段(指示部33)はマウスであり、上記表示手段(表示部35)に表示された画像をマウス操作することで、上記ロボット1の作動を指示している。そのため、作業者は、上記表示手段(表示部35)に表示された画像を見ながら、その画像を、マウスを用いて例えばドラック&ドロップ等の操作をすることで、上記ロボット1の作動指令を行うことができる。
しかして、作業者はマウス操作のみで、ロボット1の教示作業を行うことができるため、熟練を要さずとも直感的な操作でロボット1の教示作業を行うことができる。さらに、マウス操作のみであるから、従来のティーチング方法で用いていたティーチペンダントやオフラインソフトのように操作方法がロボットメーカによって異なるということがない。
したがって、本発明によればロボットの教示作業が非常に簡単容易となる。
以下、本発明に係る一実施形態について、図1及び図2を参照して具体的に説明する。
本実施形態に係るロボット教示システムは、図1に示すように、ワークWに対して溶接等の作業を行う6軸の多関節汎用ロボット1と、複数の多視点画像撮影カメラ(図示では、5台)2と、ロボット教示装置3とで構成されている。この多関節汎用ロボット1は、ロボット教示装置3にてその作動が制御され、そのロボット1の作業現場が上記複数の多視点画像撮影カメラ2にて撮影されている。なお、本実施形態において、ロボット1は、6軸の多関節汎用ロボットを例示したが、これに限らずどのようなロボットを用いてもよい。
一方、多視点画像撮影カメラ2は、色彩画像とともに視差画像を撮ることのできるデジタルカメラであり、図示はしないがワークW及びロボット1の周囲に設けられた安全柵上に取付けられている。そして、このように安全柵上に取付けられた多視点画像撮影カメラ2は、上記多関節汎用ロボット1の作業現場を撮影し、その撮影した画像をロボット教示装置3に出力する。なお、この複数の多視点画像撮影カメラ2から出力された画像は、ロボット教示装置3によって取得される。
また一方、このロボット教示装置3は、汎用のPC(Personal Computer)等からなるもので、図2に示すような構成からなる。すなわち、ロボット教示装置3は、画像生成部30と、3次元CADモデル格納部31と、教示プログラム格納部32と、指示部33と、中央制御部34と、表示部35と、画像合成部36と、ロボット制御部37とで構成されている。なお、ロボット教示装置3は、1台の汎用PC等で構成しても良いし、処理内容を分散させ、複数台の汎用PC等で構成しても良い。
ところで、上記画像生成部30は、画像取得部30aを有しており、この画像取得部30aにて上記複数の多視点画像撮影カメラ2にて撮影された色彩画像及び視差画像が取得される。そして、これら取得された画像は、画像生成部30が有する画像処理部30bに出力される。
このように画像取得部30aによって出力された画像は、画像処理部30bによって、シルエット(輪郭)が抽出され、シルエット画像として生成される。そして、画像処理部30bは、生成したシルエット画像及び色彩画像をJPEG圧縮し、画像生成部30が有する復元処理部30cに出力する。
一方、このようにJPEG圧縮した画像を用いて、復元処理部30cは、8分木モデルの生成を行う。なお、8分木モデルの生成には、シルエット法による形状生成手法とともに、8分木生成アルゴリズム(octree generation algorithm)の手法を用いる。この手法を用いれば、処理時間を短縮することができるためである。
また、復元処理部30cは、8分木モデルを生成した後、ボクセルモデルを生成し、その後内部ボクセルの除去を行う。このように内部ボクセルの除去を行った後、復元処理部30cは、表面ボクセルに彩色を施す。これにより、ロボット1の作業現場の任意視点画像が生成されることとなる。
他方、3次元CADモデル格納部31には、予め作成しておいたロボット1の3次元CADモデルが格納されている。また、教示プログラム格納部32には、上記ロボット1を教示するための教示プログラムが格納されている。なお、ロボット1の3次元CADモデルを作成する方法は、上記教示プログラム格納部32に格納されている教示プログラムを用いて作成しても良いし、他のプログラムを用いて作成しても良い。
ところで、このように教示プログラム格納部32に格納されている教示プログラムを起動させるには、作業者がマウスからなる指示部33を用いて起動指令を行うことにより、その起動指令を受け取ったCPU等からなる中央制御部34が上記教示プログラムを起動させることとなる。そして、その教示プログラムを起動させた中央制御部34は、その起動内容を液晶等からなる表示部35に表示させる。
かくして、作業者は、表示部35に表示された教示プログラムの内容に応じて、上記ロボット1の作動指令を行うこととなる。すなわち、作業者は、まず、マウスからなる指示部33を用いて、上記3次元CADモデル格納部31に格納されているロボット1の3次元CADモデル及び上記画像生成部30にて生成したロボット1の作業現場の任意視点画像を読み出す指令を行う。これにより、中央制御部34は、上記3次元CADモデル格納部31に格納されているロボット1の3次元CADモデル及び上記画像生成部30にて生成したロボット1の作業現場の任意視点画像を読み出し、画像合成部36に出力する。そして、画像合成部36は、そのロボット1の作業現場の任意視点画像とロボット1の3次元CADモデルとを合成した画像を生成する。すなわち、上記任意視点画像で表現されているロボット1にロボット1の3次元CADモデルを融合させた合成画像を生成するものである。このように、画像合成部36にて合成された合成画像は、中央制御部34を介して表示部35に表示される。
そして次に、作業者は、ロボット1の作動指令を行うため、上記表示部35に表示された合成画像のうち3次元CADモデルで作成したロボット1をマウスからなる指示部33を用いて、例えばドラック&ドロップ等のマウス操作を行う。これにより作業者は、ロボット1の作動指令を行うことができる。
しかして作業者は、マウス操作のみで、ロボット1の教示作業を行うことができるため、熟練を要さずとも直感的な操作でロボット1の教示作業を行うことができる。さらに、マウス操作のみであるから、従来のティーチング方法で用いていたティーチペンダントやオフラインソフトのように操作方法がロボットメーカによって異なるということがない。したがって、ロボット1の教示作業が非常に簡単容易となる。
またこのように、ロボット1の教示作業を行う際、画像生成部30にて生成したロボット1の作業現場の任意視点画像にロボット1の3次元CADモデルを融合させた合成画像を使用しているため、指示対象であるロボット1は表示部35に明確に表示されることとなる。したがって、作業者は、その明確に表示された3次元CADモデルを用いてロボット1に対して的確な教示作業を行うことができる。そのため、高精度な教示作業をロボット1に対して行うことができる。なお、指示部33としてはマウスを用いて構成した方が好ましいが、他の機器を用いてもよい。
一方、上記のように、作業者が、表示部35に表示された教示プログラム内容に応じて、上記ロボット1の作動指令を行うと、中央制御部34はロボット制御部37にその作動指令を出力する。そしてロボット制御部37は、その作動指令の内容に応じてロボット1を作動させるための制御を行う。これにより、ロボット1はその制御内容に応じて作動し、ワークWに対して溶接等の作業を行うこととなる。
したがって、以上説明した本実施形態によれば、複数の多視点画像撮影カメラ2によって撮影されたワークWに対して溶接等の作業を行うロボット1の作業現場の撮影画像が、画像生成部30にて任意視点画像として生成される。そして、その生成された任意視点画像が表示部35に表示される。これにより、作業者は、表示部35に表示された画像を用いて、マウス等の指示部33を用いて上記ロボット1の作動を指示することができる。そして、この作動指示に応じてロボット制御部37はロボット1の作動を制御することとなる。
そのため、表示部35にロボット1の作業現場のリアルタイム画像を表示することができ、その画像を用いて作業者は、ロボット1の教示作業を行うことができる。それゆえ、ロボット1のケーブル、ホース等が、ワークWやロボット1自身に、実際にどのように干渉するのか判断することができ、さらには、ワークWのCADデータを作成する必要がないため、コンピュータ上の疑似的なワークと、実際のワークとの誤差が生じにくくなる。そのため、作業現場での修正作業が必要なくなり、作業負担が大幅に軽減されるばかりか、遠隔地で作業を行うことができ、危険を伴うということもない。また、作業現場で直接、ロボット1への教示作業を行う必要がないため、ロボット1への教示作業中にロボット1自体を停止させることがない。そのため、設備稼働率の低下による生産性の悪化を招いてしまうということもない。
したがって、本実施形態によれば、作業効率の向上化が図れると共に、危険が伴うということもない。
なお、多視点画像撮影カメラによって撮影された画像から任意視点画像を生成する方法は、本実施形態において例示した方法に限らず、種々様々な方法を用いることが可能である。
W ワーク
1 ロボット
2 多視点画像撮影カメラ
3 ロボット教示装置
30 画像生成部(画像生成手段)
31 3次元CADモデル格納部(3次元CADモデル格納手段)
33 指示部(指示手段)
35 表示部(表示手段)
36 画像合成部(画像合成手段)
37 ロボット制御部(ロボット制御手段)
1 ロボット
2 多視点画像撮影カメラ
3 ロボット教示装置
30 画像生成部(画像生成手段)
31 3次元CADモデル格納部(3次元CADモデル格納手段)
33 指示部(指示手段)
35 表示部(表示手段)
36 画像合成部(画像合成手段)
37 ロボット制御部(ロボット制御手段)
Claims (3)
- ワークに対して溶接等の作業を行うロボットと、
前記ロボットの作業現場を撮影可能な複数の多視点画像撮影カメラと、
前記各多視点画像撮影カメラによって撮影された画像を取得し、且つ、その取得した画像から前記ロボットの作業現場の任意視点画像を生成する画像生成手段と、
前記生成された任意視点画像を表示する表示手段と、
前記表示された画像を用いて前記ロボットの作動を指示可能な指示手段と、
前記指示手段によって指示された作動に応じて前記ロボットを制御するロボット制御手段とを有してなることを特徴とするロボット教示システム。 - 前記ロボットの3次元CADモデルを格納する3次元CADモデル格納手段と、
前記3次元CADモデル格納手段に格納されている前記ロボットの3次元CADモデルと前記画像生成手段によって生成される任意視点画像とを合成する画像合成手段とをさらに有し、
前記画像合成手段によって合成された画像は、前記表示手段に表示され、その表示された画像は、前記指示手段によって前記ロボットの作動を指示するために用いられてなることを特徴とする請求項1に記載のロボット教示システム。 - 前記指示手段はマウスであり、前記表示手段に表示された画像をマウス操作することにより、前記ロボットの作動を指示してなることを特徴とする請求項1又は2に記載のロボット教示システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010128477A JP2011251395A (ja) | 2010-06-04 | 2010-06-04 | ロボット教示システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010128477A JP2011251395A (ja) | 2010-06-04 | 2010-06-04 | ロボット教示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011251395A true JP2011251395A (ja) | 2011-12-15 |
Family
ID=45415758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010128477A Pending JP2011251395A (ja) | 2010-06-04 | 2010-06-04 | ロボット教示システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011251395A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2783812A3 (en) * | 2013-03-18 | 2015-04-01 | Kabushiki Kaisha Yaskawa Denki | Robot device and method for manufacturing an object |
CN104552298A (zh) * | 2013-10-17 | 2015-04-29 | 株式会社安川电机 | 示教系统和示教方法 |
JP2015168249A (ja) * | 2014-03-11 | 2015-09-28 | 株式会社スター精機 | 樹脂成形品取出し機におけるゲート切断位置データ設定方法及び樹脂成形品取出し機 |
CN106363635A (zh) * | 2016-12-01 | 2017-02-01 | 广汽本田汽车有限公司 | 一种机器人运行仿真校准方法及装置 |
JP2020049558A (ja) * | 2018-09-25 | 2020-04-02 | ファナック株式会社 | 物品取り出しシステム |
JP7364285B1 (ja) | 2022-11-11 | 2023-10-18 | 高丸工業株式会社 | ロボット操作システムの動作方法 |
JP2025049927A (ja) * | 2023-09-22 | 2025-04-04 | 高丸工業株式会社 | ロボット操作システムの動作方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11207670A (ja) * | 1998-01-21 | 1999-08-03 | Kawasaki Heavy Ind Ltd | 産業ロボットのティーチング方法とその装置 |
JP2007026061A (ja) * | 2005-07-15 | 2007-02-01 | Ritsumeikan | ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム |
JP2008168372A (ja) * | 2007-01-10 | 2008-07-24 | Toyota Motor Corp | ロボット装置及び形状認識方法 |
JP2009214212A (ja) * | 2008-03-10 | 2009-09-24 | Toyota Motor Corp | 動作教示システム及び動作教示方法 |
JP2010121945A (ja) * | 2008-11-17 | 2010-06-03 | Nippon Hoso Kyokai <Nhk> | 3次元形状生成装置 |
-
2010
- 2010-06-04 JP JP2010128477A patent/JP2011251395A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11207670A (ja) * | 1998-01-21 | 1999-08-03 | Kawasaki Heavy Ind Ltd | 産業ロボットのティーチング方法とその装置 |
JP2007026061A (ja) * | 2005-07-15 | 2007-02-01 | Ritsumeikan | ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム |
JP2008168372A (ja) * | 2007-01-10 | 2008-07-24 | Toyota Motor Corp | ロボット装置及び形状認識方法 |
JP2009214212A (ja) * | 2008-03-10 | 2009-09-24 | Toyota Motor Corp | 動作教示システム及び動作教示方法 |
JP2010121945A (ja) * | 2008-11-17 | 2010-06-03 | Nippon Hoso Kyokai <Nhk> | 3次元形状生成装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2783812A3 (en) * | 2013-03-18 | 2015-04-01 | Kabushiki Kaisha Yaskawa Denki | Robot device and method for manufacturing an object |
CN104552298A (zh) * | 2013-10-17 | 2015-04-29 | 株式会社安川电机 | 示教系统和示教方法 |
JP2015168249A (ja) * | 2014-03-11 | 2015-09-28 | 株式会社スター精機 | 樹脂成形品取出し機におけるゲート切断位置データ設定方法及び樹脂成形品取出し機 |
CN106363635A (zh) * | 2016-12-01 | 2017-02-01 | 广汽本田汽车有限公司 | 一种机器人运行仿真校准方法及装置 |
CN106363635B (zh) * | 2016-12-01 | 2018-08-31 | 广汽本田汽车有限公司 | 一种机器人运行仿真校准方法及装置 |
JP2020049558A (ja) * | 2018-09-25 | 2020-04-02 | ファナック株式会社 | 物品取り出しシステム |
JP7364285B1 (ja) | 2022-11-11 | 2023-10-18 | 高丸工業株式会社 | ロボット操作システムの動作方法 |
JP2024070336A (ja) * | 2022-11-11 | 2024-05-23 | 高丸工業株式会社 | ロボット操作システムの動作方法 |
JP2025049927A (ja) * | 2023-09-22 | 2025-04-04 | 高丸工業株式会社 | ロボット操作システムの動作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10052765B2 (en) | Robot system having augmented reality-compatible display | |
JP2011251395A (ja) | ロボット教示システム | |
JP7439073B2 (ja) | 溶接パス生成のためのシステム及び方法 | |
CN104722926B (zh) | 一种机器人三维激光自动切割系统方法 | |
CN107921642B (zh) | 远程操作机械手系统及其运转方法 | |
JP6420229B2 (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
JP6171457B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
KR20170016436A (ko) | 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법 | |
JP2005074600A (ja) | ロボット及びロボット移動方法 | |
JP5090496B2 (ja) | 画像生成装置及び操作支援システム | |
JP2008254150A (ja) | ロボットの教示装置及び教示方法 | |
JP7674464B2 (ja) | 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置 | |
JP2006026790A (ja) | 教示モデル生成装置 | |
JP7517803B2 (ja) | ロボット教示システム、画像生成方法、及びプログラム | |
CN115803155A (zh) | 编程装置 | |
JP2010182210A (ja) | ロボット教示プログラム修正装置 | |
JP4558682B2 (ja) | 移動型ロボットシステムにおけるマニピュレータ遠隔操作方法 | |
JP6256874B2 (ja) | 建設機械用俯瞰画像表示装置 | |
JPH11338532A (ja) | 教示装置 | |
JP2021038649A5 (ja) | ||
JP2007129336A (ja) | 監視システム及び監視装置 | |
JP2005252831A (ja) | 設備監視支援装置 | |
JP2016201007A (ja) | 搬送設備の遠隔メンテナンスシステム | |
JP2025049927A (ja) | ロボット操作システムの動作方法 | |
WO2023157083A1 (ja) | ワークの位置を取得する装置、制御装置、ロボットシステム、及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130604 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140307 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140827 |