[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011251395A - ロボット教示システム - Google Patents

ロボット教示システム Download PDF

Info

Publication number
JP2011251395A
JP2011251395A JP2010128477A JP2010128477A JP2011251395A JP 2011251395 A JP2011251395 A JP 2011251395A JP 2010128477 A JP2010128477 A JP 2010128477A JP 2010128477 A JP2010128477 A JP 2010128477A JP 2011251395 A JP2011251395 A JP 2011251395A
Authority
JP
Japan
Prior art keywords
robot
image
work
teaching
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010128477A
Other languages
English (en)
Inventor
Tadashi Takamaru
正 高丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAKAMARU KOGYO KK
Original Assignee
TAKAMARU KOGYO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAKAMARU KOGYO KK filed Critical TAKAMARU KOGYO KK
Priority to JP2010128477A priority Critical patent/JP2011251395A/ja
Publication of JP2011251395A publication Critical patent/JP2011251395A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】作業効率の向上化が図れ、なお且つ、危険も伴わないロボット教示システムを提供することを目的としている。
【解決手段】ワークWに対して溶接等の作業を行うロボット1と、前記ロボット1の作業現場を撮影可能な複数の多視点画像撮影カメラ2と、前記各多視点画像撮影カメラ2によって撮影された画像を取得し、且つ、その取得した画像から前記ロボット1の作業現場の任意視点画像を生成する画像生成手段と、前記生成された任意視点画像を表示する表示手段と、前記表示された画像を用いて前記ロボット1の作動を指示可能な指示手段と、前記指示手段によって指示された作動に応じて前記ロボット1を制御するロボット制御手段とを有してなる。
【選択図】図1

Description

本発明は、ワークに対して溶接等の作業を行うロボットを教示(ティーチング)するロボット教示システムに関する。
近年、様々な分野においてロボットによる作業が行われている。そして、この種のロボットは、制御装置からの信号に基づき、ワークに対して溶接やシーリング、あるいは塗装、切断、研磨、ハンドリング等の作業を行っている。また、そのロボットの作動にあたっては、作業者が、ティーチペンダントやコンピュータを用いて上記作業装置に上記ロボットの作業手順を教示させることで作動させている。
ところで、この作業手順を教示させる方法としては、一般に、オンラインティーチング方法とオフラインティーチング方法という2つの方法が知られている。オンラインティーチング方法とは、作業現場でワークを直接見ながら、ティーチペンダントを用いて上記ロボットの作業位置等を教示する方法である。一方、オフラインティーチング方法とは、作業現場以外のコンピュータにインストールされているオフラインティーチングソフトを使用して、ワーク及びロボットのCAD(computer−aided design)データを作成し、画面上に疑似的なワーク及びロボットの画像を描画した上で、キーボードやマウス等によって作業者に座標位置等のデータを入力させることで、上記ロボットに作業手順を教示させる方法である(例えば、特許文献1)。
特開平9−179624号公報
しかしながら、上記のようなティーチング方法には次のような問題があった。すなわち、上記オンラインティーチング方法は、作業現場での作業となるため、ロボットへの教示作業中はロボット自体を停止させなければならず、それゆえ、設備稼働率の低下による生産性の悪化を招いてしまうという問題があった。また、当該方法は、実際の作業現場での作業となるため危険を伴うという問題があった。
一方、上記オフラインティーチング方法は、当該ロボットへの教示中も作業が行え、オンラインティーチング方法より利点を有する。しかしながら、当該方法では、実際の作業現場に存在するロボットのケーブル、ホース等が、ワークやロボット自身に、実際にどのように干渉するのか不明であり、そしてまた、当該方法では、ワークのCADデータを作成しているため、コンピュータ上の疑似的なワークと、実際のワークとの誤差が生じることが多々あり、実際はオフラインティーチング方法のみでロボットへの教示作業を完了させることができず、作業現場での修正作業が必要となっていた。そのため、作業者の作業負担が増大するばかりか、実際の作業現場での作業が必要となるため危険を伴うという問題があった。
そこで本発明は、上記事情に鑑み、作業効率の向上化が図れ、なお且つ、危険も伴わないロボット教示システムを提供することを目的としている。
上記目的を達成するために、本発明の請求項1に係るロボット教示システムを、図面の参照符号を付して示せば、ワークWに対して溶接等の作業を行うロボット1と、前記ロボット1の作業現場を撮影可能な複数の多視点画像撮影カメラ2と、前記各多視点画像撮影カメラ2によって撮影された画像を取得し、且つ、その取得した画像から前記ロボット1の作業現場の任意視点画像を生成する画像生成手段(画像生成部30)と、前記生成された任意視点画像を表示する表示手段(表示部35)と、前記表示された画像を用いて前記ロボット1の作動を指示可能な指示手段(指示部33)と、前記指示手段(指示部33)によって指示された作動に応じて前記ロボット1を制御するロボット制御手段(ロボット制御部37)とを有してなることを特徴としている。
また、請求項2に係るロボット教示システムは、上記請求項1に記載のロボット教示システムにおいて、前記ロボット1の3次元CADモデルを格納する3次元CADモデル格納手段(3次元CADモデル格納部31)と、前記3次元CADモデル格納手段(3次元CADモデル格納部31)に格納されている前記ロボット1の3次元CADモデルと前記画像生成手段(画像生成部30)によって生成される任意視点画像とを合成する画像合成手段(画像合成部36)とをさらに有し、前記画像合成手段(画像合成部36)によって合成された画像は、前記表示手段(表示部35)に表示され、その表示された画像は、前記指示手段(指示部33)によって前記ロボット1の作動を指示するために用いられてなることを特徴としている。
一方、請求項3に係るロボット教示システムは、上記請求項1又は2に記載のロボット教示システムにおいて、前記指示手段(指示部33)はマウスであり、前記表示手段(表示部35)に表示された画像をマウス操作することにより、前記ロボット1の作動を指示してなることを特徴としている。
次に、本発明の効果について、図面の参照符号を付して説明する。まず請求項1の発明にかかるロボット教示システムでは、複数の多視点画像撮影カメラ2によって撮影されたワークWに対して溶接等の作業を行うロボット1の作業現場の撮影画像が、画像生成手段(画像生成部30)にて任意視点画像として生成される。そして、その生成された任意視点画像が表示手段(表示部35)に表示される。これにより、作業者は、表示手段(表示部35)に表示された画像を用いて、マウス等の指示手段(指示部33)を用いて上記ロボット1の作動を指示することができる。そして、この作動指示に応じてロボット制御手段(ロボット制御部37)はロボット1の作動を制御することとなる。
そのため、表示手段(表示部35)にロボット1の作業現場のリアルタイム画像を表示することができ、その画像を用いて作業者は、ロボット1の教示作業を行うことができる。それゆえ、ロボット1のケーブル、ホース等が、ワークWやロボット1自身に、実際にどのように干渉するのか判断することができ、さらには、ワークWのCADデータを作成する必要がないため、コンピュータ上の疑似的なワークと、実際のワークとの誤差が生じにくくなる。したがって、作業現場での修正作業が必要なくなり、作業負担が大幅に軽減されるばかりか、遠隔地で作業を行うことができるため、危険を伴うということもない。また、作業現場で直接、ロボット1への教示作業を行う必要がないため、ロボット1への教示作業中にロボット1自体を停止させることがない。そのため、設備稼働率の低下による生産性の悪化を招いてしまうということもない。
したがって、本発明によれば、作業効率の向上化が図れると共に、危険が伴うということもない。
また、請求項2の発明によれば、画像生成手段(画像生成部30)にて生成したロボット1の作業現場の任意視点画像と3次元CADモデル格納手段(3次元CADモデル格納部31)にて格納されているロボット1の3次元CADモデルを、画像合成手段(画像合成部36)にて合成した画像を用いてロボット1の教示作業を行うことができる。そのため、教示作業の指示対象であるロボット1は表示手段(表示部35)に明確に表示されることとなるため、作業者は、その明確に表示された3次元CADモデルを用いてロボット1に対して的確な教示作業を行うことが可能となる。
したがって、本発明によれば、高精度な教示作業を行うことができる。
一方、請求項3の発明によれば、上記指示手段(指示部33)はマウスであり、上記表示手段(表示部35)に表示された画像をマウス操作することで、上記ロボット1の作動を指示している。そのため、作業者は、上記表示手段(表示部35)に表示された画像を見ながら、その画像を、マウスを用いて例えばドラック&ドロップ等の操作をすることで、上記ロボット1の作動指令を行うことができる。
しかして、作業者はマウス操作のみで、ロボット1の教示作業を行うことができるため、熟練を要さずとも直感的な操作でロボット1の教示作業を行うことができる。さらに、マウス操作のみであるから、従来のティーチング方法で用いていたティーチペンダントやオフラインソフトのように操作方法がロボットメーカによって異なるということがない。
したがって、本発明によればロボットの教示作業が非常に簡単容易となる。
本発明の一実施形態に係るロボット教示システムの概略構成図である。 同実施形態に係るロボット教示装置のブロック図である。
以下、本発明に係る一実施形態について、図1及び図2を参照して具体的に説明する。
本実施形態に係るロボット教示システムは、図1に示すように、ワークWに対して溶接等の作業を行う6軸の多関節汎用ロボット1と、複数の多視点画像撮影カメラ(図示では、5台)2と、ロボット教示装置3とで構成されている。この多関節汎用ロボット1は、ロボット教示装置3にてその作動が制御され、そのロボット1の作業現場が上記複数の多視点画像撮影カメラ2にて撮影されている。なお、本実施形態において、ロボット1は、6軸の多関節汎用ロボットを例示したが、これに限らずどのようなロボットを用いてもよい。
一方、多視点画像撮影カメラ2は、色彩画像とともに視差画像を撮ることのできるデジタルカメラであり、図示はしないがワークW及びロボット1の周囲に設けられた安全柵上に取付けられている。そして、このように安全柵上に取付けられた多視点画像撮影カメラ2は、上記多関節汎用ロボット1の作業現場を撮影し、その撮影した画像をロボット教示装置3に出力する。なお、この複数の多視点画像撮影カメラ2から出力された画像は、ロボット教示装置3によって取得される。
また一方、このロボット教示装置3は、汎用のPC(Personal Computer)等からなるもので、図2に示すような構成からなる。すなわち、ロボット教示装置3は、画像生成部30と、3次元CADモデル格納部31と、教示プログラム格納部32と、指示部33と、中央制御部34と、表示部35と、画像合成部36と、ロボット制御部37とで構成されている。なお、ロボット教示装置3は、1台の汎用PC等で構成しても良いし、処理内容を分散させ、複数台の汎用PC等で構成しても良い。
ところで、上記画像生成部30は、画像取得部30aを有しており、この画像取得部30aにて上記複数の多視点画像撮影カメラ2にて撮影された色彩画像及び視差画像が取得される。そして、これら取得された画像は、画像生成部30が有する画像処理部30bに出力される。
このように画像取得部30aによって出力された画像は、画像処理部30bによって、シルエット(輪郭)が抽出され、シルエット画像として生成される。そして、画像処理部30bは、生成したシルエット画像及び色彩画像をJPEG圧縮し、画像生成部30が有する復元処理部30cに出力する。
一方、このようにJPEG圧縮した画像を用いて、復元処理部30cは、8分木モデルの生成を行う。なお、8分木モデルの生成には、シルエット法による形状生成手法とともに、8分木生成アルゴリズム(octree generation algorithm)の手法を用いる。この手法を用いれば、処理時間を短縮することができるためである。
また、復元処理部30cは、8分木モデルを生成した後、ボクセルモデルを生成し、その後内部ボクセルの除去を行う。このように内部ボクセルの除去を行った後、復元処理部30cは、表面ボクセルに彩色を施す。これにより、ロボット1の作業現場の任意視点画像が生成されることとなる。
他方、3次元CADモデル格納部31には、予め作成しておいたロボット1の3次元CADモデルが格納されている。また、教示プログラム格納部32には、上記ロボット1を教示するための教示プログラムが格納されている。なお、ロボット1の3次元CADモデルを作成する方法は、上記教示プログラム格納部32に格納されている教示プログラムを用いて作成しても良いし、他のプログラムを用いて作成しても良い。
ところで、このように教示プログラム格納部32に格納されている教示プログラムを起動させるには、作業者がマウスからなる指示部33を用いて起動指令を行うことにより、その起動指令を受け取ったCPU等からなる中央制御部34が上記教示プログラムを起動させることとなる。そして、その教示プログラムを起動させた中央制御部34は、その起動内容を液晶等からなる表示部35に表示させる。
かくして、作業者は、表示部35に表示された教示プログラムの内容に応じて、上記ロボット1の作動指令を行うこととなる。すなわち、作業者は、まず、マウスからなる指示部33を用いて、上記3次元CADモデル格納部31に格納されているロボット1の3次元CADモデル及び上記画像生成部30にて生成したロボット1の作業現場の任意視点画像を読み出す指令を行う。これにより、中央制御部34は、上記3次元CADモデル格納部31に格納されているロボット1の3次元CADモデル及び上記画像生成部30にて生成したロボット1の作業現場の任意視点画像を読み出し、画像合成部36に出力する。そして、画像合成部36は、そのロボット1の作業現場の任意視点画像とロボット1の3次元CADモデルとを合成した画像を生成する。すなわち、上記任意視点画像で表現されているロボット1にロボット1の3次元CADモデルを融合させた合成画像を生成するものである。このように、画像合成部36にて合成された合成画像は、中央制御部34を介して表示部35に表示される。
そして次に、作業者は、ロボット1の作動指令を行うため、上記表示部35に表示された合成画像のうち3次元CADモデルで作成したロボット1をマウスからなる指示部33を用いて、例えばドラック&ドロップ等のマウス操作を行う。これにより作業者は、ロボット1の作動指令を行うことができる。
しかして作業者は、マウス操作のみで、ロボット1の教示作業を行うことができるため、熟練を要さずとも直感的な操作でロボット1の教示作業を行うことができる。さらに、マウス操作のみであるから、従来のティーチング方法で用いていたティーチペンダントやオフラインソフトのように操作方法がロボットメーカによって異なるということがない。したがって、ロボット1の教示作業が非常に簡単容易となる。
またこのように、ロボット1の教示作業を行う際、画像生成部30にて生成したロボット1の作業現場の任意視点画像にロボット1の3次元CADモデルを融合させた合成画像を使用しているため、指示対象であるロボット1は表示部35に明確に表示されることとなる。したがって、作業者は、その明確に表示された3次元CADモデルを用いてロボット1に対して的確な教示作業を行うことができる。そのため、高精度な教示作業をロボット1に対して行うことができる。なお、指示部33としてはマウスを用いて構成した方が好ましいが、他の機器を用いてもよい。
一方、上記のように、作業者が、表示部35に表示された教示プログラム内容に応じて、上記ロボット1の作動指令を行うと、中央制御部34はロボット制御部37にその作動指令を出力する。そしてロボット制御部37は、その作動指令の内容に応じてロボット1を作動させるための制御を行う。これにより、ロボット1はその制御内容に応じて作動し、ワークWに対して溶接等の作業を行うこととなる。
したがって、以上説明した本実施形態によれば、複数の多視点画像撮影カメラ2によって撮影されたワークWに対して溶接等の作業を行うロボット1の作業現場の撮影画像が、画像生成部30にて任意視点画像として生成される。そして、その生成された任意視点画像が表示部35に表示される。これにより、作業者は、表示部35に表示された画像を用いて、マウス等の指示部33を用いて上記ロボット1の作動を指示することができる。そして、この作動指示に応じてロボット制御部37はロボット1の作動を制御することとなる。
そのため、表示部35にロボット1の作業現場のリアルタイム画像を表示することができ、その画像を用いて作業者は、ロボット1の教示作業を行うことができる。それゆえ、ロボット1のケーブル、ホース等が、ワークWやロボット1自身に、実際にどのように干渉するのか判断することができ、さらには、ワークWのCADデータを作成する必要がないため、コンピュータ上の疑似的なワークと、実際のワークとの誤差が生じにくくなる。そのため、作業現場での修正作業が必要なくなり、作業負担が大幅に軽減されるばかりか、遠隔地で作業を行うことができ、危険を伴うということもない。また、作業現場で直接、ロボット1への教示作業を行う必要がないため、ロボット1への教示作業中にロボット1自体を停止させることがない。そのため、設備稼働率の低下による生産性の悪化を招いてしまうということもない。
したがって、本実施形態によれば、作業効率の向上化が図れると共に、危険が伴うということもない。
なお、多視点画像撮影カメラによって撮影された画像から任意視点画像を生成する方法は、本実施形態において例示した方法に限らず、種々様々な方法を用いることが可能である。
W ワーク
1 ロボット
2 多視点画像撮影カメラ
3 ロボット教示装置
30 画像生成部(画像生成手段)
31 3次元CADモデル格納部(3次元CADモデル格納手段)
33 指示部(指示手段)
35 表示部(表示手段)
36 画像合成部(画像合成手段)
37 ロボット制御部(ロボット制御手段)

Claims (3)

  1. ワークに対して溶接等の作業を行うロボットと、
    前記ロボットの作業現場を撮影可能な複数の多視点画像撮影カメラと、
    前記各多視点画像撮影カメラによって撮影された画像を取得し、且つ、その取得した画像から前記ロボットの作業現場の任意視点画像を生成する画像生成手段と、
    前記生成された任意視点画像を表示する表示手段と、
    前記表示された画像を用いて前記ロボットの作動を指示可能な指示手段と、
    前記指示手段によって指示された作動に応じて前記ロボットを制御するロボット制御手段とを有してなることを特徴とするロボット教示システム。
  2. 前記ロボットの3次元CADモデルを格納する3次元CADモデル格納手段と、
    前記3次元CADモデル格納手段に格納されている前記ロボットの3次元CADモデルと前記画像生成手段によって生成される任意視点画像とを合成する画像合成手段とをさらに有し、
    前記画像合成手段によって合成された画像は、前記表示手段に表示され、その表示された画像は、前記指示手段によって前記ロボットの作動を指示するために用いられてなることを特徴とする請求項1に記載のロボット教示システム。
  3. 前記指示手段はマウスであり、前記表示手段に表示された画像をマウス操作することにより、前記ロボットの作動を指示してなることを特徴とする請求項1又は2に記載のロボット教示システム。
JP2010128477A 2010-06-04 2010-06-04 ロボット教示システム Pending JP2011251395A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010128477A JP2011251395A (ja) 2010-06-04 2010-06-04 ロボット教示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010128477A JP2011251395A (ja) 2010-06-04 2010-06-04 ロボット教示システム

Publications (1)

Publication Number Publication Date
JP2011251395A true JP2011251395A (ja) 2011-12-15

Family

ID=45415758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010128477A Pending JP2011251395A (ja) 2010-06-04 2010-06-04 ロボット教示システム

Country Status (1)

Country Link
JP (1) JP2011251395A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2783812A3 (en) * 2013-03-18 2015-04-01 Kabushiki Kaisha Yaskawa Denki Robot device and method for manufacturing an object
CN104552298A (zh) * 2013-10-17 2015-04-29 株式会社安川电机 示教系统和示教方法
JP2015168249A (ja) * 2014-03-11 2015-09-28 株式会社スター精機 樹脂成形品取出し機におけるゲート切断位置データ設定方法及び樹脂成形品取出し機
CN106363635A (zh) * 2016-12-01 2017-02-01 广汽本田汽车有限公司 一种机器人运行仿真校准方法及装置
JP2020049558A (ja) * 2018-09-25 2020-04-02 ファナック株式会社 物品取り出しシステム
JP7364285B1 (ja) 2022-11-11 2023-10-18 高丸工業株式会社 ロボット操作システムの動作方法
JP2025049927A (ja) * 2023-09-22 2025-04-04 高丸工業株式会社 ロボット操作システムの動作方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11207670A (ja) * 1998-01-21 1999-08-03 Kawasaki Heavy Ind Ltd 産業ロボットのティーチング方法とその装置
JP2007026061A (ja) * 2005-07-15 2007-02-01 Ritsumeikan ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム
JP2008168372A (ja) * 2007-01-10 2008-07-24 Toyota Motor Corp ロボット装置及び形状認識方法
JP2009214212A (ja) * 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2010121945A (ja) * 2008-11-17 2010-06-03 Nippon Hoso Kyokai <Nhk> 3次元形状生成装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11207670A (ja) * 1998-01-21 1999-08-03 Kawasaki Heavy Ind Ltd 産業ロボットのティーチング方法とその装置
JP2007026061A (ja) * 2005-07-15 2007-02-01 Ritsumeikan ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム
JP2008168372A (ja) * 2007-01-10 2008-07-24 Toyota Motor Corp ロボット装置及び形状認識方法
JP2009214212A (ja) * 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2010121945A (ja) * 2008-11-17 2010-06-03 Nippon Hoso Kyokai <Nhk> 3次元形状生成装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2783812A3 (en) * 2013-03-18 2015-04-01 Kabushiki Kaisha Yaskawa Denki Robot device and method for manufacturing an object
CN104552298A (zh) * 2013-10-17 2015-04-29 株式会社安川电机 示教系统和示教方法
JP2015168249A (ja) * 2014-03-11 2015-09-28 株式会社スター精機 樹脂成形品取出し機におけるゲート切断位置データ設定方法及び樹脂成形品取出し機
CN106363635A (zh) * 2016-12-01 2017-02-01 广汽本田汽车有限公司 一种机器人运行仿真校准方法及装置
CN106363635B (zh) * 2016-12-01 2018-08-31 广汽本田汽车有限公司 一种机器人运行仿真校准方法及装置
JP2020049558A (ja) * 2018-09-25 2020-04-02 ファナック株式会社 物品取り出しシステム
JP7364285B1 (ja) 2022-11-11 2023-10-18 高丸工業株式会社 ロボット操作システムの動作方法
JP2024070336A (ja) * 2022-11-11 2024-05-23 高丸工業株式会社 ロボット操作システムの動作方法
JP2025049927A (ja) * 2023-09-22 2025-04-04 高丸工業株式会社 ロボット操作システムの動作方法

Similar Documents

Publication Publication Date Title
US10052765B2 (en) Robot system having augmented reality-compatible display
JP2011251395A (ja) ロボット教示システム
JP7439073B2 (ja) 溶接パス生成のためのシステム及び方法
CN104722926B (zh) 一种机器人三维激光自动切割系统方法
CN107921642B (zh) 远程操作机械手系统及其运转方法
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP6171457B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
KR20170016436A (ko) 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법
JP2005074600A (ja) ロボット及びロボット移動方法
JP5090496B2 (ja) 画像生成装置及び操作支援システム
JP2008254150A (ja) ロボットの教示装置及び教示方法
JP7674464B2 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
JP2006026790A (ja) 教示モデル生成装置
JP7517803B2 (ja) ロボット教示システム、画像生成方法、及びプログラム
CN115803155A (zh) 编程装置
JP2010182210A (ja) ロボット教示プログラム修正装置
JP4558682B2 (ja) 移動型ロボットシステムにおけるマニピュレータ遠隔操作方法
JP6256874B2 (ja) 建設機械用俯瞰画像表示装置
JPH11338532A (ja) 教示装置
JP2021038649A5 (ja)
JP2007129336A (ja) 監視システム及び監視装置
JP2005252831A (ja) 設備監視支援装置
JP2016201007A (ja) 搬送設備の遠隔メンテナンスシステム
JP2025049927A (ja) ロボット操作システムの動作方法
WO2023157083A1 (ja) ワークの位置を取得する装置、制御装置、ロボットシステム、及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140827