JP7401184B2 - ロボットシステム - Google Patents
ロボットシステム Download PDFInfo
- Publication number
- JP7401184B2 JP7401184B2 JP2018151918A JP2018151918A JP7401184B2 JP 7401184 B2 JP7401184 B2 JP 7401184B2 JP 2018151918 A JP2018151918 A JP 2018151918A JP 2018151918 A JP2018151918 A JP 2018151918A JP 7401184 B2 JP7401184 B2 JP 7401184B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- robot
- rank
- command
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000012636 effector Substances 0.000 claims description 42
- 238000012937 correction Methods 0.000 claims description 22
- 238000010801 machine learning Methods 0.000 claims description 14
- 238000012986 modification Methods 0.000 claims description 9
- 230000004048 modification Effects 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 20
- 238000003466 welding Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000010422 painting Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000013011 mating Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 239000011248 coating agent Substances 0.000 description 5
- 238000000576 coating method Methods 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 230000002146 bilateral effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000011017 operating method Methods 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 230000032258 transport Effects 0.000 description 2
- 240000005499 Sasa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Description
[構成]
図1は、本発明の実施形態1に係るロボットシステムの構成の一例を模式的に示す模式図である。
図1を参照すると、実施形態1のロボットシステム300Aは、ロボット本体1と、操作器2と、制御器3と、作業撮像器4と、作業画像表示器5と、操作上手さランク情報提示器6と、作業開始検知器47と、作業終了検知器48と、を備える。ロボット本体1と制御器3とがロボット10を構成する。ロボット本体1は、エンドエフェクタ17を備える。ロボット本体1は、いわゆるロボットであればよい。ロボットは、例えば、「センサ、知能・制御系、駆動系の3つの要素技術を有する、知能化した機械システム」と定義される(「総務省平成27年版情報通信白書のポイント」参照)。具体的には、ロボット本体1は、例えば、垂直多関節型ロボット、水平多関節型ロボット、パラレルリンク型ロボット、極座標ロボット、円筒座標型ロボット、直角座標型ロボット等の産業用ロボットで構成される。以下では、ロボット本体1が、垂直多関節型ロボットのロボットアームで構成される場合が例示される。
作業撮像器4は、例えば、カメラで構成される。カメラは、公知のものを使用することができる。作業撮像器4は、ロボット本体1による作業を撮像できる箇所に設置される。
作業画像表示器5は、例えば、ディスプレイで構成される。ディスプレイとして公知のものを使用することができる。作業画像表示器5は、操作者が見易いように操作器2の近傍に設置される。
操作上手さランク情報提示器6は、操作上手さランク情報を操作者に提示する機器である。操作上手さランク情報提示器6は、操作上手さランク情報を操作者に提示することができるものであればよい。具体的には、操作上手さランク情報提示器6として、操作上手さランク情報を音で操作者に提示するスピーカ、操作上手さランク情報を光で操作者に提示する照明器具、操作上手さランク情報を画像で操作者に提示するディスプレイ、操作上手さランク情報操を、操作者の身体を刺激することによって操作者に提示する身体刺激機器(例えばバイブレータ)等が例示される。操作上手さランク情報提示器6がディスプレイである場合、作業画像表示器5が操作上手さランク情報提示器6を兼ねてもよい。以下では、操作上手さランク情報提示器6がスピーカである場合が例示される。
本実施形態では、ロボット本体1によって所定作業が繰り返し行われる。作業開始検知器47は、この所定作業の開始を検知する機器である。従って、作業開始検知器47は、所定の作業の内容に応じて、適宜、構成される。本実施形態では、後述するように所定作業が2つの部材の嵌合である場合が例示される。この場合、作業開始検知器47は、例えば、所定の作業開始位置に位置するロボット本体1のエンドエフェクタ17を検出する近接センサ、接触センサ等で構成される。なお、所定作業の内容によっては、後述するロボット制御部41(図3参照)が所定作業の開始をロボット本体1のエンドエフェクタ17の位置、姿勢、動作等から検知することができる場合があり、そのような場合は、ロボット制御部41が、作業開始検知器47として用いられる。
作業終了検知器48は、所定の作業の内容に応じて、適宜、構成される。後述するように所定作業が2つの部材の嵌合である場合、作業終了検知器48は、例えば、所定の作業終了位置に位置するロボット本体1のエンドエフェクタ17を検出する近接センサ、接触センサ等で構成される。なお、所定作業の内容によっては、後述するロボット制御部41(図3参照)が所定作業の終了をロボット本体1のエンドエフェクタ17の位置、姿勢、動作等から検知することができる場合があり、そのような場合は、ロボット制御部41が、作業終了検知器48として用いられる。
制御器3は、例えば、プロセッサとメモリとを備える。制御器3は、メモリに格納された所定の動作プログラムをプロセッサが読み出して実行することにより、ロボット本体1の動作を制御する。制御器3は、具体的には、例えば、マイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、論理回路等で構成される。
ロボット本体1は、基台15と、基台15に支持された腕部13と、腕部13の先端に支持され、エンドエフェクタ17が装着される手首部14とを備えている。ロボット本体1は、図1に示すように3以上の複数の関節JT1~JT6を有する多関節ロボットアームであって、複数のリンク11a~11fが順次連結されて構成されている。より詳しくは、第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11cの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、ねじり回転可能に連結されている。そして、第6リンク11fの先端部にはメカニカルインターフェースが設けられている。このメカニカルインターフェースに、力センサ19を介して、ロボット本体1の作業内容に対応したツールとしてのエンドエフェクタ17が着脱可能に装着される。力センサ19は、例えば、3軸加速度センサで構成される。力センサ19は、エンドエフェクタ17が作業対象に作用させる力(作業対象からの反力)を検出する。
操作器2は、その操作によって、ロボット本体1を操作できるものであればよい。例えば、操作器2をロボット本体1と相似のマスターロボットで構成し、ロボット本体1をスレーブロボットとして制御するように構成してもよい。また、操作器2がジョイスティックであってもよい。また、操作器2が、特定の用途にカスタマイズされた専用の操作器であってもよい。ここでは、操作器2として、図2に示すものが用いられる。
図3は、図1のロボットシステムの制御系統の概略の構成を例示する機能ブロック図である。図6Aは、図3の記憶部に格納された作業時間と作業時間短さランクとの対比テーブルを示す図である。図6Bは、図3の記憶部に格納された作業力と作業力小ささランクとの対比テーブルを示す図である。
まず、作業撮像器4及び作業画像表示器5の制御系統を説明する。制御器3は、表示制御部43を備える。作業撮像器4は、ロボット本体1の動作範囲の景色を撮像し、その撮像信号を表示制御部43に送る。ロボット本体1の動作範囲の景色には、ロボット本体1による作業の様子が含まれる。表示制御部43は、受け取った撮像信号を画像表示信号に変換し、作業画像表示器5に送る。作業画像表示器5は、受け取った画像表示信号に従って、画像を表示する。これにより、作業撮像器4により撮像された画像が作業画像表示器5に表示される。また、表示制御部43には、操作上手さランク情報取得部44から、作業開始情報及び作業終了情報が送られ、表示制御部43は、これらの情報を画像表示信号に変換して、作業画像表示器5に表示させる。操作者は、作業画像表示器5に表示された画像を見ながら、ロボット本体1を操作すべく操作器2を操作する。
次に、操作器2及びロボット本体1の制御系統について説明する。
次に、操作上手さランク情報提示制御について説明する。「操作上手さランク情報」とは、操作者によるロボット本体1の操作の上手さをランク付けした情報である。「操作上手さランク情報」は、操作の上手さに相関するパラメータの値が複数の段階に分類され、各分類にランクが付与される。各段階に対応するパラメータの範囲は、作業に応じて、適宜、設定される。ランクの名称は、順位を表す名称であればよい。ランクの名称として、アルファベット(A,B,C,・・・.)、数字(1,2,3,・・・)、記号(○、△、×)等が例示される。ランクの名称として、ここでは、アルファベットが用いられる。
「操作上手さランク情報」は、少なくとも、「作業時間短さランク」、「作業力小ささランク」、「製品品質ランク」、及び「作業品質ランク」を含む。本実施形態では、「作業時間短さランク」及び「作業力小ささランク」が操作者に提示される場合が例示される。「製品品質ランク」及び「作業品質ランク」が操作者に提示される場合は、後述する実施形態2において例示される。
次に、以上のように構成されたロボットシステム300Aの動作の一例を、図4及び図5を用いて説明する。図4は、図1のロボットシステムのロボット本体による作業の一例を模式的に示す模式図である。図5は、図1のロボットシステムのロボット本体による作業の作業環境の一例を模式的に示す平面図である。
ここでは、所定作業が繰り返し行われる。このよう所定作業が繰り返される場合、操作者のロボット本体1に対する操作の上手さを的確に把握することができる。
ロボット本体1のエンドエフェクタ17は、第1物品81の頭部81aを把持及び開放可能なチャック(図示せず)を備えている。作業開始検知器47及び作業終了検知器48は、ここでは、近接センサで構成される。
図1、図3、及び図4を参照すると、操作者は、作業画像表示器5を見ながら、操作器2を操作してロボット本体1を以下のように動作させる。以下では、説明を簡単にするために、操作者が作業画像表示器5を見ながら操作器2を操作すること及びそれによってロボット本体1が動作することを記述するのを省略する。
操作者は、操作上手さランク情報提示器6によって報知される上記音声情報を聞くと、当該作業におけるロボット本体1の操作をより上手く行うように動機付けられる。具体的には、一般に、操作者は、ロボット本体1を操作して作業を行う場合、自分の現時点におけるロボット本体1に対する操作の上手さに基づいて、事前に、当該作業においてロボット本体1をどの程度上手く操作できるか想定する。また、一般に、操作者は、ロボット本体1に対する操作の上手さを向上しようとする意欲を持っている。従って、提示された操作上手さランクが、自分が想定した程度を上回ると、その作業に対するロボット本体1の操作方法に自信を持ち、次回もその操作方法を採用する。また、良い結果が得られたことによって、やる気を起こす。
本発明の実施形態2は、操作上手さランク情報が、「作業時間短さランク」及び「作業力小ささランク」に代えて、「製品品質ランク」及び「作業品質ランク」である点で実施形態1と相違し、その他の点は実施形態1と同じである。以下、この相違点を説明する。
製品品質取得器49は、ロボット本体1が行った作業によって製造された製品の品質を取得する。製品の品質として、例えば、製品の塗装品質、製品の溶接品質、製品の加工品質等が挙げられる。以下、これらの場合を例にとって、製品品質ランクに関する構成を説明する。
塗装品質として、例えば、ロボット本体1が、複雑な模様の塗装を行った場合における製品の塗装状態が挙げられる。この場合、ロボット本体1の先端部にエンドエフェクタ17として、塗装ガンが装着される。なお、この場合、操作器2への力データの反映が省略される。操作者は、操作器2によってロボット本体1を操作して、所定の製品について、自動的に塗装するのが困難な複雑な模様の塗装を行う。この場合、例えば、製品品質取得器49は、所定の製品の塗装状態を撮像する撮像器(図示せず)と、この撮像器で撮像された画像を画像処理して、当該製品の塗装状態を評価する画像処理器(図示せず)と、を備える。画像処理器は、例えば、撮像された画像を基準となる塗装状態の画像と比較して、両者の一致度を算出し、この一致度を製品品質(塗装品質)として操作上手さランク情報取得部44に出力する。画像処理器は、例えば、マイクロコントローラで構成される。
溶接品質として、例えば、ロボット本体1が、難しい溶接を行った場合における溶接の接合状態が挙げられる。この場合、ロボット本体1の先端部にエンドエフェクタ17として、溶接ガンが装着される。なお、この場合、操作器2への力データの反映が省略される。操作者は、操作器2によってロボット本体1を操作して、所定の製品について、自動的に溶接するのが困難な溶接を行う。この場合、例えば、製品品質取得器49は、所定の製品の溶接状態を撮像する撮像器(図示せず)と、この撮像器で撮像された画像を画像処理して、当該製品の溶接状態を評価する画像処理器(図示せず)と、を備える。画像処理器は、例えば、撮像された画像を基準となる溶接状態の画像と比較して、両者の一致度を算出し、この一致度を製品品質(溶接品質)として操作上手さランク情報取得部44に出力する。
溶接品質として、例えば、ロボット本体1が、高い精度が要求される加工を行った場合における製品の寸法精度等が挙げられる。この場合、ロボット本体1の先端部にエンドエフェクタ17として、加工工具(例えば、研磨器)が装着される。操作者は、操作器2によってロボット本体1を操作して、所定の製品について、自動的に加工するのが困難な加工を行う。この場合、例えば、製品品質取得器49は、所定の製品の所定の寸法を計測する計測器(図示せず)と、この計測器で計測された寸法の精度を評価する評価器(図示せず)と、を備える。評価器は、例えば、計測された寸法の基準寸法と比較して、両者の一致度を算出し、この一致度を製品品質(加工品質)として操作上手さランク情報取得部44に出力する。
ロボットシステム300Bは、一般に、各種のエラー検出システムを備えている。操作上手さランク情報取得部44は、ロボット本体1が行った作業に関連するエラーの発生数を作業品質として取得する。ロボット本体1が行った作業に関連するエラーとして、例えば、力センサ19によって検知される作業力が過大な場合に発生する作業力エラー、衝突センサ(図示せず)によって検知される衝突エラー、ロボット本体1が進入禁止領域に接近した場合に発生する進入禁止エラー、ロボット本体1の動作速度が過大な場合発生する速度エラーが挙げられる。
本発明の実施形態3は、ロボット10が、動作モードとして、手動モード(操作者によって操作されるモード)の他に、自動モード及び修正自動モードを有する点で、実施形態1と相違し、その他の点は実施形態1と同じである。以下、この相違点を説明する。
操作者が手動モードを選択した場合、指令切替部115が、操作器2から出力される操作指令を動作指令として出力するので、ロボット本体1は、操作器2の操作に従って動作する。従って、この場合、実施形態1と同様の結果が得られる。
操作者がモード選択部7aを操作して自動モードを選択し、且つ、プログラム選択部7bを操作してオリジナル動作プログラムを選択した場合、例えば、第1物品81の寸法が公差の上限値で第2物品82の寸法が公差の下限値である場合又はロボット本体1による第1物品81の搬送誤差が相当大きい場合に、ロボット本体1が第1物品81を第2物品82に向けて降下させると、第1物品81の胴部81bが第2物品82の貫通孔82aの縁に当接する。すると、ロボット10が停止し、信号待ち状態になる。この状態で、操作者が手動モードを選択すると、ロボット本体1は、操作器2の操作に従って動作する。操作者は、操作器2を操作して、ロボット本体1による残りの嵌合作業を完了する。
この場合、図4(a)において、第1物品81の位置が、第2物品82の直上から図面右方向に少しずれている場合には、修正動作プログラムに従ってロボット本体1がまさぐり動作を行い、残りの嵌合作業を自動的に完了する。
この場合、「自動モード→オリジナル動作プログラム選択の場合」と同様に、第1物品81の寸法が公差の上限値で第2物品82の寸法が公差の下限値である場合又はロボット本体1による第1物品81の搬送誤差が相当大きい場合に、ロボット本体1が第1物品81を第2物品82に向けて降下させると、第1物品81の胴部81bが第2物品82の貫通孔82aの縁に当接するので、それ以降、操作者が操作器2を操作して、ロボット本体1による残りの嵌合作業を完了することになる。なお、このときの動作指令に基づいて、修正動作プログラム生成部が新たに修正動作プログラムを生成して、これをプログラム格納部113に格納するので、それ以降に、当該修正動作プログラムを選択することによって嵌合作業の効率が向上する。
この場合、嵌合作業が、選択された修正動作プログラムが対応可能な態様である場合、ロボット本体1によって自動的に嵌合作業が遂行される。一方、嵌合作業が、選択された修正動作プログラムが対応不可能な態様である場合、操作者が操作器2を操作して修正動作プログラムによるロボット本体1の動作を修正しながら嵌合作業を遂行する。この場合も、このときの動作指令に基づいて新たに修正動作プログラムが生成されてプログラム格納部113に格納され、それ以降に、当該修正動作プログラムを選択することによって嵌合作業の効率が向上する。
以上に説明した各嵌合作業について、実施形態1と同様にロボット本体1の作業時間が算出され、それ基づいて、操作上手さランク情報が生成されて操作者に提示される。
本発明の実施形態4は、実施形態3において、ロボット10が修正自動モードのみを有し、且つ、ロボット制御部41が、修正動作プログラム生成部112及びプログラム格納部113に代えて、操作指令を機械学習する学習部を備えるものである。より詳しく説明すると、実施形態3のロボットシステム300Cにおいて、選択器7が除かれ、自動指令部114は、「基本動作指令部」として機能し、基本動作プログラムを格納していて、この基本動作プログラムに従って自動動作指令を出力する。指令切替部115は、「動作指令部」として機能し、この自動動作指令に学習部が出力する自動動作修正指令と操作器2が出力する操作指令とを加算したものを動作指令として出力する。学習部は、学習時には、自動動作修正指令と操作指令とを加算したものを、ロボット本体1のエンドエフェクタ17の位置データ(回転角)及び力データ(力センサ19の検出値)と対応させて、機械学習する。また、学習部は、動作時には、現時点におけるロボット本体1のエンドエフェクタ17の位置データ及び力データを入力されると、それまでの機械学習に基づいて、この入力に対応する自動動作修正指令を出力する。この機械学習によって、操作者のロボット本体1を操作して所定の作業を遂行する技能が、実際の作業を通じて、ロボットシステムに伝承される。
本発明の実施形態5は、実施形態1~4のいずれかにおいて、作業撮像器4及び作業画像表示器5が省略されて構成される。本実施形態のロボットシステムは、操作者がロボット本体1の近傍でロボット本体1による作業を目視で確認しながらロボット本体1を操作することができる作業環境に適用される。このような作業環境として、人とロボットとが共存して作業を行う作業環境が例示される。
実施形態1及び2では、所定作業として、2つの物品の嵌合を例示したが、所定作業は、ロボットによって自動的に行うよりも、人がロボットを操作して行う方が、良好な結果が得られる作業であればよい。例えば、所定作業として、自動化が難しい溶接作業、自動化が難しい塗装作業等が挙げられる。
2 操作器
3 制御器
4 作業撮像器
5 作業画像表示器
6 操作上手さランク情報提示器
7 選択器
7a モード選択部
7b プログラム選択部
10 ロボット
17 エンドエフェクタ
19 力センサ
41 ロボット制御部
42 操作器制御部
43 表示制御部
44 操作上手さランク情報取得部
45 記憶部
47 作業開始検知器
48 作業終了検知器
49 製品品質取得器
81 第1物品
82 第2物品
112 修正動作プログラム生成部
113 プログラム格納部
114 自動指令部
115 指令切替部
116 調整部
300A~300C ロボットシステム
Claims (5)
- 作業を行うロボット本体と、
前記ロボット本体による作業を撮像する作業撮像器と、
操作指令に応じて前記ロボット本体の動作を制御するロボット制御部と、
前記ロボット本体から離れた位置に配置され、操作者の操作に応じて前記操作指令を前記ロボット制御部に送る操作器と、
前記操作器の近傍に配置され、前記作業撮像器によって撮像された前記ロボット本体による作業の画像である作業画像を表示する作業画像表示器と、
前記ロボット本体による作業における前記操作者による前記ロボット本体の操作の上手さをランク付けした情報である操作上手さランク情報を取得する操作上手さランク情報取得部と、
前記操作器の近傍に配置され、前記操作上手さランク情報取得部が取得した前記操作上手さランク情報を前記操作者に提示する操作上手さランク情報提示器と、を備え、
前記ロボット制御部は、基本動作プログラムに従って自動動作指令を出力する基本動作指令部と、機械学習に基づいて自動動作修正指令を出力する学習部と、前記自動動作指令と前記自動動作修正指令と前記操作指令とを加算して動作指令を出力する動作指令部と、を備え、
前記学習部は、前記自動動作指令と前記操作指令とを加算したものを、前記ロボット本体のエンドエフェクタの位置データ及び前記エンドエフェクタに加わる力のデータと対応させて機械学習し、
前記操作上手さランク情報が、前記ロボット本体が行った作業に要した時間の短さのランクである作業時間短さランク、前記ロボット本体が行った作業に要した力の小ささのランクである作業力小ささランク、前記ロボット本体が行った作業によって製造された製品の品質の良さのランクである製品品質ランク、及び、前記ロボット本体が行った作業の品質のランクである作業品質ランクのうちの少なくとも1つを含む、ロボットシステム。 - 前記作業時間短さランクは、作業開始検知器によって検知される作業開始情報と作業終了検知器によって検知される作業終了情報とに基づいて、前記操作上手さランク情報取得部によって決定され、
前記作業力小ささランクは、前記ロボット本体の力センサによって検出される力のデータの最大値に基づいて、前記操作上手さランク情報取得部によって決定され、
前記製品品質ランクは、前記製品に対する製品品質取得器の検出結果に基づいて、前記操作上手さランク情報取得部によって決定され、
前記作業品質ランクは、前記ロボット本体が行った作業に関連するエラーの発生数に基づいて、前記操作上手さランク情報取得部によって決定される、請求項1に記載のロボットシステム。 - 作業を行うロボット本体と、
操作指令に応じて前記ロボット本体の動作を制御するロボット制御部と、
操作者の操作に応じて前記操作指令を前記ロボット制御部に送る操作器と、
前記ロボット本体による作業における前記操作者による前記ロボット本体の操作の上手さをランク付けした情報である操作上手さランク情報を取得する操作上手さランク情報取得部と、
前記操作上手さランク情報取得部が取得した前記操作上手さランク情報を前記操作者に提示する操作上手さランク情報提示器と、を備え、
前記ロボット制御部は、基本動作プログラムに従って自動動作指令を出力する基本動作指令部と、機械学習に基づいて自動動作修正指令を出力する学習部と、前記自動動作指令と前記自動動作修正指令と前記操作指令とを加算して動作指令を出力する動作指令部と、を備え、
前記学習部は、前記自動動作指令と前記操作指令とを加算したものを、前記ロボット本体のエンドエフェクタの位置データ及び前記エンドエフェクタに加わる力のデータと対応させて機械学習する、ロボットシステム。 - 前記ロボット本体が行う作業が、繰り返し行われる所定作業である、請求項1乃至3のいずれかに記載のロボットシステム。
- 前記ロボット本体と前記ロボット制御部とを備えるロボットが、
前記ロボット制御部が前記操作指令に応じて前記ロボット本体の動作を制御する手動モードと、
前記ロボット制御部が所定の動作プログラムに応じて前記ロボット本体の動作を制御する自動モードと、
前記ロボット制御部が前記操作指令と前記所定の動作プログラムとに応じて前記ロボット本体の動作を制御する修正自動モードと、
を有し、且つ、
前記ロボット制御部が、前記修正自動モードにおいて、前記所定の動作プログラムを前記操作指令が反映されたものとなるように修正し、この修正した所定の動作プログラムを、以降の修正自動モードにおいて、前記所定の動作プログラムに代えて用いる、請求項1乃至4のいずれかに記載のロボットシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018151918A JP7401184B2 (ja) | 2018-08-10 | 2018-08-10 | ロボットシステム |
PCT/JP2019/031664 WO2020032263A1 (ja) | 2018-08-10 | 2019-08-09 | ロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018151918A JP7401184B2 (ja) | 2018-08-10 | 2018-08-10 | ロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020026002A JP2020026002A (ja) | 2020-02-20 |
JP7401184B2 true JP7401184B2 (ja) | 2023-12-19 |
Family
ID=69414262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018151918A Active JP7401184B2 (ja) | 2018-08-10 | 2018-08-10 | ロボットシステム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7401184B2 (ja) |
WO (1) | WO2020032263A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210302447A1 (en) * | 2020-03-30 | 2021-09-30 | Kabushiki Kaisha Yaskawa Denki | Processed product production apparatus, processed product production method, computer-readable storage medium, and processed product production system |
JP7564633B2 (ja) | 2020-03-30 | 2024-10-09 | 株式会社安川電機 | 細胞製造装置、細胞製造方法、細胞製造装置用プログラム、および、細胞製造システム |
KR102386009B1 (ko) * | 2020-07-30 | 2022-04-13 | 네이버랩스 주식회사 | 로봇 작업의 학습 방법 및 로봇 시스템 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001166681A (ja) | 1999-12-10 | 2001-06-22 | Honda Motor Co Ltd | 作業習熟支援装置 |
JP2011125991A (ja) | 2009-12-21 | 2011-06-30 | National Institute Of Advanced Industrial Science & Technology | 生活支援ロボットアームの操作トレーニング装置 |
JP2011128941A (ja) | 2009-12-18 | 2011-06-30 | Hitachi Ltd | Guiカスタマイズ方法、システム及びプログラム |
JP2014079824A (ja) | 2012-10-15 | 2014-05-08 | Toshiba Corp | 作業画面表示方法および作業画面表示装置 |
JP2016092047A (ja) | 2014-10-30 | 2016-05-23 | パナソニックIpマネジメント株式会社 | 作業者支援システム、及び作業者支援方法、並びに部品実装装置 |
JP2017030137A (ja) | 2015-07-31 | 2017-02-09 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
WO2017033356A1 (ja) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | ロボットシステム |
JP2017127964A (ja) | 2016-01-14 | 2017-07-27 | ファナック株式会社 | 学習機能を備えたロボット装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2796160B2 (ja) * | 1990-02-21 | 1998-09-10 | 株式会社日立製作所 | 産業用ロボットの教示装置 |
JPH05150804A (ja) * | 1991-11-29 | 1993-06-18 | Fujitsu Ltd | マニピユレータの繰り返し学習制御装置 |
JP3196309B2 (ja) * | 1992-04-20 | 2001-08-06 | 株式会社安川電機 | 工業用ロボット |
JPH06332367A (ja) * | 1993-05-26 | 1994-12-02 | Mitsubishi Heavy Ind Ltd | プラント運転操作訓練の評価装置 |
-
2018
- 2018-08-10 JP JP2018151918A patent/JP7401184B2/ja active Active
-
2019
- 2019-08-09 WO PCT/JP2019/031664 patent/WO2020032263A1/ja active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001166681A (ja) | 1999-12-10 | 2001-06-22 | Honda Motor Co Ltd | 作業習熟支援装置 |
JP2011128941A (ja) | 2009-12-18 | 2011-06-30 | Hitachi Ltd | Guiカスタマイズ方法、システム及びプログラム |
JP2011125991A (ja) | 2009-12-21 | 2011-06-30 | National Institute Of Advanced Industrial Science & Technology | 生活支援ロボットアームの操作トレーニング装置 |
JP2014079824A (ja) | 2012-10-15 | 2014-05-08 | Toshiba Corp | 作業画面表示方法および作業画面表示装置 |
JP2016092047A (ja) | 2014-10-30 | 2016-05-23 | パナソニックIpマネジメント株式会社 | 作業者支援システム、及び作業者支援方法、並びに部品実装装置 |
JP2017030137A (ja) | 2015-07-31 | 2017-02-09 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
WO2017033356A1 (ja) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | ロボットシステム |
JP2017127964A (ja) | 2016-01-14 | 2017-07-27 | ファナック株式会社 | 学習機能を備えたロボット装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020026002A (ja) | 2020-02-20 |
WO2020032263A1 (ja) | 2020-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12046148B2 (en) | Robot system | |
US11117254B2 (en) | Robotic navigation system and method | |
US11977365B2 (en) | Skill transfer mechanical apparatus | |
CN107414842B (zh) | 控制装置、机器人以及机器人系统 | |
JP3708097B2 (ja) | ロボットの手動送り装置 | |
US20180250829A1 (en) | Remote control robot system | |
CN110977931A (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
JP7401184B2 (ja) | ロボットシステム | |
Fishel et al. | Tactile telerobots for dull, dirty, dangerous, and inaccessible tasks | |
JP7339806B2 (ja) | 制御システム、ロボットシステム及び制御方法 | |
US20220331964A1 (en) | Device and method for controlling a robot to insert an object into an insertion | |
WO2018212259A1 (ja) | ロボットシステム及びロボットシステムの制御方法 | |
US12131483B2 (en) | Device and method for training a neural network for controlling a robot for an inserting task | |
CN112008692A (zh) | 示教方法 | |
CN111093911B (zh) | 机器人系统及其运行方法 | |
CN114227681A (zh) | 一种基于红外扫描跟踪的机器人离线虚拟示教编程的方法 | |
JP2022025892A (ja) | 教示方法およびロボットシステム | |
US20220305644A1 (en) | Teaching system | |
CN111899629A (zh) | 柔性机器人教学系统和方法 | |
Rodrıguez-Sedano et al. | Strategies for haptic-robotic teleoperation in board games: playing checkers with Baxter | |
JPH0123280B2 (ja) | ||
Chen | User Experience Enchanced Interface ad Controller Design for Human-Robot Interaction | |
JP2024128775A (ja) | 教示治具、教示治具の制御方法、情報処理装置、情報処理方法、ロボットシステム、ロボットシステムの制御方法、物品の製造方法、プログラム及び記録媒体 | |
JP2022030207A (ja) | 教示方法およびロボットシステム | |
JP2020157475A (ja) | 制御装置、ロボットシステム及びロボット制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231024 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20231102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7401184 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |