[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7186349B2 - エンドエフェクタの制御システムおよびエンドエフェクタの制御方法 - Google Patents

エンドエフェクタの制御システムおよびエンドエフェクタの制御方法 Download PDF

Info

Publication number
JP7186349B2
JP7186349B2 JP2021527533A JP2021527533A JP7186349B2 JP 7186349 B2 JP7186349 B2 JP 7186349B2 JP 2021527533 A JP2021527533 A JP 2021527533A JP 2021527533 A JP2021527533 A JP 2021527533A JP 7186349 B2 JP7186349 B2 JP 7186349B2
Authority
JP
Japan
Prior art keywords
end effector
work
control system
feature point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021527533A
Other languages
English (en)
Other versions
JPWO2020261881A5 (ja
JPWO2020261881A1 (ja
Inventor
柚香 磯邉
吉成 松山
知之 八代
弘造 江澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020261881A1 publication Critical patent/JPWO2020261881A1/ja
Publication of JPWO2020261881A5 publication Critical patent/JPWO2020261881A5/ja
Application granted granted Critical
Publication of JP7186349B2 publication Critical patent/JP7186349B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/04Gripping heads and other end effectors with provision for the remote detachment or exchange of the head or parts thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • B25J15/0206Gripping heads and other end effectors servo-actuated comprising articulated grippers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • B25J15/0253Gripping heads and other end effectors servo-actuated comprising parallel grippers
    • B25J15/0266Gripping heads and other end effectors servo-actuated comprising parallel grippers actuated by articulated links
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/04Gripping heads and other end effectors with provision for the remote detachment or exchange of the head or parts thereof
    • B25J15/0483Gripping heads and other end effectors with provision for the remote detachment or exchange of the head or parts thereof with head identification means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

本開示は、エンドエフェクタの制御システムおよびエンドエフェクタの制御方法に関する。
特許文献1には、把持対象物を把持するロボットハンドを備えるロボット装置を制御するロボット制御装置が開示されている。このロボット制御装置は、把持対象物の視覚情報を取得する第1の取得手段と、ロボットハンドにより把持対象物に作用する力覚情報を取得する第2の取得手段と、第1の取得手段により取得された視覚情報から把持対象物の位置および姿勢を算出する算出手段と、第2の取得手段により取得された力覚情報に基づいて、把持対象物の把持状態変動性を導出する導出手段と、導出手段により導出された把持対象物の把持状態変動性に基づいて、第1の取得手段および算出手段の少なくとも1つの処理実行を制御する制御手段と、を具備する。
特開2017-87325号公報
本開示は、上述した従来の状況に鑑みて案出され、ロボットハンドを簡素化しつつ、エンドエフェクタを制御できるエンドエフェクタの制御システムおよびエンドエフェクタの制御方法を提供することを目的とする。
本開示は、ロボットアームに接続可能な複数のエンドエフェクタを制御するエンドエフェクタの制御システムであって、前記複数のエンドエフェクタのうち前記ロボットアームに接続されたエンドエフェクタの画像を取得する画像取得部と、前記エンドエフェクタを識別する識別情報を取得する識別情報取得部と、前記エンドエフェクタを制御する制御部と、前記複数のエンドエフェクタの各々の目標位置を含む制御情報を有するメモリと、を備え、前記制御部は、前記識別情報取得部から前記識別情報を取得し、前記識別情報と前記制御情報とから前記目標位置を決定し、前記画像取得部が取得した前記画像をもとに前記目標位置に一致するように前記エンドエフェクタの制御を行う、エンドエフェクタの制御システムを提供する。
また、本開示は、画像取得部と、識別情報取得部と、メモリとを備える制御システムによる、ロボットアームに接続可能な複数のエンドエフェクタを制御する方法であって、前記複数のエンドエフェクタの各々を識別する識別情報を前記識別情報取得部から取得し、前記識別情報と前記メモリが有する前記複数のエンドエフェクタの各々の目標位置である制御情報とから目標位置を決定し、前記画像取得部が取得した画像をもとに前記目標位置に一致するように前記エンドエフェクタの制御を行う、エンドエフェクタの制御方法を提供する。
また、本開示は、ロボットアームに接続されたエンドエフェクタの制御システムであって、メモリと、プロセッサと、カメラと、を備え、前記カメラは、前記エンドエフェクタと、前記エンドエフェクタの作業対象であるワークとが撮像可能な位置に配置されており、前記メモリは、前記エンドエフェクタが前記ワークを支持する時の第1の支持目標位置における特徴点を示す、特徴点情報を有しており、前記プロセッサは、前記カメラが撮像した画像に基づいて、前記エンドエフェクタの現在位置における特徴点と、前記ワークの位置とを特定するとともに、前記エンドエフェクタの前記現在位置における前記特徴点が前記特徴点情報によって示される前記特徴点と一致するように、前記エンドエフェクタを制御する、エンドエフェクタの制御システムを提供する。
本開示によれば、ロボットハンドを簡素化しつつ、エンドエフェクタを制御することができる。
ロボットアーム1およびエンドエフェクタ2の構成例を示す図であり、(a)斜視図、(b)側面図、(c)平面図 図1に示したエンドエフェクタ2を示す図であり、(a)平面図、(b)斜視図 エンドエフェクタ2に接続されたカメラCAMの撮像範囲を示す図 制御システム100のハードウェア構成例を示すブロック図 制御システム100の初期設定例を示すフローチャート メモリ102に格納された特徴点情報テーブルTを示す図 実施の形態1に係る制御システム100が、エンドエフェクタ2によるワークWの支持(把持)を制御する例を示すフローチャート 実施の形態1に係る制御システム100による、エンドエフェクタ2の制御例を示す図であり、(a)動作開始時点における平面図、(b)把持完了時点における平面図、(c)特徴点に基づくエンドエフェクタ2の駆動制御を示す概念図 実施の形態2に係る制御システム100が、エンドエフェクタ2によるワークWの支持(把持)を制御する例を示すフローチャート 実施の形態2に係る制御システム100による、エンドエフェクタ2の制御例を示す図であり、(a)動作開始時点における平面図および概念図、(b)把持完了時点における平面図および概念図、(c)再把持完了時点における平面図および概念図 図9のステップSt23における支持確認の例を示す図であり、(a)移動量に基づく確認例を示すフローチャート、(b)ワークWの変形に基づく確認例を示す平面図
(本開示に至る経緯)
工場等で用いられるロボット装置は、ロボットアームにエンドエフェクタを取り付けることで、種々の作業を行うことができる。例えば、エンドエフェクタとしてロボットハンドを用いて、工場の生産ライン上を流れる部品をピッキングする、等の作業である。このロボットアームおよびエンドエフェクタは、ロボットアームに接続された制御装置(コントローラ)によって制御される。
上記の制御は、従来、エンコーダや、力覚センサ等の種々のセンサからのフィードバックを用いて行われていた。例えば、特許文献1に記載の技術においても、力覚センサを用いて把持対象物(ワーク)の把持状態変動性を導出している。
しかしながら、種々のセンサを備えたロボットアームおよびエンドエフェクタの立ち上げ時には、それぞれのセンサについてのキャリブレーションが必要となるため、センサの設定に時間を要するものであった。
また、ロボットアームおよびエンドエフェクタが複数のセンサを備えている場合、複数のセンサからのフィードバックとして得られる情報も、複数の系統となり、情報処理が煩雑になる。さらに、人工知能を用いた制御を行う場合には、この人工知能に機械学習をさせるためのデータがマルチモーダルとなり、学習させづらい。
そこで、以下の実施の形態1および実施の形態2では、力覚センサ等を用いることなく、カメラによってエンドエフェクタの形状を認識して、カメラによる撮像画像に基づいた制御を行う。この構成であれば、制御システムにおいてその他のセンサを使わずに済む。そのため、キャリブレーションはカメラのみとなるため、システム全体のキャリブレーションが容易になる。すなわち、センサレスで簡易なシステム構成にすることができる。
また、力覚センサ等を用いない上記構成であれば、エンドエフェクタからのフィードバック情報を、カメラによる撮像画像に集約することができる。すなわち、マルチモーダルな情報処理を回避することができる。なお、人工知能に機械学習をさせる際にも、用いる情報のチャネルを削減することは有益である。
以下、適宜図面を参照しながら、本開示に係るエンドエフェクタの制御システムおよびエンドエフェクタの制御方法の構成および動作を具体的に開示した実施の形態を、詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより請求の範囲に記載の主題を限定することは意図されていない。
<実施の形態1>
以下の実施の形態1では、エンドエフェクタとして、2本のフィンガを有したロボットハンド(図2参照)を用いた場合を想定して説明する。なお、エンドエフェクタは、種々の形状を呈することができる。例えば、作業対象物であるワークを、2本の(あるいは5本などの)フィンガで把持したり、吸着体によって吸いつけて支持したり、曲げたフィンガをワークが備えるフックに差し入れてひっかけたりすることができる。いずれにせよ、何らかの作業を行うために、エンドエフェクタがワークを支持する。以下、2本のフィンガを有した、図2に示したようなエンドエフェクタによるワークの支持を、「把持」と表現することがある。
(ロボットアーム1およびエンドエフェクタ2の構成例)
図1は、ロボットアーム1およびエンドエフェクタ2の構成例を示す図であり、(a)斜視図、(b)側面図、(c)平面図である。図2は、図1に示したエンドエフェクタ2を示す図であり、(a)平面図、(b)斜視図である。以下、これらの図面に基づいて、本開示の制御システムによって制御を行うロボット装置の一例を説明する。
本開示の制御システムによって制御を行うロボット装置は、ロボットアーム1とエンドエフェクタ2とを備えている。ロボットアーム1はベース3上に配置されている。この例においては箱型のコントローラ4が、ロボットアーム1を介してエンドエフェクタ2と接続されている。
エンドエフェクタ2はフィンガFを備えている(図2参照)。本例においては、フィンガFは、第1フィンガF1および第2フィンガF2により構成されている。ただし、フィンガの本数は2本とは限らない。また、図1に示したように、エンドエフェクタ2はカメラCAMを備えている。このカメラCAMについては後述する。
図2に示すように、本例において、第1フィンガF1は5つのリンクを有している。すなわち、第1フィンガF1の先端から順に、第1リンクL1、第2リンクL2、第3リンクL3、第4リンクL4、第5リンクL5である。また、リンクとリンクとの間には関節軸が設けられている。すなわち、第1関節軸J1が第1リンクL1と第2リンクL2とを接続し、第2関節軸J2が第2リンクL2と第3リンクL3とを接続し、第3関節軸J3が第3リンクL3と第4リンクL4とを接続し、第4関節軸J4が第4リンクL4と第5リンクL5とを接続する。本例においては、第2フィンガF2も、第1フィンガF1と同様の構成を備えている。
第1フィンガF1と第2フィンガF2はそれぞれ、第1リンクL1の先端に把持部Gを備えている。また、図1および図2には、作業対象物であるワークWが例示されている。図の例では直方体形状を呈するワークWは、実際には様々な大きさ、形状、硬さ、重量を有している。第1フィンガF1と第2フィンガF2が備える2つの把持部GがワークWを挟み込むことにより、本例ではロボットハンドであるエンドエフェクタ2がワークWを支持(把持)する。
(カメラCAMの配置および画角)
図3は、エンドエフェクタ2に接続されたカメラCAMの撮像範囲を示す図である。図中の円錐状の領域AOFは、カメラCAMの画角(撮像範囲)を示している。
既に述べたように、本開示の制御システムは、力覚センサ等の種々のセンサを用いずに、カメラCAMによる撮像画像に基づいて、エンドエフェクタ2を制御する。画像に基づく制御を実現するために、カメラCAMは、エンドエフェクタ2とロボットアーム1との接続部付近に配置される。また、カメラCAMは、エンドエフェクタ2と、エンドエフェクタ2の作業対象であるワークWとを撮像可能な位置に配置される。すなわち、カメラCAMによって撮像された画像には、エンドエフェクタ2の形状と、支持(把持)を行う際の作業対象であるワークWの形状とが同時に映り込むことになる。
なお、図3の例において、カメラCAMはエンドエフェクタ2とロボットアーム1との接続部付近に配置されているが、これ以外の場所にカメラCAMが配置されてもよい。
(制御システムの構成)
図4は、実施の形態1に係る制御システム100のハードウェア構成例を示すブロック図である。制御システム100は、ロボットアーム1およびエンドエフェクタ2の動作を制御する。
本例における制御システム100は、プロセッサ101と、メモリ102と、入力装置103と、画像取得部104と、エンドエフェクタ接続部105と、通信装置106と、入出力インターフェース107とを含む構成である。メモリ102、入力装置103、画像取得部104、エンドエフェクタ接続部105、通信装置106、入出力インターフェース107は、それぞれプロセッサ101との間でデータもしくは情報の入出力が可能に内部バス等で接続される。
プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、あるいはFPGA(Field Programmable Gate Array)を用いて構成される。プロセッサ101は、制御システム100の制御部として機能し、制御システム100の各部の動作を全体的に統括するための制御処理、制御システム100の各部との間のデータもしくは情報の入出力処理、データの計算処理、およびデータもしくは情報の記憶処理を行う。また、プロセッサ101は、エンドエフェクタ2を制御する制御部としても機能する。
メモリ102は、HDD(Hard Disk Drive)やROM(Read Only Memory)、RAM(Random Access Memory)等を含んでいてよく、プロセッサ101によって実行される各種プログラム(OS(Operation System)、アプリケーションソフト等)や各種データを格納している。また、メモリ102は、エンドエフェクタ毎の目標位置である制御情報を有していてよい。この制御情報は、例えば後述の特徴点情報等であってよい。
入力装置103は、キーボードやマウス等を含んでいてよく、ユーザとの間のヒューマンインターフェースとしての機能を有し、ユーザの操作を入力する。言い換えると、入力装置103は、制御システム100により実行される各種の処理における、入力または指示に用いられる。なお、入力装置103は、コントローラ4に接続されたプログラミングペンダントであってよい。
画像取得部104は、カメラCAMと有線あるいは無線を介して接続可能であり、カメラCAMが撮像した画像を取得する。制御システム100は、画像取得部104が取得した画像に対し、画像処理を適宜行うことができる。この画像処理の主体は、プロセッサ101であってよい。また、制御システム100が、図示を省略する画像処理ユニットをさらに備えてよく、該画像処理ユニットが制御システム100に接続される構成でもよい。プロセッサ101による制御の下、この画像処理ユニットによって、画像処理を行うことができる。
エンドエフェクタ接続部105は、エンドエフェクタ2(図1を併せて参照)との接続を確保する構成要素であり、エンドエフェクタ接続部105を介して制御システム100とエンドエフェクタ2(およびロボットアーム1)とが接続される。この接続は、コネクタおよびケーブル等を用いた有線接続であってよいが、無線による接続であってもよい。この接続の際、エンドエフェクタ接続部105は、エンドエフェクタ2を識別する識別情報をエンドエフェクタ2から取得する。すなわち、エンドエフェクタ接続部105は、識別情報取得部として機能する。なお、識別情報を、プロセッサ101がエンドエフェクタ接続部105からさらに取得してよい。この識別情報によって、接続されたエンドエフェクタ2の種類を特定することが可能である。
通信装置106は、ネットワークを介して外部と通信を行うための構成要素である。なお、この通信は有線通信であっても、無線通信であってもよい。
入出力インターフェース107は、制御システム100の間でデータもしくは情報の入出力を行うインターフェースとしての機能を有する。
なお、制御システム100の上記構成は一例であり、必ずしも上記の構成要素を全て備えていなくともよい。また、制御システム100は追加の構成要素をさらに備えていてもよい。例えば、箱型の制御システム100(コントローラ4)が車輪を有し、制御システム100の上にロボットアーム1およびエンドエフェクタ2を載せて自走してもよい。
(初期設定処理)
以下、制御システム100の初期設定例を説明する。図5は、制御システム100の初期設定例を示すフローチャートである。初期設定は、ロボットアーム1およびエンドエフェクタ2に所定の作業をさせる前に行われる。
ロボット装置は、ロボットアームに種々のエンドエフェクタを接続して各種の作業を行う。また、エンドエフェクタの形状や機能は様々である。従って、ワークに対して行いたい作業に応じて、適切なエンドエフェクタ2を選定し、ロボットアーム1に接続する(St1)。
接続されたエンドエフェクタ2に応じた特徴点情報が、制御情報として、制御システム100のメモリ102から、制御システム100の、図示を省略するワークメモリ等に読み込まれる(St2)。この特徴点情報は、後述の特徴点情報テーブルT内の情報であってよい。
(特徴点情報テーブルT)
ここで、特徴点情報テーブルTを示す図6を参照する。特徴点情報テーブルTは、制御システム100のメモリ102に格納されていてよい。上記ステップSt2において、特徴点情報テーブルTに含まれる、エンドエフェクタ2に応じた特徴点情報が、メモリ102から抽出されて、制御システム100のワークメモリ等に読み込まれる。
特徴点情報テーブルTは、例えば以下のようなデータを、エンドエフェクタの種類(エンドエフェクタA~C)毎に有している。
データ項目1:エンドエフェクタの目標位置における特徴点(特徴点情報)
データ項目2:対応可能なワークの寸法
データ項目3:対応可能なワークの重量
(エンドエフェクタの目標位置)
エンドエフェクタは、ワークを支持(把持等)する、ワークを解放する等の、種々の動作を行う。そのため、動作に応じた目標位置があり、その目標位置へとエンドエフェクタを移動(あるいは変形)させる。例えば、エンドエフェクタがワークを支持するには、エンドエフェクタの支持目標位置へとエンドエフェクタを移動(あるいは変形)させればよい。エンドエフェクタがワークを解放する(手離す)には、エンドエフェクタの解放目標位置へとエンドエフェクタを移動(あるいは変形)させればよい。
(特徴点)
本開示の制御システムは、カメラCAMにより撮像した画像に基づいて、エンドエフェクタの制御を行う。そのために、エンドエフェクタ上の1以上の特徴点を特定する。図6においては、特徴点を×印で表現している。この特徴点は、一般的な画像認識技術における特徴点認識によって決定してもよく、エンドエフェクタ上にマーカ(例えば、赤色のランプ等)を設けて、このマーカを特徴点としても良い。
図6に示した特徴点情報テーブルTの例では、特徴点が配置される場所は、エンドエフェクタの関節軸上である。この関節軸を、ワークを支持(把持)する際の所定の目標位置へと位置決めできれば、適切な把持を行うことができるからである。しかし、特徴点をエンドエフェクタのリンク上(例えば、リンクの先端部等)に配置してもよい。
なお、エンドエフェクタは種類によりその形状が異なるので、エンドエフェクタの種類(エンドエフェクタA~C)毎に、異なる場所に特徴点を配置してもよい。エンドエフェクタ接続部105にエンドエフェクタA~Cのいずれかが接続された際、このエンドエフェクタを識別する識別情報をエンドエフェクタ接続部105が前述のように取得し、この識別情報をプロセッサ101がエンドエフェクタ接続部105から取得し、接続されたエンドエフェクタの種類(A~C)を決定する。
(エンドエフェクタの目標位置における特徴点)
例えば、図6に示したエンドエフェクタAがワークを掴んだ状態(エンドエフェクタが目標位置にある状態)における、エンドエフェクタA上の特徴点が、エンドエフェクタの目標位置における特徴点である。特徴点情報テーブルTは、この特徴点の位置情報(特徴点情報)を、データ項目1として有している。
なお、エンドエフェクタは、単一の動作のみを行うとは限らない。さらに、ワークに応じて支持方法を変えることもあり得る。例えば、寸法の大きなワークについては、フィンガの先端でこれを掴むのが好適であり、寸法の小さなワークについては、フィンガで巻き込むことで掴むのが好適である。そこで、特徴点情報テーブルTは、エンドエフェクタによる支持方法(先端で掴む、巻き込むように掴む、等)に応じて別々に、特徴点情報を有していてよい。
以上を踏まえて、再び図5の説明に戻る。例えば、エンドエフェクタAがロボットアーム1に接続された(St1)場合、ステップSt2においては、エンドエフェクタAに応じた特徴点情報が、制御情報として、制御システム100に読み込まれる。この例においては、エンドエフェクタAによる複数の支持方法(先端で掴む、巻き込むように掴む、等)にそれぞれ対応する特徴点情報が、制御システム100にまとめて読み込まれてよい。
続いて、入力装置103により、ワークの形状や重量が制御システム100に入力される(St3)。なお、この入力は人間であるオペレータが行ってよいが、カメラCAMが撮像した画像等に基づいて、制御システム100自身が、ワークの形状等を推定してもよい。この推定処理は、一般の画像認識技術を用いて行ってよい。秤などの計測機器を制御システム100に別途接続して、測定された重量を制御システム100が取得してもよい。
次に、ワークの形状や重量も考慮して、エンドエフェクタAによる支持方法(先端で掴む、巻き込むように掴む、等)を制御システム100が決定する(St4)。
以上のステップSt1~St4を行うことにより、実施の形態1に係る制御システム100の初期設定が終了する。初期設定の終了時点において、制御システム100は、接続されたエンドエフェクタによる支持方法(先端で掴む、巻き込むように掴む、等)を決定済みであり、その支持方法に応じた特徴点情報も保持(St2)している。すなわち、接続されたエンドエフェクタについての、支持方法に応じたエンドエフェクタの目標位置が、制御システム100(のプロセッサ101)によって決定された状態にある。
(エンドエフェクタ2によるワーク支持の制御例)
次に、実施の形態1に係る制御システム100が、エンドエフェクタ2によるワークの支持を制御する制御例について、図7および図8を参照して説明する。
図7は、実施の形態1に係る制御システム100が、エンドエフェクタ2によるワークWの支持(把持)を制御する例を示すフローチャートである。図8は、実施の形態1に係る制御システム100による、エンドエフェクタ2の制御例を示す図であり、(a)動作開始時点における平面図、(b)把持完了時点における平面図、(c)特徴点に基づくエンドエフェクタ2の駆動制御を示す概念図である。なお、ワークWを、ある場所から別の場所へと移動させる作業を行うという前提で説明する。
まず、ロボットアーム1を動かして、ワークWを支持(把持)可能な位置へとエンドエフェクタ2を移動させる点については、従来技術を用いてよい。そこで、エンドエフェクタ2が、ワークWを支持(把持)可能な位置へと移動済みである、図8の(a)の状態を初期状態として説明する。
まず、カメラCAMが画像を撮像する。制御システム100の画像取得部104が、この画像を取得する。そして、支持(把持)対象となるワークWの位置を、カメラCAMが撮像した画像に基づいて、制御システム100が認識する(St11)。この位置認識は、従来の画像処理技術に基づいて行ってよい。
次に、画像取得部104が取得した画像をもとに目標位置に一致するようにエンドエフェクタの制御を行う。より特定的には、エンドエフェクタ2の現在位置における特徴点が、特徴点情報によって示される特徴点(目標位置における特徴点)と一致するように、エンドエフェクタを制御する(St12)。以下、このステップSt12で行われる処理ついて、より詳しく説明する。
上述のように、先行するステップSt11において、カメラCAMは撮像を行っている。ここで、カメラCAMは、エンドエフェクタ2と、エンドエフェクタ2の作業対象であるワークWとが撮像可能な位置に配置されている(図1および図3参照)。つまり、カメラCAMによる撮像画像には、エンドエフェクタ2とワークWの両方が映り込んでいる。制御システム100は、この撮像画像に基づき、エンドエフェクタ2の現在位置における特徴点を特定することができる。この特徴点の特定は、一般の画像認識技術における特徴点認識によって特定してもよく、エンドエフェクタ2にマーカ(例えば、赤色のランプ等)を設けて、このマーカを特徴点としても良い。なお、理解を容易とするため、エンドエフェクタ2の現在位置における特徴点が、図8の(c)に「特徴点 初期位置」としてプロットされている。
また、図5および図6に基づいて前述した初期設定(St1~St4)により、制御システム100は、ロボットアーム1に接続されているエンドエフェクタ2についての、支持方法に応じた特徴点情報も既に保持している。この特徴点情報に示される特徴点の位置が、図8の(c)に「特徴点 把持位置」としてプロットされている。
従って、ステップSt12の開始時点において、制御システム100は、エンドエフェクタ2の現在位置における特徴点と、エンドエフェクタの目標位置における特徴点との両方を特定済みである。そして、ステップSt12において、制御システム100は、エンドエフェクタ2の現在位置における特徴点(特徴点 初期位置)が、特徴点情報によって示される特徴点(特徴点 把持位置)と一致するように、エンドエフェクタ2を制御する。この制御を図示しているのが図8の(c)であり、初期位置にある特徴点が、把持位置にある特徴点に一致するように、エンドエフェクタ2を制御することにより、ワークWの把持が完了する(図8の(b)参照)。なお、制御システム100による上記の制御は、エンドエフェクタ2の特徴点の、移動前後の位置が特定済みであるので、エンドエフェクタ2についての逆運動学の計算に基づいて行うことができる。
ワークWの支持(把持)が完了したので、制御システム100は次に、ロボットアーム1を制御して、支持(把持)済みのワークWをある地点から別の地点へと移動させる(St13)。続いて、制御システム100は、エンドエフェクタ2が解放の目標位置になるように、エンドエフェクタ2を制御する(St14)。このステップSt14によって、エンドエフェクタ2はワークを解放する(離す)。なお、ステップSt14は、ステップSt12と同様の処理によって実施してよい。すなわち、特徴点情報テーブルTが、ワークの解放についての特徴点情報を有し、制御システム100がこの特徴点情報を用いて、エンドエフェクタ2の現在位置における特徴点が、特徴点情報によって示される特徴点と一致するように、エンドエフェクタ2を制御する。
なお、ステップSt14におけるワークWの解放は、必ずしも、特徴点情報に基づいて行わなくともよい。例えば、エンドエフェクタ2が有する各フィンガおよび各関節軸の初期位置を予め定めておき、単にその初期位置に戻るように、エンドエフェクタ2を制御してもよい。
<実施の形態2>
次に、本開示の実施の形態2について説明する。実施の形態2においても、エンドエフェクタ2として、2本のフィンガを有したロボットハンドを用いた場合を想定して説明する。ロボットアーム1およびエンドエフェクタ2の構成、カメラCAMの配置、制御システム100の構成、初期設定処理については、実施の形態1と同様であるため、説明を省略する。
実施の形態2は、例えば、ワークWに関する事前情報が不足している場合や、ワークWが軟らかい素材でできている場合等を想定している。ワークWに関する事前情報が不足している場合、エンドエフェクタ2の目標位置を事前に正確に特定するのは困難である。また、ワークWが軟らかい素材でできている場合、ワークWをロボットハンドで把持するとワークWが変形し得る。この変形も考慮した上で、エンドエフェクタ2がワークWを適切に支持するようにエンドエフェクタ2を制御するのは、困難である。
しかし、実施の形態2に係る制御システム100は、上記のような場合であっても、エンドエフェクタ2がワークWを適切に支持できるように、制御を行うことができる。
(エンドエフェクタ2によるワーク支持の制御例)
実施の形態2に係る制御システム100が、エンドエフェクタ2によるワークWの支持を制御する例について、図9および図10を参照して説明する。
図9は、実施の形態2に係る制御システム100が、エンドエフェクタ2によるワークWの支持(把持)を制御する例を示すフローチャートである。また、図10は、実施の形態2に係る制御システム100による、エンドエフェクタ2の制御例を示す図であり、(a)動作開始時点における平面図および概念図、(b)把持完了時点における平面図および概念図、(c)再把持完了時点における平面図および概念図である。
ロボットアーム1を動かして、ワークWを支持(把持)可能な位置へとエンドエフェクタ2を移動させる技術は、従来技術を用いてよい。そこで、エンドエフェクタ2が、ワークWを支持(把持)可能な位置へと移動済みである、図10の(a)の状態を初期状態として説明する。
まず、カメラCAMが画像を撮像する。制御システム100の画像取得部104が、この画像を取得する。そして、支持(把持)対象となるワークWの位置を、カメラCAMが撮像した画像に基づいて、制御システム100が認識する(St21)。この位置認識は、従来の画像処理技術に基づいて行ってよい。なお、この時点におけるエンドエフェクタ2の位置、およびエンドエフェクタ2上の特徴点の位置が、図10の(a)に示されている。
次に、画像取得部104が取得した画像をもとに目標位置に一致するようにエンドエフェクタの制御を行う。より特定的には、エンドエフェクタの現在位置における特徴点が、特徴点情報によって示される特徴点(目標位置における特徴点)と一致するように、エンドエフェクタ2を制御する(St22)。この処理は、実施の形態1に係る、前述のステップSt12と同様である。
すなわち、ステップSt22の開始時点において、エンドエフェクタ2の現在位置における特徴点(カメラCAMの撮像画像による)と、目標位置における特徴点(メモリ102内の特徴点情報テーブルTから抽出)との両方を、制御システム100は特定済みである。そして、ステップSt22において、制御システム100は、エンドエフェクタの現在位置における特徴点が、特徴点情報によって示される特徴点と一致するように、エンドエフェクタ2を制御する。ステップSt22の処理が行われた後のエンドエフェクタ2の位置、およびエンドエフェクタ2上の特徴点の位置が、図10の(b)に示されている。
次に、プロセッサ101が、エンドエフェクタ2がワークWを支持しているか否かを確認する(St23)。この確認の具体例は、図11に基づいて後述する。エンドエフェクタ2がワークを支持している場合には(St23、Yes)、把持したワークWを移動させて解放する、ステップSt25およびステップSt26の処理へと遷移する。すなわち、以下の通りである。
制御システム100は、ロボットアーム1を制御して、支持(把持)済みのワークWをある地点から別の地点へと移動させる(St25)。続いて、制御システム100は、エンドエフェクタ2が解放の目標位置になるように、エンドエフェクタ2の駆動部を制御する(St26)。このステップSt26によって、エンドエフェクタ2はワークを解放する(離す)。なお、ステップSt26は、ステップSt22と同様の処理によって実施してよい。すなわち、特徴点情報テーブルTが、ワークの解放についての特徴点情報を有し、制御システム100がこの特徴点情報を用いて、エンドエフェクタ2の現在位置における特徴点が、特徴点情報によって示される特徴点と一致するように、エンドエフェクタ2の駆動部を制御する。
また、ステップSt26におけるワークWの解放は、必ずしも、特徴点情報に基づいて行わなくともよい。例えば、エンドエフェクタ2が有する各フィンガおよび各関節軸の初期位置を予め定めておき、単にその初期位置に戻るように、エンドエフェクタ2を制御してもよい。
次に、前述のステップSt23における、エンドエフェクタ2がワークWを支持していない場合(St23、No)について説明する。ワークWに関する事前情報が不足している場合や、ワークWが軟らかい素材でできている場合には、先行するステップSt22にて正しく移動したはずのエンドエフェクタ2が、実際にはワークWを支持(把持)できないことがある。このような場合に、ワークの再支持(再把持)を行うステップSt24へと処理が遷移する。
ステップSt24においては、識別情報と制御情報とから目標位置を新たに決定し、画像取得部104が取得した画像をもとに新たな目標位置に一致するようにエンドエフェクタの制御を行う。より特定的には、カメラCAMが撮像した画像に基づいて、エンドエフェクタ2の現在位置における特徴点が、ワークWの位置に基づくエンドエフェクタ2の新たな支持目標位置における特徴点と一致するように、エンドエフェクタ2を制御する。すなわち、エンドエフェクタ2の従前の(第1の)支持目標位置ではワークWをうまく支持できなかったので、これとは異なる新たな(第2の)支持目標位置へとエンドエフェクタ2を移動(変形)させて、再支持(再把持)を試行するのである。
新たな支持目標位置における特徴点は、前述の特徴点情報テーブルTに特徴点情報として別途格納しておき、この情報を用いて特定してよい。また、新たな支持目標位置における特徴点を、プロセッサ101が動的に計算で求めてもよい。例えば、動作開始時(図10の(a))から把持完了時(図10の(b))に至るまでの各特徴点の移動軌跡を示す情報をワークメモリ等に保持しておき、この移動軌跡の延長線上に、新たな支持目標位置における特徴点を設定してよい。なお、この新たな特徴点情報を、所定のタイミング(例えば、支持が成功したタイミング等)で、特徴点情報テーブルTに書き入れてもよい。ステップSt24の処理が行われた後のエンドエフェクタ2の位置、およびエンドエフェクタ2上の特徴点の位置が、図10の(c)に示されている。
次に、プロセッサ101が、エンドエフェクタ2がワークWを支持しているか否かを確認するステップSt23における、確認の具体例について説明する。図11は、図9のステップSt23における支持確認の例を示す図であり、(a)移動量に基づく確認例を示すフローチャート、(b)ワークWの変形に基づく確認例を示す平面図である。
図11の(a)に示したように、ステップSt231において、カメラCAMによる撮像を行う。制御システム100の画像取得部104が、この画像を取得する。次に、ステップSt232において、制御システム100がロボットアーム1を制御して、ロボットアーム1およびエンドエフェクタ2を所定の距離だけ移動させる。続いて、ステップSt233において、カメラCAMによる撮像を行う。制御システム100の画像取得部104が、この画像を取得する。以上の処理によって、ワークWの移動前後の撮像画像が得られる。
そしてステップSt234において、ワークWの移動量と、エンドエフェクタ2の移動量とを比較する。なお、この移動量は、ワークWの移動前後の撮像画像を用いて計算することができる。エンドエフェクタ2がワークWを正しく支持できているのであれば、エンドエフェクタ2の移動量と、ワークWの移動量とが等しくなるはずである。一方、エンドエフェクタ2の移動量と、ワークWの移動量とが異なる場合は、エンドエフェクタ2がワークWを正しく支持できていないことになる。従って、ステップSt234において、ワークWの移動量とエンドエフェクタ2の移動量との差Difが、既定の許容誤差値以内である場合、エンドエフェクタ2がワークWを支持できていると確認できる(St23、Yes)。一方、前記の差Difが、既定の許容誤差値以内でない場合、エンドエフェクタ2がワークWを支持できていないと確認できる(St23、No)。
図11の(b)は、ステップSt23における確認を、撮像画像によって認識されたワークWの変形に基づいて行う例を示している。この確認例においては、エンドエフェクタ2によるワークWの支持前後の画像を用いて、ワークWの変形を示す情報を導出する。例えば、カメラCAMによって、動作開始時(時刻t1)における画像IMGt1と、把持完了時(時刻t2)における画像IMGt2を撮像し、これらの画像を制御システム100の画像取得部104が取得する。時刻t1におけるワークWに比して、時刻t2におけるワークWは圧縮変形している。この変形量(あるいは変形率)を、上記画像IMGt1および画像IMGt2に基づいて制御システム100(のプロセッサ101)が導出して、ワークWの変形を示す情報とする。
例えば、時刻t1におけるワークWの幅をdt1とし、時刻t2におけるワークWの幅をdt2とした場合、変形率をdt2/dt1と定義して導出可能である。この変形率を、前記ワークWの変形を示す情報として用いて、これに基づき支持の確認を行うことができる。例えば、0.9≦dt2/dt1<0.95ならば、適正な力で支持(把持)を行っているとして、エンドエフェクタ2がワークWを支持できていると確認できる(St23、Yes)。dt2/dt1<0.9である場合は、支持(把持)の力が強すぎるとして、0.95≦dt2/dt1である場合は、支持(把持)の力が弱すぎるとして、それぞれ、エンドエフェクタ2がワークWを支持できていないと確認できる(St23、No)。なお、前記ワークの変形を示す情報は、上記の変形率以外の情報であってよく、ワークWの形状、大きさ、軟らかさ、重量等に応じて適切なものを用いればよい。
以上のように、ロボットアーム1に接続可能な複数のエンドエフェクタ2を制御するエンドエフェクタ2の制御システム100が、エンドエフェクタ2の画像を取得する画像取得部104と、エンドエフェクタ2を識別する識別情報を取得するエンドエフェクタ接続部105と、エンドエフェクタ2を制御するプロセッサ101と、エンドエフェクタ毎の目標位置である制御情報を有するメモリ102と、を備え、プロセッサ101は、エンドエフェクタ接続部105から識別情報を取得し、識別情報と制御情報とから目標位置を決定し、画像取得部104が取得した画像をもとに目標位置に一致するようにエンドエフェクタ2の制御を行う。これにより、力覚センサ等を用いずに、センサレスで簡易なシステム構成にすることができる。また、複数のセンサについてのキャリブレーションを行わなくて済むので、エンドエフェクタ2の立ち上げ時間が短くなる。さらに、エンドエフェクタ2からのフィードバック情報をカメラCAMによる撮像画像に集約することで、マルチモーダルな情報処理を回避することができる。
また、プロセッサ101は、画像取得部104が取得した画像に基づいて、エンドエフェクタ2がワークWを支持しているか否かを確認し、エンドエフェクタ2がワークWを支持していない場合、識別情報と制御情報とから目標位置を新たに決定し、画像取得部104が取得した画像をもとに新たな目標位置に一致するようにエンドエフェクタ2の制御を行う。これにより、ワークWに関する事前情報が不足している場合や、ワークWが軟らかい素材でできている場合であっても、ワークWの柔軟性や重量に基づく支持の制御が容易となる。その結果、様々なワークWを支持するエンドエフェクタ2の動作の範囲を広げることができる。さらに、撮像した画像に基づいてエンドエフェクタ2を制御すればよいので、通常の逆運動学にワークの柔軟性を加味した運動法則式の計算が不要となる。
また、プロセッサ101による、エンドエフェクタ2がワークWを支持しているか否かの確認は、プロセッサ101が、ワークWを移動するようにエンドエフェクタ2を制御し、画像取得部104によって取得した画像に基づいて、ワークWの移動量と、エンドエフェクタ2の移動量との差が既定の許容誤差値以内であるかを確認することによって行われる。これにより、エンドエフェクタ2がワークWを支持しているか否かを、カメラCAMによる撮像画像に基づいて適切に確認することができる。
また、プロセッサ101による、エンドエフェクタ2がワークWを支持しているか否かの確認は、プロセッサ101が、画像取得部104によって取得した画像に基づいて、ワークWの変形を示す情報を導出することによって行われる。これにより、エンドエフェクタ2がワークWを支持しているか否かを、カメラCAMによる撮像画像に基づいて適切に確認することができる。
また、複数のエンドエフェクタに含まれるエンドエフェクタのうち少なくとも1つが、1以上のフィンガFを有し、フィンガFの先端でワークWを掴むことにより、もしくは、フィンガFでワークWを巻き込むことにより、ワークWを支持する。これにより、エンドエフェクタ2によるワークWの種々の支持態様を、制御システム100が制御することができる。
また、複数のエンドエフェクタに含まれるエンドエフェクタのうち少なくとも1つが、複数の関節軸を備えた1以上のフィンガFを有し、エンドエフェクタの特徴点が、少なくとも、フィンガFの1以上の関節軸上に配置される。これにより、関節軸を、ワークWを把持する際の所定の位置へと位置決めできる。
また、制御システム100による、ロボットアーム1に接続可能な複数のエンドエフェクタ2を制御する方法において、制御システム100は、画像取得部104と、エンドエフェクタ接続部105と、プロセッサ101と、メモリ102とを備え、メモリ102は、エンドエフェクタ毎の目標位置である制御情報を有しており、画像取得部104は、エンドエフェクタ2の画像を取得し、エンドエフェクタ接続部105は、エンドエフェクタ2を識別する識別情報を取得し、プロセッサ101は、エンドエフェクタ接続部105から識別情報を取得し、識別情報と制御情報とから目標位置を決定し、画像取得部104が取得した画像をもとに目標位置に一致するようにエンドエフェクタ2の制御を行う。これにより、力覚センサ等を用いずに、センサレスで簡易なシステム構成にすることができる。また、複数のセンサについてのキャリブレーションを行わなくて済むので、エンドエフェクタ2の立ち上げ時間が短くなる。さらに、エンドエフェクタ2からのフィードバック情報をカメラCAMによる画像に集約することで、マルチモーダルな情報処理を回避することができる。
また、ロボットアーム1に接続されたエンドエフェクタ2の制御システム100が、メモリ102と、プロセッサ101と、カメラCAMと、を備え、カメラCAMは、エンドエフェクタ2と、エンドエフェクタ2の作業対象であるワークWとが撮像可能な位置に配置されており、メモリ102は、エンドエフェクタ2がワークWを支持する時の第1の支持目標位置における特徴点を示す、特徴点情報を(例えば特徴点情報テーブルTのデータ項目として)有しており、プロセッサ101は、カメラCAMが撮像した画像に基づいて、エンドエフェクタ2の現在位置における特徴点と、ワークWの位置とを特定するとともに、エンドエフェクタ2の現在位置における特徴点が特徴点情報によって示される特徴点と一致するように、エンドエフェクタ2を制御する。これにより、力覚センサ等を用いずに、センサレスで簡易なシステム構成にすることができる。また、複数のセンサについてのキャリブレーションを行わなくて済むので、エンドエフェクタ2の立ち上げ時間が短くなる。さらに、エンドエフェクタ2からのフィードバック情報をカメラCAMによる撮像画像に集約することで、マルチモーダルな情報処理を回避することができる。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
本開示は、ロボットハンドを簡素化しつつ、エンドエフェクタを制御できるエンドエフェクタの制御システムおよびエンドエフェクタの制御方法として有用である。
1 ロボットアーム
2 エンドエフェクタ
3 ベース
4 コントローラ
100 制御システム
101 プロセッサ
102 メモリ
103 入力装置
104 画像取得部
105 エンドエフェクタ接続部
106 通信装置
107 入出力インターフェース
CAM カメラ
Dif 差
F フィンガ
F1 第1フィンガ
F2 第2フィンガ
G 把持部
IMGt1,IMGt2 画像
J1 第1関節軸
J2 第2関節軸
J3 第3関節軸
J4 第4関節軸
L1 第1リンク
L2 第2リンク
L3 第3リンク
L4 第4リンク
L5 第5リンク
T 特徴点情報テーブル
W ワーク

Claims (7)

  1. ロボットアームに接続可能な複数のエンドエフェクタを制御するエンドエフェクタの制御システムであって、
    前記複数のエンドエフェクタのうち前記ロボットアームに接続されたエンドエフェクタの画像を取得する画像取得部と、
    前記エンドエフェクタを識別する識別情報を取得する識別情報取得部と、
    前記エンドエフェクタを制御する制御部と、
    前記複数のエンドエフェクタの各々の目標位置を含む制御情報を有するメモリと、を備え、
    前記制御部は、
    前記識別情報取得部から前記識別情報を取得し、前記識別情報と前記制御情報とから前記目標位置を決定し、前記画像取得部が取得した前記画像をもとに前記目標位置に一致するように前記エンドエフェクタの制御を行い、
    作業対象であるワークを移動するように前記エンドエフェクタを制御し、前記画像取得部によって取得した前記画像に基づいて、前記ワークの移動量と、前記エンドエフェクタの移動量との差が既定の許容誤差値以内であるかを確認することによって前記エンドエフェクタが前記ワークを支持しているか否かを確認する、
    エンドエフェクタの制御システム。
  2. 前記制御部は、
    前記エンドエフェクタが前記ワークを支持していない場合、前記識別情報と前記制御情報とから新たな目標位置を決定し、前記画像取得部が取得した前記画像をもとに前記新たな目標位置に一致するように前記エンドエフェクタの制御を行う、
    請求項1に記載のエンドエフェクタの制御システム。
  3. 前記複数のエンドエフェクタに含まれる少なくとも1つのエンドエフェクタが、1以上のフィンガを有し、前記フィンガの先端でワークを掴むことにより、前記ワークを支持する、
    請求項1または請求項2に記載のエンドエフェクタの制御システム。
  4. 前記複数のエンドエフェクタに含まれる少なくとも1つエンドエフェクタが、1以上のフィンガを有し、前記フィンガでワークを巻き込むことにより、前記ワークを支持する、
    請求項1から請求項のいずれか1項に記載のエンドエフェクタの制御システム。
  5. 前記複数のエンドエフェクタに含まれる少なくとも1つエンドエフェクタが、複数の関節軸を備えた1以上のフィンガを有し、
    前記エンドエフェクタの特徴点が、少なくとも、前記1以上のフィンガの前記複数の関節軸のうち1以上の関節軸上に配置される、
    請求項1から請求項のいずれか1項に記載のエンドエフェクタの制御システム。
  6. 画像取得部と、識別情報取得部と、メモリとを備える制御システムによる、ロボットアームに接続可能な複数のエンドエフェクタを制御する方法であって、
    前記複数のエンドエフェクタの各々を識別する識別情報を前記識別情報取得部から取得し、
    前記識別情報と前記メモリが有する前記複数のエンドエフェクタの各々の目標位置である制御情報とから目標位置を決定し、
    前記画像取得部が取得した画像をもとに前記目標位置に一致するように前記エンドエフェクタの制御を行い、
    作業対象であるワークを移動するように前記エンドエフェクタを制御し、前記画像取得部によって取得した前記画像に基づいて、前記ワークの移動量と、前記エンドエフェクタの移動量との差が既定の許容誤差値以内であるかを確認することによって前記エンドエフェクタが前記ワークを支持しているか否かを確認する、
    エンドエフェクタの制御方法。
  7. ロボットアームに接続されたエンドエフェクタの制御システムであって、
    メモリと、プロセッサと、カメラと、を備え、
    前記カメラは、前記エンドエフェクタと、前記エンドエフェクタの作業対象であるワークとが撮像可能な位置に配置されており、
    前記メモリは、前記エンドエフェクタが前記ワークを支持する時の第1の支持目標位置における特徴点を示す、特徴点情報を有しており、
    前記プロセッサは、
    前記カメラが撮像した画像に基づいて、前記エンドエフェクタの現在位置における特徴点と、前記ワークの位置とを特定するとともに、
    前記エンドエフェクタの前記現在位置における前記特徴点が前記特徴点情報によって示される前記特徴点と一致するように、前記エンドエフェクタを制御し、
    前記ワークを移動するように前記エンドエフェクタを制御し、前記画像取得部によって取得した前記画像に基づいて、前記ワークの移動量と、前記エンドエフェクタの移動量との差が既定の許容誤差値以内であるかを確認することによって前記エンドエフェクタが前記ワークを支持しているか否かを確認する、
    エンドエフェクタの制御システム。
JP2021527533A 2019-06-27 2020-06-01 エンドエフェクタの制御システムおよびエンドエフェクタの制御方法 Active JP7186349B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019120594 2019-06-27
JP2019120594 2019-06-27
PCT/JP2020/021555 WO2020261881A1 (ja) 2019-06-27 2020-06-01 エンドエフェクタの制御システムおよびエンドエフェクタの制御方法

Publications (3)

Publication Number Publication Date
JPWO2020261881A1 JPWO2020261881A1 (ja) 2020-12-30
JPWO2020261881A5 JPWO2020261881A5 (ja) 2022-03-22
JP7186349B2 true JP7186349B2 (ja) 2022-12-09

Family

ID=74059710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021527533A Active JP7186349B2 (ja) 2019-06-27 2020-06-01 エンドエフェクタの制御システムおよびエンドエフェクタの制御方法

Country Status (4)

Country Link
US (1) US20220111533A1 (ja)
JP (1) JP7186349B2 (ja)
CN (1) CN114025928A (ja)
WO (1) WO2020261881A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024213748A1 (en) * 2023-04-14 2024-10-17 Brütsch Elektronik Ag Manipulating device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11302134B2 (en) * 2019-07-23 2022-04-12 Japan Cash Machine Co., Ltd. Automatic bill handling system
CN113093356B (zh) * 2021-03-18 2022-08-12 北京空间机电研究所 一种基于机械臂的大型分块光学组件装配方法
CN114851208B (zh) * 2022-06-16 2024-02-02 梅卡曼德(北京)机器人科技有限公司 物体抓取方法以及用于抓取物体的系统
WO2024014080A1 (ja) * 2022-07-13 2024-01-18 パナソニックIpマネジメント株式会社 推定システムおよび推定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214269A (ja) 2008-03-12 2009-09-24 Toyota Motor Corp ロボットハンド
JP2009255192A (ja) 2008-04-14 2009-11-05 Canon Inc マニュピュレーション装置及びその制御方法
JP2017094482A (ja) 2015-11-17 2017-06-01 富士電機株式会社 ロボット制御システム及びロボット制御方法
JP2019010724A (ja) 2017-06-30 2019-01-24 大成建設株式会社 物品配置システム及び食品盛り付けシステム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59232781A (ja) * 1983-06-17 1984-12-27 株式会社日立製作所 ロボツトのハンドの制御装置
JPS60104688A (ja) * 1983-11-07 1985-06-10 廣瀬 茂男 柔軟把握機構
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
GB2261069B (en) * 1991-10-30 1995-11-01 Nippon Denso Co High speed picking system for stacked parts
JP2769947B2 (ja) * 1992-05-15 1998-06-25 株式会社椿本チエイン マニピュレータの位置・姿勢制御方法
JP2665894B2 (ja) * 1995-07-19 1997-10-22 川崎重工業株式会社 指状把持装置
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
JP3910134B2 (ja) * 2002-10-30 2007-04-25 ファナック株式会社 ロボット装置
CN1984756B (zh) * 2004-07-13 2011-12-07 松下电器产业株式会社 物品保持系统、机器人以及机器人控制方法
US20080181485A1 (en) * 2006-12-15 2008-07-31 Beis Jeffrey S System and method of identifying objects
KR20100029087A (ko) * 2007-05-08 2010-03-15 브룩스 오토메이션 인코퍼레이티드 기계적 스위치 메카니즘을 이용한 복수의 가동 암들을 갖는 기판 이송 장치
US9144909B2 (en) * 2007-07-05 2015-09-29 Re2, Inc. Defense related robotic systems
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
KR101479232B1 (ko) * 2008-05-13 2015-01-06 삼성전자 주식회사 로봇과 로봇 핸드, 로봇 핸드의 제어 방법
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
US20150142171A1 (en) * 2011-08-11 2015-05-21 Siemens Healthcare Diagnostics Inc. Methods and apparatus to calibrate an orientation between a robot gripper and a camera
JP5949917B2 (ja) * 2012-06-19 2016-07-13 株式会社安川電機 ロボットシステムおよび加工品の製造方法
US8965576B2 (en) * 2012-06-21 2015-02-24 Rethink Robotics, Inc. User interfaces for robot training
JP2014024162A (ja) * 2012-07-27 2014-02-06 Seiko Epson Corp ロボットシステム、ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN105050527B (zh) * 2013-03-15 2018-03-27 圣纳普医疗(巴巴多斯)公司 智能定位系统和用于其的方法
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
JP6454960B2 (ja) * 2013-10-31 2019-01-23 セイコーエプソン株式会社 ロボット、ロボットシステム、ロボット制御装置
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
EP3238881B1 (en) * 2014-12-26 2023-08-23 Kawasaki Jukogyo Kabushiki Kaisha Self-traveling articulated robot
JP6754364B2 (ja) * 2015-08-25 2020-09-09 川崎重工業株式会社 ロボットシステム
US9718188B2 (en) * 2015-09-21 2017-08-01 Amazon Technologies, Inc. Networked robotic manipulators
JP6648469B2 (ja) * 2015-10-07 2020-02-14 セイコーエプソン株式会社 ロボットシステム、及びロボット制御装置
US9751211B1 (en) * 2015-10-08 2017-09-05 Google Inc. Smart robot part
EP3414710B1 (en) * 2016-03-03 2022-11-02 Google LLC Deep machine learning methods and apparatus for robotic grasping
US10166676B1 (en) * 2016-06-08 2019-01-01 X Development Llc Kinesthetic teaching of grasp parameters for grasping of objects by a grasping end effector of a robot
CA3035492C (en) * 2016-08-30 2021-03-23 Honda Motor Co., Ltd. Robot control apparatus and robot control method
US10596700B2 (en) * 2016-09-16 2020-03-24 Carbon Robotics, Inc. System and calibration, registration, and training methods
US10360531B1 (en) * 2016-12-19 2019-07-23 Amazon Technologies, Inc. Robot implemented item manipulation
JP6680720B2 (ja) * 2017-04-10 2020-04-15 ファナック株式会社 ロボットの動作軌跡を自動で生成する装置、システム、および方法
US10773382B2 (en) * 2017-09-15 2020-09-15 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation
JP2020196059A (ja) * 2019-05-31 2020-12-10 セイコーエプソン株式会社 ロボット

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214269A (ja) 2008-03-12 2009-09-24 Toyota Motor Corp ロボットハンド
JP2009255192A (ja) 2008-04-14 2009-11-05 Canon Inc マニュピュレーション装置及びその制御方法
JP2017094482A (ja) 2015-11-17 2017-06-01 富士電機株式会社 ロボット制御システム及びロボット制御方法
JP2019010724A (ja) 2017-06-30 2019-01-24 大成建設株式会社 物品配置システム及び食品盛り付けシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
平川 篤司、吉川 恒夫,視覚フィードバックによるロボットハンドの適応的把握動作,第21回日本ロボット学会学術講演会予稿集CD-ROM 2003年,日本,社団法人日本ロボット学会,2003年09月20日

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024213748A1 (en) * 2023-04-14 2024-10-17 Brütsch Elektronik Ag Manipulating device

Also Published As

Publication number Publication date
US20220111533A1 (en) 2022-04-14
JPWO2020261881A1 (ja) 2020-12-30
CN114025928A (zh) 2022-02-08
WO2020261881A1 (ja) 2020-12-30

Similar Documents

Publication Publication Date Title
JP7186349B2 (ja) エンドエフェクタの制御システムおよびエンドエフェクタの制御方法
KR102140639B1 (ko) 학습 장치, 학습 완료 모델이 저장된 비일시적인 컴퓨터 가독 매체, 및 학습 방법
JP5685027B2 (ja) 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
CN105598987B (zh) 借助机器人确定关于对象的抓取空间
JP6771744B2 (ja) ハンドリングシステム及びコントローラ
EP2921267A2 (en) Robot system, calibration method in robot system, and position correcting method in robot system
JP6025658B2 (ja) コネクタ挿入方法及びコネクタ挿入装置
JP6741222B2 (ja) ロボットのワーク移送方法及びワーク移送装置
WO2019239563A1 (ja) ロボットシステム
CN107598920A (zh) 一种基于视觉控制的机械手
US20220134550A1 (en) Control system for hand and control method for hand
US20180215044A1 (en) Image processing device, robot control device, and robot
JP2015182212A (ja) ロボットシステム、ロボット、制御装置、及び制御方法
JP2018039059A (ja) 把持装置、把持方法、及びプログラム
JP2023059837A (ja) 人間のデモンストレーションによるロボットプログラム作成方法
WO2022195944A1 (ja) ロボットシステム、およびロボットシステムの制御方法
JP7182041B2 (ja) ロボットハンド
JP4715296B2 (ja) ロボットハンドの持ち替え把持制御方法。
JP2004160594A (ja) ロボットハンドの制御方法、ロボットハンド
WO2022085560A1 (ja) ロボットハンド制御装置、及びロボットハンドの制御方法
CN112264998A (zh) 用于机器人组装操作件和适配件的方法、机器人及控制器
JP7583942B2 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2012228756A (ja) ロボット制御方法、ロボット制御装置およびプログラム
JP2020082313A (ja) ロボット制御装置、学習装置、及びロボット制御システム
WO2019064752A1 (ja) ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R151 Written notification of patent or utility model registration

Ref document number: 7186349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151