JP2023082176A - 開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 - Google Patents
開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 Download PDFInfo
- Publication number
- JP2023082176A JP2023082176A JP2023061005A JP2023061005A JP2023082176A JP 2023082176 A JP2023082176 A JP 2023082176A JP 2023061005 A JP2023061005 A JP 2023061005A JP 2023061005 A JP2023061005 A JP 2023061005A JP 2023082176 A JP2023082176 A JP 2023082176A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- gripper
- end effector
- location
- robotic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000000712 assembly Effects 0.000 title description 7
- 238000000429 assembly Methods 0.000 title description 7
- 239000012636 effector Substances 0.000 claims abstract description 75
- 238000012546 transfer Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 17
- 239000003381 stabilizer Substances 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 7
- 230000015654 memory Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 description 33
- 230000032258 transport Effects 0.000 description 31
- 238000003860 storage Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000004806 packaging method and process Methods 0.000 description 4
- 238000012856 packing Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000000704 physical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/91—Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
- B65G47/918—Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers with at least two picking-up heads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/06—Gripping heads and other end effectors with vacuum or magnetic holding means
- B25J15/0616—Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/91—Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers
- B65G47/917—Devices for picking-up and depositing articles or materials incorporating pneumatic, e.g. suction, grippers control arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/74—Feeding, transfer, or discharging devices of particular kinds or types
- B65G47/90—Devices for picking-up and depositing articles or materials
- B65G47/905—Control arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40006—Placing, palletize, un palletize, paper roll placing, box stacking
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
【課題】開閉式の蓋を有する1つ以上の物体を把持及び移送するためのシステム及び方法を提供すること。【解決手段】対象物体の寸法に基づいて、エンドエフェクタの第1のグリッパ部によって対象物体に係合するためのグリップ場所を決定することと、エンドエフェクタの1つ以上のグリッパを係合するために、エンドエフェクタを対象物体と位置合わせするための基準軸を決定することと、基準軸に基づいて、エンドエフェクタを対象物体と位置合わせすることと、グリップ場所で対象物体に少なくとも第1のグリッパ部で接触させることと、エンドエフェクタの第1のグリッパ部及び/又は第2のグリッパ部によってグリップ力を提供して、対象物体を把持する。第2のグリッパ部は、第1のグリッパ部とは独立して動作可能である。【選択図】図7
Description
関連出願
本願は、2021年9月7日に出願された「ROBOTIC GRIPPER ASSEMBLIES FOR OPENABLE OBJECT(S) AND METHODS FOR PICKING OBJECTS」と題された米国特許出願番号第63/241,460号に関し、当該特許出願は参照によりその全体が本明細書に組み込まれる。
本願は、2021年9月7日に出願された「ROBOTIC GRIPPER ASSEMBLIES FOR OPENABLE OBJECT(S) AND METHODS FOR PICKING OBJECTS」と題された米国特許出願番号第63/241,460号に関し、当該特許出願は参照によりその全体が本明細書に組み込まれる。
本技術は、概して、ロボットシステムを対象とし、より具体的には、開閉式の物体を選択的に把持及び保持するように構成されたロボットグリッパアセンブリを対象とする。
現在、ロボット(例えば、自動的/自律的に物理的なアクションを実行するように構成されたマシン)は多くの分野で広く使用されている。例えば、ロボットは、製造、パッケージング、搬送及び/又は出荷等で、様々なタスク(例えば、物体を操作又は移送するタスク)を実行するために使用できる。タスクを実行する際、ロボットは人間のアクションを再現できるため、危険なタスク又は反復的タスクを行うために、別の方法で必要とされる人間の介入に変わる、又は人間の介入が減る。多くの場合、ロボットは、より複雑なタスクの実行に必要とされる人間の鋭敏性及び/又は適応性を再現するのに必要である精巧さを欠く。例えば、ロボットは、多くの場合、直接的に隣接した物体や、不規則な形状/サイズの物体等の物体のグループから物体(複数可)を選択的に把持することが困難になる。また、ロボットは、多くの場合、所定の1つの方向に沿って加えられる力を使用して物体を把持することが制限される。したがって、ロボットシステムの改善、及びロボットの様々な態様を制御して管理するための技術の改善が依然として必要である。
本明細書では、選択された物体又は対象物体を把持するためのシステム及び方法について説明する。本システムは、取り外し可能な蓋を有する箱等の、固定された又は開閉式の/取り外し可能な蓋を有する1つ以上の物体の対象のセットを把持/放出するために、独立して又は連動して操作するように構成されたグリッパアセンブリを備えた搬送ロボットを含み得る。例えば、本システムは複数の物体を同時に又は順番にピックアップできる。本システムは、例えば、グリッパアセンブリの運搬能力、動作プラン、又はそれらの組み合わせに基づいて、運搬される物体を選択できる。グリッパアセンブリは、隣接して設置される又は当接する物体、不規則な物体のセット、固有の形状/サイズを有する物体のグループ等から物体を確実に把持できる。例えば、グリッパアセンブリは、選択された物体が真空把持によって保持されるように、それぞれが空気を吸い込むように構成された指定可能な真空領域又はバンクを含み得る。グリッパアセンブリは、ロボットで移動させて、把持された物体を所望の場所に移送し、次に、物体を放出できる。また、本システムは、把持された物体を同時に又は順番に放出できる。このプロセスを繰り返して、異なる場所間で任意の数の物体を搬送できる。したがって、本システムは、1つ以上の物体を移送するためのアクセスシーケンス、降下/放出姿勢、及び/又は動作プランを導出できる。
いくつかの実施形態では、グリッパアセンブリは、中央真空領域を囲む1つ以上の支持領域又は周辺真空領域を含み得る。各真空領域は、対象物体を把持するように構成された1つ以上の接合界面機構(例えば、吸着カップ)のセットに対応し得る。例えば、吸着カップは、グリッパアセンブリの接触面(例えば、底部)から突出でき、対象物体及び/又はその他の環境条件に応じて独立して係合できる。グリッパアセンブリは、さらに、把持された物体に接触して、グリップ力をさらに補完する支持を提供するように配置された及び/又は操作可能であるスタビライザブラケットを含み得る。
グリッパアセンブリは、対象物体の1つ以上の物理的特性及び/又は対応するシナリオ(例えば、移送元パッキング構成等)に従って構成及び/又は操作できる。例示の目的で、靴箱等の蓋を有する開閉式の箱又は複数の箱の操作を使用して、グリッパアセンブリ及び対応する操作方法の様々な実施形態を下記に説明する。しかしながら、グリッパアセンブリ及び対応する操作は、固定式蓋、取り外し可能な蓋、又は可動式蓋(例えば、取り外し可能に結合された蓋、固定されていない蓋、ヒンジカバー、フラップ等)を有する他の物体に適用可能であり得ることが理解される。
少なくともいくつかの実施形態は、指定可能なピックアップ領域を伴うグリッパアセンブリを有する搬送ロボットを操作するための方法を対象とする。ピックアップ領域は、真空グリップを独立して提供するように構成できる、及び/又は少なくとも1つの方向に沿って、独立して伸長可能/引き込み可能である。対象物体(複数可)は、キャプチャされた画像データ又は物体のコードをスキャンすることに基づいて識別される。ピックアップ領域は、識別された対象物体(複数可)を把持するために空気を吸い込むことができる。いくつかの実施形態では、搬送ロボットは、識別された対象物体を運搬するグリッパアセンブリをロボットで移動させるものである。
いくつかの実施形態では、ロボット搬送システムは、ロボット装置、対象物体検出器、及び真空グリッパデバイスを含む。真空グリッパデバイスは、複数の指定可能な領域及びマニホールドアセンブリを含む。マニホールドアセンブリは、各指定可能領域が吸引要素のアレイを介して独立して負圧を提供することが可能であるように、指定可能領域のそれぞれ及び少なくとも1つの真空ラインに流体的に結合できる。負圧は、ロボット装置が真空グリッパデバイスを異なる場所の間で移動させる間、真空グリッパデバイスに対して少なくとも1つの対象物体を保持するのに十分であり得る。
搬送ロボットを操作するための方法は、物体のグループ(例えば、物体のスタックもしくは積み重ね、又は物体のコンテナ)を表す画像データを受信することを含む。受信した画像データに基づいて、グループ内の1つ以上の対象物体を識別する。指定可能な真空領域は、識別された1つ以上の対象物体に基づいて選択される。指定可能な真空領域は、物体の識別された寸法、物体の表面画像、物体の外形、及び/又は同等物に基づいて選択できる。搬送ロボットは、選択された真空領域に、識別された1つ以上の対象物体を保持及び搬送させる指令を出す。搬送ロボットは、それぞれ独立して真空グリッパを提供するように構成された真空領域(又はグリッパ)のアレイを有するグリッパアセンブリを含み、各真空グリッパは、グリッパアセンブリから独立して伸長するように構成される。視覚センサデバイスは、真空グリッパデバイスに隣接する又は真空グリッパデバイスによって保持される対象物体を表す画像データをキャプチャできる。
以下では、本発明に開示されている技術の完全な理解をもたらすために、多くの具体的な詳細が記載される。他の実施形態では、ここで紹介された技術は、これらの具体的な詳細を用いずに実践できる。他の場合、特定の機能又はルーチン等の周知の特徴は、本開示を不必要に曖昧にすることを回避するために詳細には説明されない。この説明における「実施形態」、「一実施形態」等への言及は、説明されている特定の特徴、構造、材料、又は特性が本開示の少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書におけるそのような語句の出現は、必ずしも全てが同じ実施形態を指すものではない。一方、そのような参照は必ずしも相互に排他的なものではない。さらに、特定の特徴、構造、材料、又は特性は、1つ以上の実施形態において任意の適切な方法で組み合わせできる。図に示される様々な実施形態は、単に例示的な表現であり、必ずしも縮尺通りに描かれていないことを理解されたい。
周知であり、多くの場合、ロボットシステム及びサブシステムに関連するが、開示された技術のいくつかの重要な態様を不必要に曖昧にする可能性がある構造又はプロセスを説明するいくつかの詳細は、明確にするために以下の説明には記載されていない。さらに、以下の開示では、本技術の異なる態様のいくつかの実施形態が記載されているが、他のいくつかの実施形態は、本節で説明したものとは異なる構成又は異なるコンポーネントを有し得る。したがって、開示された技術は、追加要素がある、又は下記に説明されるいくつかの要素がない他の実施形態を有し得る。
下記に説明される本開示の多くの実施形態又は態様は、プログラム可能なコンピュータ又はコントローラによって実行されるルーチンを含む、コンピュータ実行可能命令又はコントローラ実行可能命令の形態をとり得る。当業者は、開示された技術が、下記に示され及び説明されるもの以外のコンピュータシステム又はコントローラシステムで実践できることを理解するであろう。本明細書で説明される技術は、下記に説明される1つ以上のコンピュータ実行可能命令を実行するように具体的にプログラムされ、構成され、又は構築される専用コンピュータ又はデータプロセッサで具体化できる。したがって、本明細書で全体的に使用される「コンピュータ」及び「コントローラ」という用語は任意のデータプロセッサを指し、インターネット機器及びハンドヘルドデバイス(パームトップコンピュータ、ウェアラブルコンピュータ、携帯電話又は移動電話、マルチプロセッサシステム、プロセッサベース家電製品又はプログラマブル家電製品、ネットワークコンピュータ、ミニコンピュータ等を含む)を含み得る。これらのコンピュータ及びコントローラによって処理される情報は、液晶ディスプレイ(LCD)を含む任意の適切な表示媒体で提示できる。コンピュータ実行可能タスク又はコントローラ実行可能タスクを実行するための命令は、ハードウェア、ファームウェア、又はハードウェア及びファームウェアの組み合わせを含む、任意の適切なコンピュータ可読媒体に記憶又は搭載できる。命令は、非一時的有形コンピュータ可読媒体を含む、例えば、フラッシュドライブ、USBデバイス、及び/又は他の適切な媒体を含む任意の適切なメモリデバイスに含まれ得る。
「結合された」及び「接続された」という用語は、それらの派生語と一緒に、コンポーネント間の構造的関係を説明するために本明細書で使用できる。これらの用語は、互いに同義語として意図されたものではないことを理解されたい。むしろ、特定の実施形態では、「接続された」は2つ以上の要素が互いに直接接触していることを示すために使用できる。文脈で明らかにされていない限り、「結合された」という用語は、2つ以上の要素が直接もしくは間接的のいずれかで(それらの要素の間にある他の介在要素と)互いに接触していること、又は、2つ以上の要素が互いに(例えば、信号の送信/受信に関する、又は関数呼び出し等に関する因果関係のように)連携もしくは相互作用していること、あるいはそれら両方を示すために使用できる。
適切な環境
図1は、ロボットシステム100が物体を搬送する例示的な環境の説明図である。ロボットシステム100は、倉庫又は流通/出荷ハブにおいて、荷下ろしユニット102、移送ユニット又はアセンブリ104(「移送アセンブリ104」)、搬送ユニット106、積み込みユニット108、又はそれらの組み合わせを含み得る。ロボットシステム100のユニットのそれぞれは、1つ以上のタスクを実行するように構成できる。タスクは、倉庫に保管するためにトラックもしくはバンから物体を荷下ろしする、又は保管場所から物体を荷下ろしして、その物体を出荷のためにトラックもしくはバンに積み込みするために等、目標を達成する操作を行うために順番に組み合わせできる。別の例では、タスクは、あるコンテナから別のコンテナへの物体の移動を含み得る。ユニットのそれぞれは、タスクを実行するために一連の動作を実行する(例えば、ユニットの1つ以上のコンポーネントを操作する)ように構成できる。
図1は、ロボットシステム100が物体を搬送する例示的な環境の説明図である。ロボットシステム100は、倉庫又は流通/出荷ハブにおいて、荷下ろしユニット102、移送ユニット又はアセンブリ104(「移送アセンブリ104」)、搬送ユニット106、積み込みユニット108、又はそれらの組み合わせを含み得る。ロボットシステム100のユニットのそれぞれは、1つ以上のタスクを実行するように構成できる。タスクは、倉庫に保管するためにトラックもしくはバンから物体を荷下ろしする、又は保管場所から物体を荷下ろしして、その物体を出荷のためにトラックもしくはバンに積み込みするために等、目標を達成する操作を行うために順番に組み合わせできる。別の例では、タスクは、あるコンテナから別のコンテナへの物体の移動を含み得る。ユニットのそれぞれは、タスクを実行するために一連の動作を実行する(例えば、ユニットの1つ以上のコンポーネントを操作する)ように構成できる。
いくつかの実施形態では、タスクは、開始場所114からタスク場所116への対象物体又はパッケージ112(例えば、箱、ケース、ケージ、パレット等)の操作(例えば、移動及び/又は再配向)を含み得る。例えば、荷下ろしユニット102(例えば、デバンニングロボット)は、対象物体112を運送車(例えば、トラック)内の場所からコンベヤベルト上の場所に移送するように構成できる。移送アセンブリ104(例えば、パレタイジング/ピッキングロボットアセンブリ)は、パッケージ112を搬送ユニット106上又はコンベヤ120上に積み込みするように構成できる。別の例では、移送アセンブリ104は、1つ以上の対象パッケージ112をあるコンテナから別のコンテナに移送するように構成できる。移送アセンブリ104は、物体(複数可)112をピックアップして運搬するためにそれぞれ独立して操作する真空グリッパ(又は真空領域)を伴うロボットエンドエフェクタ140(「エンドエフェクタ140」)を含み得る。エンドエフェクタ140が対象物体112に隣接して設置されるとき、空気がグリッパ(複数可)に吸い込まれ、それにより、対象物体を把持及び保持するのに十分な圧力差が生じる。対象物体112は、物体表面を損傷することなく、又は傷つけたりすることなく、ピックアップされ搬送できる。1回に運搬されるパッケージ112の数は、ピックアップ場所での物体のスタック配置、放出場所(例えば、降下場所)における利用可能空間、ピックアップ場所と放出場所との間の搬送経路、最適化ルーチン(例えば、ユニット使用法、ロボット使用法等を最適化するためのルーチン)、それらの組み合わせ等に基づいて選択できる。エンドエフェクタ140は、保持された物体に関する情報(例えば、保持された物体の数及び構成)、保持された任意の物体間の相対位置等を示す読み取り値を出力するように構成された1つ以上のセンサを有し得る。
撮像システム160は、コンポーネントの操作を監視するために、対象物体を識別するために、物体を追跡するために、又はそれ以外の場合、タスクを行うために使用される画像データを提供できる。画像データを分析して、例えば、パッケージのスタック/パッキングの配置(例えば、段ボール箱、梱包コンテナ等の積み重ねられたパッケージ)、物体の位置情報、利用可能な搬送経路(例えば、ピックアップ区域と放出区域との間の搬送経路)、把持アセンブリに関する位置情報、又はそれらの組み合わせを評価できる。コントローラ109は、撮像システム160及びロボットシステム100の他のコンポーネントと通信できる。コントローラ109は、物体(例えば、安定したコンテナとして示される)をピックアップして放出するための順番、位置決め情報、物体をピックアップするための指示情報、物体を放出するための指示情報、積み重ねプラン(例えば、放出区域で物体を積み重ねるためのプラン)、再積み重ねプラン(例えば、ピックアップ区域でコンテナの少なくとも一部を再び積み重ねるためのプラン)、又はそれらの組み合わせを含む搬送プランを生成できる。搬送プランによって提供される情報及び命令は、コンテナの配置、コンテナの内容物、又はそれらの組み合わせに基づいて選択できる。いくつかの実施形態では、コントローラ109は、1つ以上の処理ユニット、プロセッサ、ストレージデバイス(例えば、外部又は内部ストレージデバイス、メモリ等)、通信デバイス(例えば、無線接続用又は有線接続用の通信デバイス)、及び入出力デバイス(例えば、画面、タッチスクリーンディスプレイ、キーボード、キーパッド等)等の電子/電気デバイスを含み得る。例示的な電子/電気デバイス及びコントローラコンポーネントは、図2に関連して説明される。
搬送ユニット106は、対象パッケージ112(又は複数の対象パッケージ112)を、移送アセンブリ104に関連するエリアから積み込みユニット108に関連するエリアに移送でき、積み込みユニット108は、対象パッケージ112を(例えば、対象物体パッケージ112を載せたパレットを移動させることによって)保管場所に移送できる。いくつかの実施形態では、コントローラ109は、移送アセンブリ104及び搬送ユニット106の操作を調整して、物体を保管棚に効率的に積み込みできる。
ロボットシステム100は、図1に示されていない、マニピュレータ、サービスロボット、モジュラーロボット等の他のユニットを含み得る。例えば、いくつかの実施形態では、ロボットシステム100は、物体をケージカートもしくはパレットからコンベヤもしくは他のパレットの上に移送するためのデパレタイズユニット、あるコンテナから別のコンテナに物体を移送するためのコンテナ交換ユニット、物体を包装するためのパッケージングユニット、物体の1つ以上の特性に従って物体をグループ化するための仕分けユニット、物体の1つ以上の特徴に従って、物体を異なる方法で物体を操作するための(例えば、仕分け、グループ化、及び/又は移送するための)別のタイプのユニット、又はそれらの組み合わせを含み得る。システム100のコンポーネント及びサブシステムは、異なるタイプのエンドエフェクタを含み得る。例えば、荷下ろしユニット102、搬送ユニット106、積み込みユニット108、及びロボットシステム100の他のコンポーネントは、また、ロボットグリッパアセンブリも含み得る。ロボットグリッパアセンブリの構成は、所望の運搬能力に基づいて選択できる。例示の目的のために、ロボットシステム100は、出荷センターの状況で説明されるが、ロボットシステム100は、製造、組立、パッケージング、ヘルスケア、及び/又は他のタイプの自動化等の他の環境で/他の目的のためにタスクを実行するように構成できることを理解されたい。
ロボットシステム
図2は、本技術の1つ以上の実施形態による、ロボットシステム100のコンポーネントを例示するブロック図である。いくつかの実施形態では、例えば、ロボットシステム100(例えば、上記で説明したユニットもしくはアセンブリ及び/又はロボットの1つ以上)は、1つ以上のプロセッサ202、1つ以上のストレージデバイス204、1つ以上の通信デバイス206、1つ以上の入出力デバイス208、1つ以上の作動デバイス212、1つ以上の搬送モータ214、1つ以上のセンサ216、又はそれらの組み合わせ等の電子/電気デバイスを含み得る。様々なデバイスは、有線接続及び/又は無線接続を介して互いに結合できる。例えば、ロボットシステム100は、システムバス、ペリフェラルコンポーネントインターコネクト(PCI)バス又はPCI-Expressバス、ハイパートランスポート又は業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインターフェース(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、又は電気電子技術者協会(IEEE)標準1394バス(「ファイアワイヤ」とも呼ばれる)等のバスを含み得る。また、例えば、ロボットシステム100は、デバイス間の有線接続を提供するために、ブリッジ、アダプタ、コントローラ、又は他の信号関連デバイスを含み得る。無線接続は、例えば、セルラー通信プロトコル(例えば、3G、4G、LTE、5G等)、無線ローカルエリアネットワーク(LAN)プロトコル(例えば、無線フィデリティ(WIFI))、ピアツーピア通信プロトコルもしくはデバイス間通信プロトコル(例えば、Bluetooth、近距離無線通信(NFC)等)、モノのインターネット(IoT)プロトコル(例えば、NB-IoT、Zigbee、Z-wave、LTE-M等)、及び/又は他のワイヤレス通信プロトコルに基づき得る。
図2は、本技術の1つ以上の実施形態による、ロボットシステム100のコンポーネントを例示するブロック図である。いくつかの実施形態では、例えば、ロボットシステム100(例えば、上記で説明したユニットもしくはアセンブリ及び/又はロボットの1つ以上)は、1つ以上のプロセッサ202、1つ以上のストレージデバイス204、1つ以上の通信デバイス206、1つ以上の入出力デバイス208、1つ以上の作動デバイス212、1つ以上の搬送モータ214、1つ以上のセンサ216、又はそれらの組み合わせ等の電子/電気デバイスを含み得る。様々なデバイスは、有線接続及び/又は無線接続を介して互いに結合できる。例えば、ロボットシステム100は、システムバス、ペリフェラルコンポーネントインターコネクト(PCI)バス又はPCI-Expressバス、ハイパートランスポート又は業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインターフェース(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、又は電気電子技術者協会(IEEE)標準1394バス(「ファイアワイヤ」とも呼ばれる)等のバスを含み得る。また、例えば、ロボットシステム100は、デバイス間の有線接続を提供するために、ブリッジ、アダプタ、コントローラ、又は他の信号関連デバイスを含み得る。無線接続は、例えば、セルラー通信プロトコル(例えば、3G、4G、LTE、5G等)、無線ローカルエリアネットワーク(LAN)プロトコル(例えば、無線フィデリティ(WIFI))、ピアツーピア通信プロトコルもしくはデバイス間通信プロトコル(例えば、Bluetooth、近距離無線通信(NFC)等)、モノのインターネット(IoT)プロトコル(例えば、NB-IoT、Zigbee、Z-wave、LTE-M等)、及び/又は他のワイヤレス通信プロトコルに基づき得る。
プロセッサ202は、ストレージデバイス204(例えば、コンピュータメモリ)に記憶された命令(例えば、ソフトウェア命令)を実行するように構成されたデータプロセッサ(例えば、中央処理装置(CPU)、専用コンピュータ、及び/又はオンボードサーバー)を含み得る。プロセッサ202は、他のデバイスを制御して/インターフェースをとるためのプログラム命令を実施できることによって、ロボットシステム100に、アクション、タスク、及び/又は操作を実行させる。
ストレージデバイス204は、プログラム命令(例えば、ソフトウェア)が記憶される非一時的コンピュータ可読媒体を含み得る。ストレージデバイス204のいくつかの例は、揮発性メモリ(例えば、キャッシュ及び/又はランダムアクセスメモリ(RAM))及び/又は不揮発性メモリ(例えば、フラッシュメモリ及び/又は磁気ディスクドライブ)を含み得る。ストレージデバイス204の他の例は、ポータブルメモリドライブ及び/又はクラウドストレージデバイスを含み得る。
いくつかの実施形態では、ストレージデバイス204を使用して、マスターデータ、処理結果、及び/又は所定のデータ/閾値をさらに記憶し、それらへのアクセスを提供できる。例えば、ストレージデバイス204は、ロボットシステム100によって操作され得る物体(例えば、箱、ケース、コンテナ、及び/又は製品)の記述を含むマスターデータを記憶できる。1つ以上の実施形態では、マスターデータは、ロボットシステム100によって操作されることが予想される物体の寸法、形状(例えば、潜在的な姿勢に関するテンプレート、及び/又は異なる姿勢の物体を認識するためのコンピュータ生成モデル)、質量/重量情報、カラースキーム、画像、識別情報(例えば、バーコード、クイックレスポンス(QR)コード(登録商標)、ロゴ等、及び/又はそれらの予想される場所)、予想される質量もしくは重量、又はそれらの組み合わせを含み得る。いくつかの実施形態では、マスターデータは、各物体の重心(CoM)場所、1つ以上のアクション/操作に対応する予想されるセンサ測定値(例えば、力、トルク、圧力、及び/又は接触測定値)、又はそれらの組み合わせ等の物体に関する操作関連情報を含み得る。ロボットシステムは、圧力レベル(例えば、真空レベル、吸引レベル等)、把持/ピックアップエリア(例えば、作動させる真空グリッパのエリア又はバンク)、及び移送ロボットを制御するための他の記憶されたマスターデータを検索できる。また、ストレージデバイス204は、物体追跡データを記憶できる。いくつかの実施形態では、物体追跡データは、スキャン又は操作された物体のログを含み得る。いくつかの実施形態では、物体追跡データは、1つ以上の場所(例えば、指定されたピックアップ場所もしくは放出場所及び/又はコンベヤベルト)における物体の画像データ(例えば、写真、点群、ライブビデオフィード等)を含み得る。いくつかの実施形態では、物体追跡データは、1つ以上の場所における物体の場所及び/又は配向を含み得る。
通信デバイス206は、ネットワークを介して外部デバイス又はリモートデバイスと通信するように構成された回路を含み得る。例えば、通信デバイス206は、受信機、送信機、変調器/復調器(モデム)、信号検出器、信号エンコーダ/デコーダ、コネクタポート、ネットワークカード等を含み得る。通信デバイス206は、1つ以上の通信プロトコル(例えば、インターネットプロトコル(IP)、無線通信プロトコル等)に従って電気信号を送信、受信、及び/又は処理するように構成できる。いくつかの実施形態では、ロボットシステム100は、通信デバイス206を使用して、ロボットシステム100のユニット間で情報を交換できる、及び/又は(例えば、報告、データ収集、分析、及び/又はトラブルシューティングの目的で)ロボットシステム100の外部のシステムもしくはデバイスと情報を交換できる。
入出力デバイス208は、人間オペレータと情報を通信し、及び/又は人間オペレータから情報を受信するように構成されたユーザインターフェースデバイスを含み得る。例えば、入出力デバイス208は、人間オペレータに情報を通信するためのディスプレイ210及び/又は他の出力デバイス(例えば、スピーカー、触覚回路、又は触覚フィードバックデバイス等)を含み得る。また、入出力デバイス208は、キーボード、マウス、タッチスクリーン、マイクロフォン、ユーザインターフェース(UI)センサ(例えば、動作コマンドを受信するためのカメラ)、ウェアラブル入力デバイス等の制御デバイス又は受信デバイスを含み得る。いくつかの実施形態では、ロボットシステム100は、入出力デバイス208を使用して、アクション、タスク、操作、又はそれらの組み合わせを実行する際に人間オペレータとインタラクトできる。
いくつかの実施形態では、コントローラ(例えば、図1のコントローラ109)は、プロセッサ202、ストレージデバイス204、通信デバイス206、及び/又は入出力デバイス208を含み得る。コントローラは、スタンドアロンコンポーネント、又はユニット/アセンブリの一部であり得る。例えば、システム100の各荷下ろしユニット、移送アセンブリ、搬送ユニット、及び積み込みユニットは、1つ以上のコントローラを含み得る。いくつかの実施形態では、単一のコントローラは、複数のユニット又はスタンドアロンコンポーネントを制御できる。
ロボットシステム100は、動作(例えば、回転変位及び/又は並進変位)のためにジョイントで接続される物理的又は構造的な部材(例えば、ロボットマニピュレータアーム)を含み得る及び/又はその部材に結合できる。構造部材及びジョイントは、ロボットシステム100の使用/操作に応じて1つ以上のタスク(例えば、把持、スピン、溶接等)を実行するように構成されたエンドエフェクタ(例えば、グリッパ)を操作するように構成された運動連鎖を形成できる。ロボットシステム100は、対応するジョイントの周囲又は対応するジョイントで、構造部材を駆動又は操作(例えば、変位及び/又は再配向)するように構成された作動デバイス212(例えば、モータ、アクチュエータ、ワイヤ、人工筋肉、電気活性ポリマ等)を含み得る。いくつかの実施形態では、ロボットシステム100は、対応するユニット/シャーシを場所間で搬送するように構成された搬送モータ214を含み得る。例えば、作動デバイス212及び搬送モータは、ロボットアーム、線形スライド、又は他のロボットコンポーネントに接続される、又はそれらの一部である。
センサ216は、構造部材を操作するため及び/又はロボットユニットを搬送するため等のタスクを実施するために使用される情報を取得するように構成できる。センサ216は、ロボットシステム100の1つ以上の物理的特性(例えば、1つ以上の構造部材/そのジョイントの状況、状態、及び/又は場所)及び/又は周辺環境の1つ以上の物理的特性を検出又は測定するように構成されたデバイスを含み得る。センサ216のいくつかの例は、接触センサ、近接センサ、加速度計、ジャイロスコープ、力センサ、歪みゲージ、トルクセンサ、位置エンコーダ、圧力センサ、真空センサ等を含み得る。
いくつかの実施形態では、例えば、センサ216は、周辺環境を検出するように構成された1つ以上の撮像デバイス222(例えば、2次元及び/又は3次元撮像デバイス)を含み得る。撮像デバイスは、カメラ(視覚カメラ及び/又は赤外線カメラを含む)、ライダデバイス、レーダデバイス、及び/又は他の距離測定デバイスもしくは検出デバイスを含み得る。撮像デバイス222は、(例えば、自動検査、ロボットガイダンス、又は他のロボット応用のため)マシン/コンピュータビジョンを実施するのに用いられる、デジタル画像及び/又は点群等の検出された環境の表現を生成できる。
ここで図1及び図2を参照すると、ロボットシステム100は、(例えば、プロセッサ202によって)画像データ及び/又は点群を処理して、図1の対象物体112、図1の開始場所114、図1のタスク場所116、図1の対象物体112の姿勢、又はそれらの組み合わせを識別できる。ロボットシステム100は、画像データを使用して、物体にどのようにアクセスしてピックアップするかを決定できる。物体の画像を分析して、隣接する物体がグリッパアセンブリに近接し得る場合でも、対象物体を把持するために、真空グリッパアセンブリを位置決めするためのピックアッププランを決定できる。搭載センサ216(例えば、ライダデバイス)からの画像出力及び遠隔デバイス(例えば、図1の撮像システム160)からの画像データは、単独で又は組み合わせて利用できる。ロボットシステム100は、(例えば、様々なユニットによって)指定エリア(例えば、トラックの内側、コンテナの内側、又はコンベヤベルト上の物体のピックアップ場所)の画像をキャプチャ及び分析して、対象物体112及びその開始場所114を識別できる。同様に、ロボットシステム100は、別の指定エリア(例えば、コンベヤベルト上に物体を設置するための放出場所、コンテナの内側に物体を設置するための場所、又は積み重ね目的のためのパレット上の場所)の画像をキャプチャ及び分析して、タスク場所116を識別できる。
また、例えば、図2のセンサ216は、構造部材(例えば、ロボットアーム及び/又はエンドエフェクタ)及び/又はロボットシステム100の対応するジョイントの位置を検出するように構成された図2の位置センサ224(例えば、位置エンコーダ、電位差計等)を含み得る。ロボットシステム100は、タスクの実行中に、位置センサ224を使用して、構造部材及び/又はジョイントの場所及び/又は配向を追跡できる。本明細書に開示される荷下ろしユニット、移送ユニット、搬送ユニット/アセンブリ、及び積み込みユニットは、センサ216を含み得る。
いくつかの実施形態では、センサ216は、複数の物理的構造又は表面との間の直接接触に関連する特性を測定するように構成された接触センサ226(例えば、力センサ、歪みゲージ、ピエゾ抵抗/圧電センサ、静電容量センサ、弾性抵抗センサ、及び/又は他の触覚センサ)を含み得る。接触センサ226は、対象パッケージ112上のエンドエフェクタ(例えば、グリッパ)の把持に対応する特性を測定できる。したがって、接触センサ226は、物理的接触、グリッパと対象パッケージ112との間の接触もしくは付着の程度、又は他の接触特性に対応する定量化された測定値(例えば、測定された力、トルク、位置等)を表す接触測定値を出力できる。例えば、接触測定値は、エンドエフェクタによる対象パッケージ112の把持に関連する力に関連する1つ以上の力、圧力、又はトルクの読み取り値を含み得る。
対象物体及びグリッパアセンブリ
図3Aは、本技術の1つ以上の実施形態による、例示的な対象物体300(例えば、対象物体112の例)の斜視図である。ロボットシステム100によって処理された対象物体300は、1つ以上の固定された蓋、可動な蓋、又は取り外し可能な蓋を有する開閉式の物体又はパッケージを含み得る。例えば、靴箱等の対象物体300は、対象物体300の姿勢に基づいて及び/又は物体の1つ以上の部分をロボットが直接操作する必要なく開き得る、固定されていない、又は摩擦ベースのカバー又は蓋を有し得る。対象物体300の異なる部分は、テープ、接着剤、又は他の外部ファスナを使用する等して、互いに固定され得る又は取り付けられ得る。
図3Aは、本技術の1つ以上の実施形態による、例示的な対象物体300(例えば、対象物体112の例)の斜視図である。ロボットシステム100によって処理された対象物体300は、1つ以上の固定された蓋、可動な蓋、又は取り外し可能な蓋を有する開閉式の物体又はパッケージを含み得る。例えば、靴箱等の対象物体300は、対象物体300の姿勢に基づいて及び/又は物体の1つ以上の部分をロボットが直接操作する必要なく開き得る、固定されていない、又は摩擦ベースのカバー又は蓋を有し得る。対象物体300の異なる部分は、テープ、接着剤、又は他の外部ファスナを使用する等して、互いに固定され得る又は取り付けられ得る。
対象物体300は、基準部又は本体部324と、蓋322(例えば、固定式、ヒンジ式、取り外し式、又は可動式の蓋又はフラップ)と、を有し得る。基準部324は、その中に1つ以上の内容物(例えば、靴)を支持、包囲、又は収容でき、取り外し可能な部分はカバーを提供できる。例えば、基準部324は底面/支持面及び1つ以上の垂直壁を含み得る一方、蓋322は上部/カバー表面及び/又は1つ以上の補充壁を含み得る。
取り外し可能な部分322は、基準部324に固定されていない、又は取り付けられていないままであり得る。例えば、蓋322は、図3Aに示されるように、対象物体300が直立姿勢にあるときに基準部324を載置して覆う別個の又は独立した構造であり得る。いくつかの実施形態では、カバーのヒンジを形成する際等に、蓋322の一部又は縁部を基準部324に接続又は一体化できる。異なる部分間の構造的接続に関係なく、蓋322が基準部324を覆うとき、内側側壁表面は、基準部側壁の外表面の上部に接触し得る。接触面間の摩擦は、取り外し可能な部分322を基準部324の上に維持するために、いくらかの抵抗を提供し得る。しかしながら、摩擦は、対象物体300が蓋322を押し得る比較的重い物体を含むときに特に、他の姿勢(例えば、蓋322が垂直に伸長する、横向きに又は90度もしくは180度回転した姿勢、あるいは逆さまの姿勢)で蓋322を基準部324に取り付けた状態を維持するのに不十分であり得る。
物体基準軸を使用して、物体の視点からの方向、配向、姿勢等を説明し得る。物体基準軸は、物体の長さに沿って伸長し得る。いくつかの靴箱は、幅(x軸に沿って示される)及び高さ(z軸に沿って示される)よりも大きい長さ(外部基準系のy軸に沿って示される)を有し得る。高さは、蓋322と基準部との間の関係に基づいて定義され得る。
ロボットシステムは、対象物体(例えば、靴箱)を操作するように構成されたエンドエフェクタを含み得る及び/又は操作できる。図3Bは、本技術のいくつかの実施形態による、エンドエフェクタ(例えば、エンドエフェクタ140)の斜視図である。エンドエフェクタ140は、ロボットアームアセンブリの遠位端に結合/取り付けできる。ロボットアームグリッパアセンブリは、エンドエフェクタ140を、ピックアップ環境に位置する1つ以上の物体に又はその近くに位置決めできる。エンドエフェクタ140は、物体の上面を把持するため等、全体的に、その遠位端部(例えば、底面)が全体的に下向きに(例えば、全体的に、実世界のz軸に沿って)向けられ、参照され得る。しかしながら、比較の目的のために、図3Bの基準軸は図3Aの基準軸に対応する。エンドエフェクタ140及び対象物体の操作に関する詳細は、下記に説明される。エンドエフェクタに対する参照空間関係に使用されるツール基準軸/方向は、遠位端/底面からロボットアームアセンブリ取り付け点に向かう方向に沿って伸長し得る。
対象物体は、エンドエフェクタ140の底部に対して固定できる。いくつかの実施形態では、グリッパアセンブリは、真空把持を提供するためにそれぞれ選択的に空気を吸い込むことが可能な指定可能な領域を有し得る。操作のいくつかのモードでは、対象物体(複数可)に近接する指定可能な領域だけが空気を吸い込み、真空グリッパデバイスと対象物体(複数可)との間に直接的に圧力差をもたらす。これにより、グリッパアセンブリの他のグリップ部が他のパッケージに隣接する又は接触している場合でも、選択されたパッケージ(例えば、対象パッケージ)だけをグリッパアセンブリに対して引っ張る、又はそれ以外の場合、固定することが可能である。
エンドエフェクタ140は、把持区域を定義する指定可能な真空区域又は領域117a、117b、117c(まとめて「真空領域117」)を含み得る。特に明記しない限り、一つの真空領域117の説明は、他の真空領域117に適用される。いくつかの実施形態では、真空領域117のそれぞれは、エンドエフェクタ140の外部の真空源に接続されたコンポーネントを含む吸引チャネルバンクであり得る。真空領域117は、物体を保持できる把持接触面(例えば、1つ以上の吸着カップ)を含み得る。
真空領域117は、パッケージ112を保持するために空気を吸い込むことができ、パッケージ112を放出するために空気の吸い込みを減少又は停止できる。真空領域117は、パッケージを様々な位置に保持するために空気を独立して吸い込むことができる。真空領域117は、空気を吸い込む吸引要素のグループ又はバンクを含み得る。吸引要素は、互いに均等/均一又は不均等に間隔を空けて配置でき、所望のパターン(例えば、不規則又は規則的なパターン)で配置できる。真空領域117は、吸引要素の同じもしくは異なる数、構成、及び/又はパターンを有し得る。真空領域117の形状と一致するパッケージを運搬するために、真空領域117の各吸引要素(例えば、117a、117b、及び117c)を通して空気を吸い込むことができる。より小さなパッケージを運搬するために、真空領域117のサブセット(例えば、117b、117a及び117b、117b及び117c)を通して、又はパッケージの形状に合わせて、空気を吸い込むことができる。
真空領域117の全てがアクティブであるとき、エンドエフェクタ140は、ターゲット物体にほぼ均一なグリップ力を提供できる。エンドエフェクタ140は、真空領域117と物体との間に真空状態を形成して維持することによって達成されるような、引力によって物体(複数可)を保持又は付着するように構成できる。例えば、エンドエフェクタ140は、対象物体の表面に接触し、真空領域117と表面との間の空間に真空状態を形成/保持するように構成された1つ以上の真空領域117を含み得る。ロボットアームによってエンドエフェクタ140が下がり、それによって、真空領域117を対象物体の表面に押し、対向する表面の間に気体を押し出す、又はそれ以外の場合、気体を除去するときに、真空状態を生成できる。ロボットアームがエンドエフェクタ140を持ち上げるとき、真空領域117の内側の空間と周囲環境との間の圧力の差により、対象物体を真空領域117に取り付けられた状態に維持できる。いくつかの実施形態は、エンドエフェクタ140の真空領域117を通る空気流量は、対象物体をしっかり把持するのに十分な把持が達成されることを確実にするために、動的に調整できる、又は対象物体と真空領域117の接触面もしくは把持面との間の接触面積に基づいて調整できる。同様に、真空領域117を通る空気流量は、対象物体をしっかり把持するのに十分な把持を達成することを確実にするために、より重い物体の気流を増加させる等、対象物体の重量に対応するように動的に調整できる。
真空領域117a、117b、及び117cは、グリッパアセンブリ140の底面に対してさらに近づくように引き込むことによって、又は遠くに伸長することによって等、互いに独立して移動できる。したがって、真空領域117a、117b、及び117cは、異なる位置及び/又は回数で物体と接触し得る。例えば、(グリッパアセンブリ位置2の側面図に示されるように)中央真空領域117bの吸着カップ(複数可)は、底面から離れて伸長して、他の領域の前に対象物体に係合し得る。対象物体を把持した後、物体が周辺真空領域117a及び117cの吸着カップと接触/係合するまで、中央真空領域117bの吸引カップ(複数可)は、(グリッパアセンブリ位置1に示されるように)引き込まれ得る。いったん中央領域が引き込むと、周辺真空領域と係合して対象物体を把持できる。言い換えれば、中央部分を使用して、対象物体を比較的短い距離だけ(例えば、他の物体又は隣接する物体から離して)移動/変位でき、いったん対象物体が他の非対象物体から離れると、周辺部分を使用して追加のグリップ力を提供できる。したがって、グリッパアセンブリ140は、意図しないダブルピック(例えば、対象物体と一緒に意図しない/追加の物体のピックアップ)を減らすことができる。周辺真空領域を使用して、十分なグリップを提供して、対象物体を操作/移送できる。
エンドエフェクタ140は、対象物体の操作/移送をさらに補助するように構成されたスタビライザブラケット302を含み得、スタビライザブラケット302は、ツール基準軸及び吸着カップの位置合わせに平行に伸長する支持面を含み得る。支持面は、対象物体の非係合部分(例えば、把持面に直交する周辺面)に接触するように構成できる。いくつかの実施形態では、エンドエフェクタ140は、スタビライザブラケット302を1つ以上の方向に沿って伸長及び/又は引き込むように構成され得る。例えば、エンドエフェクタ140は、ブラケット302を底面に最も近い静止位置に引き込むことができる、及び/又はエンドエフェクタ140の本体から離れて引き込むことができる(例えば、-z方向に沿って移動する)。静止位置は、対象物体に係合する前に確立できる、及び/又は中心真空領域117bを使用して、対象物体の初期変位まで維持できる。グリッパアセンブリ140は、ブラケット302を底面の下に、もしくは底面を通過して(例えば、ロボットアームアセンブリから離れるように)移動できる、及び/又は支持面が把持された物体に接触するまで、エンドエフェクタ140の本体に向かって(例えば、-z方向に沿って)ブラケット302を移動できる。エンドエフェクタ140は、傾斜した取り付けアーム304を含み得る。傾斜した取り付けアーム304の角度は、ロボットアームに取り付けられたエンドエフェクタ140の位置が、移送中に対象物体のカバー又は蓋を閉じた状態に維持するために傾斜するような角度であり得る。
把持/持ち上げ構成
ロボットシステムは、移送元コンテナから対象物体を把持して持ち上げることができる。持ち上げ後、ロボットユニット(例えば、遠位端にエンドエフェクタを有する移送ロボット又はロボットアームアセンブリ)は、対象物体を標的場所(例えば、目的地)に移送できる。いくつかの実施形態では、目的地は、コンベア上の場所に対応し得る。図4Aは、本技術の1つ以上の実施形態による、移送元コンテナ402から対象物体(例えば、対象物体300)を持ち上げるための処理エリアの上面図400(例えば、図2の撮像装置222のオーバーヘッドインスタンスから受信した画像データ223)を示す。例えば、上面図400は、コンテナ(例えば、収納箱)に設置された、又はそこから取り出された対象物体(例えば、靴箱)を示す。図4Bは、本発明の1つ以上の実施形態による、移送元コンテナから対象物体を持ち上げるための処理エリアの側面図430(例えば、画像装置222の横向きのインスタンスから受信した画像データ223)を示す。コンテナ402及び/又はその中の物体(例えば、対象物体300)は、移送元コンテナ及び/又は各物体の底面が鋭角を形成するような角度(例えば、対応する水平基準面との角度θ)で設置できる。傾斜設置姿勢により、(例えば、物体に接触して把持するために少なくとも部分的に下に移動することによって)エンドエフェクタが上から物体に接近できるようにしながら、物体の蓋を基準部の上に静止することを可能にし得る。
ロボットシステムは、移送元コンテナから対象物体を把持して持ち上げることができる。持ち上げ後、ロボットユニット(例えば、遠位端にエンドエフェクタを有する移送ロボット又はロボットアームアセンブリ)は、対象物体を標的場所(例えば、目的地)に移送できる。いくつかの実施形態では、目的地は、コンベア上の場所に対応し得る。図4Aは、本技術の1つ以上の実施形態による、移送元コンテナ402から対象物体(例えば、対象物体300)を持ち上げるための処理エリアの上面図400(例えば、図2の撮像装置222のオーバーヘッドインスタンスから受信した画像データ223)を示す。例えば、上面図400は、コンテナ(例えば、収納箱)に設置された、又はそこから取り出された対象物体(例えば、靴箱)を示す。図4Bは、本発明の1つ以上の実施形態による、移送元コンテナから対象物体を持ち上げるための処理エリアの側面図430(例えば、画像装置222の横向きのインスタンスから受信した画像データ223)を示す。コンテナ402及び/又はその中の物体(例えば、対象物体300)は、移送元コンテナ及び/又は各物体の底面が鋭角を形成するような角度(例えば、対応する水平基準面との角度θ)で設置できる。傾斜設置姿勢により、(例えば、物体に接触して把持するために少なくとも部分的に下に移動することによって)エンドエフェクタが上から物体に接近できるようにしながら、物体の蓋を基準部の上に静止することを可能にし得る。
図4Cは、本技術の1つ以上の実施形態による、例示的な把持/持ち上げ構成で対象物体を把持して持ち上げるロボットアームアセンブリの側面図460を示す。グリッパアセンブリは、物体の傾斜静止姿勢に対応する傾斜姿勢で対象物体に接近できる。例えば、エンドエフェクタ140は、対象物体300を把持/持ち上げするために、傾斜静止姿勢(例えば、角度θ)の角度と一致させるために、ツール基準軸462が床に対してある角度を形成する状態で位置決めできる。ロボットシステムは、エンドエフェクタを傾斜方向に沿って(例えば、下向きに及び物体に向かって)移動させて、対象物体に接触して把持する動作プランを導出及び実施できる。上記で説明したように、ロボットシステムは、中央部分の吸着カップ(複数可)(例えば、図3Bの真空領域117b)を位置1から位置2まで伸長して、対象物体を把持できる。対象物体を把持した後、中央の吸着カップ(複数可)を引き込むことができる。したがって、把持された物体は、ツール基準軸に沿って比較的短い距離だけ変位できる。いったん対象物体が隣接する対象物体から離れると、周囲の吸着カップが係合して対象物体をさらに把持できる。いくつかの実施形態では、対象物体が移送元コンテナから出るとき、ロボットシステムは吸着カップ及び/又は支持ブラケットを移動できる。例えば、ブラケットの支持面が対象物体(例えば、対象物体の底面)に接触するまで、ブラケットを底面から離れて及び/又は対象物体に向かって伸長できる。
ブラケットは、運動基準軸(例えば、運動基準軸464)に支持を提供するように構成できる。運動基準軸は、対象物体の移送間又は移送中に、エンドエフェクタの姿勢及び/又は全体的な移動方向を表すことができる。ロボットシステムは、実世界のz軸(例えば、実世界のz軸466)から離れて傾いた又は傾斜した運動基準軸を決定できる。比較すると、従来のシステム及び/又は移送構成について、ツール基準軸がz軸に平行に向いている。従来の把持接触面は下向き方向に向き、エンドエフェクタの下に、対象物体を把持/保持する。しかしながら、そのような従来の移送姿勢は、固定式/ヒンジ式/取り外し可能な/可動式の蓋を伴う物体について問題が生じ得る。一般的な上下移送姿勢の重力により、別々の部分を外させる、又は互いに離れさせる可能性がある。さらに、対象物体内の内容物が移動し、さらに、別々の部分を互いに離れ得る。物体の異なる部分が互いに離れるのを防ぐために、ロボットシステムの実施形態は、対象物体が移送中に基準部の上の蓋に対してある角度で維持されるように、傾斜した運動基準軸を決定して活用できる。
いくつかの実施形態では、ロボットシステムは、z軸に対する所定の変位角に基づいて、傾斜した運動基準軸を決定できる。他の実施形態では、ロボットシステムは、グリップ場所(例えば、物体上の接触取り付け面)、物体の重量、物体の寸法(例えば、長さ)、物体上のブラケットのサイズ及び/又は接触場所(複数可)、物体の把持/持ち上げの後のエンドエフェクタによって測定された回転力又は回転トルク、ならびに/あるいはエンドエフェクタ及び/又は対象物体のその他の物理的特性に基づいて、変位角を導出できる。いくつかの実施形態では、変位角は、従来の構成/デバイスの傾斜制御限度の外側にあり得る。
図5は、本技術の1つ以上の実施形態による、グリッパと対象物体(複数可)との間の接触に関するグリップ場所(例えば、グリップ場所502及びグリップ場所504)を有する例示的な対象物体(例えば、対象物体500及び対象物体501)の側面図を示す。ロボットシステムは、物体の基準部324を把持するように構成できる。グリップ場所502を決定する際に、ロボットシステムは、対象物体の受信した画像(例えば、上面図400)内の蓋322(例えば、カバー)の上にマスクを設置できる。したがって、ロボットシステムは基準部だけを考慮/処理できる。
いくつかの実施形態では、ロボットシステムは、グリップ接触面に加えられるトルクを最小にするために、重心場所又はその推定値より下の(例えば、分離方向から離れた)グリップ場所502を決定できる。加えて、又は代替として、ロボットシステムは物体の底面から離れたある距離にグリップ場所を決定でき、その距離は、吸着カップとブラケットの接触面との間の分離距離と一致する。他の実施形態では、ロボットシステムは、蓋に最も近いグリップ場所を決定するように構成できる。第1の例では、対象物体500は、対象物体500の重心に、重心の上、又は重心の下にグリップ場所502を有する。第2の例では、対象物体501は、対象物体501の質量中心からオフセットされた(例えば、側面の)グリップ場所を有する。いくつかの実施形態では、ロボットシステムは、対象物体の蓋の形状に基づいてグリップ場所を決定する。例えば、対象物体500及び対象物体501の蓋/カバーが異なるため、対象物体500及び対象物体501のグリップ場所は異なる。
図6は、本技術の1つ以上の実施形態による、例示的な把持/持ち上げ構成で対象物体を把持して持ち上げるロボットアームアセンブリの斜視図を示す。図1のロボットシステム100は、移送元コンテナ402から対象物体300を把持して持ち上げることができる。持ち上げ後、ロボットユニット(例えば、遠位端にエンドエフェクタ140を有する移送ロボット又はロボットアームアセンブリ)は、対象物体300を標的場所116(例えば、目的地)に移送できる。いくつかの実施形態では、目的地は、コンベヤ、別の収納箱、パレット等の場所に対応し得る。
操作フロー
図7は、本開示の1つ以上の実施形態による、ロボットシステム(例えば、図1のロボットシステム100又はその一部)を操作するための方法700のフロー図である。一般に、ロボットシステムは(例えば、図1のコントローラ、図2の通信装置206、及び/又は図2の画像装置222を介して)は、ブロック701に示されるように、ピックアップ環境の少なくとも一部を表す画像データ(例えば、図3の上面図300)を受信できる。ロボットシステムは、受信した画像データに基づいて対象物体(例えば、図3Aの対象物体300)を識別できる。
図7は、本開示の1つ以上の実施形態による、ロボットシステム(例えば、図1のロボットシステム100又はその一部)を操作するための方法700のフロー図である。一般に、ロボットシステムは(例えば、図1のコントローラ、図2の通信装置206、及び/又は図2の画像装置222を介して)は、ブロック701に示されるように、ピックアップ環境の少なくとも一部を表す画像データ(例えば、図3の上面図300)を受信できる。ロボットシステムは、受信した画像データに基づいて対象物体(例えば、図3Aの対象物体300)を識別できる。
ロボットシステムは、環境の少なくとも一部を表す画像データを受信できる。例えば、受信した画像データは、コンテナ内の物体を表すことができる。画像データは、限定ではないが、ビデオ、静止画像、ライダデータ、レーダーデータ、物体識別データ、バーコードデータ、又はそれらの組み合わせを含み得る。いくつかの実施形態では、例えば、センサは、コントローラ109等のコンピュータ又はコントローラに(例えば、有線接続又は無線接続を介して)送信されるビデオ又は静止画像をキャプチャできる。
ブロック702において、ロボットシステム又はその一部(例えば、コントローラ109、プロセッサ202等)は、画像データを分析して、物体のグループ、物体のコンテナ、物体のスタック等の対象物体を識別できる。例えば、コントローラは、受信した画像データに基づいて個々の物体を識別できる。コントローラは、コンテナ又は物体上のビジュアルマーカー/デザイン及び/又は識別情報(例えば、バーコード、クイックレスポンス(QR)コード(登録商標)、ロゴ等、及び/又は予想される場所)を識別できる。識別情報及びビジュアルマーカーは、マスターデータに登録された物体の寸法及び重量等の物体の他の特性を示し得る。ロボットシステムは、さらに、マスターデータ又は出荷マニフェストを使用する等して、識別された対象物体が、物体の姿勢に基づき及び/又は蓋をロボットで直接操作することなく、開き得る、固定されていない、又は部分的に接続されているカバー/蓋を有する靴箱等の、1つ以上の固定式、ヒンジ式、可動式、又は取り外し可能な蓋又はフラップを有することを決定できる。
いくつかの実施形態では、放出場所からの情報を使用して、対象物体を選択する。例えば、ロボットシステムは、梱包順序、コンテナ内の対象物体、放出場所における利用可能な空間の量、好ましいスタックの配置等に基づいて、対象物体を選択できる。ユーザは、物体のピックアップ順序を決定するための選択基準を入力できる。いくつかの実施形態では、ピックアップ環境のマッピングは、受信した画像データに基づいて生成できる。いくつかのマッピングプロトコルでは、エッジ検出アルゴリズムを使用して、物体、表面等のエッジを識別する。ロボットシステムは、マッピングを分析して、ピックアップ領域のどの物体が一緒に搬送することが可能かを決定できる。
ロボットシステムは、行われるタスクの対象として、移送元物体から対象物体を選択できる。例えば、ロボットシステムは、所定の順番、ルールのセット、物体の外形のテンプレート、又はそれらの組み合わせに従って、ピックアップする対象物体を選択できる。具体的な例として、ロボットシステムは、画像デバイスの既知の場所に対する距離及び位置を表す点群/深度マップに従って、エンドエフェクタ(例えば、エンドエフェクタ140)にアクセス可能な移送元パッケージの例として、例えばパッケージのコンテナ(例えば、移送元コンテナ402)内に位置する移送元パッケージの例として、対象パッケージを選択できる。ある例では、ロボットシステムは、他の移送元パッケージを妨害又は変位させることなく、又はそれに対する妨害又は変位を最小限に抑えて、基準場所に対して左から右へ、又は最も近い場所から最も遠い場所へ等の所定のパターンに従って、対象物体を選択できる。
ブロック704において、コントローラ(例えば、図1のコントローラ109)は、対象物体の寸法及びコンテナの寸法を識別できる。コントローラは、対象物体及び/又はコンテナの物体識別子(例えば、バーコード、QRコード(登録商標)等)をスキャン/読み取ることによって、対象物体の寸法及びコンテナの寸法を識別できる。対象物体の寸法(例えば、物体の固定式、ヒンジ式、可動式、又は取り外し可能な蓋又はフラップの場所/配向)に基づいて、コントローラは、中央真空領域117b及び/又は周辺真空領域117a/cが、基準部324内に適合できる、及び/又は物体を持ち上げて移送するために使用する真空領域の操作シーケンスに適合できるかどうかを決定できる。
ブロック706において、コントローラは、対象物体を把持するための真空グリッパ又は真空領域のグリップ場所を決定できる。例えば、コントローラ109は、真空領域117bによってパッケージ112の全体(例えば、対象物体)を支持することができるため、パッケージ112を把持するための真空領域117bを選択できる。真空は、図3Bの真空領域117bの実質的に全ての吸引要素(例えば、吸引要素の少なくとも90%、95%、98%)によって吸引される。コントローラ109は、対象物体の寸法に基づいて真空グリップの係合シーケンスを選択できる。ある例では、グリップ場所(例えば、図5のグリップ場所502又は504)は、可動部322(例えば、蓋)に接触又は重なることなく、対象物体の基準部324上に位置する。コントローラ109は、重心(COM)場所(例えば、グリッパが受けるトルクを調整するためにCOMの下にある場所)に基づいてグリップ場所を決定、及び/又は物体の異なる部分(例えば、蓋に最も近い部分及び/又は基準部の可能な限り高い部分)の間の境界を決定できる。
ブロック708において、コントローラは、ロボットシステム(例えば、ロボットアームアセンブリ等のロボットユニット)を制御し、物体を移送するための1つ以上のコマンドを生成又は導出できる。操作モードの一部では、コマンドは動作プランに対応し得る。例えば、コントローラは、グリッパを位置決めするための1つ以上のコマンドを生成し、吸着カップ(複数可)の1つ以上のセクションを伸長し、及び/又は真空源に選択された真空レベルで真空を提供させることができ、それによって、対象物体300を把持する。真空レベルは、対象物体(複数可)の重量又は質量、行われるタスク等に基づいて選択できる。選択された領域又はグリッパで吸引を提供するために、マニホールドを操作するようにグリッパアセンブリにコマンドを送信できる。コントローラは、作動デバイス(例えば、作動デバイス212)、モータ、サーボ、アクチュエータ、及びロボットアームの他のコンポーネントに、グリッパアセンブリを移動させるコマンドを生成する。ロボットシステムは、ロボット搬送アームに場所間で物体を運搬するグリッパアセンブリをロボットで移動させる移送コマンドを生成できる。ロボットシステムは、物体を別の物体に衝突させることなく、物体を放出場所に届けるために、搬送経路に対応する動作プランに基づいて、搬送コマンドを生成できる。
生成されたコマンドは、物体の傾斜静止姿勢に対応する傾斜姿勢で対象物体に接近するロボットアーム及び/又はグリッパを操作及び/又は制御するために使用できる。言い換えれば、グリッパは、ツール基準軸が対象物体の傾斜静止姿勢の角度と一致する角度を形成する状態で位置決めできる。ロボットシステムは、エンドエフェクタを傾斜方向に沿って(例えば、下向きに及び物体に向かって)移動させて、対象物体に接触して把持する動作プランを導出及び実施できる。上記で説明したように、ロボットシステムは、中央部分の吸着カップ(複数可)(例えば、図3Bの真空領域117b)を位置1から位置2まで伸長して、対象物体を把持できる。対象物体を把持した後、中央の吸着カップ(複数可)を引き込むことができる。したがって、把持された物体は、ツール基準軸に沿って及びエンドエフェクタの底部/把持接触面にさらに近づいて、比較的短い距離だけ変位できる。いったん対象物体が隣接する対象物体から離れると、周囲の吸着カップが係合して対象物体をさらに把持できる。いくつかの実施形態では、対象物体が移送元コンテナから出るとき、ロボットシステムは吸着カップ及び/又は支持ブラケットを移動させることができる。例えば、ブラケットの支持面が対象物体(例えば、対象物体の底面)に接触するまで、ブラケットを底面から離れて及び/又は対象物体に向かって伸長できる。
ブラケットは、運動基準軸に支持を提供するように構成できる。運動基準軸は、対象物体の移送間又は移送中に、エンドエフェクタの姿勢及び/又は全体的な移動方向を表すことができる。ロボットシステムは、実世界のz軸から離れて傾いた又は傾斜した運動基準軸を決定できる。ロボットシステムは、対象物体が移送中に基準部の上の蓋に対してある角度で維持されるように、傾斜した運動基準軸を決定して使用できる。
ブロック710において、コントローラは、動作プラン/コマンドの対応する部分を実施すること等によって、真空グリッパに係合して対象物体を移送できる。エンドエフェクタは、移送元パッケージ又は移送元物体の中から対象パッケージ又は対象物体を把持するように構成できる。例えば、ロボットシステム100は、エンドエフェクタ140が真空領域117の複数のインスタンスと係合して、対象物体の複数のグリップ場所を同時に把持し、物体をコンテナから引き込むための把持操作を行うための命令を生成できる。具体的な例として、エンドエフェクタ140を使用して、対象物体を次々に順番に把持する把持操作のための命令を実行することができる。
ブロック712において、ロボットシステム100は、対象物体を把持した後に動作プラン/コマンドの後続の部分を実施すること等によって、対象物体を目的地又は標的場所に移送できる。ロボットシステムは、対象物体の固定式、ヒンジ式、可動式、又は取り外し可能な蓋が移送中に開かないように、(上記に説明した傾斜した運動基準軸に従って)傾斜した運搬で対象物体を移送できる。
ブロック714において、コントローラは、動作プラン/コマンドの放出シーケンスに従って、真空グリッパを解放し、対象物体を標的場所(例えば、コンベヤベルト)で放出できる。ブロック716において、ロボットシステムは、対象物体を標的場所に移送するのと同様に、コンテナを標的場所に移送できる。例えば、物体がコンテナから取り出され、コンテナが空になるとき、ロボットシステムはコンテナを標的場所に移送する。
結論
開示された技術の例の上記の発明を実施するための形態は、網羅的であること、又は開示された技術を上記に開示した正確な形態に限定することを意図するものではない。開示された技術の特定の例が例示の目的のために上記で説明されるが、当業者が認識するように、開示された技術の範囲内で様々な同等の修正が可能である。例えば、プロセス又はブロックが所与の順序で提示されているが、代替の実施態様は、異なる順序で、ステップを有するルーチンを行い得、又はブロックを有するシステムを使用し得、いくつかのプロセス又はブロックは、代替又は部分的な組み合わせを提供するために、削除、移動、追加、細分化、結合、及び/又は修正され得る。これらのプロセス又はブロックのそれぞれは、様々な方法で実施され得る。また、プロセス又はブロックは、時々、順番に行われるように示されているが、これらのプロセス又はブロックは、代わりに並行して行われ得るもしくは実施され得る、又は異なる時間に行われ得る。さらに、本明細書に記載される任意の特定の数は単なる例であり、代替の実施態様では、異なる値又は範囲を使用し得る。
開示された技術の例の上記の発明を実施するための形態は、網羅的であること、又は開示された技術を上記に開示した正確な形態に限定することを意図するものではない。開示された技術の特定の例が例示の目的のために上記で説明されるが、当業者が認識するように、開示された技術の範囲内で様々な同等の修正が可能である。例えば、プロセス又はブロックが所与の順序で提示されているが、代替の実施態様は、異なる順序で、ステップを有するルーチンを行い得、又はブロックを有するシステムを使用し得、いくつかのプロセス又はブロックは、代替又は部分的な組み合わせを提供するために、削除、移動、追加、細分化、結合、及び/又は修正され得る。これらのプロセス又はブロックのそれぞれは、様々な方法で実施され得る。また、プロセス又はブロックは、時々、順番に行われるように示されているが、これらのプロセス又はブロックは、代わりに並行して行われ得るもしくは実施され得る、又は異なる時間に行われ得る。さらに、本明細書に記載される任意の特定の数は単なる例であり、代替の実施態様では、異なる値又は範囲を使用し得る。
これら及び他の変更は、上記の発明を実施するための形態を考慮して、開示された技術に対して行うことができる。発明を実施するための形態は、開示された技術の特定の例及び想到される最良の形態を説明しているが、開示された技術は、上記の説明が本文にどのように詳細に記載されていても、多くの方法で実践できる。システムの詳細は、本明細書に開示されている技術によってさらに包含されながら、特定の実施態様ではかなり異なり得る。上述したように、開示された技術の特定の特徴又は態様を説明するときに使用される特定の用語は、その用語が関連する開示された技術のいずれかの特定の特性、特徴、又は態様に制限されるように、本明細書でその用語が再定義されていることを意味するものと解釈するべきではない。したがって、本発明は、添付の特許請求の範囲によるものを除き、限定されない。一般に、以下の特許請求の範囲で使用される用語は、上記の発明を実施するための形態でそのような用語を明示的に定義しない限り、開示された技術を本明細書で開示される特定の例に限定するように解釈するべきではない。
本発明の特定の態様は、下記の特定の特許請求の範囲の形態で提示されるが、出願人は、本発明の様々な態様を任意の数の請求項の形態において企図している。したがって、出願人は、本願又は継続出願のいずれかで、そのような追加の請求項の形態を追求するために、本願の出願後に追加の請求項を追求する権利を留保する。
Claims (20)
- ロボットグリッパアセンブリに結合されたコントローラを備え、
前記コントローラは、
1つ以上の蓋を有する対象物体の寸法に基づいて、前記ロボットグリッパアセンブリによる係合のための前記対象物体上のグリップ場所を決定することであって、前記グリッパアセンブリは、前記対象物体を前記グリップ場所で把持するように構成された第1のグリッパ部と、前記第1のグリッパ部に隣接する第2のグリッパ部と、を含むことと、
前記ロボットグリッパアセンブリの前記1つ以上のグリッパを係合するために、前記ロボットグリッパアセンブリを前記対象物体と位置合わせするための基準軸を決定することと、
前記ロボットグリッパアセンブリを操作するための動作プランを導出することと、
を行うように構成され、
前記第1のグリッパ部は、前記第2のグリッパ部に対して独立して伸長可能であり、最初に前記対象物体を把持し、前記対象物体とともに引き込み、
前記第2のグリッパ部は、前記第1のグリッパ部の最初の把持及び引き込みの後に前記対象物体を把持するように構成され、
前記動作プランは、
前記基準軸に基づいて、前記ロボットグリッパアセンブリを前記対象物体と位置合わせすることと、
前記グリップ場所で前記対象物体に前記第1のグリッパ部及び/又は前記第2のグリッパ部で接触させることと、
前記第1のグリッパ部及び/又は前記第2のグリッパ部によってグリップ力を提供して、前記対象物体を前記グリップ場所で把持することと、
を行う、ロボットシステム。 - 前記コントローラは、
前記対象物体の前記1つ以上の蓋を開かずに、前記対象物体を標的場所に移送するように、
前記ロボットグリッパアセンブリを操作するための前記動作プランを導出するようにさらに構成される、請求項1に記載のロボットシステム。 - 前記第コントローラは、さらに、
ピックアップ環境の少なくとも一部を表す画像データを受信することと、
前記ピックアップ環境でコンテナ内の1つ以上の対象物体を識別することと、
前記1つ以上の対象物体及び前記コンテナの寸法を識別することと、
を行うように構成される、請求項1に記載のロボットシステム。 - 前記コントローラは、
前記対象物体を標的場所で放出するための放出姿勢を導出することと、
前記放出姿勢に従って、前記ロボットグリッパアセンブリの前記1つ以上のグリッパの前記グリップ力を解放することと、
を行うように、前記ロボットグリッパアセンブリをさらに操作するための前記動作プランを導出するように構成される、請求項1に記載のロボットシステム。 - 前記コントローラは、さらに、
前記寸法に基づいて、前記ロボットグリッパアセンブリの前記1つ以上のグリッパを前記対象物体に取り付ける係合シーケンスを導出することに基づいて、前記動作プランを導出するように構成される、請求項1に記載のロボットシステム。 - 前記ロボットシステムは、さらに、
前記対象物体を開始場所から標的場所に移送するために前記ロボットグリッパアセンブリを操作するための前記動作プランに対応するコマンドのセットを導出するように構成される、請求項1に記載のロボットシステム。 - 前記ロボットグリッパアセンブリは、さらに、前記把持された対象物体に接触して支持するように構成される、取り付けられたスタビライザブラケットを含む、請求項1に記載のロボットシステム。
- ロボットシステムであって、
ロボットアームと、
前記ロボットアームに動力学的に結合されたエンドエフェクタと、
前記ロボットアーム及び前記エンドエフェクタに動作可能に結合された1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるとき、前記ロボットシステムに、プロセスを行わせる命令を記憶する1つ以上のメモリと、
を備え、
前記エンドエフェクタは、
前記エンドエフェクタの底部にあり、対象物体の表面を把持するように構成された第1のグリッパ部と、
前記底部にあり、前記対象物体の前記表面を把持するように構成され、かつ、前記第1のグリッパ部とは独立して操作可能である第2のグリッパ部と、
前記第1のグリッパ及び前記第2のグリッパに隣接し、前記エンドエフェクタの上部から前記底部に伸長する方向に沿って伸長するスタビライザブラケットであって、少なくとも前記第1のグリッパ部によって把持されている前記対象物体に接触して、前記把持した対象物体に支持力を提供するように構成されたスタビライザブラケットと、を含み、
前記プロセスは、
1つ以上の蓋を有する前記対象物体の寸法に基づいて、少なくとも前記第1のグリッパ部によって前記対象物体に係合するための前記対象物体上のグリップ場所を決定することと、
前記エンドエフェクタの前記1つ以上のグリッパを係合するために、前記エンドエフェクタを前記対象物体と位置合わせするための基準軸を決定することと、
前記基準軸に基づいて、前記エンドエフェクタを前記対象物体と位置合わせすることと、
前記グリップ場所で前記対象物体に少なくとも前記第1のグリッパ部で接触させることと、
前記エンドエフェクタの前記第1のグリッパ部及び/又は前記第2のグリッパ部によって、グリップ力を提供して、前記対象物体を把持することと、
を含む、ロボットシステム。 - 前記プロセスは、さらに、
前記対象物体の前記1つ以上の蓋を前記対象物体の基準部に対して安定に維持する前記対象物体の傾斜姿勢を維持するために、前記基準軸に従って前記対象物体を標的場所に移送することを含む、請求項8に記載のロボットシステム。 - 前記プロセスは、さらに、
ピックアップ環境の少なくとも一部を表す画像データを受信することと、
前記ピックアップ環境でコンテナ内の1つ以上の対象物体を識別することと、
前記1つ以上の対象物体及び前記コンテナの寸法を識別することと、を含み、
前記グリップ場所は、前記寸法、前記基準部に対する前記1つ以上の蓋の場所、前記対象物体の重心場所、又はそれらの組み合わせに基づいて前記基準部内に決定される、請求項9に記載のロボットシステム。 - 前記プロセスは、さらに、
前記対象物体を標的場所で放出するための放出姿勢を導出することと、
前記放出姿勢に従って、前記エンドエフェクタの前記1つ以上のグリッパの前記グリップ力を解放することと、
を含む、請求項8に記載のロボットシステム。 - 前記プロセスは、さらに、
前記寸法に基づいて、前記エンドエフェクタの前記1つ以上のグリッパを前記対象物体に取り付ける係合シーケンスを導出することを含み、
前記係合シーケンスは、
前記第1のグリッパ部を前記対象物体に向かって伸長することと、
前記第1のグリッパ部を使用して、前記対象物体を把持することと、
前記第1のグリッパ部を前記把持された対象物体と一緒に引き込むことと、
前記第1のグリッパ部を引き込んだ後、前記第2のグリッパ部を係合して前記対象物体をさらに把持することと、
を含む、請求項8に記載のロボットシステム。 - 前記プロセスは、さらに、
前記第2のグリッパ部を係合した後、前記スタビライザブラケットの姿勢を調整して、前記把持された対象物体に接触して支持することを含む、請求項9に記載のロボットシステム。 - ロボットシステムを操作するための方法であって、
1つ以上の蓋を有する対象物体の寸法に基づいて、少なくともエンドエフェクタの第1のグリッパ部によって前記対象物体に係合するための前記対象物体上のグリップ場所を決定することと、
前記エンドエフェクタの1つ以上のグリッパを係合するために、前記エンドエフェクタを前記対象物体と位置合わせするための基準軸を決定することと、
前記基準軸に基づいて、前記エンドエフェクタを前記対象物体と位置合わせすることと、
前記グリップ場所で前記対象物体に少なくとも前記第1のグリッパ部で接触させることと、
前記エンドエフェクタの前記第1のグリッパ部及び/又は第2のグリッパ部によって、グリップ力を提供して、前記対象物体を把持することと、
を含む、方法。 - 前記対象物体の前記1つ以上の蓋を前記対象物体の基準部に対して安定に維持する前記対象物体の傾斜姿勢を維持するために、前記基準軸に従って前記対象物体を標的場所に移送することをさらに含む、請求項14に記載の方法。
- ピックアップ環境の少なくとも一部を表す画像データを受信することと、
前記ピックアップ環境でコンテナ内の1つ以上の対象物体を識別することと、
前記1つ以上の対象物体及び前記コンテナの寸法を識別することと、さらに含み、
前記グリップ場所は、前記寸法、前記基準部に対する前記1つ以上の蓋の場所、前記対象物体の重心場所、又はそれらの組み合わせに基づいて前記基準部内に決定される、請求項15に記載の方法。 - 前記対象物体を標的場所で放出するための放出姿勢を導出することと、
前記放出姿勢に従って、前記エンドエフェクタの前記1つ以上のグリッパの前記グリップ力を解放することと、
をさらに含む、請求項14に記載の方法。 - 前記寸法に基づいて、前記エンドエフェクタの前記1つ以上のグリッパを前記対象物体に取り付ける係合シーケンスを導出することをさらに含み、
前記係合シーケンスは、
前記第1のグリッパ部を前記対象物体に向かって伸長することと、
前記第1のグリッパ部を使用して、前記対象物体を把持することと、
前記第1のグリッパ部を前記把持された対象物体と一緒に引き込むことと、
前記第1のグリッパ部を引き込んだ後、前記第2のグリッパ部を係合して前記対象物体をさらに把持することと、
をさらに含む、請求項14に記載の方法。 - 前記第2のグリッパ部を係合した後、スタビライザブラケットの姿勢を調整して、前記把持された対象物体に接触して支持することをさらに含む、請求項14に記載の方法。
- 前記エンドエフェクタに取り付けられたスタビライザブラケットは、前記1つ以上のグリッパの前記グリップ力に支持を与える、請求項14に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163241460P | 2021-09-07 | 2021-09-07 | |
US63/241,460 | 2021-09-07 | ||
US17/902,694 US20230070495A1 (en) | 2021-09-07 | 2022-09-02 | Robotic gripper assemblies for openable object(s) and methods for picking objects |
US17/902,694 | 2022-09-02 | ||
JP2022141265A JP7264387B2 (ja) | 2021-09-07 | 2022-09-06 | 開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022141265A Division JP7264387B2 (ja) | 2021-09-07 | 2022-09-06 | 開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023082176A true JP2023082176A (ja) | 2023-06-13 |
Family
ID=85386432
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022141265A Active JP7264387B2 (ja) | 2021-09-07 | 2022-09-06 | 開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 |
JP2023061005A Pending JP2023082176A (ja) | 2021-09-07 | 2023-04-04 | 開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022141265A Active JP7264387B2 (ja) | 2021-09-07 | 2022-09-06 | 開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230070495A1 (ja) |
JP (2) | JP7264387B2 (ja) |
CN (2) | CN115946107A (ja) |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05114799A (ja) * | 1991-10-22 | 1993-05-07 | Toshiba Corp | 電子部品吸着ヘツド |
JP3083812B1 (ja) | 1999-03-02 | 2000-09-04 | 信越化学工業株式会社 | ワークの吸着吊下げ装置 |
US20070280812A1 (en) | 2006-05-17 | 2007-12-06 | Axium Inc. | Tool and method for mixed palletizing/depalletizing |
DE102012013031A1 (de) * | 2012-06-29 | 2014-04-24 | Liebherr-Verzahntechnik Gmbh | Vorrichtung zum automatisierten Erfassen und Entnehmen von Werkstücken |
CN108472814B (zh) * | 2016-01-08 | 2021-07-16 | 伯克希尔格雷股份有限公司 | 用于获取并移动物体的系统和方法 |
JP6769768B2 (ja) | 2016-07-22 | 2020-10-14 | 株式会社オカムラ | 移載装置 |
JP2018103317A (ja) | 2016-12-27 | 2018-07-05 | 株式会社イシダ | 吸着装置とそれが組み込まれたロボット |
US10695902B2 (en) * | 2018-06-04 | 2020-06-30 | Express Scripts Strategic Development, Inc. | Pharmacy order processing system |
KR102650494B1 (ko) | 2018-10-30 | 2024-03-22 | 무진 아이엔씨 | 자동화된 패키지 등록 시스템, 디바이스 및 방법 |
JP2020192648A (ja) | 2019-05-29 | 2020-12-03 | 株式会社日立製作所 | エンドエフェクタ及びピッキングシステム |
JP6997137B2 (ja) | 2019-06-11 | 2022-02-04 | ファナック株式会社 | グリッパおよびロボットシステム |
US11345029B2 (en) | 2019-08-21 | 2022-05-31 | Mujin, Inc. | Robotic multi-gripper assemblies and methods for gripping and holding objects |
KR20210073366A (ko) * | 2019-12-10 | 2021-06-18 | 삼성전자주식회사 | 그리퍼 조립체 및 그리퍼 조립체를 작동하는 방법 |
WO2021145986A1 (en) | 2020-01-17 | 2021-07-22 | Material Handling Systems, Inc. | Vacuum-based end effector with extendible vacuum cup vacuum-based end effector with extendible vacuum cup vacuum-based end effector with extendible vacuum cup |
US11813749B2 (en) * | 2020-04-08 | 2023-11-14 | Fanuc Corporation | Robot teaching by human demonstration |
CN111504328B (zh) * | 2020-05-22 | 2022-07-08 | 梅卡曼德(北京)机器人科技有限公司 | 机器人运动规划方法、路径规划方法、抓取方法及其装置 |
CN116583385A (zh) * | 2020-11-19 | 2023-08-11 | 伯克希尔格雷营业股份有限公司 | 用于对姿态权限低的对象使用抓取器进行对象处理的系统和方法 |
TW202233370A (zh) * | 2021-02-18 | 2022-09-01 | 日商發那科股份有限公司 | 機器人系統及控制裝置 |
US11875528B2 (en) * | 2021-05-25 | 2024-01-16 | Fanuc Corporation | Object bin picking with rotation compensation |
-
2022
- 2022-09-02 US US17/902,694 patent/US20230070495A1/en active Pending
- 2022-09-06 JP JP2022141265A patent/JP7264387B2/ja active Active
- 2022-09-07 CN CN202211088933.1A patent/CN115946107A/zh active Pending
- 2022-09-07 CN CN202211124880.4A patent/CN116551667A/zh active Pending
-
2023
- 2023-04-04 JP JP2023061005A patent/JP2023082176A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230070495A1 (en) | 2023-03-09 |
CN116551667A (zh) | 2023-08-08 |
JP7264387B2 (ja) | 2023-04-25 |
CN115946107A (zh) | 2023-04-11 |
JP2023038933A (ja) | 2023-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11904468B2 (en) | Robotic multi-gripper assemblies and methods for gripping and holding objects | |
US11958191B2 (en) | Robotic multi-gripper assemblies and methods for gripping and holding objects | |
JP6738112B2 (ja) | ロボットシステムの制御装置及び制御方法 | |
CN111730603B (zh) | 机器人系统的控制装置以及控制方法 | |
JP7349094B2 (ja) | ピースロス管理メカニズムを有するロボットシステム | |
US11648676B2 (en) | Robotic system with a coordinated transfer mechanism | |
CN111993448B (zh) | 用于夹持和保持物体的机器人多夹持器组件和方法 | |
JP7398662B2 (ja) | ロボット多面グリッパアセンブリ及びその操作方法 | |
JP7175487B1 (ja) | 画像ベースのサイジングメカニズムを備えたロボットシステム及びロボットシステムを操作するための方法 | |
JP7264387B2 (ja) | 開閉式物体用のロボットグリッパアセンブリ及び物体をピッキングするための方法 | |
US20230071488A1 (en) | Robotic system with overlap processing mechanism and methods for operating the same | |
US20230052763A1 (en) | Robotic systems with gripping mechanisms, and related systems and methods | |
US20240228192A9 (en) | Robotic systems with dynamic motion planning for transferring unregistered objects | |
CN115258510A (zh) | 具有物体更新机制的机器人系统和用于操作所述机器人系统的方法 |