[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7353948B2 - Robot system and robot system control method - Google Patents

Robot system and robot system control method Download PDF

Info

Publication number
JP7353948B2
JP7353948B2 JP2019218696A JP2019218696A JP7353948B2 JP 7353948 B2 JP7353948 B2 JP 7353948B2 JP 2019218696 A JP2019218696 A JP 2019218696A JP 2019218696 A JP2019218696 A JP 2019218696A JP 7353948 B2 JP7353948 B2 JP 7353948B2
Authority
JP
Japan
Prior art keywords
coordinates
gripping
placement
robot
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019218696A
Other languages
Japanese (ja)
Other versions
JP2021088019A (en
Inventor
敦丈 小菅
俊 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019218696A priority Critical patent/JP7353948B2/en
Publication of JP2021088019A publication Critical patent/JP2021088019A/en
Application granted granted Critical
Publication of JP7353948B2 publication Critical patent/JP7353948B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットシステム及びロボットシステムの制御方法に関する。 The present invention relates to a robot system and a method of controlling the robot system.

労働力不足を背景に、ロボット導入による人手作業の自動化が進んでいる。これまでも、工場における部品切削や溶接作業など定型的な作業の自動化が進んできた。今後さらに拡大し、建設現場、物流倉庫、食品、化粧品、医療品など多種の産業分野への応用が期待されている。 Against the backdrop of labor shortages, the automation of manual labor through the introduction of robots is progressing. Until now, there has been progress in automating routine tasks such as parts cutting and welding in factories. It is expected that this technology will further expand in the future and find applications in a variety of industrial fields such as construction sites, distribution warehouses, food, cosmetics, and medical products.

一例として、物流倉庫における物品のピッキング作業自動化があげられる。ピッキング作業自動化ロボットでは、3次元カメラにより物品棚の3次元画像を取得し、目標商品の有無を画像認識により検出し、画像認識や予め登録された物品の3次元モデルデータと比較しながら把持座標を算出する。得られた把持座標に対して軌道を計算し、ピッキングを実行する。 One example is the automation of picking work for goods in a distribution warehouse. The automated picking robot acquires a 3D image of the product shelf using a 3D camera, detects the presence or absence of the target product through image recognition, and uses the image recognition and pre-registered 3D model data of the product to compare the grasping coordinates. Calculate. A trajectory is calculated based on the obtained grasping coordinates, and picking is performed.

ピッキング作業自動化における課題は、ロボットによるピッキング作業スループットが遅いことである。例えば、最先端の物流倉庫向けピッキングロボットにおいても、スループットは人間の熟練作業者に比べ半分程度に留まる。 A challenge in automating picking operations is that the throughput of picking operations by robots is slow. For example, even with the most advanced picking robots for distribution warehouses, the throughput is only about half that of skilled human workers.

ロボットの動作スループットが遅い要因の1つに、ロボット自体の動作速度が遅いことが挙げられる。3次元にばら積みされた任意姿勢の物品を把持するため、これまで垂直多関節型のロボットが多く用いられてきた。 One of the reasons why the operating throughput of a robot is slow is that the operating speed of the robot itself is slow. Up to now, vertically articulated robots have often been used to grasp objects that are three-dimensionally stacked in arbitrary positions.

垂直多関節型ロボットは多数の関節を備え、3次元空間で任意の姿勢になることが可能であり、3次元バラ積みピッキング用途で垂直多関節型のロボットが広く採用されてきた。一方、垂直多関節型ロボットは直列に接続された関節及び関節を制御するモータを1つずつ駆動し、最終的な座標に到達するように制御を行うため、関節数が多いほど制御に時間を要する。 Vertical articulated robots are equipped with a large number of joints and can assume any posture in three-dimensional space, and have been widely adopted for three-dimensional bulk picking applications. On the other hand, vertical articulated robots drive the joints connected in series and the motors that control the joints one by one to reach the final coordinates, so the more joints there are, the more time it takes to control them. It takes.

また、垂直多関節ロボットでは、各関節が直列に接続されるため相互に作用するため、各関節の相互作用も含めて各関節モータの制御値を計算する必要があった。一般にこれらのモータ制御計算では解が複数存在し、それらの中から最もロボットにとって安全な姿勢になる解を選択する必要がある。こうした複数解の計算及び複数解を評価し最も安全姿勢の解を選択する計算に時間を要するため、ロボットの動作スループットは遅かった。 In addition, in a vertical articulated robot, each joint is connected in series and interacts with each other, so it is necessary to calculate the control value for each joint motor, including the interaction of each joint. Generally, there are multiple solutions for these motor control calculations, and it is necessary to select the solution that provides the safest posture for the robot from among them. The operation throughput of the robot was slow because it took time to calculate these multiple solutions, evaluate the multiple solutions, and select the solution with the safest posture.

垂直多関節ロボットに代わり、特許文献1のように、ロボットの腕を1本から複数の並列接続型に増やし、代わりに関節数を腕1本当たり1関節に減らしたリンク構造による高速ピッキング作業自動化技術が開発されている。 Instead of a vertically articulated robot, as in Patent Document 1, the number of robot arms is increased from one to multiple parallel-connected types, and instead the number of joints is reduced to one joint per arm to automate high-speed picking work using a link structure. technology is being developed.

こうした複数腕のロボットをリンクして並列に動作させるパラレルリンク型ロボットでは関節が並列に並ぶため、関節を並列に制御でき、各関節モータの制御を独立に行うことが出来る。関節間の相互作用の計算することなく計算できるため、ロボット単体の動作速度を垂直多関節型ロボットと比較して数倍高速化することができる。 In parallel link robots in which multiple-arm robots are linked and operated in parallel, the joints are arranged in parallel, so the joints can be controlled in parallel, and each joint motor can be controlled independently. Since it can be calculated without calculating the interaction between joints, the operating speed of a single robot can be increased several times compared to a vertically articulated robot.

特開2019-058979号公報Japanese Patent Application Publication No. 2019-058979

特許文献1に記載されている複数腕を有するリンク構造ロボットによるピッキング作業自動化の課題は、動作可能な姿勢が限定されている点にある。垂直多関節型ロボットは3次元位置X、Y、Zの3方向と、3軸それぞれについての回転姿勢RX、RY、RZに動くことが出来る。 A problem with automating picking work using a link structure robot having multiple arms described in Patent Document 1 is that the operable postures are limited. A vertically articulated robot can move in three dimensional positions, X, Y, and Z, and in rotational positions RX, RY, and RZ about the three axes, respectively.

一方パラレルリンク型ロボットは並列に関節モータが接続されている機構上の制約により、X、Y、Zの3方向と、Z軸を中心とした回転姿勢であるRZしか動くことができない。そのため、3次元空間上で任意にばら積みされた物品を把持することができず、平積みされた箱形状の物品といったように応用範囲が限定されていた。 On the other hand, parallel link robots can only move in three directions, X, Y, and Z, and RZ, which is a rotational posture around the Z axis, due to mechanical constraints in which joint motors are connected in parallel. Therefore, it is not possible to grasp articles randomly stacked in bulk in a three-dimensional space, and the range of application is limited to box-shaped articles stacked flat.

特許文献1の手法では、物体を把持する把持座標は動的に抽出されるものの、物体を解除する配置座標は固定的であった。このため、比較的大きな物体が斜めに配置された場合を想定して配置座標を固定的に設定した場合、平置きされた薄い物体に対しては、上空から物体の把持を解除してしまうことになる。この結果、物体を配置側の作業台に対してぶつけてしまうことになり、物体を破損してしまう恐れがあった。 In the method of Patent Document 1, the gripping coordinates for gripping the object are dynamically extracted, but the placement coordinates for releasing the object are fixed. For this reason, if the placement coordinates are set fixedly assuming that a relatively large object is placed diagonally, the grasp of the object may be released from above for a thin object placed horizontally. become. As a result, the object would hit the workbench on the placement side, and there was a risk that the object would be damaged.

本発明の目的は、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a robot system and a control method for a parallel link robot that can grip objects arbitrarily stacked in bulk in a three-dimensional space without damaging the objects.

本発明の一態様のロボットシステムは、撮像部と制御部とを有するパラレルリンクロボットを用いたロボットシステムであって、前記パラレルリンクロボットは、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、前記撮像部は、ばら積みされた前記物体の3次元画像を取得し、前記制御部は、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。 A robot system according to one aspect of the present invention is a robot system using a parallel link robot having an imaging unit and a control unit, the parallel link robot having a three-dimensional robot hand equipped with a rotatable joint mechanism. The object stacked in bulk is gripped and moved from the gripping side to the placement side, the gripping side grips the object at the gripping point, the placement side releases the object at the placement point, and the imaging unit is configured to the control unit estimates the posture and size of the object based on the three-dimensional image, and estimates the posture and size of the object based on the estimation results of the posture and size of the object. , characterized in that the trajectory of the object from the grasping coordinates of the grasping point to the arrangement coordinates of the arrangement point is dynamically controlled.

本発明の一態様のロボットシステムの制御方法は、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させるパラレルリンクロボットを用いたロボットシステムの制御方法であって、ばら積みされた前記物体の3次元画像を取得し、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記把持側では、把持点において前記物体を把持し、前記配置側では、配置点において前記物体を解除し、前記物体の姿勢と大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。 A control method for a robot system according to one aspect of the present invention uses a parallel link robot that grips objects stacked in bulk three-dimensionally and moves them from a gripping side to a placement side using a robot hand equipped with a rotatable joint mechanism. A control method for a robot system, wherein a three-dimensional image of the object stacked in bulk is acquired, the posture and size of the object are estimated based on the three-dimensional image, and on the gripping side, the object is controlled at the gripping point. An object is gripped, and the placement side releases the object at a placement point, and moves the object from the gripping coordinates of the gripping point to the placement coordinates of the placement point based on the estimation results of the posture and size of the object. It is characterized by dynamically controlling the trajectory.

本発明の一態様によれば、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することができる。 According to one aspect of the present invention, a parallel link robot can grip objects arbitrarily stacked in bulk in a three-dimensional space without damaging the objects.

関連技術のロボットシステムを示す図である。It is a diagram showing a robot system of related technology. 実施例1のロボットシステムを示す図である。1 is a diagram showing a robot system of Example 1. FIG. 認識制御部の認識及び制御処理を示す図である。It is a figure which shows recognition and control processing of a recognition control part. 3次元カメラの画角と物体把持座標候補点を示した図である。FIG. 3 is a diagram showing the angle of view of a three-dimensional camera and candidate points for object grasping coordinates. パラレルリンクロボットの目標座標及び動作軌道を示した図である。FIG. 2 is a diagram showing target coordinates and motion trajectories of a parallel link robot. パラレルリンクロボットの中間座標及び動作軌道を示した図である。FIG. 2 is a diagram showing intermediate coordinates and motion trajectories of a parallel link robot. 実施例1のロボットシステムの制御方法を示すフローチャート図である。3 is a flowchart diagram showing a method of controlling the robot system according to the first embodiment. FIG. 実施例2のロボットシステムを示す図である。FIG. 3 is a diagram showing a robot system according to a second embodiment.

最初に、図1を参照して、関連技術のロボットシステムの制御方法について説明する。
図1は、関連技術の固定配置座標によるパラレルリンクロボットの3次元バラ積み物体の自律把持・配置システムの動作を示した図である。
図1に示すように、関連技術のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する把持座標推定部110を有する。
First, a related technology control method for a robot system will be described with reference to FIG.
FIG. 1 is a diagram illustrating the operation of a related art autonomous grasping and placement system for three-dimensional bulk objects using a parallel link robot based on fixed placement coordinates.
As shown in FIG. 1, the related technology picking automation system using a parallel link robot 101 includes a parallel link robot body 101, a robot hand 103 equipped with a joint mechanism 102, a three-dimensional camera unit 109, and a robot based on three-dimensional camera data. It has a grip coordinate estimator 110 that plans and controls motion.

パラレルリンクロボット101のような動作方向が限定されたロボットにおいて、3次元的にばら積みされた物体111、112を把持及び整列配置可能にする。このため、3次元的に回転可能なジョイント機構102を備えたロボットハンド103を導入する。 In a robot such as a parallel link robot 101 whose movement direction is limited, it is possible to grasp and align objects 111 and 112 stacked in bulk three-dimensionally. For this purpose, a robot hand 103 equipped with a three-dimensionally rotatable joint mechanism 102 is introduced.

パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体111、112は把持側コンベア107により配置側作業台108に搬送される。 The parallel link robot 101 is attached to a pedestal 106 and cannot move autonomously. Therefore, the objects 111 and 112 are conveyed to the placement-side workbench 108 by the gripping-side conveyor 107.

しかし、関連技術の認識・制御方法では、把持座標104は把持座標推定部110において動的に抽出されるものの、配置座標105は固定的であった。従って、図1(a)に示すように、比較的大きな物体112が斜めに配置された場合を想定し配置座標105を固定的に設定した場合、平置きされた薄い物体111に対しては、図1(b)のように上空から把持を解除してしまうことになる。この結果、物体111を配置側作業台108に対してぶつけてしまうことになり、物体11が破損してしまう恐れがあった。 However, in the recognition/control method of the related technology, although the gripping coordinates 104 are dynamically extracted in the gripping coordinate estimation unit 110, the arrangement coordinates 105 are fixed. Therefore, as shown in FIG. 1(a), if the placement coordinates 105 are set fixedly assuming a case where a relatively large object 112 is placed diagonally, for a thin object 111 placed horizontally, As shown in FIG. 1(b), the grip will be released from above. As a result, the object 111 would hit the arrangement-side workbench 108, and there was a risk that the object 11 would be damaged.

そこで、実施形態では、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供する。 Therefore, in the embodiment, a robot system and a method for controlling the robot system are provided, in which a parallel link robot can grasp objects arbitrarily stacked in bulk in a three-dimensional space without damaging the objects.

このため、実施形態は、自律制御機能及び回転可能なジョイント機構を備えたパラレルリンク型ロボットにおいて、3次元カメラによって撮像された3次元画像に基づき、物体把持位置及び配置位置の推定を行い、推定された把持位置に基づきロボット動作を制御する。 For this reason, in the embodiment, in a parallel link robot equipped with an autonomous control function and a rotatable joint mechanism, the object grasping position and placement position are estimated based on a 3D image captured by a 3D camera. The robot motion is controlled based on the grip position determined.

以下、図面を用いて実施例について説明する。 Examples will be described below with reference to the drawings.

図2を参照して、実施例1のロボットシステムについて説明する。
図2に示すように、実施例1のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、撮像部を構成する3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する認識制御部204を有する。
The robot system of Example 1 will be described with reference to FIG. 2.
As shown in FIG. 2, the picking work automation system using the parallel link robot 101 of the first embodiment includes a parallel link robot main body 101, a robot hand 103 equipped with a joint mechanism 102, and three-dimensional camera units 109 and 3 that constitute an imaging unit. It has a recognition control unit 204 that plans and controls robot motion based on dimensional camera data.

ジョイント機構102は、例えば、モータが内蔵され認識制御部204の指示により能動的に動作するモータ式ジョイント機構で構成される。尚、ジョイント機構102は、ゴムなどの柔軟性を有する機構や金属や樹脂製のボールを備え、外力に応じて受動的に変形するジョイント機構で構成しても良い。 The joint mechanism 102 is configured, for example, as a motor-type joint mechanism that includes a built-in motor and actively operates according to instructions from the recognition control unit 204. Note that the joint mechanism 102 may include a flexible mechanism such as rubber or a ball made of metal or resin, and may be configured as a joint mechanism that passively deforms in response to external force.

パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。 The parallel link robot 101 is attached to a pedestal 106 and cannot move autonomously. Therefore, the object 209 is conveyed to the placement-side workbench 108 by the gripping-side conveyor 107.

認識制御部204は、3次元物体姿勢推定部205、3次元物体大きさ推定部206、把持点/配置点座標算出部207及び中間座標/動作速度算出部208を有する。 The recognition control unit 204 includes a three-dimensional object posture estimation unit 205, a three-dimensional object size estimation unit 206, a grip point/placement point coordinate calculation unit 207, and an intermediate coordinate/motion speed calculation unit 208.

3次元物体姿勢推定部205は、3次元カメラ109から取得した3次元画像に基づいて、物体の姿勢を推定する。3次元物体大きさ推定部206は、物体の大きさを推定する。把持点/配置点座標算出部207は、推定された物体の姿勢と大きさに基づいて、物体の把持点の把持座標201と配置点の配置座標202を算出する。 The three-dimensional object posture estimation unit 205 estimates the posture of the object based on the three-dimensional image obtained from the three-dimensional camera 109. The three-dimensional object size estimation unit 206 estimates the size of the object. The gripping point/placement point coordinate calculation unit 207 calculates gripping coordinates 201 of the gripping point of the object and placement coordinates 202 of the placement point based on the estimated posture and size of the object.

把持点/配置点座標算出部207は、把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を把持点の把持座標201として算出する。配置側では、物体209の姿勢と大きさに基づいて、物体209が破損しないような配置点の配置座標202を算出する。 On the gripping side, the gripping point/arrangement point coordinate calculation unit 207 calculates, as the gripping coordinates 201 of the gripping point, a candidate point that is located on the uppermost surface and has the widest grippable area among a plurality of predefined object gripping candidate points. do. On the placement side, based on the posture and size of the object 209, placement coordinates 202 of placement points that will prevent the object 209 from being damaged are calculated.

中間座標/動作速度算出部208は、中間座標算出部として機能し、物体209の姿勢と大きさに基づいて、把持点の把持座標201と配置点の配置座標202とを結ぶ中継点である中間座標203を動的に制御する。 The intermediate coordinate/operation speed calculation unit 208 functions as an intermediate coordinate calculation unit, and based on the posture and size of the object 209, calculates intermediate coordinates that are intermediate points connecting the gripping coordinates 201 of the gripping point and the arrangement coordinates 202 of the arrangement points. Coordinates 203 are dynamically controlled.

また、中間座標/動作速度算出部208は、動作速度算出部として機能し、推定された物体209の姿勢と大きさに基づいて、物体209を把持して把持側から配置側に移動させる移動速度を動的に制御する。 Further, the intermediate coordinate/motion speed calculation unit 208 functions as a motion speed calculation unit, and based on the estimated posture and size of the object 209, the movement speed for gripping the object 209 and moving it from the gripping side to the placement side. Dynamically control.

このように、認識制御部204は、把持するべき物体209を認識し、物体姿勢を推定することで、ロボットハンド(吸着パッド)103の把持座標201、吸着を解除し物体を整列配置する配置座標202及び把持座標201から配置座標202に到達するまでのロボット軌道210と動作速度を動的に制御する。 In this way, the recognition control unit 204 recognizes the object 209 to be gripped and estimates the object posture, thereby determining the gripping coordinates 201 of the robot hand (suction pad) 103 and the arrangement coordinates at which the suction is released and the objects are aligned. 202 and the robot trajectory 210 from the gripping coordinates 201 to the placement coordinates 202 and the operating speed are dynamically controlled.

上述のように、実施例1のロボットシステムは、3次元カメラ109(撮像部)と認識制御部204(制御部)とを有するパラレルリンクロボット101を用いたロボットシステムである。パラレルリンクロボット101は、回転可能なジョイント機構102を備えたロボットハンド103により3次元的にばら積みされた物体209を把持して把持側から配置側に移動させる。 As described above, the robot system of the first embodiment is a robot system using the parallel link robot 101 having the three-dimensional camera 109 (imaging section) and the recognition control section 204 (control section). The parallel link robot 101 uses a robot hand 103 equipped with a rotatable joint mechanism 102 to grasp objects 209 stacked three-dimensionally in bulk and move them from the grasping side to the placement side.

把持側では把持点の把持座標201において物体209を把持し、配置側では配置点の配置座標202において物体209を解除する。 On the grasping side, the object 209 is grasped at the grasping coordinates 201 of the grasping point, and on the placement side, the object 209 is released at the arrangement coordinates 202 of the arrangement point.

3次元カメラ109(撮像部)は、ばら積みされた物体209の3次元画像を取得する。認識制御部204(制御部)は、3次元画像に基づいて、物体209の姿勢と大きさを推定し、物体209の姿勢と大きさの推定結果に基づき、把持点の把持座標201から配置点の配置座標202に向かう物体209の軌道210を動的に制御する。 The three-dimensional camera 109 (imaging unit) acquires a three-dimensional image of the objects 209 stacked in bulk. The recognition control unit 204 (control unit) estimates the posture and size of the object 209 based on the three-dimensional image, and determines the arrangement point from the gripping coordinates 201 of the gripping point based on the estimation results of the posture and size of the object 209. The trajectory 210 of the object 209 toward the placement coordinates 202 of is dynamically controlled.

ここで、認識制御部204(制御部)は、物体209の姿勢と大きさの推定結果に基づき、配置点の配置座標を可変に制御することにより、物体209の軌道210を動的に制御する。 Here, the recognition control unit 204 (control unit) dynamically controls the trajectory 210 of the object 209 by variably controlling the arrangement coordinates of the arrangement points based on the estimation results of the posture and size of the object 209. .

認識制御部204は、3次元カメラ109から3次元画像データを取得し、3次元物体姿勢推定部205に伝送する。3次元カメラ109には、カラーカメラ2台で視差から深度を推定するステレオカメラ、赤外光などの特定波長の信号を照射し、物体表面で反射してセンサまで帰ってくる往復時間を計測し深度を推定するTime of Flightカメラあるいは深層学習などの手法により深度推定する単眼カメラ方式が挙げられる。 The recognition control unit 204 acquires three-dimensional image data from the three-dimensional camera 109 and transmits it to the three-dimensional object posture estimation unit 205 . The three-dimensional camera 109 includes a stereo camera that uses two color cameras to estimate depth from parallax, and a stereo camera that irradiates a signal of a specific wavelength such as infrared light and measures the round trip time for it to reflect off the object surface and return to the sensor. Examples include a time of flight camera that estimates depth or a monocular camera that estimates depth using a method such as deep learning.

3次元カメラ109の出力である3次元画像データは2つのデータから成り、1つは画角内に写った物体表面とセンサ間の深度を集計した深度画像及びもう1つは特定波長で取得された画像データ(通常は可視広域で取得されたRGB画像)である。 The three-dimensional image data that is the output of the three-dimensional camera 109 consists of two pieces of data: one is a depth image that aggregates the depth between the object surface captured within the angle of view and the sensor, and the other is a depth image that is obtained using a specific wavelength. image data (usually an RGB image acquired in a wide visible range).

パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。従って、把持座標決定時には、3次元画像データを撮影したタイミングを取得し、認識及び制御処理による経過時間内にコンベア107による物体移動距離を加味したうえで目標座標を決定している。 The parallel link robot 101 is attached to a pedestal 106 and cannot move autonomously. Therefore, the object 209 is conveyed to the placement-side workbench 108 by the gripping-side conveyor 107. Therefore, when determining the gripping coordinates, the timing at which the three-dimensional image data was photographed is acquired, and the target coordinates are determined after taking into account the object movement distance by the conveyor 107 within the elapsed time due to recognition and control processing.

例えば、認識制御部204から3次元カメラ109に向かって撮影タイミングを規定するトリガ信号を送信する。あるいは、3次元カメラ109から常に3次元画像データを認識制御部204に伝送し続け、認識制御部204で既定されたタイミングと同じタイミングで撮影された3次元画像データを選択し取得する。このようにして、撮像されたタイミングと認識処理終了時の時間差を推定し、搬送後の座標を推定することが出来る。 For example, the recognition control unit 204 transmits a trigger signal to the three-dimensional camera 109 to specify the timing of photographing. Alternatively, the three-dimensional camera 109 constantly transmits three-dimensional image data to the recognition control unit 204, and the recognition control unit 204 selects and acquires three-dimensional image data photographed at the same timing as the predetermined timing. In this way, it is possible to estimate the time difference between the timing at which the image was captured and the end of the recognition process, and to estimate the coordinates after transportation.

このように、実施例1のロボットシステムでは、3次元カメラ109によりばら積み物体209の3次元データを取得し、認識制御部204にデータ伝送する。認識制御部204では、把持座標201のみを推定するだけに留まらず、物体の大きさを推定し配置座標202、中間座標203及び動作速度を算出する。 In this way, in the robot system of the first embodiment, the three-dimensional camera 109 acquires three-dimensional data of the bulk object 209 and transmits the data to the recognition control unit 204. The recognition control unit 204 not only estimates the grasping coordinates 201, but also estimates the size of the object and calculates the arrangement coordinates 202, intermediate coordinates 203, and motion speed.

そして、3次元カメラ109から得られた3次元画像データに基づき、まず対象物体の3次元位置・姿勢を推定する。同時に、3次元物体モデルを記憶領域から呼び出し、3次元物体の大きさを推定する。そして、3次元物体モデルに予め規定された複数の物体把持候補点の内、最も上面にあり把持可能領域が広い候補点を把持座標201として算出する。 Then, based on the three-dimensional image data obtained from the three-dimensional camera 109, first, the three-dimensional position and orientation of the target object are estimated. At the same time, the three-dimensional object model is called from the storage area and the size of the three-dimensional object is estimated. Then, among the plurality of object gripping candidate points predefined in the three-dimensional object model, the candidate point located on the uppermost surface and having the widest grippable area is calculated as the gripping coordinates 201.

次に、3次元物体の大きさ情報と、3次元位置及び姿勢情報から、物体が配置面に対して緩やかに接触するような配置座標202の高さを算出する。そして、把持座標201と配置座標202を結ぶ中間座標203を算出し、物体の大きさ情報と属性情報から、把持物体を壊さない最上限のロボットの動作速度を算出して出力する。 Next, from the size information of the three-dimensional object and the three-dimensional position and orientation information, the height of the arrangement coordinate 202 at which the object gently contacts the arrangement surface is calculated. Then, intermediate coordinates 203 connecting the grasped coordinates 201 and placement coordinates 202 are calculated, and from the size information and attribute information of the object, the maximum operating speed of the robot that does not destroy the grasped object is calculated and output.

図3を参照して、認識制御部204の認識及び制御処理について説明する。
3次元カメラ109から3次元画像データの内、2次元画像のみが入力され、2次元画像解析により物体識別を行う(ステップ301)。取得した画像内の把持物体を認識し、それぞれの物体の種別を推定する。
With reference to FIG. 3, recognition and control processing by the recognition control unit 204 will be described.
Only the two-dimensional image of the three-dimensional image data is input from the three-dimensional camera 109, and object identification is performed by two-dimensional image analysis (step 301). Recognizes grasped objects in the acquired image and estimates the type of each object.

複数の物体が存在する場合は、ベルトコンベア107の最も進行方向に対して下流に存在する物体を把持対象として選定する。把持対象として選別されたワークの種別情報から、物体の3次元物体モデルを記憶領域から呼び出し、3次元位置姿勢推定を行う(ステップ302)。これにより、把持対象物体がベルトコンベア107上でどのような位置姿勢で存在するかを推定する。 If a plurality of objects exist, the object that exists furthest downstream in the traveling direction of the belt conveyor 107 is selected as the object to be grasped. Based on the type information of the workpiece selected as a gripping target, a three-dimensional object model of the object is called from the storage area, and three-dimensional position and orientation estimation is performed (step 302). As a result, it is estimated in what position and orientation the object to be grasped exists on the belt conveyor 107.

把持点算ステップ303では、複数候補の把持座標の内、把持候補点と把持可能領域を比較し、最も把持しやすい候補点では把持可能領域が広い候補点を把持点の把持座標201として算出する。 In the gripping point calculation step 303, the gripping candidate point and the grippable area are compared among the gripping coordinates of the plurality of candidates, and the candidate point that is the easiest to grip and has a wide grippable area is calculated as the gripping coordinate 201 of the gripping point. do.

図4に示すように、画角内401の把持対象物体に対して、複数の把持候補点402~405が算出され、最も下流の物体の把持点である402、403同士を最終的な候補点選定のために比較する。 As shown in FIG. 4, a plurality of gripping candidate points 402 to 405 are calculated for the object to be gripped within the viewing angle 401, and the gripping points 402 and 403 of the most downstream object are selected as the final candidate points. Compare for selection.

図4に示したように、把持点402と把持点403とでは、把持点402の方がより把持可能領域が広くフラットであるため、最終的な把持点の把持座標201として把持点402の座標を出力する。把持可能領域は、予め物体の3次元モデルに情報として入れ込んでおく。もしくは、2次元画像を用いた機械学習により帰納的に求めてもよい。 As shown in FIG. 4, between the gripping point 402 and the gripping point 403, the grippable area of the gripping point 402 is wider and flatter, so the gripping coordinates 201 of the final gripping point are used as the coordinates of the gripping point 402. Output. The graspable area is entered in advance as information into the three-dimensional model of the object. Alternatively, it may be determined inductively by machine learning using two-dimensional images.

把持点の把持座標201に対してさらに、3次元位置姿勢推定ステップ302にて物体の回転姿勢が求まっているので、Z軸の回転姿勢(RZ)も付与してパラレルリンクロボット101に出力する。 Furthermore, since the rotational orientation of the object has been determined in the three-dimensional position and orientation estimation step 302 for the gripping coordinates 201 of the gripping point, the rotational orientation of the Z axis (RZ) is also assigned and output to the parallel link robot 101.

物体配置座標推定ステップ304では、物体識別ステップ301で得られた物体識別情報、3次元位置姿勢推定ステップ302及び把持点算出ステップ303で得られた物体の把持座標201と物体の回転姿勢を用いて、配置座標202を計算する。 In the object placement coordinate estimation step 304, the object identification information obtained in the object identification step 301, the grasping coordinates 201 of the object obtained in the three-dimensional position and orientation estimation step 302, and the grasping point calculation step 303 and the rotational orientation of the object are used. , the placement coordinates 202 are calculated.

例として、図5に示すように、物体識別情報により、物体209の大きさL1(503)、物体の大きさL2(502)と把持した把持座標(501:点A)とを用いることで、剛体であれば物体209のうち最もコンベアに近い点である点C(507)を計算することが出来る。 As an example, as shown in FIG. 5, by using the object identification information, the size L1 (503) of the object 209, the size L2 (502) of the object, and the grasped coordinates (501: point A), If the object is a rigid body, a point C (507) of the object 209 that is closest to the conveyor can be calculated.

把持座標点A(501)は事前に物体209の3次元モデルに対して既定された点であることから、物体209の把持からの距離L3(504)を求めることができる。通常は、物体209の重心になるように、L3=L1/2となるように設定される。物体209の把持の座標点である点B(506)の座標は、L3(504)及び3次元回転角θ(505)を用いることで、(X+L3cosθ,Y,Z-L3sinθ)として計算できる(510)。 Since the grasp coordinate point A (501) is a point predetermined for the three-dimensional model of the object 209, the distance L3 (504) from the grasp of the object 209 can be determined. Normally, the center of gravity of the object 209 is set so that L3=L1/2. The coordinates of point B (506), which is the coordinate point for grasping the object 209, can be calculated as (X + L3 cos θ, Y, Z - L3 sin θ) by using L3 (504) and three-dimensional rotation angle θ (505). ).

物体209の中で最もコンベア面に近い点C(507)の座標も同様に計算することができ、(X+L3cosθ-L2sinθ,Y,Z-L3sinθ-L2cosθ)として算出できる。 The coordinates of the point C (507) of the object 209 that is closest to the conveyor surface can be similarly calculated as (X+L3cosθ−L2sinθ,Y,Z−L3sinθ−L2cosθ).

よって、物体209のコンベア面までの高さH(508)はH=Z-L3sinθ-L2cosθである。従って配置座標(点D:509)は基準座標(X’、Y’、Z’)に対して、算出した高さH(508)を用いることで、配置座標(509)は(X’、Y’、Z’-H)として求めることができる。 Therefore, the height H (508) of the object 209 to the conveyor surface is H=Z−L3sinθ−L2cosθ. Therefore, by using the calculated height H (508) with respect to the reference coordinates (X', Y', Z'), the layout coordinates (509) can be set to (X', Y ', Z'-H).

このようにすることで、物体の姿勢や大きさに合わせて配置座標が動的に制御されるため、物体を壊すことなく安全に配置することが出来る。なお、配置座標の算出方法は特に上述の手法に限定されるものではなく、深層学習等の機能的な機械学習手法と組み合わせて計算しても良い。 By doing this, the placement coordinates are dynamically controlled according to the posture and size of the object, so the object can be placed safely without damaging it. Note that the method for calculating the arrangement coordinates is not particularly limited to the above-mentioned method, and may be calculated in combination with a functional machine learning method such as deep learning.

中継点算出ステップ305では、把持座標201と配置座標202を入力として、中間座標203を計算する。図6に示すように、中間座標203は把持座標201と配置座標202の中間になるように設定される。 In the relay point calculation step 305, the intermediate coordinates 203 are calculated using the gripping coordinates 201 and the arrangement coordinates 202 as input. As shown in FIG. 6, intermediate coordinates 203 are set to be midway between gripping coordinates 201 and placement coordinates 202.

図6(b)に示すように、低い把持座標601及び配置座標603に対しては、低い中間座標602が設定される。また、中間座標203、602は常にパラレルリンクロボット101が3次元カメラ109の視界を遮らないように設定される。 As shown in FIG. 6(b), a low intermediate coordinate 602 is set for a low gripping coordinate 601 and a low placement coordinate 603. Furthermore, the intermediate coordinates 203 and 602 are set so that the parallel link robot 101 does not always block the view of the three-dimensional camera 109.

また、障害物と干渉を避ける目的で座標の最大値及び最小値の範囲を予め制限する。また、中間座標203、602は1点とは限らず複数の座標点が存在しても良い。 Furthermore, the range of the maximum and minimum values of the coordinates is limited in advance in order to avoid interference with obstacles. Furthermore, the intermediate coordinates 203 and 602 are not limited to one point, and may include a plurality of coordinate points.

このように、中継点算出ステップ305では、推定された物体の姿勢と大きさに基づいて、把持座標201、601と配置座標202、603とを結ぶ中継点である中間座標203、602を動的に制御する。 In this way, in the relay point calculation step 305, the intermediate coordinates 203, 602, which are relay points connecting the grasping coordinates 201, 601 and the placement coordinates 202, 603, are dynamically calculated based on the estimated posture and size of the object. to control.

ロボット動作速度算出ステップ306では、パラレルリンクロボット101の搬送速度を制御する。物体識別結果及び姿勢推定結果を入力とし、予め登録された吸着し辛いものや重いもの、あるいは姿勢が急こう配な物体や、中間座標203がコンベア面に対して高い位置にある点については、搬送速度を遅くすることで搬送精度を高める処理を行う。 In the robot operation speed calculation step 306, the conveyance speed of the parallel link robot 101 is controlled. The object identification results and posture estimation results are input, and the conveyance is performed for pre-registered objects that are difficult to pick up, heavy objects, objects with steep postures, or points whose intermediate coordinates 203 are at a high position relative to the conveyor surface. Processing is performed to increase conveyance accuracy by slowing down the speed.

このように、ロボット動作速度算出ステップ306は、推定された物体の姿勢と大きさに基づいて、物体を把持して把持側のコンベア107から配置側作業台108に移動させる移動速度を動的に制御する。 In this way, the robot operation speed calculation step 306 dynamically adjusts the movement speed at which the object is gripped and moved from the gripping conveyor 107 to the arrangement workbench 108 based on the estimated posture and size of the object. Control.

ロボット制御ステップ307では、これまで計算された把持座標201と姿勢(RZ)、配置座標202、中間座標203、602及び搬送速度を入力変数として受け取り、予め規定されたロボット制御プログラム内の各種変数に代入することでロボット制御プログラムを完成させて処理を実行する。 In the robot control step 307, the grasping coordinates 201, posture (RZ), arrangement coordinates 202, intermediate coordinates 203, 602, and transport speed calculated so far are received as input variables, and are applied to various variables in the robot control program defined in advance. By making substitutions, the robot control program is completed and processing is executed.

図7を参照して、実施例1のロボットシステムの制御方法について説明する。
最初に、3次元カメラ109によりばら積み物体を撮像して3次元データを取得する(S1)。
次に、CNNなどの2次元画像解析を行う(S2)。そして、物体の種別を出力する(S3)。このように、2次元画像解析(S2)では物体の種別を認識し、物体種別を出力しバッファに記憶する(S3)。画像認識技術としては、Convolutional Neural Network(CNN)やテンプレートマッチングなどの手法が一般的である。
A method of controlling the robot system according to the first embodiment will be described with reference to FIG.
First, a three-dimensional camera 109 images a bulk object to obtain three-dimensional data (S1).
Next, two-dimensional image analysis such as CNN is performed (S2). Then, the type of object is output (S3). In this manner, the two-dimensional image analysis (S2) recognizes the type of object, outputs the object type, and stores it in a buffer (S3). Common image recognition techniques include methods such as Convolutional Neural Network (CNN) and template matching.

次に、最も下流の物体を把持対象物体として選定する(S4)。そして、3次元物体モデルを取得する(S5)。そして、3次元データ解析(例:ICP法)を行う(S6)。このように、予め作成され記憶領域に保存されたモデルデータを呼び出し(S5)、3次元データ解析(S6)を実施する。 Next, the most downstream object is selected as the object to be grasped (S4). Then, a three-dimensional object model is obtained (S5). Then, three-dimensional data analysis (eg, ICP method) is performed (S6). In this way, the model data created in advance and stored in the storage area is called up (S5), and three-dimensional data analysis (S6) is performed.

モデルデータを移動及び回転させながら3次元画像データ内との相関度を繰り返し求め、最も相関度の高い位置座標・回転姿勢を求めるIterative Closest Point(ICP)法や、最近では3次元データから把持候補座標点を深層学習により直接算出する方式により、把持対象物体の回転姿勢を求める。 The Iterative Closest Point (ICP) method, which repeatedly calculates the degree of correlation with 3D image data while moving and rotating the model data, and finds the position coordinates and rotational orientation with the highest correlation, and recently, grasping candidates from 3D data. The rotational posture of the object to be grasped is determined by directly calculating the coordinate points using deep learning.

次に、物体の姿勢を出力する(S7)。そして、把持候補点を出力する(S8)。次に、把持領域の最も広い把持点を選択する(S9)。そして、把持点の座標201を出力する(S10)。この時、物体に予め規定された把持候補点も出力(S8)し、把持可能領域を比較し(S9)、最も把持領域の広い把持点を出力する(S0)。そして、配置点の配置座標202を算出する(S11)
次に、中継点203を算出(S12)。そして、ロボット動作速度を算出する(S13)。そして、算出した座標とロボット指令を出力する(S14)。次に、ロボット動作と物体の把持及び配置を行う(S15)。
Next, the attitude of the object is output (S7). Then, grip candidate points are output (S8). Next, the widest gripping point in the gripping area is selected (S9). Then, the coordinates 201 of the gripping point are output (S10). At this time, the gripping candidate points defined in advance on the object are also output (S8), the grippable areas are compared (S9), and the gripping point with the widest gripping area is output (S0). Then, the arrangement coordinates 202 of the arrangement points are calculated (S11) .
Next, the relay point 203 is calculated (S12). Then, the robot operation speed is calculated (S13). Then, the calculated coordinates and robot commands are output (S14). Next, the robot operates and grasps and places the object (S15).

最後に、物体の把持及び配置が完了したかどうかを判定する(S16)。判定の結果、物体の把持及び配置が完了した場合は終了となる。一方、判定の結果、物体の把持及び配置が完了していない場合は、S1に戻る。 Finally, it is determined whether the grasping and placement of the object has been completed (S16). As a result of the determination, if the grasping and placement of the object is completed, the process ends. On the other hand, as a result of the determination, if the gripping and placement of the object are not completed, the process returns to S1.

図8を参照して、実施例2のロボットシステムについて説明する。
実施例2のロボットシステムは、図2に示す実施例1のロボットシステムの認識制御部204を、認識演算処理装置801とロボット制御コントローラ802とに分離したシステムである。その他の構成は、図2に示す実施例1のロボットシステムの構成と同じなのでその説明は省略する。
Referring to FIG. 8, a robot system according to a second embodiment will be described.
The robot system of the second embodiment is a system in which the recognition control unit 204 of the robot system of the first embodiment shown in FIG. 2 is separated into a recognition arithmetic processing unit 801 and a robot control controller 802. The rest of the configuration is the same as the configuration of the robot system of the first embodiment shown in FIG. 2, so the explanation thereof will be omitted.

ロボット制御コントローラ802として分離した場合、3次元カメラ109の撮像タイミングはパラレルリンクロボット101からインタフェース(図示せず)を介して認識演算処理装置801に送信される。インタフェースのリアルタイム性が保証されない場合、トリガ信号到達時間のバラつきも見込んで把持座標201を決定する必要がある。 When separated as a robot controller 802, the imaging timing of the three-dimensional camera 109 is transmitted from the parallel link robot 101 to the recognition arithmetic processing unit 801 via an interface (not shown). If the real-time nature of the interface is not guaranteed, it is necessary to determine the gripping coordinates 201 in consideration of variations in the arrival time of the trigger signal.

上記実施例によれば、パラレルリンクロボットにおいても3次元的にバラ積みされた物品を把持及び整列配置出来るようになる。この結果、従来困難であったパラレルリンクロボットによるばら積みピッキングを実現可能とすることができる。さらに、垂直多関節型ロボットによる自動化と比較し、作業スループットを高速化することができる。 According to the above-mentioned embodiment, even the parallel link robot can grip and arrange the articles stacked in bulk three-dimensionally. As a result, it is possible to realize bulk picking using a parallel link robot, which has been difficult in the past. Furthermore, work throughput can be increased compared to automation using vertically articulated robots.

101 パラレルリンクロボット
102 回転ジョイント
103 ロボットハンド
107 把持側ベルトコンベア
108 配置側作業台
109 3次元カメラ
204 認識制御部
205 3次元物体姿勢推定部
206 3次元物体大きさ推定部
207 把持点/配置点座標算出部
208 中間座標/動作速度算出部
209 物体
801 認識演算処理装置
802 ロボット制御コントローラ
101 Parallel link robot 102 Rotary joint 103 Robot hand 107 Gripping side belt conveyor 108 Arrangement side workbench
109 3D camera
204 Recognition control unit 205 3D object posture estimation unit 206 3D object size estimation unit 207 Gripping point/placement point coordinate calculation unit 208 Intermediate coordinate/motion speed calculation unit 209 Object 801 Recognition calculation processing unit 802 Robot control controller

Claims (11)

撮像部と制御部とを有するパラレルリンクロボットを用いたロボットシステムであって、
前記パラレルリンクロボットは、
回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、
前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、
前記撮像部は、
ばら積みされた前記物体の3次元画像を取得し、
前記制御部は、
前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御し、
前記撮像部は、3次元カメラで構成され、
前記制御部は、
前記3次元カメラから取得した前記3次元画像に基づいて、前記物体の前記姿勢を推定する3次元物体姿勢推定部と、
前記物体の前記大きさを推定する3次元物体大きさ推定部と、
推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体の前記把持座標と前記配置座標を算出する把持点/配置点座標算出部と、
を有し、
前記把持点/配置点座標算出部は、
前記把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を前記把持座標として算出し、
前記配置側では、推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体が破損しないような前記配置座標を算出することを特徴とするロボットシステム。
A robot system using a parallel link robot having an imaging unit and a control unit,
The parallel link robot is
A robot hand equipped with a rotatable joint mechanism grasps objects stacked in bulk three-dimensionally and moves them from the grasping side to the placement side.
The gripping side grips the object at the gripping point, and the placement side releases the object at the placement point;
The imaging unit includes:
obtaining a three-dimensional image of the object stacked in bulk;
The control unit includes:
Estimating the posture and size of the object based on the three-dimensional image,
dynamically controlling the trajectory of the object from the gripping coordinates of the gripping point to the placement coordinates of the placement point based on the estimation results of the posture and size of the object ;
The imaging unit is composed of a three-dimensional camera,
The control unit includes:
a three-dimensional object posture estimation unit that estimates the posture of the object based on the three-dimensional image acquired from the three-dimensional camera;
a three-dimensional object size estimation unit that estimates the size of the object;
a grasping point/arrangement point coordinate calculation unit that calculates the grasping coordinates and the arrangement coordinates of the object based on the estimated posture and size of the object;
has
The grasping point/arrangement point coordinate calculation unit includes:
On the gripping side, among a plurality of predefined object gripping candidate points, a candidate point located on the uppermost surface and having the widest grippable area is calculated as the gripping coordinates;
The robot system is characterized in that, on the placement side, the placement coordinates such that the object is not damaged are calculated based on the estimated posture and size of the object.
前記制御部は、
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記配置座標を可変に制御することにより、前記物体の軌道を動的に制御することを特徴とする請求項1に記載のロボットシステム。
The control unit includes:
2. The robot system according to claim 1, wherein the trajectory of the object is dynamically controlled by variably controlling the placement coordinates based on the estimation results of the posture and size of the object.
前記制御部は、
推定された前記物体の前記姿勢と前記大きさに基づいて、前記把持座標と前記配置座標とを結ぶ中継点である中間座標を動的に制御する中間座標算出部を更に有することを特徴とする請求項1に記載のロボットシステム。
The control unit includes:
The object may further include an intermediate coordinate calculation unit that dynamically controls intermediate coordinates that are relay points connecting the grasping coordinates and the placement coordinates based on the estimated posture and size of the object. The robot system according to claim 1.
前記制御部は、
推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体を把持して前記把持側から前記配置側に移動させる移動速度を動的に制御する動作速度算出部を更に有することを特徴とする請求項1に記載のロボットシステム。
The control unit includes:
The method further includes a motion speed calculation unit that dynamically controls a movement speed for grasping the object and moving it from the grasping side to the placement side based on the estimated posture and size of the object. The robot system according to claim 1.
前記ジョイント機構は、
前記制御部の指示により能動的に動作するモータ式ジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。
The joint mechanism is
The robot system according to claim 1, further comprising a motor-type joint mechanism that actively operates according to instructions from the control unit.
前記ジョイント機構は、
外力に応じて受動的に変形するソフトジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。
The joint mechanism is
The robot system according to claim 1, comprising a soft joint mechanism that passively deforms in response to external force.
前記パラレルリンクロボットは、架台に取り付けられ、
前記物体はコンベアにより搬送されることを特徴とする請求項1に記載のロボットシステム。
The parallel link robot is attached to a pedestal,
The robot system according to claim 1, wherein the object is conveyed by a conveyor.
回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させるパラレルリンクロボットを用いたロボットシステムの制御方法であって、
ばら積みされた前記物体の3次元画像を取得し、
前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
前記把持側では、把持点において前記物体を把持し、
前記配置側では、配置点において前記物体を解除し、
前記物体の姿勢と大きさの推定結果に基づき、前記把持点把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御し、
前記把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を前記把持座標として算出し、
前記配置側では、推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体が破損しないような前記配置座標を算出することを特徴とするロボットシステムの制御方法。
A method for controlling a robot system using a parallel link robot that grips three-dimensionally stacked objects in bulk with a robot hand equipped with a rotatable joint mechanism and moves them from a gripping side to a placement side, the method comprising:
obtaining a three-dimensional image of the object stacked in bulk;
Estimating the posture and size of the object based on the three-dimensional image,
The gripping side grips the object at a gripping point;
On the placement side, release the object at the placement point;
dynamically controlling the trajectory of the object from the gripping coordinates of the gripping point to the placement coordinates of the placement point based on the estimation results of the posture and size of the object ;
On the gripping side, among a plurality of predefined object gripping candidate points, a candidate point located on the uppermost surface and having the widest grippable area is calculated as the gripping coordinates;
The method for controlling a robot system is characterized in that, on the placement side, the placement coordinates such that the object is not damaged are calculated based on the estimated posture and size of the object.
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記配置座標を可変に制御することにより、前記物体の軌道を動的に制御することを特徴とする請求項に記載のロボットシステムの制御方法。 The robot system according to claim 8 , wherein the trajectory of the object is dynamically controlled by variably controlling the arrangement coordinates based on the estimation results of the posture and the size of the object. Control method. 推定された前記物体の前記姿勢と前記大きさに基づいて、前記把持座標と前記配置座標とを結ぶ中継点である中間座標を動的に制御することを特徴とする請求項に記載のロボットシステムの制御方法。 The robot according to claim 8 , wherein the robot dynamically controls intermediate coordinates that are relay points connecting the grasping coordinates and the placement coordinates based on the estimated posture and size of the object. How to control the system. 推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体を把持して前記把持側から前記配置側に移動させる移動速度を動的に制御することを特徴とする請求項に記載のロボットシステムの制御方法。 9. A moving speed at which the object is gripped and moved from the gripping side to the placement side is dynamically controlled based on the estimated posture and size of the object. control method for robot systems.
JP2019218696A 2019-12-03 2019-12-03 Robot system and robot system control method Active JP7353948B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019218696A JP7353948B2 (en) 2019-12-03 2019-12-03 Robot system and robot system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218696A JP7353948B2 (en) 2019-12-03 2019-12-03 Robot system and robot system control method

Publications (2)

Publication Number Publication Date
JP2021088019A JP2021088019A (en) 2021-06-10
JP7353948B2 true JP7353948B2 (en) 2023-10-02

Family

ID=76218888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218696A Active JP7353948B2 (en) 2019-12-03 2019-12-03 Robot system and robot system control method

Country Status (1)

Country Link
JP (1) JP7353948B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022181143A (en) 2021-05-25 2022-12-07 株式会社ミツトヨ microscope unit
WO2023209827A1 (en) * 2022-04-26 2023-11-02 ファナック株式会社 Robot, robot control device, and work robot system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171039A (en) 2011-02-21 2012-09-10 Fanuc Ltd Conveying device for rod

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171039A (en) 2011-02-21 2012-09-10 Fanuc Ltd Conveying device for rod

Also Published As

Publication number Publication date
JP2021088019A (en) 2021-06-10

Similar Documents

Publication Publication Date Title
JP6823008B2 (en) Robot system for taking out workpieces stacked separately and control method for robot system
JP5778311B1 (en) Picking apparatus and picking method
US11396101B2 (en) Operating system, control device, and computer program product
US11701777B2 (en) Adaptive grasp planning for bin picking
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
Rolley-Parnell et al. Bi-manual articulated robot teleoperation using an external RGB-D range sensor
JP6697204B1 (en) Robot system control method, non-transitory computer-readable recording medium, and robot system control device
JP6444499B1 (en) Control device, picking system, distribution system, program, and control method
WO2020158060A1 (en) Object grasping system
JP7353948B2 (en) Robot system and robot system control method
JP5618067B2 (en) Bulk picking apparatus and method
WO2022098706A1 (en) Robotic tools and methods for operating same
JP2021024002A (en) Article conveyance system having plurality of movable parts
US20230158676A1 (en) Controlling multiple robots to cooperatively pick and place items
Watanabe et al. Cooking behavior with handling general cooking tools based on a system integration for a life-sized humanoid robot
WO2022014133A1 (en) Mobile manipulator, method for controlling same, program
KR101197125B1 (en) Object picking system and object picking method
JP7034971B2 (en) Actuation systems, controls, and programs
Rastegarpanah et al. Autonomous vision-guided bi-manual grasping and manipulation
TWI851310B (en) Robot and method for autonomously moving and grabbing objects
Timmermann et al. AI4Assembly A Human-Robot Collaboration Assembly Application with AI Support
TWI854340B (en) Robotic system, method of controlling a robotic system, and computer program product to control a robotic system
US20240109181A1 (en) Grasp teach by human demonstration
CN114683299B (en) Robot tool and method of operating the same
TWI859620B (en) Robotic system to control multiple robots to perform a task cooperatively, method for controlling a robotic system, and computer program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7353948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150