[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5440885B2 - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP5440885B2
JP5440885B2 JP2011230684A JP2011230684A JP5440885B2 JP 5440885 B2 JP5440885 B2 JP 5440885B2 JP 2011230684 A JP2011230684 A JP 2011230684A JP 2011230684 A JP2011230684 A JP 2011230684A JP 5440885 B2 JP5440885 B2 JP 5440885B2
Authority
JP
Japan
Prior art keywords
robot
tool
specific
lifting
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011230684A
Other languages
Japanese (ja)
Other versions
JP2013086229A (en
Inventor
哲也 三次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2011230684A priority Critical patent/JP5440885B2/en
Priority to US13/371,476 priority patent/US8930009B2/en
Priority to EP12155537.9A priority patent/EP2583796A2/en
Priority to CN201210039248XA priority patent/CN103056884A/en
Priority to BR102012003829-3A priority patent/BR102012003829A2/en
Publication of JP2013086229A publication Critical patent/JP2013086229A/en
Application granted granted Critical
Publication of JP5440885B2 publication Critical patent/JP5440885B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

開示の実施形態は、例えば、搬送装置による搬送経路上を搬送されてくる対象物を持ち上げつつ移送する作業、対象物に対し接着剤や塗料等を塗布する作業、対象物の不要部位を切除する作業、対象物に対し焼印を押す作業、等の所定の作業を行うためのツールを取り付け可能なロボットを備えたロボットシステムに関する。   The disclosed embodiments include, for example, an operation of lifting and transferring an object conveyed on a conveyance path by a conveying device, an operation of applying an adhesive or a paint to the object, and removing an unnecessary portion of the object The present invention relates to a robot system including a robot to which a tool for performing a predetermined work such as a work, a work of pressing a branding on an object, and the like can be attached.

従来、搬送装置による搬送経路上を搬送されてくる対象物に対し上記のような所定の作業を行う技術が知られている(例えば、特許文献1参照)。この従来技術においては、搬送装置(ベルトコンベア)によって順次対象物(ワーク)が搬送されてきて、流れてくる対象物は、定位置についた時にビデオカメラによって撮影される。ビデオカメラで生成された映像信号は、画像処理装置に送られ、画像処理装置では、対象物の形状、載置姿勢、凹凸の有無、バリの位置等を確認する。そして、その情報に基づいて、例えばロボット(多関節ロボット)のロボットアームに固定されたツール(ロボットハンド)の、2本の指に設けられた爪間隔可変機構に取り付けられた把持爪を、対象物に当てる位置を決定し、これに従って爪間隔可変機構は、把持爪の間隔を調整する。   2. Description of the Related Art Conventionally, a technique for performing a predetermined operation as described above on an object conveyed on a conveyance path by a conveyance device is known (for example, see Patent Document 1). In this prior art, an object (work) is sequentially conveyed by a conveying device (belt conveyor), and the flowing object is photographed by a video camera when it reaches a fixed position. The video signal generated by the video camera is sent to the image processing device, and the image processing device confirms the shape of the object, the mounting posture, the presence or absence of unevenness, the position of the burr, and the like. Based on the information, for example, gripping claws attached to a claw interval variable mechanism provided on two fingers of a tool (robot hand) fixed to a robot arm of a robot (multi-joint robot), for example, The position to be applied to the object is determined, and the claw interval varying mechanism adjusts the interval between the gripping claws according to this position.

そして、ロボットアームが画像処理装置からの情報により、対象物の位置まで移動し、ツールで対象物を把持する。その後、ロボットアームは、グラインダに対象物の未整形部を当て、上下、回転、持ち替え等することにより、整形をする。対象物の整形が終了すれば、ロボットアームは、対象物を搬送装置上に置き、一連の作業を終了し、次の対象物に向けて把持爪の間隔を調整する。   Then, the robot arm moves to the position of the target object based on information from the image processing apparatus, and grips the target object with the tool. Thereafter, the robot arm performs shaping by placing an unshaped part of the object on the grinder and moving it up and down, rotating, holding, or the like. When the shaping of the object is completed, the robot arm places the object on the transport device, finishes the series of operations, and adjusts the interval between the gripping claws toward the next object.

特開平11−262886号公報JP-A-11-262886

一般に、ロボットに対しては、予め例えば教示ペンダント等を介して入力された動作指令が出力され、ロボットは、この動作指令に基づき動作する。   In general, an operation command input in advance via a teaching pendant or the like is output to the robot, and the robot operates based on the operation command.

ところで、例えば野菜や果物といった自然物や、複数種類が混在した状態の人工物(工業製品)等、個体間で形状が不定な不定形物を対象物とする場合、対象物間の形状にばらつきがあり、各対象物の形状を確認できないため、ロボットは、動作指令に基づき動作しても、搬送経路上を搬送されてくる対象物に対しツールにより所定の作業を精度良く行えないおそれがある。上記従来技術においては、搬送経路上を搬送されてくる対象物をビデオカメラで撮影し、その映像信号に基づき、対象物の形状を確認するので、対象物が自然物や人工物等の形状が不定な不定形物である場合でも、上記映像信号に基づき動作指令の補正を行って、ロボットに対し補正後の動作指令を出力することで、ロボットは、補正後の動作指令に基づき動作することで、搬送経路上を搬送されてくる対象物に対しツールにより所定の作業を精度良く行うことが可能となる。   By the way, when the target object is an indefinite shape whose shape is indeterminate among individuals, such as natural objects such as vegetables and fruits, and artificial objects (industrial products) in which a plurality of types are mixed, there is a variation in the shape between the objects. In addition, since the shape of each object cannot be confirmed, even if the robot operates based on the operation command, there is a possibility that a predetermined operation cannot be accurately performed by the tool on the object conveyed on the conveyance path. In the above prior art, the object conveyed on the conveyance path is photographed with a video camera, and the shape of the object is confirmed based on the video signal. Therefore, the shape of the object is not natural or artificial. Even if it is a non-standard shaped object, the operation command is corrected based on the video signal and the corrected operation command is output to the robot, so that the robot operates based on the corrected operation command. Thus, it is possible to accurately perform a predetermined work on the object conveyed on the conveyance path with a tool.

しかしながら、ビデオカメラ等の撮像装置で撮像した撮像画像に基づいては、対象物の2次元形状は確認できるものの、対象物の3次元形状を正確に確認するのは困難である。このため、対象物が不定形物である場合、撮像装置で撮像した撮像画像に基づき動作指令の補正を行う手法では、ロボットが補正後の動作指令に基づき動作しても、搬送経路上を搬送されてくる対象物に対し所定の作業を確実に精度良く行えるとは言えず、精度良く行われなかった結果、作業後の対象物が不良品となり、市場に出すことができず、生産性が低下するという問題があった。一方で、搬送経路上を搬送されてくる対象物に対し所定の作業を確実に精度良く行うため、通常よりも長い時間をかけて作業を行う手法が考えられるが、この場合、タクトタイムが延長するので、上記の場合と同様、生産性が低下するという問題があった。   However, although it is possible to confirm the two-dimensional shape of the target object based on the captured image captured by an imaging device such as a video camera, it is difficult to accurately confirm the three-dimensional shape of the target object. For this reason, when the object is an indeterminate shape, the method of correcting the operation command based on the captured image captured by the imaging device is transported on the transport path even if the robot operates based on the corrected operation command. It cannot be said that the prescribed work can be performed accurately and accurately on the target object, and as a result of not being performed accurately, the target object after the work becomes defective and cannot be put on the market. There was a problem of lowering. On the other hand, in order to reliably perform a predetermined operation on an object conveyed on the conveyance path with accuracy, a method of performing the operation over a longer time than usual can be considered, but in this case, the tact time is extended. Therefore, as in the case described above, there is a problem that productivity is lowered.

本発明はこのような問題に鑑みてなされたものであり、生産性を向上できるロボットシステムを提供することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to provide a robot system capable of improving productivity.

上記課題を解決するため、本発明の一の観点によれば、対象物を搬送する搬送装置と、前記搬送装置による搬送経路上を搬送されてくる前記対象物の3次元形状を検知する3次元センサと、前記対象物を所定の持ち上げ方法により持ち上げつつ移送する作業を行うためのツールを取り付け可能な複数台のロボットと、前記ロボットに対し動作指令を出力する第1指令出力手段、前記3次元センサの検知結果に対応する3次元情報に基づき、前記搬送経路上を搬送されてくる前記対象物に対する前記ツールによる持ち上げ処理の処理態様としての持ち上げ方法の決定を行う第1態様決定手段、前記複数台のロボットのうち、前記第1態様決定手段により決定された持ち上げ方法に対応する第1ツールが取り付けられた第1ロボットの選択を行う第1ロボット選択手段、及び、前記3次元センサの検知結果に基づき、前記動作指令の補正を行う第1動作補正手段、を有する第1コントローラ手段と、を有し、前記第1動作補正手段は、前記第1ロボットに取り付けられた前記第1ツールにより、前記搬送経路上を搬送されてくる前記対象物を持ち上げつつ移送するように、前記動作指令の補正を行い、前記第1指令出力手段は、前記第1ロボットに対し、前記第1動作補正手段による補正後の動作指令を出力することを特徴とするロボットシステムが適用される。
上記課題を解決するため、本発明の他の観点によれば、対象物を搬送する搬送装置と、前記搬送装置による搬送経路上を搬送されてくる前記対象物の3次元形状を検知する3次元センサと、前記対象物を所定の持ち上げ方法により持ち上げつつ移送する作業を行うためのツールを取り付け可能な複数台のロボットと、前記ロボットに対し動作指令を出力する第2指令出力手段、前記3次元センサの検知結果に対応する3次元情報に基づき、前記搬送経路上を搬送されてくる前記対象物に対する前記ツールによる持ち上げ処理の処理態様としての、前記ロボットの前記持ち上げ処理を開始するまでの待機姿勢の決定を行う第2態様決定手段、前記複数台のロボットのうち、前記第2態様決定手段により決定された待機姿勢で待機する第2ロボットの選択を行う第2ロボット選択手段、及び、前記3次元センサの検知結果に基づき、前記動作指令の補正を行う第2動作補正手段、を有する第2コントローラ手段と、を有し、前記第2動作補正手段は、前記第2ロボットに取り付けられた前記ツールにより、前記搬送経路上を搬送されてくる前記対象物を持ち上げつつ移送するように、前記動作指令の補正を行い、前記第2指令出力手段は、前記第2ロボットに対し、前記第2動作補正手段による補正後の動作指令を出力することを特徴とする、ロボットシステムが適用される。
In order to solve the above problems, according to one aspect of the present invention, a transport device that transports an object and a three-dimensional shape that detects a three-dimensional shape of the target object that is transported on a transport path by the transport device. sensor and, a plurality of robots can be attached a tool for performing the task of transferring the object while lifted by a predetermined lifting method, the first command output means to output an operation command to the robot, the 3 First mode determining means for determining a lifting method as a processing mode of lifting processing by the tool for the object transported on the transport path based on three-dimensional information corresponding to a detection result of a dimension sensor; Of the plurality of robots, the first robot to which the first tool corresponding to the lifting method determined by the first mode determining means is attached is selected. Robot selection means, and, based on the detection result of the three-dimensional sensor, wherein a first operation correcting means for correcting the operation command, the first controller means having, a first operation correction unit, The first command output means corrects the operation command so that the first tool attached to the first robot is transported while lifting the object transported on the transport path . The robot system is characterized in that an operation command corrected by the first operation correcting means is output to the first robot.
In order to solve the above problems, according to another aspect of the present invention, a transport device that transports an object, and a three-dimensional shape that detects a three-dimensional shape of the target object that is transported on a transport path by the transport device. A plurality of robots to which a sensor, a tool for performing a transfer operation while lifting the object by a predetermined lifting method, a second command output means for outputting an operation command to the robot, the three-dimensional Based on the three-dimensional information corresponding to the detection result of the sensor, the waiting posture until the lifting process of the robot is started as a processing mode of the lifting process by the tool for the object transported on the transport path A second mode determination means for determining the second robot waiting in the standby posture determined by the second mode determination means among the plurality of robots. Second controller selecting means, and second controller means having second action correcting means for correcting the action command based on the detection result of the three-dimensional sensor, and the second controller means. The motion correction means corrects the motion command so as to lift and transfer the object transported on the transport path by the tool attached to the second robot, and outputs the second command output. The robot system is applied, wherein the means outputs an operation command corrected by the second operation correction unit to the second robot.

本発明のロボットシステムによれば、生産性を向上することができる。   According to the robot system of the present invention, productivity can be improved.

一実施の形態のらっきょう切断加工システムの全体構成を模式的に表す上面図である。It is a top view which represents typically the whole structure of the cutting cutting system of one Embodiment. らっきょう切断加工システムの全体構成を模式的に表す側面図である。It is a side view which represents typically the whole structure of a rough cutting processing system. コントローラが実行する制御内容の一例を表すフローチャートである。It is a flowchart showing an example of the control content which a controller performs. らっきょう切断加工システムの動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of a rough cutting processing system. らっきょう切断加工システムの動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of a rough cutting processing system. らっきょう切断加工システムの動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of a rough cutting processing system. らっきょう切断加工システムの動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of a rough cutting processing system. らっきょう切断加工システムの動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of a rough cutting processing system. らっきょう切断加工システムの動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of a rough cutting processing system. らっきょう切断加工システムの動作の一例を説明する説明図である。It is explanatory drawing explaining an example of operation | movement of a rough cutting processing system. ロボットの待機姿勢を決定してロボットを選択する変形例のらっきょう切断加工システムの全体構成を模式的に表す側面図である。It is a side view which represents typically the whole structure of the cutting cutting system of the modification which determines the standby posture of a robot, and selects a robot. コントローラが実行する制御内容の一例を表すフローチャートである。It is a flowchart showing an example of the control content which a controller performs. ロボットの設置領域を決定してロボットを選択する変形例のらっきょう切断加工システムの全体構成を模式的に表す側面図である。It is a side view which represents typically the whole structure of the cutting cutting system of the modification which determines the installation area | region of a robot, and selects a robot. コントローラが実行する制御内容の一例を表すフローチャートである。It is a flowchart showing an example of the control content which a controller performs. ロボットを1台だけ設置する変形例のらっきょう切断加工システムの全体構成を模式的に表す側面図である。It is a side view which represents typically the whole structure of the cutting cutting system of the modification which installs only one robot. らっきょう切断加工システムの全体構成を模式的に表す側面図である。It is a side view which represents typically the whole structure of a rough cutting processing system. コントローラが実行する制御内容の一例を表すフローチャートである。It is a flowchart showing an example of the control content which a controller performs.

以下、一実施の形態について図面を参照しつつ説明する。   Hereinafter, an embodiment will be described with reference to the drawings.

図1及び図2に示すように、本実施形態のらっきょう切断加工システム10(ロボットシステム)は、らっきょう12(対象物)に対し、根毛部12a及び茎部12bを切除して球根部12cを抽出する切断加工を行うシステムである。なお、らっきょう12は、球根野菜、すなわち自然物であり、個体間の形状(例えば、根毛部12a、茎部12b、及び球根部12cの位置、大きさ、範囲等)にばらつきがあって、個体間の形状が不定な不定形物の一例である。このらっきょう切断加工システム10は、コンベア14(搬送装置)と、3次元センサ18と、複数台(この例では2台)のロボット16A,16B(以下適宜、これらを区別なく示す場合には「ロボット16」と称する)と、コントローラ28(コントローラ手段)とを有している。なお、コンベア14、3次元センサ18、及び各ロボット16A,16Bと、コントローラ28とは、相互通信可能に接続されている。 As shown in FIGS. 1 and 2, the raccoon cutting processing system 10 (robot system) of the present embodiment extracts the bulb part 12c by cutting the root hair part 12a and the stem part 12b from the raccoon 12 (object). It is a system that performs the cutting process. The raccoon 12 is a bulbous vegetable, that is, a natural product, and has a variation in shape (for example, the position, size, range, etc. of the root hair portion 12a, the stem portion 12b, and the bulb portion 12c). This is an example of an indefinite shape having an indefinite shape. This cutting and cutting system 10 includes a conveyor 14 (conveying device), a three-dimensional sensor 18, and a plurality of (two in this example) robots 16A and 16B (hereinafter referred to as “robots when appropriate, without any distinction”). 16 ”) and a controller 28 (controller means). The conveyor 14, the three-dimensional sensor 18, the robots 16A and 16B, and the controller 28 are connected so as to be able to communicate with each other.

コンベア14は、搬送面に載置されたらっきょう12を一方向(図1中の右側から左側、図2中の紙面奥行き側から紙面手前側)へ搬送する装置であり、モータ142と、コンベア駆動部144(駆動部)と、エンコーダ146とを備えている。モータ142は、回転力を発生する。コンベア駆動部144は、モータ142に連結されており、当該モータ142の回転力により回転駆動される。エンコーダ146は、コンベア駆動部144に連結されており、当該コンベア駆動部144の回転位置を検出する。エンコーダ146の検出結果、すなわちコンベア駆動部144の回転位置情報は、コントローラ28へ出力される。   The conveyor 14 is a device that conveys the paper 12 placed on the conveyance surface in one direction (from the right side to the left side in FIG. 1 and from the depth side to the front side in FIG. 2). A unit 144 (drive unit) and an encoder 146 are provided. The motor 142 generates a rotational force. The conveyor driving unit 144 is connected to the motor 142 and is driven to rotate by the rotational force of the motor 142. The encoder 146 is connected to the conveyor driving unit 144 and detects the rotational position of the conveyor driving unit 144. The detection result of the encoder 146, that is, the rotational position information of the conveyor driving unit 144 is output to the controller 28.

3次元センサ18は、レーザ光源及びカメラを備えており、コンベア14による搬送経路の上流側において、当該搬送経路の上方に位置すると共にレーザ光源及びカメラが下方を向くように、床部に固定された略逆L字状の支持部材32に固定されている。具体的には、レーザ光源は、コンベア14の搬送面における所定の位置に、コンベア14の搬送方向と直交する方向に長いスリット状(線状)のレーザ光(以下適宜、「レーザスリット光」と称する)を連続して照射(投光)するように配向されている。カメラは、レーザ光源によるレーザ光スリット照射経路とは異なる光路の反射光(入射光に対し所定の角度を有する反射光)を受光するように配向されており、レーザ光源によるレーザスリット光照射位置及びその近傍を連続的に撮像する。   The three-dimensional sensor 18 includes a laser light source and a camera, and is fixed to the floor so that the laser light source and the camera are directed downward on the upstream side of the transport path by the conveyor 14 and positioned above the transport path. Further, it is fixed to a substantially inverted L-shaped support member 32. More specifically, the laser light source is a slit-shaped (linear) laser beam (hereinafter referred to as “laser slit light” as appropriate) at a predetermined position on the conveyor 14 conveyor surface in a direction orthogonal to the conveyor 14 conveyance direction. Is oriented so as to continuously irradiate (project). The camera is oriented so as to receive reflected light (reflected light having a predetermined angle with respect to incident light) of an optical path different from the laser light slit irradiation path by the laser light source, and the laser slit light irradiation position by the laser light source and The vicinity is continuously imaged.

この3次元センサ18は、搬送経路上を所定の速度で連続して続々と搬送されてくる、すなわち、検知領域が設定された下方を通過していくらっきょう12にレーザ光源からレーザスリット光を照射し、そのレーザスリット光の反射光をカメラで撮像して、下方を通過していくらっきょう12を走査する。そして、カメラの撮像画像に基づき、三角測量の原理を用いて上記走査したらっきょう12までの距離を算出して、当該らっきょう12の3次元形状を検知する。3次元センサ18の検知結果、すなわち3次元センサ18のカメラの撮像画像及びその撮像画像上の距離情報は、コントローラ28へ出力される。   The three-dimensional sensor 18 is continuously transported continuously at a predetermined speed on the transport path, that is, the laser slit light is irradiated from the laser light source to the surface 12 passing through the lower part where the detection area is set. Then, the reflected light of the laser slit light is imaged by the camera, and the undercarriage 12 is scanned while passing below. Then, based on the captured image of the camera, the distance to the screen 12 is calculated using the principle of triangulation, and the three-dimensional shape of the screen 12 is detected. The detection result of the three-dimensional sensor 18, that is, the captured image of the camera of the three-dimensional sensor 18 and the distance information on the captured image are output to the controller 28.

各ロボット16A,16Bは、3次元センサ18よりも搬送経路の下流側において、当該搬送経路に沿って各ロボット16A,16B同士がある程度(例えば1m程度)離間するように、搬送経路の幅方向一方側(図1中の上側、図2中の左側)領域及び他方側(図1中の下側、図2中の右側)領域に亘ってそれぞれ設置されている。また、ロボット16A,16Bのうち搬送経路の最も上流側のロボット16Aは、後述のツール(具体的には、後述の吸着パッド166a)により、搬送経路上を搬送されてくるらっきょう12に対し後述の持ち上げ処理を行う領域が、3次元センサ18の固定位置、具体的には3次元センサ18によるらっきょう12の検知領域、から搬送経路の下流側に、当該搬送経路に沿って所定の距離S(らっきょう12が3次元センサ18の検知結果から後述の距離画像を取得するための処理にかかる処理時間に搬送される距離。例えば1m)以上離間するように、設置されている。   Each of the robots 16A and 16B has one side in the width direction of the transport path so that the robots 16A and 16B are separated to some extent (for example, about 1 m) along the transport path on the downstream side of the transport path from the three-dimensional sensor 18. 1 (the upper side in FIG. 1, the left side in FIG. 2) region and the other side (the lower side in FIG. 1, the right side in FIG. 2) region. Of the robots 16A and 16B, the robot 16A on the most upstream side of the transport path is described later with respect to the rack 12 that is transported on the transport path by a tool described later (specifically, a suction pad 166a described later). The area where the lifting process is performed is a predetermined distance S along the conveyance path from the fixed position of the three-dimensional sensor 18, specifically, the detection area of the outline 12 by the three-dimensional sensor 18, along the conveyance path. 12 is a distance transported during a processing time required for processing for obtaining a distance image described later from the detection result of the three-dimensional sensor 18 (for example, 1 m) or more.

これら各ロボット16A,16Bは、この例では垂直多関節ロボットであり、基台162と、旋回ベース163と、アーム164と、らっきょう12を所定の持ち上げ方法により持ち上げつつ移送する作業(所定の作業に相当)を行うためのツールとを備えている。基台162は、図示しない床部に固定された台座30の天側に対し固定されている。旋回ベース163は、基台162に対し旋回自在に取り付けられている。アーム164は、複数の部材から構成されており、各部材同士が回転自在に取り付けられている。また、各ロボット16A,16Bの周囲には、カメラ20、切断装置22、廃棄ボックス24、及び投入ボックス26がそれぞれ設置されている。なお、各カメラ20,20と、コントローラ28とは、相互通信可能に接続されている。   Each of these robots 16A and 16B is a vertical articulated robot in this example, and is a work for lifting and transferring the base 162, the turning base 163, the arm 164, and the rack 12 by a predetermined lifting method (for a predetermined work). Equivalent). The base 162 is fixed to the top side of the base 30 fixed to a floor (not shown). The turning base 163 is attached to the base 162 so as to freely turn. The arm 164 is composed of a plurality of members, and each member is rotatably attached. Further, a camera 20, a cutting device 22, a disposal box 24, and a throwing box 26 are installed around each robot 16A, 16B. The cameras 20 and 20 and the controller 28 are connected so as to be able to communicate with each other.

搬送経路の上流側のロボット16Aは、アーム164の先端に、上記ツールとして、図示しない真空装置により真空状態にされることで、らっきょう12を上記所定の持ち上げ方法としての真空吸着により持ち上げ可能な吸着パッド166a(吸着装置)が取り付けられている。このロボット16Aは、旋回ベース163及びアーム164を協調動作することで、搬送経路上を搬送されてくるらっきょう12(詳細には、後述のようにらっきょう12の球根部12cの部分)に吸着パッド166aを接触させ、吸着パッド166aによる真空吸着により当該らっきょう12を持ち上げつつ、周囲の後述のカメラ20のレンズ201の視野内の所定の撮像位置へ移動させる。そして、吸着パッド166aにより持ち上げているらっきょう12を、周囲の後述の切断装置22の円形カッタ222の刃2221の位置へ移動させ、当該切断装置22により上記切断加工を行わせる。その後、吸着パッド166aにより持ち上げている、上記切断加工により根毛部12a及び茎部12bが切除されたらっきょう12の球根部12cを、周囲の投入ボックス26の上方へ移動させ、当該投入ボックス26へ投入する。   The robot 16 </ b> A on the upstream side of the transfer path is capable of lifting the hood 12 by vacuum suction as the predetermined lifting method by being vacuumed by the vacuum device (not shown) as the tool at the tip of the arm 164. A pad 166a (adsorption device) is attached. This robot 16A cooperates with the turning base 163 and the arm 164, so that the suction pad 166a is placed on the raccoon 12 (specifically, the bulb 12c portion of the raccoon 12 as described later) that is transported on the transport path. Are moved to a predetermined imaging position within the field of view of a lens 201 of the camera 20 to be described later, while lifting the vacuum 12 by vacuum suction by the suction pad 166a. Then, the roof 12 lifted by the suction pad 166a is moved to the position of the blade 2221 of the circular cutter 222 of the surrounding cutting device 22 described later, and the cutting device 22 performs the cutting process. After that, when the root hair portion 12a and the stem portion 12b are removed by the above-described cutting process, the bulb portion 12c of the crown 12 is moved above the surrounding charging box 26 and charged into the charging box 26. To do.

一方、搬送経路の下流側のロボット16Bは、アーム164の先端に、上記ツールとして、らっきょう12を上記所定の持ち上げ方法としての把持により持ち上げ可能なハンド166b(ロボットハンド)が取り付けられている。このロボット16Bは、旋回ベース163及びアーム164を協調動作することで、搬送されてくるらっきょう12(詳細には、後述のようにらっきょう12の球根部12cの部分)にハンド166bを接触させ、ハンド166bによる把持により当該らっきょう12を持ち上げつつ、周囲の後述のカメラ20のレンズ201の視野内の所定の撮像位置へ移動させる。そして、ハンド166bにより持ち上げているらっきょう12を、周囲の後述の切断装置22の円形カッタ222の刃2221の位置へ移動させ、当該切断装置22により上記切断加工を行わせる。その後、ハンド166bにより持ち上げている、上記切断加工により根毛部12a及び茎部12bが切除されたらっきょう12の球根部12cを、周囲の投入ボックス26の上方へ移動させ、当該投入ボックス26へ投入する。   On the other hand, the robot 16B on the downstream side of the transfer path has a hand 166b (robot hand) that can lift the raccoon 12 by gripping as the predetermined lifting method, as the tool, is attached to the tip of the arm 164. The robot 16B moves the swing base 163 and the arm 164 in a coordinated manner to bring the hand 166b into contact with the transported hood 12 (specifically, the bulb 12c portion of the wrapping 12 as described later). The handle 12 is moved up to a predetermined imaging position in the field of view of a lens 201 of the camera 20 described later while being lifted by the gripping by 166b. Then, the rack 12 lifted by the hand 166b is moved to the position of a blade 2221 of a circular cutter 222 of the cutting apparatus 22 described later, and the cutting apparatus 22 performs the cutting process. After that, when the root hair portion 12a and the stem portion 12b are removed by the cutting process, which is lifted by the hand 166b, the bulb portion 12c of the crown 12 is moved above the surrounding throwing box 26 and thrown into the throwing box 26. .

なお、吸着パッド166aによる真空吸着によりらっきょう12を持ち上げる際のタクトタイムは、ハンド166bによる把持によりらっきょう12を持ち上げる際のタクトタイムよりも短くなっている。すなわち、吸着パッド166aによる真空吸着の方がハンド166bによる把持よりも、らっきょう12を速く持ち上げ可能となっている。   The tact time when lifting the candy 12 by vacuum suction by the suction pad 166a is shorter than the tact time when lifting the luck 12 by gripping with the hand 166b. That is, the vacuum suction by the suction pad 166a can be lifted faster than the grip by the hand 166b.

各カメラ20,20は、レンズ201と、レンズ201の周囲にリング状に配置された複数のLEDで構成された照明202とを正面側に備えており、背面側がコンベア14の側面側に向くと共に、レンズ201の視野が、周囲のロボット16のツールの可動範囲内に位置するように、各ロボット16A,16Bの近傍にそれぞれ設置されている。各カメラ20,20を正面側が上方に向かないように設置することで、上方から落下してくる水滴よりレンズ201を守ることができる。また、各カメラ20,20のレンズ201の正面側には、図示しないバックライトが設置されている。そして、これら各カメラ20,20は、上記のように、周囲のロボット16によってらっきょう12がレンズ201の視野内の上記撮像位置に移動させられたとき、レンズ201を介して当該視野内を撮像することで、撮像位置に移動させられたらっきょう12を撮像して、当該らっきょう12の形状及び姿勢を検知する。各カメラ20,20の検知結果、すなわち各カメラ20,20の撮像画像は、コントローラ28へ出力される。   Each camera 20, 20 includes a lens 201 and an illumination 202 composed of a plurality of LEDs arranged in a ring shape around the lens 201 on the front side, and the back side faces the side of the conveyor 14. The lens 201 is installed in the vicinity of each robot 16A, 16B so that the field of view of the lens 201 is located within the movable range of the tool of the surrounding robot 16. By installing the cameras 20 and 20 so that the front side does not face upward, the lens 201 can be protected from water drops falling from above. Further, a backlight (not shown) is installed on the front side of the lens 201 of each camera 20, 20. Each of the cameras 20 and 20 captures an image of the visual field through the lens 201 when the surrounding robot 16 is moved to the imaging position within the visual field of the lens 201 as described above. As a result, when the image is moved to the image pickup position, the image of the image 12 is captured, and the shape and posture of the image 12 are detected. The detection results of the cameras 20, 20, that is, the captured images of the cameras 20, 20 are output to the controller 28.

各切断装置22,22は、らっきょう12に対し上記切断加工を行う刃2221を外周に備えた、周方向に回転する円形カッタ222を有しており、円形カッタ222の刃2221の位置が、周囲のロボット16のツールの可動範囲内に位置するように、各ロボット16A,16Bの近傍にそれぞれ設置されている。   Each of the cutting devices 22, 22 has a circular cutter 222 that rotates in the circumferential direction with a blade 2221 that performs the above-described cutting processing on the package 12, and the position of the blade 2221 of the circular cutter 222 is The robots 16 are installed in the vicinity of the robots 16A and 16B so as to be located within the movable range of the tool of the robot 16.

各廃棄ボックス24,24は、切断装置22で切断されたらっきょう12の根毛部12a及び茎部12bを廃棄するための天側が開放した箱であり、各切断装置22,22の下方にそれぞれ設置されている。   Each disposal box 24, 24 is a box opened on the top side for discarding the root hair portion 12 a and stem portion 12 b of the plant 12 that has been cut by the cutting device 22, and is installed below each cutting device 22, 22. ing.

各投入ボックス26,26は、切断装置22で根毛部12a及び茎部12bが切除されたらっきょう12の球根部12cを投入するための天側が開放した箱であり、各ロボット16A,16Bの近傍にそれぞれ設置されている。   Each throwing box 26, 26 is a box whose top side is opened for throwing the bulb portion 12c of the crown 12 after the root hair portion 12a and the stem portion 12b are cut by the cutting device 22, and is placed in the vicinity of each robot 16A, 16B. Each is installed.

コントローラ28は、3次元カメラ18、各ロボット16A,16B、及び各カメラ20,20等の動作を制御するための、入力装置、表示装置、記憶装置、及び演算装置等を備えたコンピュータで構成されている。このコントローラ28の記憶装置には、予め例えば教示ペンダント等を介して入力された、搬送経路上を搬送されてくるらっきょう12に対しツールにより持ち上げつつ移送する作業を行うための、ロボット16及びツールの種別の指定がされていない動作指令(例えば、各制御点の位置、各関節の角度、補間動作の種別等の教示データ)を含む、複数の動作指令が格納されている。   The controller 28 is composed of a computer including an input device, a display device, a storage device, an arithmetic device, and the like for controlling the operations of the three-dimensional camera 18, the robots 16A and 16B, and the cameras 20 and 20. ing. In the storage device of the controller 28, the robot 16 and the tool for performing the work of lifting and transporting the raccoon 12 which has been input on the conveyance path, for example, via the teaching pendant, etc. while being lifted by the tool. A plurality of operation commands including operation commands (for example, teaching data such as the position of each control point, the angle of each joint, and the type of interpolation operation) in which the type is not specified are stored.

以下、図3を用いて、本実施形態においてコントローラ28が実行する制御内容の一例を説明する。   Hereinafter, an example of the control contents executed by the controller 28 in the present embodiment will be described with reference to FIG.

図3において、このフローに示す処理は、例えば入力装置を介して所定の開始操作(例えば、コントローラ28の電源オン)が行われることによって開始される。まずステップS5で、コントローラ28は、各ロボット16A,16Bが所定の待機姿勢(例えば、図2に示す姿勢)となるように、各ロボット16A,16Bに対し、記憶装置に記憶された所定の動作指令を出力する。これにより、各ロボット16A,16Bは、コントローラ28からの動作指令に基づき、旋回ベース163及びアーム164を協調動作し、所定の待機姿勢となって待機する。   In FIG. 3, the processing shown in this flow is started by performing a predetermined start operation (for example, powering on the controller 28) via the input device, for example. First, in step S5, the controller 28 performs predetermined operations stored in the storage device for the robots 16A and 16B so that the robots 16A and 16B assume a predetermined standby posture (for example, the posture shown in FIG. 2). Outputs a command. Thereby, each robot 16A, 16B cooperates with the turning base 163 and the arm 164 based on the operation command from the controller 28, and waits in a predetermined standby posture.

そして、ステップS10に移り、コントローラ28は、3次元センサ18の検知結果、すなわち3次元センサ18のカメラの撮像画像及びその撮像画像上の距離情報を入力する。   In step S10, the controller 28 inputs a detection result of the three-dimensional sensor 18, that is, a captured image of the camera of the three-dimensional sensor 18 and distance information on the captured image.

その後、ステップS20で、コントローラ28は、上記ステップS10で入力された3次元センサ18のカメラの撮像画像及びその撮像画像上の距離情報に基づき、3次元センサ18との距離を画像上に表した距離画像(3次元情報)を生成する。そして、その生成した距離画像に基づき、3次元センサ18の下方を通過したらっきょう12(以下適宜、「特定のらっきょう12」と称する)の3次元形状を検出する。   Thereafter, in step S20, the controller 28 represents the distance from the three-dimensional sensor 18 on the image based on the captured image of the camera of the three-dimensional sensor 18 input in step S10 and the distance information on the captured image. A distance image (three-dimensional information) is generated. Then, based on the generated distance image, the three-dimensional shape of the mask 12 (hereinafter referred to as “specific rack 12” as appropriate) is detected after passing under the three-dimensional sensor 18.

そして、ステップS30に移り、コントローラ28は、上記ステップS20で検出された特定のらっきょう12の3次元形状に基づき、当該特定のらっきょう12の吸着パッド166aにより真空吸着できそうな部位の検出を行う(詳細は後述)。   Then, the process proceeds to step S30, and the controller 28 detects a part that can be vacuum-sucked by the suction pad 166a of the specific raccoon 12 based on the three-dimensional shape of the specific raccoon 12 detected in step S20 (step S30). Details will be described later).

その後、ステップS40で、コントローラ28は、上記ステップS30での検出結果に応じて、特定のらっきょう12に対するロボット16のツールによる持ち上げ処理の処理態様として、持ち上げ方法の決定を行う。例えば、上記ステップS30で、特定のらっきょう12の真空吸着できそうな部位が検出された、すなわち特定のらっきょう12に真空吸着できそうな部位が存在する場合には、当該特定のらっきょう12に対する持ち上げ方法を、吸着パッド166aによる真空吸着及びハンド166bによる把持のうち、タクトタイムの短い真空吸着に決定する。一方、上記ステップS30で、特定のらっきょう12の真空吸着できそうな部位が検出されなかった、すなわち特定のらっきょう12に真空吸着できそうな部位が存在しない場合には、当該特定のらっきょう12に対する持ち上げ方法を、吸着パッド166aによる真空吸着及びハンド166bによる把持のうち、タクトタイムの長い把持に決定する。すなわち、特定のらっきょう12に真空吸着できそうな部位が存在する場合には、持ち上げ方法がタクトタイムの短い真空吸着に決定され、特定のらっきょう12に真空吸着できそうな部位が存在しないときだけ、持ち上げ方法がタクトタイムの長い把持に決定される。このステップS40の手順が、特許請求の範囲に記載の態様決定手段として機能する。   Thereafter, in step S40, the controller 28 determines a lifting method as a processing mode of the lifting process by the tool of the robot 16 with respect to the specific package 12 according to the detection result in the step S30. For example, in the above-described step S30, when a portion that can be vacuum-sucked by the specific raccoon 12 is detected, that is, when there is a portion that can be vacuum-sucked by the specific raccoon 12, a lifting method for the specific raccoon 12 Are determined to be vacuum suction with a short tact time among vacuum suction by the suction pad 166a and gripping by the hand 166b. On the other hand, in the above-described step S30, when a portion of the specific raccoon 12 that is likely to be vacuum-sucked is not detected, that is, when there is no portion of the specific raccoon 12 that is likely to be vacuum-sucked, the specific raccoon 12 is raised The method is determined to be gripping with a long tact time among vacuum suction by the suction pad 166a and gripping by the hand 166b. That is, when there is a site that can be vacuum-adsorbed in a specific rack 12, the lifting method is determined to be a vacuum adsorption with a short tact time, and only when there is no site that can be vacuum-adsorbed in a specific rack 12. The lifting method is determined to grip with a long tact time. The procedure of step S40 functions as an aspect determination unit described in the claims.

そして、ステップS50に移り、コントローラ28は、ロボット16A,16Bのうち、特定のらっきょう12に対し作業を行うロボット16として、上記ステップS40で決定された持ち上げ方法に対応するツール(第1ツールに相当。以下適宜、「特定のツール」と称する)が取り付けられたロボット16(第1ロボットに相当。以下適宜、「特定のロボット16」と称する)の選択を行う。例えば、上記ステップS40で、持ち上げ方法が真空吸着に決定されていた場合には、真空吸着を行うツールである吸着パッド166aを備えたロボット16Aを選択する。一方、上記ステップS40で、持ち上げ方法が把持に決定されていた場合には、把持を行うツールであるハンド166bを備えたロボット16Bを選択する。このステップS50の手順が、特許請求の範囲に記載の第1ロボット選択手段として機能する。   Then, the process proceeds to step S50, and the controller 28 is a tool (corresponding to the first tool) corresponding to the lifting method determined in step S40 as the robot 16 that performs the work on the specific rack 12 among the robots 16A and 16B. Hereinafter, the robot 16 (corresponding to the first robot, hereinafter referred to as “specific robot 16”) to which the “specific tool” is attached is selected. For example, when the lifting method is determined to be vacuum suction in step S40, the robot 16A including the suction pad 166a that is a tool for performing vacuum suction is selected. On the other hand, if the lifting method is determined to be gripping in step S40, the robot 16B including the hand 166b that is a tool for gripping is selected. The procedure of step S50 functions as the first robot selection unit described in the claims.

その後、ステップS60で、コントローラ28は、上記ステップS50での選択結果に応じて、特定のらっきょう12の接触目標部位の設定を行う。接触目標部位は、特定のロボット16の特定のツールによる接触の目標となる部位である。例えば、上記ステップS50でロボット16Aが選択されていた場合には、上記ステップS30で検出された特定のらっきょう12の真空吸着できそうな部位のうち、所定の条件を満たす部位(詳細は後述)を、特定のらっきょう12の接触目標部位としての吸着目標部位に設定する。吸着目標部位は、吸着パッド166aによる真空吸着の目標となる部位である。一方、上記ステップS50でロボット16Bが選択されていた場合には、特定のらっきょう12の上記球根部12cの適宜の部位を、特定のらっきょう12の接触目標部位としての把持目標部位に設定する。把持目標部位は、ハンド166bによる把持の目標となる部位である。   After that, in step S60, the controller 28 sets a specific contact target site for the current 12 according to the selection result in step S50. The contact target part is a part to be a target of contact by a specific tool of the specific robot 16. For example, when the robot 16A is selected in step S50, a part satisfying a predetermined condition (details will be described later) among the parts that can be vacuum-sucked in the specific jacket 12 detected in step S30. Then, the suction target site is set as the contact target site of the specific 12. The suction target site is a target site for vacuum suction by the suction pad 166a. On the other hand, if the robot 16B is selected in step S50, an appropriate part of the bulb portion 12c of the specific raccoon 12 is set as a grip target part as the contact target part of the specific raccoon 12. The grip target part is a part that is a target of gripping by the hand 166b.

そして、ステップS70に移り、コントローラ28は、コンベア14のエンコーダ146より適宜のタイミングで入力された当該エンコーダ146の検出結果、すなわちコンベア駆動部144の回転位置情報に基づき、搬送経路上を搬送されるらっきょう12の移動量を算出する。そして、その算出したらっきょう12の移動量に基づき、特定のロボット16の特定のツールの可動範囲内に、特定のらっきょう12が搬送されてくるタイミング、言い換えれば特定のロボット16の、搬送経路上を搬送されてくる特定のらっきょう12を特定のツールで持ち上げるための動作開始タイミングを算出する。このステップS70の手順が、特許請求の範囲に記載のタイミング算出手段として機能する。   Then, the process proceeds to step S70, where the controller 28 is transported on the transport path based on the detection result of the encoder 146 input from the encoder 146 of the conveyor 14 at an appropriate timing, that is, the rotational position information of the conveyor driving unit 144. The movement amount of Lucky 12 is calculated. Then, based on the calculated movement amount of the robot 12, the timing at which the specific robot 12 is transported within the movable range of the specific tool of the specific robot 16, in other words, the transport path of the specific robot 16 on the transport path. The operation start timing for lifting the transported specific package 12 with a specific tool is calculated. The procedure of step S70 functions as a timing calculation unit described in the claims.

その後、ステップS75で、コントローラ28は、記憶装置に格納された当該ステップS75に関する動作指令を読み出し、その読み出した動作指令を補正する。具体的には、上記ステップS70で算出された動作開始タイミングになったときに旋回ベース163及びアーム164を協調動作し、搬送経路上を搬送されてくる特定のらっきょう12の接触目標部位に特定のツールを接触させ、当該特定のツールにより特定のらっきょう12を持ち上げつつ周囲のカメラ20に係る上記撮像位置へ移動させるように、上記読み出した動作指令を特定のロボット16の特定のツール用に補正する。例えば、上記ステップS50でロボット16Aが選択されていた場合には、特定のらっきょう12の吸着目標部位に吸着パッド166aを接触させ、当該吸着パッド166aによる真空吸着により特定のらっきょう12を持ち上げつつ撮像位置へ移動させるように、動作指令をロボット16Aの吸着パッド166a用に補正する。一方、上記ステップS50でロボット16Bが選択されていた場合には、特定のらっきょう12の把持目標部位にハンド166bを接触させ、当該ハンド166bによる把持により特定のらっきょう12を持ち上げつつ撮像位置へ移動させるように、動作指令をロボット16Bのハンド166b用に補正する。   Thereafter, in step S75, the controller 28 reads out the operation command related to step S75 stored in the storage device, and corrects the read-out operation command. Specifically, when the operation start timing calculated in step S70 is reached, the turning base 163 and the arm 164 are cooperatively operated to specify a specific contact target site of the specific rack 12 that is transported on the transport path. The read operation command is corrected for the specific tool of the specific robot 16 so that the tool is brought into contact and the specific tool 12 is lifted by the specific tool and moved to the imaging position of the surrounding camera 20. . For example, when the robot 16A is selected in the above step S50, the suction pad 166a is brought into contact with the suction target site of the specific raccoon 12, and the specific raccoon 12 is lifted by vacuum suction by the suction pad 166a and the imaging position is picked up. The movement command is corrected for the suction pad 166a of the robot 16A. On the other hand, if the robot 16B has been selected in step S50, the hand 166b is brought into contact with the grip target portion of the specific raccoon 12, and the specific raccoon 12 is lifted and moved to the imaging position by gripping with the hand 166b. In this way, the operation command is corrected for the hand 166b of the robot 16B.

その後、ステップS80で、コントローラ28は、特定のロボット16に対し、上記ステップS75で補正後の動作指令を出力する。これにより、特定のロボット16が、コントローラ28からの動作指令に基づき、動作開始タイミングになったときに、旋回ベース163及びアーム164を協調動作し、搬送経路上を搬送されてくる特定のらっきょう12の接触目標部位に特定のツールを接触させ、当該特定のツールにより特定のらっきょう12を持ち上げつつ周囲のカメラ20に係る撮像位置へ移動させる(詳細は後述)。例えば、上記ステップS50でロボット16Aが選択されていた場合には、ロボット16Aが、特定のらっきょう12の吸着目標部位に吸着パッド166aを接触させ、当該吸着パッド166aによる真空吸着により特定のらっきょう12を持ち上げつつ撮像位置へ移動させる。一方、上記ステップS50でロボット16Bが選択されていた場合には、ロボット16Bが、特定のらっきょう12の把持目標部位にハンド166bを接触させ、当該ハンド166bによる把持により特定のらっきょう12を持ち上げつつ撮像位置へ移動させる。   Thereafter, in step S80, the controller 28 outputs the operation command corrected in step S75 to the specific robot 16. As a result, when the specific robot 16 comes to the operation start timing based on the operation command from the controller 28, the specific robot 12 is transported on the transport path by cooperatively operating the turning base 163 and the arm 164. A specific tool is brought into contact with the contact target site, and the specific tool 12 is lifted by the specific tool and moved to an imaging position related to the surrounding camera 20 (details will be described later). For example, when the robot 16A has been selected in the above step S50, the robot 16A brings the suction pad 166a into contact with the suction target site of the specific rack 12, and the specific rack 12 is sucked by the vacuum suction by the suction pad 166a. Move to the imaging position while lifting. On the other hand, if the robot 16B has been selected in the above step S50, the robot 16B brings the hand 166b into contact with the gripping target site of the specific raccoon 12, and picks up an image while lifting the specific raccoon 12 by gripping with the hand 166b. Move to position.

そして、ステップS90に移り、コントローラ28は、特定のロボット16の周囲に設置されたカメラ20の検知結果、すなわち当該カメラ20の撮像画像を入力する。   Then, the process proceeds to step S <b> 90, and the controller 28 inputs a detection result of the camera 20 installed around the specific robot 16, that is, a captured image of the camera 20.

その後、ステップS100で、コントローラ28は、上記ステップS90で入力されたカメラ20の撮像画像に基づき、カメラ20で撮像された特定のらっきょう12の形状及び姿勢を検出して、当該特定のらっきょう12の加工目標部位の設定を行う(詳細は後述)。加工目標部位は、上記切断装置22の円形カッタ222の刃2221による切断開始位置及びそこからの切断角度を含む切断部分全体の目標となる部位である。   After that, in step S100, the controller 28 detects the shape and posture of the specific raccoon 12 captured by the camera 20 based on the captured image of the camera 20 input in step S90, and the specific raccoon 12 The processing target part is set (details will be described later). The processing target portion is a portion that is a target of the entire cutting portion including the cutting start position by the blade 2221 of the circular cutter 222 of the cutting device 22 and the cutting angle therefrom.

そして、ステップS105に移り、コントローラ28は、記憶装置に格納された当該ステップS105に関する動作指令を読み出し、その読み出した動作指令を補正する。具体的には、特定のツールにより持ち上げている特定のらっきょう12の加工目標部位を、上記刃2221の位置へ導くように、上記読み出した動作指令を特定のロボット16の特定のツール用に補正する。例えば、上記ステップS50でロボット16Aが選択されていた場合には、吸着パッド166aにより持ち上げている特定のらっきょう12の加工目標部位を刃2221の位置へ導くように、動作指令をロボット16Aの吸着パッド166a用に補正する。一方、上記ステップS50でロボット16Bが選択されていた場合には、ハンド166bにより持ち上げている特定のらっきょう12の加工目標部位を刃2221の位置へ導くように、動作指令をロボット16Bのハンド166b用に補正する。   Then, the process proceeds to step S105, and the controller 28 reads out the operation command related to the step S105 stored in the storage device, and corrects the read operation command. Specifically, the read operation command is corrected for the specific tool of the specific robot 16 so that the processing target portion of the specific rack 12 lifted by the specific tool is guided to the position of the blade 2221. . For example, when the robot 16A is selected in the above step S50, the operation command is sent to the suction pad of the robot 16A so as to guide the processing target site of the specific arm 12 lifted by the suction pad 166a to the position of the blade 2221. Correct for 166a. On the other hand, if the robot 16B has been selected in the above step S50, the operation command is sent to the hand 166b of the robot 16B so as to guide the processing target part of the specific arm 12 that is lifted by the hand 166b to the position of the blade 2221. To correct.

そして、ステップS110に移り、コントローラ28は、特定のロボット16に対し、上記ステップS105で補正後の動作指令を出力する。これにより、特定のロボット16が、コントローラ28からの動作指令に基づき、旋回ベース163及びアーム164を協調動作し、特定のツールにより持ち上げている特定のらっきょう12の加工目標部位を、刃2221の位置へ導き、所定の動作を行う(詳細は後述)。例えば、上記ステップS50でロボット16Aが選択されていた場合には、ロボット16Aが、吸着パッド166aにより持ち上げている特定のらっきょう12の加工目標部位を、刃2221の位置へ導、所定の動作を行う。一方、上記ステップS50でロボット16Bが選択されていた場合には、ロボット16Bが、ハンド166bにより持ち上げている特定のらっきょう12の加工目標部位を、刃2221の位置へ導、所定の動作を行う。   Then, the process proceeds to step S110, and the controller 28 outputs the operation command corrected in step S105 to the specific robot 16. As a result, the specific robot 16 cooperates with the turning base 163 and the arm 164 on the basis of the operation command from the controller 28, and the processing target site of the specific rack 12 lifted by the specific tool is moved to the position of the blade 2221. To perform a predetermined operation (details will be described later). For example, when the robot 16A is selected in the above step S50, the robot 16A guides the processing target site of the specific jacket 12 lifted by the suction pad 166a to the position of the blade 2221 and performs a predetermined operation. . On the other hand, when the robot 16B is selected in the above step S50, the robot 16B guides the processing target portion of the specific arm 12 that is lifted by the hand 166b to the position of the blade 2221 and performs a predetermined operation.

その後、ステップS120で、コントローラ28は、例えば入力装置を介して所定の終了操作(例えば、コントローラ28の電源オフ)が行われたかどうかを判定する。所定の終了操作が行われるまでステップS120の判定は満たされず、上記ステップS5に戻り同様の手順を繰り返す。所定の終了操作が行われたらステップS120の判定が満たされて、このフローに示す処理を終了する。   Thereafter, in step S120, the controller 28 determines whether or not a predetermined end operation (for example, powering off the controller 28) has been performed via the input device, for example. Until the predetermined end operation is performed, the determination in step S120 is not satisfied, and the process returns to step S5 and the same procedure is repeated. If a predetermined end operation is performed, the determination in step S120 is satisfied, and the processing shown in this flow is ended.

なお、上記において、ステップS75及びステップS105の手順が、特許請求の範囲に記載の動作補正手段として機能する。また、ステップS5、ステップS80、及びステップS110の手順が、動作出力手段として機能する。   In the above, the procedure of step S75 and step S105 functions as an operation correction unit described in the claims. Further, the procedures of step S5, step S80, and step S110 function as an operation output unit.

以下、図4〜図10を用いて、らっきょう切断加工システム10の動作の一例を説明する。   Hereinafter, an example of the operation of the scissors cutting processing system 10 will be described with reference to FIGS.

まず、コントローラ28から各ロボット16A,16Bに対し、記憶装置に格納された所定の動作指令が出力され、各ロボット16A,16Bが、旋回ベース163及びアーム164を協調動作し、所定の待機姿勢となって待機する(ステップS5参照)。そして、図4に示すように、搬送経路の上流側を所定の速度で連続して続々と搬送されるらっきょう12が、3次元センサ18の下方を通過するとき、3次元センサ18で検知される。そして、その検知結果、すなわち3次元センサ18のカメラの撮像画像及びその撮像画像上の距離情報が、コントローラ28へ出力される。これにより、コントローラ28に、3次元センサ18のカメラの撮像画像及びその撮像画像上の距離情報が入力され(ステップS10参照)、その入力された3次元センサ18のカメラの撮像画像及びその撮像画像上の距離情報に基づいて、上記距離画像が生成される。図5(a)(b)に、生成された距離画像の一例をモデル化した模式図を示す。なお、図5(a)(b)に示す距離画像は、互いに同じ情報を別視点でモデル化したものである。図5(a)(b)に示すように、生成された距離画像には、3次元センサ18の下方を通過した上記特定のらっきょう12の形状が3次元で表されており、この距離画像に基づいて、特定のらっきょう12の3次元形状が検出される(ステップS20参照)。そして、その検出された特定のらっきょう12の3次元形状に基づいて、当該特定のらっきょう12の真空吸着できそうな部位の検出が行われる(ステップS30参照)。本実施形態では、特定のらっきょう12の真空吸着できそうな部位として、生成された距離画像に表された特定のらっきょう12の球根部12cにおける、吸着パッド166aによる真空吸着の障害物(例えば根毛部12aの根毛や茎部12aの葉等)が上方に存在しておらず、かつ、所定の面積(例えば1cm3)以上の平坦面積を備える部位の検出が行われる。   First, a predetermined operation command stored in the storage device is output from the controller 28 to each robot 16A, 16B, and each robot 16A, 16B cooperates with the turning base 163 and the arm 164 to obtain a predetermined standby posture. And waits (see step S5). As shown in FIG. 4, when the transport 12 continuously transported continuously at a predetermined speed on the upstream side of the transport path passes below the three-dimensional sensor 18, it is detected by the three-dimensional sensor 18. . Then, the detection result, that is, the captured image of the camera of the three-dimensional sensor 18 and the distance information on the captured image are output to the controller 28. Thereby, the captured image of the camera of the three-dimensional sensor 18 and the distance information on the captured image are input to the controller 28 (see step S10), and the input captured image of the camera of the three-dimensional sensor 18 and the captured image thereof are input. The distance image is generated based on the upper distance information. FIGS. 5A and 5B are schematic diagrams obtained by modeling an example of the generated distance image. Note that the distance images shown in FIGS. 5A and 5B are obtained by modeling the same information from different viewpoints. As shown in FIGS. 5 (a) and 5 (b), the generated distance image shows the shape of the specific 12 that has passed under the three-dimensional sensor 18 in three dimensions. Based on this, the three-dimensional shape of the specific 12 is detected (see step S20). Then, based on the detected three-dimensional shape of the specific raccoon 12, a part of the specific raccoon 12 that is likely to be vacuum-sucked is detected (see step S30). In the present embodiment, an obstacle (for example, root hair portion) of vacuum suction by the suction pad 166a in the bulb portion 12c of the specific raccoon 12 shown in the generated distance image as a portion that can be vacuum-sucked by the specific raccoon 12 is shown. A part having a flat area equal to or larger than a predetermined area (for example, 1 cm 3) is detected.

その後、上記の検出結果に応じて、特定のらっきょう12に対するロボット16のツールによる持ち上げ方法の決定が行われる(ステップS40参照)。以下では、上記において特定のらっきょう12の真空吸着できそうな部位が検出された場合を例にとって説明する。すなわち、上記において特定のらっきょう12の真空吸着できそうな部位が検出された場合には、当該特定のらっきょう12に対する持ち上げ方法が上記真空吸着に決定される。そして、ロボット16A,16Bのうち、真空吸着に対応するツールである吸着パッド166aを備えたロボット16Aが選択される(ステップS50参照)。その後、特定のらっきょう12の真空吸着できそうな部位のうち、最も高い位置に存在する部位(図5(a)及び図5(b)に示す例では符号31で示す部位)が検出され、その検出された部位が、当該特定のらっきょう12の吸着目標部位に設定される(ステップS60参照)。そして、コンベア14のエンコーダ146よりコントローラ28に適宜のタイミングで入力された当該エンコーダ146の検出結果、すなわちコンベア駆動部144の回転位置情報に基づいて、搬送経路上を搬送されるらっきょう12の移動量が算出される。そして、その算出されたらっきょう12の移動量に基づいて、ロボット16Aの吸着パッド166aの可動範囲内に、特定のらっきょう12が搬送されてくるタイミング、言い換えればロボット16Aの、搬送経路上を搬送されてくる特定のらっきょう12を吸着パッド166aで持ち上げるための動作開始タイミングが算出される(ステップS70参照)。   Thereafter, the lifting method by the tool of the robot 16 with respect to the specific package 12 is determined according to the detection result (see step S40). In the following, description will be given by taking as an example a case in which a portion of the specific hood 12 that is likely to be vacuum-sucked is detected. That is, in the above, when a part that is likely to be vacuum-sucked by the specific raccoon 12 is detected, the lifting method for the specific raccoon 12 is determined to be the vacuum suction. Then, the robot 16A including the suction pad 166a, which is a tool corresponding to vacuum suction, is selected from the robots 16A and 16B (see step S50). After that, among the parts that are likely to be vacuum-adsorbed of a specific 12, the part existing at the highest position (the part indicated by reference numeral 31 in the examples shown in FIGS. 5A and 5B) is detected, The detected site is set as the suction target site of the specific 12 (see step S60). Then, based on the detection result of the encoder 146 input to the controller 28 from the encoder 146 of the conveyor 14 at an appropriate timing, that is, based on the rotational position information of the conveyor drive unit 144, the amount of movement of the transport 12 that is transported on the transport path Is calculated. Then, based on the calculated movement amount of the head 12, the timing at which the specific head 12 is transported within the movable range of the suction pad 166a of the robot 16A, in other words, transported on the transport path of the robot 16A. The operation start timing for lifting the specific rack 12 coming up with the suction pad 166a is calculated (see step S70).

そして、記憶装置に格納された動作指令が読み出され、ロボット16Aの吸着パッド166a用に補正される(ステップS75参照)。その後、コントローラ28からロボット16Aに対し、補正後の動作指令が出力され、図6に示すように、ロボット16Aが、上記算出された動作開始タイミングになったときに旋回ベース163及びアーム164を協調動作し、搬送経路上を搬送されてくる特定のらっきょう12の上記設定された吸着目標部位(図6に示す例では符号31で示す部位)に吸着パッド166aを接触させる。そして、図7に示すように、吸着パッド166による真空吸着により特定のらっきょう12を持ち上げ、予め定められた所定の撮像姿勢となるように旋回ベース163及びアーム164を協調動作することで、吸着パッド166で持ち上げているらっきょう12を、周囲のカメラ20のレンズ201の視野内の上記撮像位置に移動させる(ステップS80参照)。   Then, the operation command stored in the storage device is read and corrected for the suction pad 166a of the robot 16A (see step S75). Thereafter, a corrected operation command is output from the controller 28 to the robot 16A, and as shown in FIG. 6, the robot 16A coordinates the turning base 163 and the arm 164 when the calculated operation start timing is reached. The suction pad 166a is brought into contact with the set suction target part (part indicated by reference numeral 31 in the example shown in FIG. 6) of the specific raccoon 12 that is operated and transported on the transport path. Then, as shown in FIG. 7, the suction pad 166 is lifted by vacuum suction by the suction pad 166, and the swivel base 163 and the arm 164 are cooperatively operated so as to have a predetermined imaging posture. The rack 12 lifted at 166 is moved to the imaging position within the field of view of the lens 201 of the surrounding camera 20 (see step S80).

すると、カメラ20で、レンズ201の視野内の、撮像姿勢となっているロボット16A、及び、撮像位置に移動させられた特定のらっきょう12が撮像される。そして、その撮像画像が、コントローラ28へ出力される。これにより、コントローラ28に、当該カメラ20の撮像画像が入力される(ステップS90参照)。図8(a)に、コントローラ28に入力されたカメラ20の撮像画像の一例をモデル化した模式図を示す。図8(a)に示すように、カメラ20の撮像画像には、ロボット16A及び特定のらっきょう12の形状及び姿勢が2次元で表されており、この撮像画像に基づいて、カメラ20で撮像された特定のらっきょう12の形状及び姿勢が検出され、当該特定のらっきょう12の加工目標部位の設定が行われる(ステップS100参照)。本実施形態では、まず、図8(a)に示すようなカメラ20の撮像画像に表されたロボット16Aの画像16A′を除外した画像を生成する。その後、図8(b)に示すように、その生成した画像に表された特定のらっきょう12の画像12′の最大内接円(図8(b)に示す例では符号33で示す円)を算出し、その算出した最大内接円の中心位置を求め、その位置を特定のらっきょう12の画像12′の重心(図8(b)に示す例では符号34で示す位置)とする。次に、図9(a)に示すように、上記求めた特定のらっきょう12の画像12′の重心の、一方側の所定の範囲(図9(a)に示す例では符号35で示す範囲)の面積と、他方側の所定の範囲(図9(a)に示す例では符号36で示す範囲)の面積とを比較し、面積が大きい側(図9(a)に示す例では符号35で示す範囲側)を根毛部12a側、面積が小さい側(図9(a)に示す例では符号36で示す範囲側)を茎部12b側と判断する。そして、図9(b)に示すように、上記求めた特定のらっきょう12の画像12′の重心から茎部12b側の幅(太さ)を計測して幅が所定の値以下になった部位(図9(b)に示す例では符号37で示す部位)と、上記求めた特定のらっきょう12の画像12′の重心から根毛部12a側の幅(太さ)を計測して幅が所定の値以下になった部位(図9(b)に示す例では符号38で示す部位)とを、特定のらっきょう12の加工目標部位として設定する。   Then, the camera 20 images the robot 16 </ b> A in the imaging posture in the field of view of the lens 201, and the specific lucky 12 moved to the imaging position. The captured image is output to the controller 28. Thereby, the captured image of the camera 20 is input to the controller 28 (see step S90). FIG. 8A is a schematic diagram that models an example of a captured image of the camera 20 input to the controller 28. As shown in FIG. 8A, in the captured image of the camera 20, the shapes and postures of the robot 16A and the specific wrapping 12 are represented in two dimensions. Based on this captured image, the image is captured by the camera 20. Then, the shape and orientation of the specific bracket 12 are detected, and the processing target part of the specific bracket 12 is set (see step S100). In the present embodiment, first, an image excluding the image 16A ′ of the robot 16A shown in the captured image of the camera 20 as shown in FIG. Thereafter, as shown in FIG. 8 (b), the maximum inscribed circle (circle indicated by reference numeral 33 in the example shown in FIG. 8 (b)) of the image 12 'of the specific sketch 12 shown in the generated image is obtained. The center position of the calculated maximum inscribed circle is calculated, and the position is set as the center of gravity of the image 12 ′ of the specific 12 (the position indicated by reference numeral 34 in the example shown in FIG. 8B). Next, as shown in FIG. 9 (a), a predetermined range on one side of the center of gravity of the image 12 'of the specific poster 12 obtained as described above (range indicated by reference numeral 35 in the example shown in FIG. 9 (a)). Is compared with the area of a predetermined range on the other side (in the example shown in FIG. 9A, the range indicated by reference numeral 36), and the area having the larger area (in the example shown in FIG. 9A, indicated by reference numeral 35). The range shown) is determined to be the root hair 12a side, and the side having the smaller area (the range indicated by reference numeral 36 in the example shown in FIG. 9A) is determined to be the stem 12b side. Then, as shown in FIG. 9B, the width (thickness) on the stem portion 12b side is measured from the center of gravity of the image 12 'of the specific raccoon 12 obtained as described above, and the width becomes a predetermined value or less. (The part indicated by reference numeral 37 in the example shown in FIG. 9 (b)) and the width (thickness) of the root hair 12a side from the center of gravity of the image 12 'of the specific raccoon 12 obtained above is measured to obtain a predetermined width. A part that is equal to or less than the value (part indicated by reference numeral 38 in the example shown in FIG. 9B) is set as a specific target part for processing 12.

そして、記憶装置に格納された動作指令が読み出され、ロボット16Aの吸着パッド166a用に補正される(ステップS105参照)。その後、コントローラ28からロボット16Aに対し、補正後の動作指令が出力され、図10に示すように、ロボット16Aが、旋回ベース163及びアーム164を協調動作し、吸着パッド166aで持ち上げている特定のらっきょう12の上記設定された加工目標部位(図10に示す例では符号37,38で示す部位)を、上記円形カッタ222の刃2221の位置へ導く。そして、吸着パッド166aで持ち上げている特定のらっきょう12を刃2221で加工目標部位に沿って切断させる。これにより、根毛部12a及び茎部12bが球根部12cより切り離され落下することで、刃2221の下方の上記廃棄ボックス24内へ入る。そして、吸着パッド166aで持ち上げている特定のらっきょう12の球根部12cを、周囲の投入ボックス26の上方へ移動させ、そこで吸着パッド166による真空吸着を解除することで、特定のらっきょう12の球根部12cを投入ボックス26へ投入する(ステップS110参照)。   Then, the operation command stored in the storage device is read and corrected for the suction pad 166a of the robot 16A (see step S105). Thereafter, a corrected operation command is output from the controller 28 to the robot 16A, and as shown in FIG. 10, the robot 16A operates the turning base 163 and the arm 164 in a coordinated manner and lifts the suction pad 166a. The set machining target portion of the bracket 12 (portions indicated by reference numerals 37 and 38 in the example shown in FIG. 10) is guided to the position of the blade 2221 of the circular cutter 222. Then, the specific blank 12 lifted by the suction pad 166a is cut along the processing target portion by the blade 2221. As a result, the root hair portion 12a and the stem portion 12b are separated from the bulb portion 12c and dropped, thereby entering the disposal box 24 below the blade 2221. Then, the bulb portion 12c of the specific raccoon 12 lifted by the suction pad 166a is moved above the surrounding charging box 26, where the vacuum suction by the suction pad 166 is released, whereby the bulb portion of the specific raccoon 12 is released. 12c is loaded into the loading box 26 (see step S110).

以上説明したように、本実施形態のらっきょう切断加工システム10は、らっきょう12を搬送するコンベア14と、吸着パッド166a又はハンド166bを備えたロボット16A,16Bと、各ロボット16A,16Bに対し動作指令を出力するコントローラ28とを有している。各ロボット16A,16Bは、コントローラ28からの動作指令に基づき動作し、搬送経路上を搬送されてくるらっきょう12を吸着パッド166a又はハンド166bで持ち上げつつ移送する作業を行う。   As described above, the raccoon cutting processing system 10 according to the present embodiment includes the conveyor 14 that transports the raccoon 12, the robots 16A and 16B including the suction pads 166a or the hands 166b, and operation commands to the robots 16A and 16B. And a controller 28 for outputting. Each of the robots 16A and 16B operates based on an operation command from the controller 28, and performs a work of transporting the raccoon 12 transported on the transport path while being lifted by the suction pad 166a or the hand 166b.

ここで、前述した不定形物であるらっきょう12に対し持ち上げつつ移送する作業を行う場合、らっきょう12の個体間の形状にばらつきがあり、各らっきょう12の形状を認識できないため、各ロボット16A,16Bは、コントローラ28からの動作指令に基づき動作しても、らっきょう12を取り損なうおそれがある。このような不都合を解消するため、一般には、搬送経路上を搬送されてくるらっきょう12をカメラで撮像し、コントローラ28が、その撮像画像に基づき動作指令を補正し、動作させるロボット16に対し補正後の動作指令を出力することで、らっきょう12に対し持ち上げつつ移送する作業を行う場合でも、ロボット16が補正後の動作指令に基づき動作することで、らっきょう12の取り損ねを低減させることができる。しかしながら、カメラで撮像した撮像画像に基づいては、らっきょう12の2次元形状は確認できるものの、らっきょう12の3次元形状を正確に確認するのは困難である。このため、らっきょう12に対し持ち上げつつ移送する作業を行う場合、カメラで撮像した撮像画像に基づき動作指令の補正を行う手法では、ロボットが補正後の動作指令に基づき動作しても、らっきょう12の取り損ねを確実に防止できるとは言えず、らっきょう12の取り損ねが生じる結果、生産性が低下するという問題があった。一方で、らっきょう12に対し持ち上げつつ移送する作業を確実に行うため、通常よりも長い時間をかけてらっきょう12を持ち上げる手法が考えられるが、この場合、タクトタイムが延長するので、上記の場合と同様に、生産性が低下するという問題があった。   Here, when carrying out the work of lifting and transporting the raccoon 12, which is the above-mentioned indefinite shape, the shapes of the raccoons 12 vary, and the shapes of the raccoons 12 cannot be recognized, so that each robot 16A, 16B. Even if it operates based on the operation command from the controller 28, there is a possibility that it will miss the package 12. In order to eliminate such inconvenience, in general, the camera 12 picks up the image of the transport 12 that is transported on the transport path, and the controller 28 corrects the operation command based on the captured image and corrects the robot 16 to be operated. By outputting the subsequent operation command, even when the transfer operation is performed with respect to the raccoon 12, the robot 16 operates based on the corrected operation command, thereby reducing the loss of the raccoon 12. . However, although the two-dimensional shape of the raccoon 12 can be confirmed based on the captured image captured by the camera, it is difficult to accurately confirm the three-dimensional shape of the raccoon 12. For this reason, when performing the work of lifting and transporting the raccoon 12, the method of correcting the operation command based on the captured image captured by the camera, even if the robot operates based on the corrected operation command, It cannot be said that it is possible to reliably prevent the loss, and there is a problem in that productivity is reduced as a result of the loss of the blank 12. On the other hand, in order to reliably carry out the work of lifting and transporting the raccoon 12, a method of lifting the larva 12 over a longer time than usual can be considered. However, in this case, the tact time is extended. Similarly, there is a problem that productivity is lowered.

そこで本実施形態においては、搬送経路の上流側に3次元センサ18を設け、当該3次元センサ18により、搬送経路上を搬送されてくるらっきょう12の3次元形状を検知する。その後、コントローラ28が、3次元センサ18の検知結果に基づき、動作指令の補正を行って、動作させるロボット16に対し補正後の動作指令を出力する。これにより、コントローラ28からの補正後の動作指令を入力したロボット16は、当該補正後の動作指令に基づき動作することで、搬送経路上を搬送されてくるらっきょう12を吸着パッド166a又はハンド166bにより確実かつ迅速に持ち上げることが可能となる。   Therefore, in the present embodiment, the three-dimensional sensor 18 is provided on the upstream side of the conveyance path, and the three-dimensional sensor 18 detects the three-dimensional shape of the paper 12 that is conveyed on the conveyance path. Thereafter, the controller 28 corrects the operation command based on the detection result of the three-dimensional sensor 18 and outputs the corrected operation command to the robot 16 to be operated. As a result, the robot 16 that has input the corrected operation command from the controller 28 operates based on the corrected operation command, so that the robot 12 that is transported on the transport path is moved by the suction pad 166a or the hand 166b. It is possible to lift it reliably and quickly.

以上のようにして、本実施形態によれば、らっきょう12に対し持ち上げつつ移送する作業を行う場合でも、タイムタクトを延長することなく、らっきょう12の取り損ねを確実に防止することが可能となる。その結果、生産性を向上することができる。   As described above, according to the present embodiment, even when the transporting operation is performed with respect to the raccoon 12, it is possible to reliably prevent the raccoon 12 from being missed without extending the time tact. . As a result, productivity can be improved.

また、本実施形態では特に、3次元センサ18が、コンベア14の搬送面における所定の位置にレーザスリット光を照射するように配光されたレーザ光源と、レーザ光源によるレーザスリット光の照射位置及びその近傍を撮像するカメラとを有している。3次元センサ18をこのような構造とすることにより、搬送経路上を搬送されてくるらっきょう12の3次元形状を確実に精度よく検知することができる。   In the present embodiment, in particular, the three-dimensional sensor 18 has a laser light source distributed so as to irradiate laser slit light to a predetermined position on the transport surface of the conveyor 14, an irradiation position of the laser slit light by the laser light source, and And a camera for imaging the vicinity thereof. By making the three-dimensional sensor 18 have such a structure, the three-dimensional shape of the raccoon 12 conveyed on the conveyance path can be reliably detected with high accuracy.

また、本実施形態では特に、コントローラ28が、3次元センサ18の検知結果に基づき、搬送経路上を搬送されてくるらっきょう12の持ち上げ方法の決定を行う。これにより、らっきょう12を確実かつ迅速に持ち上げ処理可能な持ち上げ方法を決定することが可能となる。そして、コントローラ28が、上記決定された持ち上げ方法に応じて、吸着パッド166a又はハンド166bにより、搬送経路上を搬送されてくるらっきょう12を持ち上げつつ移動させるように、動作指令の補正を行う。これにより、らっきょう12を確実かつ迅速に持ち上げ処理可能な持ち上げ方法で、搬送経路上を搬送されてくるらっきょう12を持ち上げつつ移送することが可能となる。その結果、らっきょう12に対し持ち上げつつ移送する作業を行うでも、タイムタクトを延長することなく、らっきょう12の取り損ねを確実に防止することができ、生産性を向上することができる。   In the present embodiment, in particular, the controller 28 determines a lifting method for the crane 12 that is transported on the transport path based on the detection result of the three-dimensional sensor 18. As a result, it is possible to determine a lifting method capable of reliably and quickly lifting the package 12. Then, the controller 28 corrects the operation command so that the suction pad 166a or the hand 166b moves the transport 12 that is transported on the transport path in accordance with the determined lifting method. Thereby, it is possible to transfer the larva 12 while being lifted on the conveyance path by a lifting method capable of lifting the larva 12 reliably and quickly. As a result, even if the transporting operation is performed with respect to the raccoon 12, it is possible to reliably prevent the lacquer 12 from being missed without extending the time tact, and to improve productivity.

また、本実施形態では特に、次のような効果を得ることができる。すなわち、3次元センサ18の検知結果から距離画像を取得するための処理は、演算量が多く必要な処理時間は比較的長い。そこで本実施形態においては、ロボット16A,16Bのうち、搬送経路の最も上流側に設置されるロボット16Aを、吸着パッド166aにより持ち上げ処理を行う領域が、3次元センサ18によるらっきょう12の検知領域から搬送経路の下流側に、当該搬送経路に沿って所定の距離S以上離間するように設置している。これにより、上記所定の距離Sを、らっきょう12が3次元センサ18の検知結果から距離画像を取得するための処理にかかる処理時間に搬送される距離よりも長く設定することで、ロボット16Aの吸着パッド166aにより持ち上げ処理を行う領域に到達する前に、上記処理を終了させ距離画像を取得させることができる。その結果、取得された距離画像に基づいて吸着パッド166aの3次元形状を確認した上で、吸着パッド166aに対する持ち上げ処理を行うことができるので、吸着パッド166aの取り損ねを確実に防止することができる。また、3次元センサ18の検知結果から距離画像を取得するための処理を行っている間も吸着パッド166aを搬送させることにより、当該処理にかかる処理時間を無駄にせずに有効に使用することができる。   In the present embodiment, the following effects can be obtained. That is, the processing for acquiring the distance image from the detection result of the three-dimensional sensor 18 requires a large amount of calculation and requires a relatively long processing time. Therefore, in the present embodiment, the area where the robot 16A installed on the most upstream side of the transport path among the robots 16A and 16B is lifted by the suction pad 166a is the area from the detection area of the rack 12 by the three-dimensional sensor 18. It is installed on the downstream side of the conveyance path so as to be separated by a predetermined distance S or more along the conveyance path. Accordingly, the predetermined distance S is set to be longer than the distance transported in the processing time required for the processing of the raccoon 12 to acquire the distance image from the detection result of the three-dimensional sensor 18, thereby attracting the robot 16 </ b> A. Before reaching the area where the lifting process is performed by the pad 166a, the above process can be ended and a distance image can be acquired. As a result, the suction pad 166a can be lifted after confirming the three-dimensional shape of the suction pad 166a based on the acquired distance image, so that it is possible to reliably prevent the suction pad 166a from being missed. it can. Further, while the processing for acquiring the distance image from the detection result of the three-dimensional sensor 18 is being performed, the suction pad 166a can be transported to effectively use the processing time for the processing without wasting it. it can.

また、本実施形態では特に、コンベア14が、モータ142と、モータ142により回転駆動されるコンベア駆動部144と、コンベア駆動部144に連結され当該コンベア駆動部144の回転位置を検出するエンコーダ146とを備えている。そして、コントローラ28が、エンコーダ146の検出結果に基づき、ロボット16の動作開始タイミングを算出する。これにより、コンベア14によるらっきょう12の搬送動作と確実に連動しつつ、搬送経路上を搬送されてくるらっきょう12をロボット16のツールにより確実に持ち上げることができる。   In this embodiment, in particular, the conveyor 14 includes a motor 142, a conveyor driving unit 144 that is rotationally driven by the motor 142, and an encoder 146 that is connected to the conveyor driving unit 144 and detects the rotational position of the conveyor driving unit 144. It has. Then, the controller 28 calculates the operation start timing of the robot 16 based on the detection result of the encoder 146. As a result, the raccoon 12 conveyed on the conveyance path can be reliably lifted by the tool of the robot 16 while reliably interlocking with the conveyance operation of the raccoon 12 by the conveyor 14.

また、本実施形態では特に、ロボット16は、互いに持ち上げ方法の異なるツールを備えたロボット16A,16Bの2台設置されている。そして、コントローラ28が、3次元センサ18の検知結果に対応する距離画像に基づき、らっきょう12の持ち上げ方法の決定を行い、ロボット16A,16Bのうち、上記決定された持ち上げ方法に対応するツールを備えたロボット16の選択を行う。その後、その選択されたロボット16の上記決定された持ち上げ方法に対応するツールにより、搬送経路上を搬送されてくるらっきょう12を持ち上げつつ移送するように、動作指令の補正を行う。これにより、ロボット16A,16Bのうち、らっきょう12を確実かつ迅速に持ち上げ可能な持ち上げ方法に対応するツールを備えたロボット16を選択的に使用することが可能となる。その結果、らっきょう12の取り損ねを確実に防止でき、生産性を確実に向上することができる。   In the present embodiment, two robots 16A and 16B having tools with different lifting methods are installed. Then, the controller 28 determines the lifting method of the raccoon 12 based on the distance image corresponding to the detection result of the three-dimensional sensor 18, and includes a tool corresponding to the determined lifting method among the robots 16A and 16B. The selected robot 16 is selected. Thereafter, the operation command is corrected so that the robot 12 transported on the transport path is transported while being lifted by a tool corresponding to the determined lifting method of the selected robot 16. Thereby, it becomes possible to selectively use the robot 16 having a tool corresponding to a lifting method capable of lifting the crane 12 reliably and quickly among the robots 16A and 16B. As a result, it is possible to reliably prevent the removal of the package 12 and to improve productivity.

また、本実施形態では特に、ロボット16Aのアーム164に吸着パッド166aを取り付け、ロボット16Bのアーム164にハンド166bを取り付けている。ロボット16Aのアーム164に吸着パッド166aを取り付けることで、らっきょう12を吸着により持ち上げることができる。これにより、らっきょう12を突き刺し等により傷つけることなく持ち上げることができ、らっきょう12をハンド166bによる把持により持ち上げる場合に比べ、タクトタイムを短縮できる。また、ロボット16Bのアーム164にハンド166bを取り付けることで、らっきょう12を把持により持ち上げることができる。これにより、吸着パッド166aによる吸着によりらっきょう12を持ち上げる場合に比べ、タクトタイムは延長するものの、らっきょう12が吸着に向かない形状や材質である場合や、らっきょう12の吸着パッド166aにより吸着できそうな部位の近傍に障害物がある場合等、らっきょう12を吸着パッド166aによる吸着により持ち上げることが困難である場合でも、らっきょう12を確実に持ち上げることができる。   In this embodiment, in particular, the suction pad 166a is attached to the arm 164 of the robot 16A, and the hand 166b is attached to the arm 164 of the robot 16B. By attaching the suction pad 166a to the arm 164 of the robot 16A, the crane 12 can be lifted by suction. Thereby, the raccoon 12 can be lifted without being damaged by piercing or the like, and the tact time can be shortened as compared with the case where the raccoon 12 is lifted by gripping with the hand 166b. Further, by attaching the hand 166b to the arm 164 of the robot 16B, the crane 12 can be lifted by gripping. As a result, although the tact time is extended as compared with the case where the oyster 12 is lifted by the suction of the suction pad 166a, the luck 12 may have a shape or material that is not suitable for suction, or the suction pad 166a of the raccoon 12 may be sucked. Even when it is difficult to lift the candy 12 by suction with the suction pad 166a, such as when there is an obstacle in the vicinity of the part, the candy 12 can be reliably lifted.

なお、実施の形態は、上記内容に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。以下、そのような変形例を順次説明する。   The embodiment is not limited to the above contents, and various modifications can be made without departing from the spirit and technical idea of the embodiment. Hereinafter, such modifications will be sequentially described.

(1)ロボットの待機姿勢を決定してロボットを選択する場合
上記実施形態においては、3次元センサ18の検知結果に対応する距離画像に基づき、らっきょう12の持ち上げ方法を決定して、ロボット16を選択していたが、これに限られず、3次元センサ18の検知結果に対応する距離画像に基づき、ロボット16の持ち上げ処理を開始するまでの待機姿勢を決定して、ロボット16を選択してもよい。
(1) When the robot is selected by determining the standby posture of the robot In the above embodiment, the robot 16 is determined by determining the lifting method of the raccoon 12 based on the distance image corresponding to the detection result of the three-dimensional sensor 18. However, the present invention is not limited to this. Even if the robot 16 is selected by determining the waiting posture until the robot 16 starts the lifting process based on the distance image corresponding to the detection result of the three-dimensional sensor 18. Good.

図11に示すように、本変形例においては、ロボット16Bのアーム164の先端に取り付けられたツールと、コントローラ28(図1参照)の制御内容とが、上記実施形態と異なっている。すなわち、本変形例においては、ロボット16Bは、アーム164の先端に、ロボット16Aと同様の吸着パッド166aが取り付けられている。   As shown in FIG. 11, in this modification, the tool attached to the tip of the arm 164 of the robot 16B and the control content of the controller 28 (see FIG. 1) are different from the above embodiment. That is, in the present modification, the robot 16B has the same suction pad 166a as the robot 16A attached to the tip of the arm 164.

以下、図12を用いて、本変形例においてコントローラ28が実行する制御内容の一例を説明する。なお、この図12は、前述の図3に対応する図であり、図3と同様の手順には同一の符号を付し、適宜説明を省略又は簡略化する。   Hereinafter, an example of the control contents executed by the controller 28 in this modification will be described with reference to FIG. FIG. 12 is a diagram corresponding to FIG. 3 described above, and the same steps as those in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted or simplified as appropriate.

図12において、まずステップS5′で、コントローラ28は、各ロボット16A,16Bが互いに異なる所定の待機姿勢(例えば、図11に示す姿勢)となるように、各ロボット16A,16Bに対し、記憶装置に記憶された所定の動作指令を出力する。これにより、各ロボット16A,16Bは、コントローラ28からの動作指令に基づき、旋回ベース163及びアーム164を協調動作し、各ロボット16A,16Bを上記互いに異なる所定の待機姿勢となって待機する。   In FIG. 12, first, in step S5 ′, the controller 28 stores a storage device for each robot 16A, 16B so that the robots 16A, 16B have different predetermined standby postures (for example, the posture shown in FIG. 11). The predetermined operation command stored in is output. Thereby, each robot 16A, 16B cooperates with the turning base 163 and the arm 164 based on the operation command from the controller 28, and waits for each robot 16A, 16B in the predetermined standby posture different from the above.

その後のステップS10及びステップS20は、前述の図3と同様であり、ステップS20で、前述の特定のらっきょう12の3次元形状を検出したら、ステップS35に移る。   Subsequent steps S10 and S20 are the same as those in FIG. 3 described above. When the three-dimensional shape of the specific package 12 is detected in step S20, the process proceeds to step S35.

ステップS35では、コントローラ28は、前述のステップS20で検出された特定のらっきょう12の3次元形状に基づき、当該特定のらっきょう12の吸着パッド166aにより真空吸着できそうな部位の検出を行う。そして、その検出したらっきょう12の真空吸着できそうな部位のうち、所定の条件を満たす部位を、当該特定のらっきょう12の吸着パッド166aによる吸着目標部位に設定する。   In step S <b> 35, the controller 28 detects a portion that is likely to be vacuum-sucked by the suction pad 166 a of the specific raccoon 12 based on the three-dimensional shape of the specific raccoon 12 detected in step S <b> 20 described above. Then, a part that satisfies a predetermined condition among the parts that can be vacuum-sucked in the vacuum 12 after the detection is set as a suction target part by the suction pad 166a of the specific vacuum 12.

その後、ステップS40′で、コントローラ28は、特定のらっきょう12の吸着目標部位の設定位置に応じて、当該特定のらっきょう12に対する前述の持ち上げ処理の処理態様として、ロボット16の持ち上げ処理を開始するまでの待機姿勢の決定を行う。具体的には、上記ステップS5′でロボット16A,16Bがとった互いに異なる待機姿勢のうち、吸着目標部位へ確実にアプローチでき、かつ、吸着目標部位へのアプローチにかかる時間が短い、すなわちタクトタイムの短い待機姿勢の決定を行う。なお、このステップS40′の手順が、特許請求の範囲に記載の態様決定手段として機能する。   Thereafter, in step S40 ′, the controller 28 starts the lifting process of the robot 16 as the processing mode of the lifting process for the specific raccoon 12 according to the set position of the suction target site of the specific raccoon 12. The standby posture is determined. Specifically, among the different waiting postures taken by the robots 16A and 16B in step S5 ′, the suction target site can be reliably approached, and the time taken to approach the suction target site is short, that is, the tact time The short waiting posture is determined. In addition, the procedure of this step S40 'functions as the aspect determining means described in the claims.

そして、ステップS50′に移り、コントローラ28は、ロボット16A,16Bのうち、特定のらっきょう12に対し作業を行うロボット16として、上記ステップS40′で決定された待機姿勢で待機するロボット16(第2ロボットに相当)の選択を行う。なお、このステップS50′の手順が、特許請求の範囲に記載の第2ロボット選択手段として機能する。   Then, the process proceeds to step S50 ′, and the controller 28 is the robot 16 (second robot) that waits in the standby posture determined in step S40 ′ as the robot 16 that performs the work on the specific robot 12 among the robots 16A and 16B. (Equivalent to robot). Note that the procedure of step S50 'functions as the second robot selection means described in the claims.

その後の手順は、前述の図3とほぼ同様であるので、説明を省略する。   The subsequent procedure is almost the same as that in FIG.

なお、上記において、前述のステップS75及び前述のステップS105の手順が、特許請求の範囲に記載の動作補正手段として機能する。また、ステップS5′、前述のステップS80、及び前述のステップS110の手順が、動作出力手段として機能する。   In the above, the procedure of the above-described step S75 and the above-described step S105 functions as an operation correction unit described in the claims. Further, the procedure of step S5 ′, the above-described step S80, and the above-described step S110 functions as an operation output unit.

以上説明した本変形例においては、ロボット16は、互いに異なる待機姿勢で待機するロボット16A,16Bの2台設置されている。そして、コントローラ28が、3次元センサ18の検知結果に対応する距離画像に基づき、ロボット16の持ち上げ処理を開始するまでの待機姿勢の決定を行い、ロボット16A,16Bのうち、上記決定された待機姿勢で待機するロボット16の選択を行う。その後、その選択されたロボット16の吸着パッド166aにより、搬送経路上を搬送されてくるらっきょう12を持ち上げつつ移送するように、動作指令の補正を行う。これにより、ロボット16A,16Bのうち、らっきょう12を確実かつ迅速に持ち上げ可能な待機姿勢で待機するロボット16を選択的に使用することが可能となる。その結果、らっきょう12の取り損ねを確実に防止でき、生産性を確実に向上することができる。   In the present modification described above, two robots 16 are installed, that is, the robots 16A and 16B that wait in different standby postures. Then, the controller 28 determines the standby posture until the robot 16 starts the lifting process based on the distance image corresponding to the detection result of the three-dimensional sensor 18, and the above-determined standby state is selected among the robots 16A and 16B. The robot 16 waiting in the posture is selected. Thereafter, the operation command is corrected so that the suction pad 166a of the selected robot 16 is transported while lifting the transport 12 that is transported on the transport path. As a result, it is possible to selectively use the robot 16 that stands by in a standby posture in which the robot 12 can be lifted reliably and quickly among the robots 16A and 16B. As a result, it is possible to reliably prevent the removal of the package 12 and to improve productivity.

(2)ロボットの設置領域を決定してロボットを選択する場合
前述の実施形態においては、3次元センサ18の検知結果に対応する距離画像に基づき、らっきょう12の持ち上げ方法を決定して、ロボット16を選択していたが、これに限られず、3次元センサ18の検知結果に対応する距離画像に基づき、ロボット16の設置領域を決定して、ロボット16を選択してもよい。
(2) In the case where the robot installation area is determined and the robot is selected In the above-described embodiment, the lifting method of the crane 12 is determined based on the distance image corresponding to the detection result of the three-dimensional sensor 18, and the robot 16 However, the present invention is not limited to this, and the robot 16 may be selected by determining the installation region of the robot 16 based on the distance image corresponding to the detection result of the three-dimensional sensor 18.

図13に示すように、本変形例においては、ロボット16Bのアーム164の先端に取り付けられたツールと、コントローラ28(図1参照)の制御内容とが、前述の実施形態と異なっている。すなわち、本変形例においては、ロボット16Bは、アーム164の先端に、ロボット16Aと同様の吸着パッド166aが取り付けられている。   As shown in FIG. 13, in this modification, the tool attached to the tip of the arm 164 of the robot 16B and the control content of the controller 28 (see FIG. 1) are different from those in the above-described embodiment. That is, in the present modification, the robot 16B has the same suction pad 166a as the robot 16A attached to the tip of the arm 164.

以下、図14を用いて、本変形例においてコントローラ28が実行する制御内容の一例を説明する。なお、この図14は、前述の図3や図12に対応する図であり、図3や図12と同様の手順には同一の符号を付し、適宜説明を省略又は簡略化する。   Hereinafter, an example of the control content executed by the controller 28 in this modification will be described with reference to FIG. Note that FIG. 14 corresponds to FIG. 3 and FIG. 12 described above, and the same steps as those in FIG. 3 and FIG. 12 are denoted by the same reference numerals, and description thereof will be omitted or simplified as appropriate.

図14において、ステップS5、ステップS10、及びステップS20は、前述の図3と同様であり、ステップS35は、前述の図12と同様であり、ステップS35で、前述の特定のらっきょう12の吸着目標部位を設定したら、ステップS42に移る。   14, step S5, step S10, and step S20 are the same as those in FIG. 3 described above, and step S35 is the same as that in FIG. 12 described above. In step S35, the suction target of the specific 12 When the site is set, the process proceeds to step S42.

ステップS42では、コントローラ28は、特定のらっきょう12の吸着目標部位の設定位置に基づき、搬送経路上を搬送されてくる当該特定のらっきょう12の吸着目標部位の、前述のコンベア14による搬送経路の幅方向位置を検出する。具体的には、吸着目標部位がコンベア14による搬送経路の幅方向中央部CP(図13参照)の一方側(図13中の左側)及び他方側(図13中の右側)のうちどちら側にあるかを検出する。   In step S42, the controller 28 determines the width of the conveyance path by the conveyor 14 of the suction target part of the specific raccoon 12 that is transported on the transport path based on the set position of the suction target part of the specific raccoon 12. Detect the direction position. Specifically, the suction target portion is located on one side (left side in FIG. 13) or the other side (right side in FIG. 13) of the central portion CP (see FIG. 13) in the width direction of the conveyance path by the conveyor 14. Detect if there is.

その後、ステップS44で、コントローラ28は、上記ステップS42での検出結果、すなわち吸着目標部位が搬送経路の幅方向中央部CPの一方側及び他方側のうちどちら側にあるかに基づき、特定のらっきょう12に対する前述の持ち上げ処理の処理態様として、ロボット16の設置領域の決定を行う。例えば、上記ステップS42で、吸着目標部位が搬送経路の幅方向中央部CPの一方側にあると検出された場合には、ロボット16の設置領域を前述の搬送経路の幅方向一方側領域に決定する。一方、上記ステップS42で、吸着目標部位が搬送経路の幅方向中央部CPの他方側にあると検出された場合には、ロボット16の設置領域を前述の搬送経路の幅方向他方側領域に決定する。   Thereafter, in step S44, the controller 28 determines a specific value based on the detection result in step S42, that is, whether the suction target site is on one side or the other side of the central portion CP in the width direction of the transport path. As the processing mode of the above-described lifting process for the robot 12, the installation area of the robot 16 is determined. For example, if it is detected in step S42 that the suction target site is on one side of the central portion CP in the width direction of the transport path, the installation area of the robot 16 is determined as the one side area in the width direction of the transport path. To do. On the other hand, if it is detected in step S42 that the suction target site is on the other side of the central portion CP in the width direction of the transport path, the installation area of the robot 16 is determined as the other side area in the width direction of the transport path. To do.

そして、ステップS50″に移り、コントローラ28は、ロボット16A,16Bのうち、特定のらっきょう12に対し作業を行うロボット16として、上記ステップS44で決定されたロボット16の設置領域に設置されたロボット16(第3ロボットに相当)の選択を行う。例えば、上記ステップS44で、ロボット16の設置領域が搬送経路の幅方向一方側領域に決定されていた場合には、搬送経路の幅方向中央部CPの一方側の吸着目標部位へ確実にアプローチでき、かつ、当該吸着目標部位へのアプローチにかかる時間が短い、すなわちタクトタイムの短い搬送経路の幅方向一方側領域に設置されたロボット16Aを選択する。一方、上記ステップS44で、ロボット16の設置領域が搬送経路の幅方向他方側領域に決定されていた場合には、搬送経路の幅方向中央部CPの他方側の吸着目標部位へ確実にアプローチでき、かつ、当該吸着目標部位へのアプローチにかかる時間が短い、すなわちタクトタイムの短い搬送経路の幅方向他方側領域に設置されたロボット16Bを選択する。なお、このステップS50″の手順が、特許請求の範囲に記載の第3ロボット選択手段として機能する。   Then, the process proceeds to step S50 ″, and the controller 28 sets the robot 16 installed in the installation area of the robot 16 determined in step S44 as the robot 16 that performs work on the specific robot 12 among the robots 16A and 16B. For example, if the installation area of the robot 16 is determined as the one side area in the width direction of the transfer path in step S44, the center CP in the width direction of the transfer path is selected. The robot 16A installed in the one side region in the width direction of the transport path that can reliably approach the suction target site on one side and takes a short time to approach the target site, that is, has a short tact time is selected. On the other hand, in step S44, the installation area of the robot 16 is determined as the other area in the width direction of the transfer path. In this case, it is possible to reliably approach the suction target site on the other side of the central portion CP in the width direction of the transport path, and the time required for approaching the suction target site is short, that is, the width direction of the transport path with short tact time The robot 16B installed in the other side region is selected. The procedure of step S50 ″ functions as third robot selection means described in the claims.

その後の手順は、前述の図3とほぼ同様であるので、説明を省略する。   The subsequent procedure is almost the same as that in FIG.

なお、上記において、ステップS42及びステップS44の手順が、特許請求の範囲に記載の態様決定手段として機能し、そのうち、ステップS42の手順が位置検出手段として機能し、ステップS44の手順が領域決定手段として機能する。また、前述のステップS75及び前述のステップS105の手順が、特許請求の範囲に記載の動作補正手段として機能する。また、ステップS5′、前述のステップS80、及び前述のステップS110の手順が、動作出力手段として機能する。   In the above, the procedure of step S42 and step S44 functions as the aspect determining means described in the claims. Among them, the procedure of step S42 functions as the position detecting means, and the procedure of step S44 is the area determining means. Function as. Moreover, the procedure of the above-mentioned step S75 and the above-mentioned step S105 functions as an operation | movement correction means as described in a claim. Further, the procedure of step S5 ′, the above-described step S80, and the above-described step S110 functions as an operation output unit.

以上説明した本変形例においては、ロボット16は、搬送経路の幅方向一方側領域及び他方側領域に亘って設けられたロボット16A,16Bの2台設置されている。そして、コントローラ28が、3次元センサ18の検知結果に対応する距離画像に基づき、搬送経路上を搬送されてくるらっきょう12の搬送経路の幅方向位置を検出し、その検出結果に基づき、ロボット16の設置領域の決定を行い、ロボット16A,16Bのうち、上記決定された設置領域に設置されたロボット16の選択を行う。その後、その選択されたロボット16の吸着パッド166aにより、搬送経路上を搬送されてくるらっきょう12を持ち上げつつ移送するように、動作指令の補正を行う。これにより、ロボット16A,16Bのうち、らっきょう12を確実かつ迅速に持ち上げ可能な設置領域に設置されたロボット16を選択的に使用することが可能となる。その結果、らっきょう12の取り損ねを確実に防止でき、生産性を確実に向上することができる。   In the present modification described above, two robots 16 are installed, that is, the robots 16A and 16B provided over the one side region and the other region in the width direction of the transport path. Then, the controller 28 detects the position in the width direction of the transport path of the transport 12 that is transported on the transport path based on the distance image corresponding to the detection result of the three-dimensional sensor 18, and based on the detection result, the robot 16 And the robot 16 installed in the determined installation area is selected from the robots 16A and 16B. Thereafter, the operation command is corrected so that the suction pad 166a of the selected robot 16 is transported while lifting the transport 12 that is transported on the transport path. As a result, it is possible to selectively use the robot 16 installed in the installation area where the robot 12 can be lifted reliably and quickly among the robots 16A and 16B. As a result, it is possible to reliably prevent the removal of the package 12 and to improve productivity.

(3)ロボットを1台だけ設置する場合
以上においては、ロボット16を2台設置する構成としていたが、これに限られず、ロボット16を1台だけ設置する構成としてもよい。
(3) When only one robot is installed In the above description, the configuration is such that two robots 16 are installed. However, the present invention is not limited to this, and a configuration in which only one robot 16 is installed may be used.

図15及び図16に示すように、本変形例のらっきょう切断加工システム10A(ロボットシステム)は、前述のコンベア14と、前述の3次元センサ18と、前述のロボット16Aと、前述のコントローラ28とを有している。   As shown in FIG.15 and FIG.16, the cutting system 10A (robot system) of this modification includes the conveyor 14, the three-dimensional sensor 18, the robot 16A, the controller 28, and the controller 28. have.

本変形例のロボット16Aは、アーム164の先端側に、互いに持ち上げ方法の異なる複数(この例では2つ)のツールとして、前述の吸着パッド166a及びハンド166bが取り付けられている。このロボット16Aの周囲には、前述のカメラ20、切断装置22、廃棄ボックス24、及び投入ボックス26が設置されている。   In the robot 16A of this modification, the above-described suction pad 166a and hand 166b are attached to the distal end side of the arm 164 as a plurality of (two in this example) tools having different lifting methods. Around the robot 16A, the above-described camera 20, cutting device 22, disposal box 24, and insertion box 26 are installed.

また、本変形例のコントローラ28の記憶装置には、予め例えば教示ペンダント等を介して入力された、搬送経路上を搬送されてくるらっきょう12に対しツールにより持ち上げつつ移送する作業を行うための、ツールの種別の指定がされていない動作指令を含む、複数の動作指令が格納されている。   Further, in the storage device of the controller 28 of this modification, for example, an operation is performed in which the tool 12 is transported while being lifted by a tool with respect to the transport 12 that has been previously transported on the transport path, for example, via a teaching pendant. A plurality of operation commands are stored, including operation commands for which no tool type is specified.

以下、図17を用いて、本変形例においてコントローラ28が実行する制御内容の一例を説明する。なお、この図17は、前述の図3に対応する図であり、図3と同様の手順には同一の符号を付し、適宜説明を省略又は簡略化する。   Hereinafter, an example of control contents executed by the controller 28 in the present modification will be described with reference to FIG. Note that FIG. 17 corresponds to FIG. 3 described above, and the same steps as those in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted or simplified as appropriate.

図17において、まずステップS5Aで、コントローラ28は、ロボット16Aが所定の待機姿勢(例えば、図16に示す姿勢)となるように、ロボット16Aに対し、記憶装置に記憶された所定の動作指令を出力する。これにより、ロボット16Aは、旋回ベース163及びアーム164を協調動作し、所定の待機姿勢となって待機する。   In FIG. 17, first, in step S5A, the controller 28 sends a predetermined operation command stored in the storage device to the robot 16A so that the robot 16A assumes a predetermined standby posture (for example, the posture shown in FIG. 16). Output. As a result, the robot 16A cooperates with the turning base 163 and the arm 164, and waits in a predetermined standby posture.

その後のステップS10〜ステップS40は、前述の図3と同様であり、ステップS40で、前述の特定のらっきょう12の持ち上げ方法を決定したら、ステップS50Aに移る。なお、本変形例においてもステップS40の手順が、特許請求の範囲に記載の態様決定手段として機能する。   Subsequent steps S10 to S40 are the same as those in FIG. 3 described above. When the above-described method for lifting the specific package 12 is determined in step S40, the process proceeds to step S50A. In this modification as well, the procedure of step S40 functions as the aspect determining means described in the claims.

ステップS50Aでは、コントローラ28は、ロボット16Aに備えられた2つのツール、すなわち吸着パッド166a及びハンド166bのうち、特定のらっきょう12に対し作業を行う持ち上げるツールとして、前述のステップS40で決定された持ち上げ方法に対応するツール(第2ツールに相当。以下適宜、「特定のツール」と称する)の選択を行う。例えば、前述のステップS40で、持ち上げ方法が真空吸着に決定されていた場合には、真空吸着を行うツールである吸着パッド166aを選択する。一方、前述のステップS40で、持ち上げ方法が把持に決定されていた場合には、把持を行うツールであるハンド166bを選択する。なお、このステップS50Aの手順が、特許請求の範囲に記載のツール選択手段として機能する。   In Step S50A, the controller 28 lifts the robot determined in Step S40 described above as a tool for lifting the specific tool 12 among the two tools provided in the robot 16A, that is, the suction pad 166a and the hand 166b. A tool corresponding to the method (corresponding to the second tool; hereinafter referred to as “specific tool” as appropriate) is selected. For example, if the lifting method is determined to be vacuum suction in step S40 described above, the suction pad 166a, which is a tool for performing vacuum suction, is selected. On the other hand, if the lifting method has been determined to be gripping in step S40 described above, the hand 166b, which is a tool for gripping, is selected. Note that the procedure of step S50A functions as the tool selection means described in the claims.

その後、ステップS60Aで、コントローラ28は、上記ステップS50Aでの選択結果に応じて、特定のらっきょう12の接触目標部位の設定を行う。例えば、上記ステップS50Aで吸着パッド166aが選択されていた場合には、前述のステップS30で検出された、特定のらっきょう12の真空吸着できそうな部位のうち、所定の条件を満たす部位を、当該特定のらっきょう12の吸着目標部位に設定する。一方、上記ステップS50Aでハンド166bが選択されていた場合には、特定のらっきょう12の上記球根部12cの適宜の部位を、当該特定のらっきょう12の把持目標部位に設定する。   After that, in step S60A, the controller 28 sets a specific contact target site for the 12th step according to the selection result in step S50A. For example, when the suction pad 166a is selected in the above step S50A, the part that satisfies the predetermined condition among the parts that are likely to be vacuum-sucked in the specific 12 that is detected in the above-described step S30 is It is set as a suction target site for a specific luck 12. On the other hand, when the hand 166b is selected in the step S50A, an appropriate part of the bulb portion 12c of the specific raccoon 12 is set as the grip target part of the specific raccoon 12.

そして、ステップS70Aに移り、コントローラ28は、前述のステップS70と同様にして、上記ステップS50Aで選択されたツールの可動範囲内に、特定のらっきょう12が搬送されてくるタイミング、言い換えればロボット16Aの動作開始タイミングを算出する。このステップS70Aの手順が、特許請求の範囲に記載のタイミング算出手段として機能する。   Then, the process proceeds to step S70A, and the controller 28, similarly to the above-described step S70, is the timing at which the specific rack 12 is conveyed within the movable range of the tool selected in step S50A, in other words, the robot 16A. The operation start timing is calculated. The procedure of step S70A functions as a timing calculation unit described in the claims.

その後、ステップS75Aで、コントローラ28は、記憶装置に格納された当該ステップS75Aに関する動作指令を読み出し、その読み出した動作指令を補正する。具体的には、上記ステップS70Aで算出された動作開始タイミングになったときに旋回ベース163及びアーム164を協調動作し、搬送経路上を搬送されてくる特定のらっきょう12の接触目標部位に特定のツールを接触させ、当該特定のツールにより特定のらっきょう12を持ち上げつつ周囲のカメラ20に係る前述の撮像位置へ移動させるように、上記読み出した動作指令を特定のツール用に補正する。例えば、上記ステップS50Aで吸着パッド166aが選択されていた場合には、特定のらっきょう12の吸着目標部位に吸着パッド166aを接触させ、当該吸着パッド166aによる真空吸着により特定のらっきょう12を持ち上げつつ撮像位置へ移動させるように、動作指令を吸着パッド166a用に補正する。一方、上記ステップS50Aでハンド166bが選択されていた場合には、特定のらっきょう12の把持目標部位にハンド166bを接触させ、当該ハンド166bによる把持により特定のらっきょう12を持ち上げつつ撮像位置へ移動させるように、動作指令をハンド166b用に補正する。   Thereafter, in step S75A, the controller 28 reads out the operation command related to the step S75A stored in the storage device, and corrects the read operation command. Specifically, when the operation start timing calculated in step S70A is reached, the turning base 163 and the arm 164 are cooperatively operated, and the specific contact target site of the specific rack 12 that is transported on the transport path is specified. The read operation command is corrected for a specific tool so that the tool is brought into contact with the specific camera 12 and moved to the above-described imaging position of the surrounding camera 20 while being lifted by the specific tool. For example, when the suction pad 166a is selected in the above step S50A, the suction pad 166a is brought into contact with the suction target site of the specific suction pad 12, and imaging is performed while the specific suction pad 12 is lifted by vacuum suction by the suction pad 166a. The operation command is corrected for the suction pad 166a so as to move to the position. On the other hand, when the hand 166b is selected in the above step S50A, the hand 166b is brought into contact with the grasping target portion of the specific candy 12 and is moved to the imaging position while being lifted by the hand 166b. Thus, the operation command is corrected for the hand 166b.

その後、ステップS80Aで、コントローラ28は、ロボット16Aに対し、上記ステップS75Aで補正後の動作指令を出力する。これにより、ロボット16Aが、コントローラ28からの動作指令に基づき、動作開始タイミングになったときに、旋回ベース163及びアーム164を協調動作し、搬送経路上を搬送されてくる特定のらっきょう12の接触目標部位に特定のツールを接触させ、当該特定のツールにより特定のらっきょう12を持ち上げつつ周囲のカメラ20に係る撮像位置へ移動させる。例えば、上記ステップS50Aで吸着パッド166aが選択されていた場合には、ロボット16Aは、特定のらっきょう12の吸着目標部位に吸着パッド166aを接触させ、当該吸着パッド166aによる真空吸着により特定のらっきょう12を持ち上げつつ撮像位置へ移動させる。一方、上記ステップS50Aでハンド166bが選択されていた場合には、ロボット16Aは、特定のらっきょう12の把持目標部位にハンド166bを接触させ、当該ハンド166bによる把持により特定のらっきょう12を持ち上げつつ撮像位置へ移動させる。   Thereafter, in step S80A, the controller 28 outputs the operation command corrected in step S75A to the robot 16A. As a result, the robot 16A collaborates with the turning base 163 and the arm 164 when the operation start timing is reached based on the operation command from the controller 28, and contacts the specific rack 12 that is transported on the transport path. A specific tool is brought into contact with the target site, and the specific tool 12 is moved to an imaging position related to the surrounding camera 20 while being lifted by the specific tool. For example, when the suction pad 166a is selected in the above step S50A, the robot 16A brings the suction pad 166a into contact with the specific suction target site of the specific skin 12, and the specific suction 12 by vacuum suction by the suction pad 166a. Is moved to the imaging position while lifting. On the other hand, when the hand 166b has been selected in the above step S50A, the robot 16A brings the hand 166b into contact with the gripping target site of the specific luck 12 and picks up the image by lifting the specific luck 12 by gripping with the hand 166b. Move to position.

その後のステップS90及びステップS100は、前述の図3とほぼ同様であり、ステップS100で、特定のらっきょう12の加工目標部位を設定したら、ステップS105Aに移る。   Subsequent steps S90 and S100 are substantially the same as those in FIG. 3 described above. When a specific machining target site of the specific 12 is set in step S100, the process proceeds to step S105A.

ステップS105Aでは、コントローラ28は、記憶装置に格納された当該ステップS105Aに関する動作指令を読み出し、その読み出した動作指令を補正する。具体的には、特定のツールにより持ち上げている特定のらっきょう12の加工目標部位を、前述の刃2221の位置へ導くように、上記読み出した動作指令を特定のツール用に補正する。例えば、上記ステップS50Aで吸着パッド166aが選択されていた場合には、吸着パッド166aにより持ち上げている特定のらっきょう12の加工目標部位を刃2221の位置へ導くように、動作指令を吸着パッド166a用に補正する。一方、上記ステップS50Aでハンド166bが選択されていた場合には、ハンド166bにより持ち上げている特定のらっきょう12の加工目標部位を刃2221の位置へ導くように、動作指令をハンド166b用に補正する。   In step S105A, the controller 28 reads out the operation command related to the step S105A stored in the storage device, and corrects the read operation command. Specifically, the read operation command is corrected for the specific tool so that the processing target site of the specific arm 12 lifted by the specific tool is guided to the position of the blade 2221 described above. For example, when the suction pad 166a is selected in the above step S50A, the operation command is sent to the suction pad 166a so as to guide the processing target portion of the specific arm 12 lifted by the suction pad 166a to the position of the blade 2221. To correct. On the other hand, when the hand 166b is selected in step S50A, the operation command is corrected for the hand 166b so as to guide the processing target portion of the specific arm 12 lifted by the hand 166b to the position of the blade 2221. .

そして、ステップS110Aに移り、コントローラ28は、ロボット16Aに対し、上記ステップS105で補正後の動作指令を出力する。これにより、ロボット16Aは、コントローラ28からの動作指令に基づき、旋回ベース163及びアーム164を協調動作し、特定のツールにより持ち上げている特定のらっきょう12の加工目標部位を、刃2221の位置へ導き、所定の動作を行う。例えば、上記ステップS50Aで吸着パッド166aが選択されていた場合には、ロボット16Aは、吸着パッド166aにより持ち上げている特定のらっきょう12の加工目標部位を、刃2221の位置へ導、所定の動作を行う。一方、上記ステップS50でハンド166bが選択されていた場合には、ロボット16Aは、ハンド166bにより持ち上げている特定のらっきょう12の加工目標部位を、刃2221の位置へ導、所定の動作を行う。   Then, the process proceeds to step S110A, and the controller 28 outputs the operation command corrected in step S105 to the robot 16A. As a result, the robot 16A cooperates with the turning base 163 and the arm 164 based on the operation command from the controller 28, and guides the processing target portion of the specific rack 12 lifted by the specific tool to the position of the blade 2221. , Perform a predetermined operation. For example, when the suction pad 166a is selected in the above step S50A, the robot 16A guides the processing target site of the specific jacket 12 lifted by the suction pad 166a to the position of the blade 2221 and performs a predetermined operation. Do. On the other hand, when the hand 166b is selected in the above step S50, the robot 16A guides the processing target site of the specific arm 12 that is lifted by the hand 166b to the position of the blade 2221 and performs a predetermined operation.

その後のステップS120は、前述の図3と同様であるので説明を省略する。   The subsequent step S120 is the same as that in FIG.

なお、上記において、ステップS75A及びステップS105Aの手順が、特許請求の範囲に記載の動作補正手段として機能する。また、ステップS5A、ステップS80A、及びステップS110Aの手順が、動作出力手段として機能する。   In the above, the procedure of step S75A and step S105A functions as the operation correcting means described in the claims. In addition, the procedure of step S5A, step S80A, and step S110A functions as an operation output unit.

以上説明した本変形例においては、ロボット16Aが、吸着パッド166a及びハンド166bを備えている。そして、コントローラ28が、3次元センサ18の検知結果に対応する距離画像に基づき、らっきょう12の持ち上げ方法の決定を行い、吸着パッド166a及びハンド166bのうち、上記決定された持ち上げ方法に対応するツールの選択を行う。その後、その選択されたツールにより、搬送経路上を搬送されてくるらっきょう12を持ち上げつつ移送するように、動作指令の補正を行う。これにより、ロボット16Aに備えられた吸着パッド166a及びハンド166bのうち、らっきょう12を確実かつ迅速に持ち上げ可能な持ち上げ方法に対応するツールを選択的に使用することが可能となる。その結果、らっきょう12の取り損ねを確実に防止でき、生産性を確実に向上することができる。   In this modification described above, the robot 16A includes the suction pad 166a and the hand 166b. Then, the controller 28 determines the lifting method of the raccoon 12 based on the distance image corresponding to the detection result of the three-dimensional sensor 18, and the tool corresponding to the determined lifting method of the suction pad 166a and the hand 166b. Make a selection. Thereafter, the operation command is corrected so that the selected tool is moved while being lifted up the transport 12 on the transport path. Thereby, it becomes possible to selectively use a tool corresponding to a lifting method that can lift the crane 12 reliably and quickly among the suction pads 166a and the hands 166b provided in the robot 16A. As a result, it is possible to reliably prevent the removal of the package 12 and to improve productivity.

(4)その他
前述の実施形態では、ロボット16Aのアーム164に吸着パッド166aを取り付け、ロボット16Bのアーム164にハンド166bを取り付けていたが、これに限られず、ロボット16Aのアーム164に、ツールとして、吸着パッド166aに代えて、らっきょう12を前述の所定の持ち上げ方法としての突き刺しにより持ち上げ可能な有刺部材を取り付けてもよい。あるいは、ロボット16Bのアーム164に、ツールとして、ハンド166bに代えて上記有刺部材を取り付けてもよい。ロボット16A又はロボット16Bのアーム164に有刺部材を取り付けることで、らっきょう12を突き刺しにより持ち上げることができる。これにより、らっきょう12をハンド166bによる把持により持ち上げる場合に比べ、タクトタイムを短縮できる。
(4) Others In the above-described embodiment, the suction pad 166a is attached to the arm 164 of the robot 16A, and the hand 166b is attached to the arm 164 of the robot 16B. However, the present invention is not limited thereto, and the arm 164 of the robot 16A is used as a tool. Instead of the suction pad 166a, a barbed member capable of lifting the raccoon 12 by piercing as the predetermined lifting method described above may be attached. Alternatively, the barbed member may be attached to the arm 164 of the robot 16B as a tool instead of the hand 166b. By attaching a barbed member to the arm 164 of the robot 16A or the robot 16B, the raccoon 12 can be lifted by piercing. As a result, the tact time can be shortened as compared with the case where the crane 12 is lifted by gripping with the hand 166b.

また、前述の実施形態では、ロボット16Aのアーム164に吸着パッド166aを取り付け、ロボット16Bのアーム164にハンド166bを取り付けていたが、これに限られず、ロボット16A,16Bのアーム164に互いに真空吸着量(真空吸着力)の異なる吸着パッド166aを取り付けてもよい。   In the above-described embodiment, the suction pad 166a is attached to the arm 164 of the robot 16A and the hand 166b is attached to the arm 164 of the robot 16B. However, the present invention is not limited to this, and vacuum suction is performed on the arms 164 of the robots 16A and 16B. You may attach the suction pad 166a from which quantity (vacuum suction power) differs.

また、前述の(1)(2)の変形例では、各ロボット16A,16Bのアーム164に吸着パッド166aを取り付けていたが、これに限られず、各ロボット16A,16Bのアーム164に、吸着パッド166aに代えて、ハンド166b又は上記有刺部材を取り付けてもよい。   In the modified examples (1) and (2) described above, the suction pad 166a is attached to the arm 164 of each robot 16A, 16B. However, the present invention is not limited to this, and the suction pad 166a is attached to the arm 164 of each robot 16A, 16B. Instead of 166a, the hand 166b or the barbed member may be attached.

また、前述の(3)の変形例では、ロボット16Aのアーム164に吸着パッド166a及びハンド166bを取り付けていたが、これに限られず、ロボット16Aのアーム164に、吸着パッド166a又はハンド166bに代えて上記有刺部材を取り付けてもよい。あるいは、ロボット16Aのアーム164に、吸着パッド166a及びハンド166bに加えて上記有刺部材を取り付けてもよい。あるいは、ロボット16Aのアーム164に、互いに真空吸着量(真空吸着力)の異なる2つの吸着パッド166aを取り付けてもよい。   In the modification (3) described above, the suction pad 166a and the hand 166b are attached to the arm 164 of the robot 16A. However, the present invention is not limited to this, and the arm 164 of the robot 16A is replaced with the suction pad 166a or the hand 166b. The barbed member may be attached. Alternatively, the barbed member may be attached to the arm 164 of the robot 16A in addition to the suction pad 166a and the hand 166b. Alternatively, two suction pads 166a having different vacuum suction amounts (vacuum suction power) may be attached to the arm 164 of the robot 16A.

また以上では、コントローラ28が、各種の演算及び処理を一括して行っていたが、これに限られず、これら各種の演算及び処理をコントローラ28とは別の装置が分担して行ってもよい。例えば、第1画像処理装置、第2画像処理装置、ロボットコントローラ、及びこれらを制御する制御装置(例えばPCやPLC)を設け、第1画像処理装置が、3次元センサ18のカメラの撮像画像及びその撮像画像上の距離情報に基づき、前述の距離画像の生成及び真空吸着できそうな部位の検出を行い、第2画像処理装置が、カメラ20の撮像画像に基づき、前述のらっきょう12の形状及び姿勢の検出を行い、ロボットコントローラが、前述の持ち上げ処理の処理態様の決定、ロボット16の選択又はツールの選択、動作指令の補正、及び動作指令の出力、等のロボット16の動作制御に関する処理を行ってもよい。この場合、第1画像処理装置、各カメラ20ごとに設けた第2画像処理装置、各ロボット16ごとに設けたロボットコントローラ、及びこれらを制御する制御装置が、コントローラ手段に相当する。   In the above description, the controller 28 performs various calculations and processes all at once. However, the present invention is not limited thereto, and these various calculations and processes may be performed by a device other than the controller 28. For example, a first image processing device, a second image processing device, a robot controller, and a control device (for example, a PC or a PLC) that controls them are provided, and the first image processing device includes a captured image of a camera of the three-dimensional sensor 18 and Based on the distance information on the captured image, the above-described distance image is generated and a part that is likely to be vacuum-sucked is detected, and the second image processing device, based on the captured image of the camera 20, The posture is detected, and the robot controller performs processing related to the motion control of the robot 16 such as determination of the processing mode of the above-described lifting processing, selection of the robot 16 or selection of the tool, correction of the motion command, and output of the motion command. You may go. In this case, the first image processing device, the second image processing device provided for each camera 20, the robot controller provided for each robot 16, and the control device for controlling them correspond to the controller means.

また以上では、不定形物であるらっきょう12を持ち上げつつ移送していたが、これに限られず、らっきょう12以外の野菜や果物といった自然物や、複数種類が混在した状態の人工物(工業製品)等の不定形物を持ち上げつつ移送してもよい。この場合、らっきょう12以外の野菜や果物といった自然物や、複数種類が混在した状態の人工物等の不定形物が、特許請求の範囲に記載の対象物に相当する。また、不定形物に限られず、定形物に対し加工を行ってもよい。この場合、定形物が、特許請求の範囲に記載の対象物に相当する。   In the above, the raccoon 12 which is an indeterminate shape is lifted and transported, but is not limited to this. Natural products such as vegetables and fruits other than the raccoon 12 and a plurality of types of artificial products (industrial products), etc. It may be transferred while lifting the irregular shape. In this case, natural objects such as vegetables and fruits other than Lucky 12 and irregular objects such as artificial objects in a state where a plurality of types are mixed correspond to the objects described in the claims. Moreover, you may process with respect to a fixed form thing, without being restricted to an indefinite form thing. In this case, the shaped object corresponds to the object described in the claims.

また、鉄等の磁性体からなる対象物を持ち上げつつ移送する作業を行う場合、ロボット16のアーム164に、鉄等の磁性体からなる対象物を前述の所定の持ち上げ方法としての電磁吸着により持ち上げ可能な電磁石を取り付けてもよい。この場合、電磁石が、特許請求の範囲に記載の吸着装置及びツールに相当する。   Further, when performing an operation of transferring an object made of a magnetic material such as iron while lifting it, the object made of a magnetic material such as iron is lifted to the arm 164 of the robot 16 by electromagnetic adsorption as the above-described predetermined lifting method. Possible electromagnets may be attached. In this case, the electromagnet corresponds to the adsorption device and tool described in the claims.

また、前述の実施形態及び(1)(2)の変形例では、ロボット16を2台設置していたが、これに限られず、ロボット16を3台以上設置してもよい。また、前述の(3)の変形例では、ロボット16を1台設置していたが、これに限られず、ロボット16を2台以上設置してもよい。   Further, in the above-described embodiment and the modifications of (1) and (2), two robots 16 are installed. However, the present invention is not limited to this, and three or more robots 16 may be installed. Further, in the modified example (3) described above, one robot 16 is installed. However, the present invention is not limited to this, and two or more robots 16 may be installed.

また、以上においては、ロボットシステムを、所定の作業として、搬送経路上を搬送されてくるらっきょう12に対し持ち上げつつ移送する作業を行うらっきょう切断加工システム10に適用した場合を例にとって説明した。しかしながら、これに限られず、ロボットシステムを、所定の作業として、対象物に対し接着剤や塗料等を塗布する作業、対象物の不要部位を切除する作業、対象物に対し焼印を押す作業、等を行う場合に適用してもよい。これらの作業に適用した場合も、3次元センサの検知結果に基づき動作指令を補正し、動作させるロボットに対し補正後の動作指令を出力することで、作業を確実に精度良く行うことができるので、前述の実施形態と同様、生産性を向上することができる。   In the above description, the robot system has been described as an example of a case where the robot system is applied to the chopping cutting processing system 10 that performs a transfer operation while lifting the rocket 12 that is transported on the transport path as a predetermined work. However, the present invention is not limited to this, and the robot system is a predetermined operation, such as an operation of applying an adhesive or paint to an object, an operation of removing an unnecessary part of the object, an operation of pressing a branding on an object, etc. It may be applied when performing. Even when applied to these operations, the operation command is corrected based on the detection result of the three-dimensional sensor, and the operation command after correction is output to the robot to be operated, so that the operation can be performed reliably and accurately. As in the above-described embodiment, productivity can be improved.

また、前述の図3等に示すフローは実施の形態を図示する手順に限定するものではなく、趣旨及び技術的思想を逸脱しない範囲内で手順の追加・削除又は順番の変更等をしてもよい。   Further, the flow shown in FIG. 3 and the like is not limited to the procedure illustrated in the embodiment, and the procedure may be added or deleted or the order may be changed without departing from the spirit and technical idea. Good.

また、以上既に述べた以外にも、前述の実施形態や各変形例による手法を適宜組み合わせて利用しても良い。   In addition to those already described above, the methods according to the above-described embodiments and modifications may be used in appropriate combination.

その他、一々例示はしないが、前述の実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。   In addition, although not illustrated one by one, the above-mentioned embodiment and each modification are implemented by adding various changes without departing from the spirit thereof.

10 らっきょう切断加工システム(ロボットシステム)
10A らっきょう切断加工システム(ロボットシステム)
12 らっきょう(対象物)
14 コンベア(搬送装置)
16 ロボット
16A,B ロボット
18 3次元カメラ
28 コントローラ(コントローラ手段)
142 モータ
144 コンベア駆動部(駆動部)
146 エンコーダ
166a 吸着パッド(吸着装置、ツール)
166b ハンド(ロボットハンド、ツール)
10 Lucky cutting system (robot system)
10A Lucky cutting system (robot system)
12 Lucky (object)
14 Conveyor (conveying device)
16 Robot 16A, B Robot 18 Three-dimensional camera 28 Controller (controller means)
142 motor 144 conveyor drive unit (drive unit)
146 Encoder 166a Suction pad (Suction device, tool)
166b Hand (robot hand, tool)

Claims (6)

対象物を搬送する搬送装置と、
前記搬送装置による搬送経路上を搬送されてくる前記対象物の3次元形状を検知する3次元センサと、
前記対象物を所定の持ち上げ方法により持ち上げつつ移送する作業を行うためのツールを取り付け可能な複数台のロボットと、
前記ロボットに対し動作指令を出力する第1指令出力手段、前記3次元センサの検知結果に対応する3次元情報に基づき、前記搬送経路上を搬送されてくる前記対象物に対する前記ツールによる持ち上げ処理の処理態様としての持ち上げ方法の決定を行う第1態様決定手段、前記複数台のロボットのうち、前記第1態様決定手段により決定された持ち上げ方法に対応する第1ツールが取り付けられた第1ロボットの選択を行う第1ロボット選択手段、及び、前記3次元センサの検知結果に基づき、前記動作指令の補正を行う第1動作補正手段、を有する第1コントローラ手段と、
を有し、
前記第1動作補正手段は、
前記第1ロボットに取り付けられた前記第1ツールにより、前記搬送経路上を搬送されてくる前記対象物を持ち上げつつ移送するように、前記動作指令の補正を行い、
前記第1指令出力手段は、
前記第1ロボットに対し、前記第1動作補正手段による補正後の動作指令を出力する
ことを特徴とするロボットシステム。
A transport device for transporting an object;
A three-dimensional sensor for detecting a three-dimensional shape of the object conveyed on a conveyance path by the conveyance device;
A plurality of robots to which a tool for performing an operation of transferring the object while being lifted by a predetermined lifting method can be attached;
First command output means for outputting an operation command to the robot, and based on three-dimensional information corresponding to a detection result of the three-dimensional sensor, a lifting process by the tool for the object conveyed on the conveyance path the first mode determining unit intends line determination of lifting Chiage method as processing mode, among the plurality of robots, the first tool corresponding to the method lifting determined by the first mode determining means is mounted First controller means having first robot selection means for selecting one robot , and first motion correction means for correcting the motion command based on the detection result of the three-dimensional sensor;
Have
The first motion correction means includes
The first command attached to the first robot performs the correction of the operation command so as to lift and transfer the object conveyed on the conveyance path,
The first command output means includes
A robot system, wherein an operation command corrected by the first operation correction unit is output to the first robot.
対象物を搬送する搬送装置と、
前記搬送装置による搬送経路上を搬送されてくる前記対象物の3次元形状を検知する3次元センサと、
前記対象物を所定の持ち上げ方法により持ち上げつつ移送する作業を行うためのツールを取り付け可能な複数台のロボットと、
前記ロボットに対し動作指令を出力する第2指令出力手段、前記3次元センサの検知結果に対応する3次元情報に基づき、前記搬送経路上を搬送されてくる前記対象物に対する前記ツールによる持ち上げ処理の処理態様として、前記ロボットの前記持ち上げ処理を開始するまでの待機姿勢の決定を行う第2態様決定手段、前記複数台のロボットのうち、前記第2態様決定手段により決定された待機姿勢で待機する第2ロボットの選択を行う第2ロボット選択手段、及び、前記3次元センサの検知結果に基づき、前記動作指令の補正を行う第2動作補正手段、を有する第2コントローラ手段と、
を有し、
前記第2動作補正手段は、
前記第2ロボットに取り付けられた前記ツールにより、前記搬送経路上を搬送されてくる前記対象物を持ち上げつつ移送するように、前記動作指令の補正を行い、
前記第2指令出力手段は、
前記第2ロボットに対し、前記第2動作補正手段による補正後の動作指令を出力する
ことを特徴とする、ロボットシステム。
A transport device for transporting an object;
A three-dimensional sensor for detecting a three-dimensional shape of the object conveyed on a conveyance path by the conveyance device;
A plurality of robots to which a tool for performing an operation of transferring the object while being lifted by a predetermined lifting method can be attached;
Second command output means for outputting an operation command to the robot; based on the three-dimensional information corresponding to the detection result of the three-dimensional sensor, a lifting process by the tool on the object conveyed on the conveyance path as processing mode, the lifting second mode determining unit intends line determination of standby state until the start of processing of the robot, among the plurality of robots, in a standby position determined by the second mode determining means Second controller means having second robot selection means for selecting a second robot to wait , and second motion correction means for correcting the motion command based on the detection result of the three-dimensional sensor;
Have
The second operation correcting means includes
The operation command is corrected so that the object that is transported on the transport path is lifted and transported by the tool attached to the second robot,
The second command output means includes
An operation command after correction by the second operation correction means is output to the second robot.
前記3次元センサは、
前記搬送装置の搬送面における所定の位置に線状のレーザ光を投光するように配向されたレーザ光源と、
前記レーザ光源による前記レーザ光の投光位置及びその近傍を撮像するカメラと、
を有することを特徴とする、請求項1又は請求項2記載のロボットシステム。
The three-dimensional sensor
A laser light source oriented to project linear laser light at a predetermined position on the transport surface of the transport device; and
A camera for imaging the position of the laser beam projected by the laser light source and the vicinity thereof;
The robot system according to claim 1, further comprising:
前記複数台のロボットのうち、前記搬送経路の最も上流側に設置されるロボットは、
前記ツールにより前記持ち上げ処理を行う領域が、前記3次元センサによる前記対象物の検知領域から前記搬送経路の下流側に、当該搬送経路に沿って所定の距離以上離間するように、設置される
ことを特徴とする、請求項1又は請求項2に記載のロボットシステム。
Among the plurality of robots, the robot installed on the most upstream side of the transfer path is:
An area where the lifting process is performed by the tool is installed downstream from the detection area of the object by the three-dimensional sensor so as to be separated by a predetermined distance or more along the conveyance path. The robot system according to claim 1 , wherein:
前記搬送装置は、
モータと、
前記モータにより回転駆動される駆動部と、
前記駆動部に連結され当該駆動部の回転位置を検出するエンコーダと、
を備え、
第1又は第2コントローラ手段は、
前記エンコーダの検出結果に基づき、前記ロボットの動作開始タイミングを算出するタイミング算出手段を有する
ことを特徴とする、請求項4に記載のロボットシステム。
The transfer device
A motor,
A drive unit that is rotationally driven by the motor;
An encoder coupled to the drive unit for detecting a rotational position of the drive unit;
With
The first or second controller means comprises:
The robot system according to claim 4, further comprising timing calculation means for calculating an operation start timing of the robot based on a detection result of the encoder.
前記複数台のロボットは、
前記所定の持ち上げ方法を行う前記ツールとして、前記対象物を吸着により持ち上げ可能な吸着装置、前記対象物を把持により持ち上げ可能なロボットハンド、及び、前記対象物を突き刺しにより持ち上げ可能な有刺部材、の1以上をそれぞれ取り付け可能に構成されている
ことを特徴とする、請求項1又は請求項2記載のロボットシステム。
The plurality of robots are:
As the tool for performing the predetermined lifting method, a suction device that can lift the object by suction, a robot hand that can lift the object by gripping, and a barbed member that can lift the object by piercing, 3. The robot system according to claim 1, wherein one or more of the robots can be attached.
JP2011230684A 2011-10-20 2011-10-20 Robot system Expired - Fee Related JP5440885B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011230684A JP5440885B2 (en) 2011-10-20 2011-10-20 Robot system
US13/371,476 US8930009B2 (en) 2011-10-20 2012-02-13 Robot system and processed object manufacturing method
EP12155537.9A EP2583796A2 (en) 2011-10-20 2012-02-15 Robot system and processed object manufacturing method
CN201210039248XA CN103056884A (en) 2011-10-20 2012-02-20 Robot system and processed object manufacturing method
BR102012003829-3A BR102012003829A2 (en) 2011-10-20 2012-02-22 ROBOTIZED SYSTEM AND PROCESSED OBJECT PRODUCTION METHOD.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011230684A JP5440885B2 (en) 2011-10-20 2011-10-20 Robot system

Publications (2)

Publication Number Publication Date
JP2013086229A JP2013086229A (en) 2013-05-13
JP5440885B2 true JP5440885B2 (en) 2014-03-12

Family

ID=48530683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011230684A Expired - Fee Related JP5440885B2 (en) 2011-10-20 2011-10-20 Robot system

Country Status (1)

Country Link
JP (1) JP5440885B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733598B1 (en) 2017-02-13 2017-05-10 황명숙 Factory facility automation system based on robot control learning
KR101813983B1 (en) * 2017-02-13 2018-01-30 황명숙 Automation system for industrial robot based on product assembly exhibition and order feedback request
JP2021187499A (en) * 2020-05-29 2021-12-13 ファナック株式会社 Bag opening device and robot system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101837513B1 (en) * 2016-08-04 2018-03-12 (주)로보토보 Automatic garlic clove base cutting machine
JP6831678B2 (en) * 2016-11-29 2021-02-17 川崎重工業株式会社 Robot and its operation method, and application system
JP6470321B2 (en) 2017-01-11 2019-02-13 ファナック株式会社 Article conveying device
JP7201313B2 (en) * 2017-09-25 2023-01-10 慶應義塾 Food transfer system and food gripping device
CN108972619B (en) * 2018-07-16 2021-06-25 安徽智森电子科技有限公司 Movable manipulator operation table
JP2021146452A (en) * 2020-03-19 2021-09-27 株式会社東芝 Handling device, control device, and control program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5845884A (en) * 1981-09-14 1983-03-17 株式会社妙徳製作所 Automatic mechanizing device
JPS60127988A (en) * 1983-12-09 1985-07-08 ダイキン工業株式会社 Composite hand
JP3296643B2 (en) * 1992-12-21 2002-07-02 松下電工株式会社 Component supply method and device
JPH07136959A (en) * 1993-11-11 1995-05-30 Nippon Telegr & Teleph Corp <Ntt> Robot positioning method
JPH1158187A (en) * 1997-08-26 1999-03-02 Matsushita Electric Works Ltd Transfer supply control method of part in production line and device therefor
JP4236793B2 (en) * 2000-03-28 2009-03-11 セイコーインスツル株式会社 Storage device and storage method
JP2007030087A (en) * 2005-07-26 2007-02-08 Fanuc Ltd Physical distribution tracking device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733598B1 (en) 2017-02-13 2017-05-10 황명숙 Factory facility automation system based on robot control learning
KR101813983B1 (en) * 2017-02-13 2018-01-30 황명숙 Automation system for industrial robot based on product assembly exhibition and order feedback request
JP2021187499A (en) * 2020-05-29 2021-12-13 ファナック株式会社 Bag opening device and robot system
JP7491743B2 (en) 2020-05-29 2024-05-28 ファナック株式会社 Robot System

Also Published As

Publication number Publication date
JP2013086229A (en) 2013-05-13

Similar Documents

Publication Publication Date Title
JP5440885B2 (en) Robot system
CN103056884A (en) Robot system and processed object manufacturing method
JP6499273B2 (en) Teaching apparatus and control information generation method
JP5293442B2 (en) Robot system and article juxtaposition method
JP5382621B2 (en) Transfer equipment
WO2020009148A1 (en) Workpiece transport system and workpiece transport method
JP2013078825A (en) Robot apparatus, robot system, and method for manufacturing workpiece
KR20080056737A (en) A method and an arrangement for locating and picking up objects from a carrier
CN102632506A (en) Position detection device for robot, robotic system, and position detection method for robot
KR102027040B1 (en) Object auto arrangement system using image processing algorithm
JP2019151421A (en) Article transfer device and loading position detection device
JP6006568B2 (en) Fish small bone remover
JP2008023590A (en) Core setting apparatus and core setting method
JP2010058243A (en) Picking device
JP5370788B2 (en) Object processing system
JP4390758B2 (en) Work take-out device
JP2000262128A (en) Automatic harvesting of eggplant and apparatus therefor
WO2016151667A1 (en) Teaching device and method for generating control information
JP2010188474A (en) Workpiece conveyance apparatus and workpiece conveyance method using the same
JP2009172720A (en) Bin picking device
JP7047118B2 (en) Method of teaching the edge position of the board transfer robot and the target body
WO2018225827A1 (en) Workpiece recognition device, and method for recognizing workpiece
JP2974111B2 (en) Article transfer method
JP6287803B2 (en) Robot system, workpiece posture adjustment device, and workpiece transfer method
WO2019176809A1 (en) Robot hand and robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131204

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees