[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6646026B2 - 作業システム、物品に対する作業実施方法、およびロボット - Google Patents

作業システム、物品に対する作業実施方法、およびロボット Download PDF

Info

Publication number
JP6646026B2
JP6646026B2 JP2017200233A JP2017200233A JP6646026B2 JP 6646026 B2 JP6646026 B2 JP 6646026B2 JP 2017200233 A JP2017200233 A JP 2017200233A JP 2017200233 A JP2017200233 A JP 2017200233A JP 6646026 B2 JP6646026 B2 JP 6646026B2
Authority
JP
Japan
Prior art keywords
article
unit
work
robot
visual sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017200233A
Other languages
English (en)
Other versions
JP2019072792A (ja
Inventor
雅文 大場
雅文 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017200233A priority Critical patent/JP6646026B2/ja
Priority to US16/106,366 priority patent/US10850927B2/en
Priority to CN201811132453.4A priority patent/CN109665307B/zh
Priority to DE102018124712.5A priority patent/DE102018124712B4/de
Publication of JP2019072792A publication Critical patent/JP2019072792A/ja
Priority to JP2019162934A priority patent/JP6889216B2/ja
Application granted granted Critical
Publication of JP6646026B2 publication Critical patent/JP6646026B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • B65G47/902Devices for picking-up and depositing articles or materials provided with drive systems incorporating rotary and rectilinear movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Description

本発明は、作業システム、物品に対する作業実施方法、およびロボットに関する。
搬送装置上を搬送される物品に対して、各種作業を行うロボットが知られている。このようなロボットとして、例えば、移動可能な移動架台に搭載されて、ロボットアームの先端のハンドに取り付けられたカメラによって物品を認識して、物品に対して作業を行うロボットがある(例えば、特許文献1,2)。
特開2001−121461号公報 特開2016−32843号公報
搬送装置を用いた生産ラインでは、需要と供給の関係によって、生産ラインで生産される物品の数が時期によって増減することがある。生産される物品が多い時期を考慮して、生産ラインに固定のロボットが配置されてしまうと、生産される物品が少ない時期に、配置されたロボットが過剰設備になってしまうおそれがある。そのため、生産時期に応じて、生産ラインに配置されるロボットの数を増減させることが望ましい。
特許文献1に記載されたロボットを用いた生産ラインにおいて、このロボットが搬送装置上を搬送される物品に対して作業を行うために、搬送装置の搬送速度を計測するためのパルスコーダ等の設備が必要になる。生産ラインでは、パルスコーダ等の設備も、過剰設備になってしまうおそれがある。また、パルスコーダを用いる場合、パルスコーダとロボットを同期させる作業が必要になり、ロボットの設置作業に要する時間が長くなってしまうおそれもある。
本発明は上述した事情に鑑みてなされたものであって、生産時期による生産数の増減に容易に対応することができるロボットシステム、物品に対する作業実施方法、およびロボットの提供を目的とする。
上記目的を達成するため、本発明は以下の手段を提供する。
本発明の一態様は、物品を搬送する搬送装置と、移動可能な移動架台と、該移動架台に固定され、前記搬送装置により搬送される前記物品に対して作業を行う作業部と、前記移動架台に固定され、前記搬送装置により搬送される前記物品または前記搬送装置上に形成されたマークの視覚情報を逐次取得する視覚センサと、該視覚センサにより取得される前記視覚情報を処理して前記物品又は前記マークの少なくとも位置を逐次検出する検出部と、該検出部により逐次検出される前記物品又は前記マークの位置に基づき前記搬送装置の搬送速度を算出する算出部と、前記搬送速度を用いて前記作業部を駆動させる駆動制御部とを備え、前記視覚センサの撮像範囲は前記作業部による作業範囲よりも前記搬送装置の上流側であり、前記作業範囲は前記視覚センサによって撮影されない作業システムを提供する。
本態様によれば、カメラ等の視覚センサは、搬送装置によって搬送される物品または搬送装置上に形成されたマークの視覚情報を逐次取得する。算出部は、逐次取得された視覚情報に含まれる複数の物品またはマークの少なくとも位置の変化に基づいて、搬送装置の搬送速度を算出する。駆動制御部は、搬送速度を用いて、搬送装置により搬送される物品の位置を特定して、作業部により特定した物品に作業を行わせる。
すなわち、本態様によれば、移動架台を移動させることで、搬送装置を含む生産ラインに、必要な数のロボットが配置される。移動架台に視覚センサおよび作業部が固定され、移動架台を移動しても作業部に対する視覚センサの位置が変わらない。このため、算出された搬送装置の搬送速度が用いられることで、パルスコーダ等の過剰な設備を必要とせずに、搬送装置上を搬送される物品に対して、作業部による作業が行われる。
上記態様においては、前記駆動制御部が、所定の期間に前記視覚センサにより取得された複数の前記視覚情報内に前記物品または前記マークが検出されない場合に、前記所定の期間の前に前記算出部によって算出された前記搬送速度を用いて前記作業部を駆動させてもよい。
このようにすることで、視覚センサにより物品又はマークが検出されない時間が生じても、搬送装置により視覚センサの画角の下流側に搬送される物品に対して、作業部による作業を継続することができる。
上記態様においては、前記算出部が、算出した前記搬送速度に基づいて、前記搬送装置上を搬送される前記物品の移動量を算出し、前記駆動制御部が、前記検出部で検出される前記物品の位置と、前記算出部により算出される前記物品の前記移動量および前記搬送速度とを用いて、前記搬送装置により搬送される前記物品に追従しながら該物品に対して作業を行うように前記作業部を駆動させてもよい。
このようにすることで、搬送装置により搬送される物品と作業部との接触時における衝撃が小さくなるため、作業時における物品に対する損傷などが回避又は抑制される。
上記態様においては、所定の期間に前記視覚センサにより取得された複数の前記視覚情報内に前記物品または前記マークが検出されない場合に、前記搬送装置上の前記物品の搬送が停止されていること又は前記搬送装置が停止していることを報知する報知部を備えてもよい。
物品またはマークが視覚情報から検出されない場合には、搬送装置の搬送速度がゼロまたは作業対象の物品が搬送されていない場合が考えられる。その場合に、報知部による報知が行われることで、事故の防止や無駄な作業の抑制となる。
上記態様においては、前記駆動制御部が、前記報知部による報知が行われた場合に、前記作業部が前記物品に対して行う作業を中止してもよい。
このようにすることで、事故の防止や無駄な作業の抑制となる。
上記態様においては、前記算出部が、前記搬送速度として、複数の前記物品の速度の平均値又は複数の前記マークの速度の平均値を算出してもよい。
視覚センサの視覚情報としてカメラ等の撮影画像が用いられ、例えば、画角の中心よりも周囲の方がレンズの収差の影響が大きい場合でも、カメラに写った複数の物品又はマークの速度の平均値が搬送装置の搬送速度として用いられることで、より精度の高い搬送装置の搬送速度が算出される。
また、本発明の他の態様は、物品を搬送する搬送装置と、移動可能な移動架台と、該移動架台に固定され、前記搬送装置により搬送される前記物品に対して作業を行う作業部と、前記搬送装置により搬送される前記物品の視覚情報を逐次取得する視覚センサであって、その画角に前記作業部の作業範囲が含まれるように前記移動架台に固定された視覚センサと、該視覚センサにより取得される前記視覚情報を処理して前記画角内における前記物品の少なくとも位置を逐次検出する検出部と、該検出部により逐次検出される前記物品の位置を少なくとも用いて前記作業部を駆動させる駆動制御部とを備える作業システムを提供する。
本態様によれば、カメラ等の視覚センサは、搬送装置によって搬送される物品の視覚情報を逐次取得する。検出部は、視覚センサにより取得される視覚情報を処理して視覚センサの画角内における物品の少なくとも位置を逐次検出する。駆動制御部は、検出部により逐次検出される物品の位置を用いて、物品に対し作業部による作業を行わせる。
すなわち、本態様によれば、移動架台を移動させることで、搬送装置を含む生産ラインに、必要な数のロボットが配置される。移動架台に視覚センサおよび作業部が固定され、移動架台を移動しても作業部に対する視覚センサの位置が変わらない。このため、検出部により逐次検出される物品の位置を用いて、搬送装置上を搬送される物品に対して作業部による作業を行うことができる。
また、本発明の他の態様は、物品を搬送する搬送装置の近傍に作業部および視覚センサが固定された移動架台を配置する配置ステップと、前記移動架台に固定された視覚センサにより、前記搬送装置により搬送される前記物品または前記搬送装置上に形成されたマークの視覚情報を逐次取得する視覚情報取得ステップと、前記視覚センサにより取得される前記視覚情報を処理して前記物品又は前記マークの少なくとも位置を逐次検出する検出ステップと、逐次検出される前記物品又は前記マークの位置に基づき前記搬送装置の搬送速度を算出する算出ステップと、前記搬送速度を用いて、該移動架台に固定された作業部により、前記搬送装置により搬送される前記物品に対して作業を行う作業ステップとを備え、前記視覚センサの撮像範囲は前記作業部による作業範囲よりも前記搬送装置の上流側であり、前記作業範囲は前記視覚センサによって撮影されない、物品に対する作業実施方法を提供する。
また、本発明の他の態様は、移動可能な移動架台と、該移動架台に固定され、搬送装置により搬送される物品又は前記搬送装置上に形成されたマークの視覚情報を逐次取得する視覚センサと、該視覚センサにより取得される前記視覚情報を処理して、前記物品又は前記マークの少なくとも位置を逐次検出する検出部と、該検出部により逐次検出される前記物品又は前記マークの位置に基づき前記搬送装置の搬送速度を算出する算出部と、前記搬送速度を用いて作業部を駆動させる駆動制御部を備え、前記視覚センサの撮像範囲は前記作業部による作業範囲よりも前記搬送装置の上流側であり、前記作業範囲は前記視覚センサによって撮影されないロボットを提供する。

本発明によれば、生産時期による生産数の増減に容易に対応することができる。
本発明の第1実施形態に係るロボットシステムを示す全体構成図である。 図1のロボットシステムに備えられる制御部を示すブロック図である。 図1のロボットシステムのカメラにより取得される画像の時間変化と搬送速度とを示す図である。 物品Oに対する作業実施方法のフローチャートである。 第2実施形態に係るロボットシステムを示す全体構成図である。 第3実施形態に係るロボットシステムを示す全体構成図である。 図1のロボットシステムにおいて同一視野内に複数の物品が撮影される場合を示す図3と同様の図である。
本発明の第1実施形態に係るロボットシステム(作業システム)1について、図面を参照しながら以下に説明する。
図1には、本実施形態に係る物品Oを生産する生産ラインを含むロボットシステム1が示されている。ロボットシステム1は、物品Oを搬送するコンベア(搬送装置)2と、コンベア2の近傍に設置される移動可能な移動架台13と、移動架台13の上部に固定されてコンベア2により搬送される物品Oを撮影するカメラ(視覚センサ)4と、移動架台13の上部に固定されてコンベア2により搬送される物品Oに対して各種作業を行うロボット(作業部)3と、ロボット3を制御すると共にカメラ4により取得される画像の処理等を行う制御部5とを備えている。また、図1には、ロボットシステム1に加えて、物品Oに対して作業を行う作業者WKが示されている。
コンベア2は、例えばベルトコンベアであって、物品Oを搭載して一方向に搬送するベルト6を備えている。ベルト6はモータ(図示略)により駆動されるようになっている。ベルト6の表面には、所定の間隔を空けて、複数のマークMKが形成されている。なお、以降では、簡略化して、ベルト6上をコンベア2上ともいい、ベルト6の搬送速度をコンベア2の搬送速度ともいう。
図1に示すように移動架台13がコンベア2の近傍に配置され固定されると、カメラ4は、コンベア2上の一部の領域に固定された視野を有することになる。カメラ4は、コンベア2により搬送されてくる物品OおよびマークMKの2次元画像を、視覚情報として逐次取得するようになっている。本実施形態では、カメラ4は、同一物品OおよびマークMKがカメラ4の撮影視野を通過する間に2回以上撮影されるフレームレートで撮影するようになっている。
なお、上記の固定としては、移動架台13の車輪の回転を規制する輪止め機構によって移動架台13の一部又は全部の車輪の回転を規制する方法、移動架台13の車輪を移動架台13のボディに対して上方に移動することによりボディを接地させ、これにより移動架台13を設置面に対し移動しないように固定する方法、ボディの両側面から水平方向に突出する複数のアームおよび該複数のアームからそれぞれ下方に延びる複数の脚部材とを有するアウトリガー構造を採用し、該アウトリガー構造を用いて移動架台13を固定する方法等がある。その他の方法を用いて固定してもよい。
ロボット3は、移動架台13上において、カメラ4よりも、コンベア2の搬送方向の下流側に設置されている。そのため、ロボット3は、カメラ4により撮影された後の物品Oに対して作業を行う。
移動架台13がコンベア2の近傍に配置および固定された後、カメラ4やロボット3を用いてトラッキング座標系の設定が行われる。
トラッキング座標系設定の1つの方法としては、先ず、固定された移動架台13のカメラ4によって、ある搬送位置において、コンベア2上の物品O、マークMK、キャリブレーション器具等(本実施形態ではキャリブレーション器具)の画像を取得し、コンベア2により前記搬送位置よりも下流側に搬送されたキャリブレーション器具の画像も少なくとも1つ取得する。続いて、制御部5が、これら複数の画像に周知の画像処理を行い、パターンマッチング等によりこれら複数の画像にあらわれるキャリブレーション器具の移動方向を特定し、該移動方向に対応する水平方向を例えばトラッキング座標系のX軸として設定し、X軸に直交する水平方向をY軸として設定する。必要に応じてZ軸を設定してもよい。
他の方法としては、先ず、ロボット3の先端にキャリブレーション用ツールを取付け、コンベア2上に、その搬送方向と直交する方向に正確に並ぶように配置された複数の小さな点を上面に有するキャリブレーション用板を載置する。ここで、キャリブレーション用ツールの先端の位置はロボット3を制御する制御部5により認識されている。
続いて、ロボット3の先端に取付けられたキャリブレーション用ツールの先端をキャリブレーション用板の上面のコンベア2の搬送方向に並ぶ小さな点の少なくとも2点に接触させることにより、制御部5に、コンベア2の移動方向、即ちトラッキング座標系のX軸を設定し、さらにキャリブレーション用板の上面のX軸に直交する方向の少なくとも1点に接触させることによりY軸を設定する。また、X軸およびY軸に直交する方向がZ軸として制御部5に設定され、接触位置から既知であるキャリブレーション用板の厚さを差し引いた高さがコンベア2の高さとして制御部5に設定される。尚、前述のカメラ4を使う方法の場合にもロボット3による接触等を用いて高さを設定することができる。
尚、ある搬送位置のコンベア2上のキャリブレーション用板のある点にキャリブレーション用ツールの先端を接触させ、前記搬送位置よりも下流側に搬送されたキャリブレーション用板の上記点にキャリブレーション用ツールの先端を接触させることにより、トラッキング座標系のX軸を設定してもよい。また、他の方法によってトラッキング座標系の設定を行ってもよい。
上記のように、ロボット3およびカメラ4は移動架台13の上部に固定されていると共に、ロボット3とカメラ4とのキャリブレーションは既に行われており、ロボット3とカメラ4との位置関係が判明している。このため、カメラ4又はロボット3を使って上記のトラッキング座標系の設定を行うことにより、コンベア2の流れ方向をX軸とするトラッキング座標系がコンベア2上にロボット3に関して定義され、そのトラッキング座標系に対するカメラ4の位置が判明することになる。つまり、複雑な設定作業を要さずにカメラ4およびロボット3をコンベア2での作業用に設置できるという利点がある。本実施形態では、ロボット3の作業範囲は、カメラ4の撮影範囲と異なる。換言すると、ロボット3の作業は、カメラ4によって撮影されていない。
本実施形態のロボット3は、複数の関節軸を有する垂直多関節型ロボットである。なお、図1では、複数の関節軸を駆動させるための各モータと、各モータの回転角度を検出するための各エンコーダとの図示が省略されている。ロボット3の先端には、物品Oに対して作業を行うロボットハンド7が取り付けられている。
制御部5は、図示しないCPUと、ROMと、RAMと、メモリとで構成されている。制御部5は、図2に示されるように、カメラ4により取得された画像を処理して物品Oを検出する画像処理部8と、処理された画像内における物品Oに基づいてコンベア2の搬送速度を算出する速度算出部(算出部)9と、速度算出部9により算出された搬送速度に基づいてロボット3を駆動させる駆動制御部10と、時間を計測するタイマー11と、タイマー11からの出力に基づいて外部に所定の情報を報知する報知部12とを備えている。本実施形態では、図1に示すように、制御部5は、移動架台13に内蔵されているが、他の実施形態では、移動架台13とは別に設けられてもよい。
画像処理部8は、カメラ4により取得された画像に対して、パターンマッチングなどを用いることで、画像内からコンベア2により搬送されている物品O、または、コンベア2上に形成されたマークMKを検出して認識するようになっている。また、画像処理部8は、認識した物品OまたはマークMKの姿勢も検出する。物品Oは、コンベア2上で静止し、マークMKは、コンベア2上に固定されている。そのため、コンベア2が稼動していると、カメラ4に対する物品OおよびマークMKの位置が搬送方向に沿って変化する。
速度算出部9は、画像処理部8により検出された同一の物品Oまたは同一のマークMKのロボット3に対する位置の変化に基づいて、コンベア2の搬送速度を算出する。速度算出部9は、算出したコンベア2の搬送速度を用いて、コンベア2により搬送される物品Oの移動量を算出する。以下では、物品Oが検出された場合について説明する。
具体的には、画像処理部8は、例えば、図3に示されるように、所定時間間隔Δtをあけて異なる時刻t1,t2,t3に同一視野において3枚の画像が取得されたときに、各画像において画像内に含まれている物品Oを認識し、認識された物品Oの重心の座標位置を算出するようになっている。
そして、速度算出部9は、時間軸方向に隣接して取得された画像内の搬送方向に直交する方向の同じ座標近傍に配置されている重心を有する物品Oを同一物品Oであると認識し、各物品Oの重心の搬送方向の座標値の差分を撮影の時間間隔Δtで除算することにより搬送速度を算出するようになっている。同一物品Oについて搬送速度が複数回算出されたときにはその平均値あるいは最小自乗法等によってフィッティングされた値を搬送速度として出力するようになっている。
一方、本実施形態では、制御部5は所定時間間隔Δtよりも長い時間間隔Δtで、作業を行わせる時のロボット3の制御用に、各物品Oの位置および姿勢を検出する。例えば、Δtが数msである場合に、その数十又は数百倍の数十又は数百msの時間間隔Δtで位置および姿勢を検出する。これにより、一般的にデータ処理に時間がかかる物品Oの位置および姿勢の検出の回数を低減して処理負荷を低減することができるため、搬送速度および移動量の算出を安定して行うことが可能となる。
また、画像処理部8は、画像内に物品Oが1つも検出されなくなったか否かを判定するようになっている。画像処理部8は、物品Oを検出しなくなった場合に、タイマー11に計時を開始させる。タイマー11による計時が開始された後に、画像処理部8は、画像内に物品Oを再度検出した場合には、タイマー11による計時をリセットさせるようになっている。
報知部12は、タイマー11の計時開始から所定時間が経過した場合に、物品Oを検出できないことを外部に報知するようになっている。このような場合に、本実施形態では、報知部12は、コンベア2による物品Oの搬送が停止されていること、コンベア2のベルト6が停止していること、およびベルト6の搬送速度Vが一時的に取得されないことのいずれかを報知するようになっている。報知部12は、このような報知を、モニタ、ランプ、ブザー等任意の手段を用いて行う。報知部12は、同様の報知を、駆動制御部10に制御信号として送信する。
駆動制御部10は、予め教示された動作プログラムに従って、ロボット3の各関節軸における各モータの角度を制御するようにロボット3に駆動指令を送信して、ロボット3を駆動させるようになっている。駆動制御部10は、各エンコーダによって検出される各モータの回転角度を用いて、各モータに対してフィードバック制御を行っている。駆動制御部10は、速度算出部9により算出された搬送速度Vに基づいて、コンベア2上の物品Oを追従するトラッキングを実施する。駆動制御部10は、ロボット3に行わせる作業に応じた動作プログラムと、作業対象である物品Oのモデルとを読み込み、ロボット3のトラッキング座標系等の位置設定を行う。駆動制御部10が、ロボット3およびロボットハンド7の動作を制御することで、ロボットハンド7が、コンベア2により搬送される物品Oに対して各種作業を行う。
本実施形態では、駆動制御部10は、報知部12からの報知を受信すると、二通りの制御を行うようになっている。このような1つの制御としては、ロボット3が物品Oに対して行う作業を中止する制御である。もう一つの制御としては、報知部12から報知される前に速度算出部9により算出されたコンベア2の搬送速度Vを用いて、ロボット3の作業を続行させる制御である。
駆動制御部10は、画像処理部8により検出されたコンベア2上での物品Oの位置と、速度算出部9により算出されたコンベア2の搬送速度Vおよび搬送される物品Oの移動量とを用いて、搬送される物品Oにロボットハンド7を追従させながら作業を行わせる。具体的には、駆動制御部10は、搬送される物品Oとロボットハンド7との相対速度をできるだけ小さくして、ロボットハンド7に作業を行わせる。これにより、ロボットハンド7が物品Oに接触する際の衝撃を低減でき、物品Oの破損防止のために有効である。
以下では、コンベア2により搬送される物品Oに対してロボット3が作業を行うまでの作業実施方法の一例について、図4に示すフローチャートに沿って説明する。
初めに、コンベア2の近傍に、ロボット3およびカメラ4が固定された移動架台13が配置、固定される(ステップS11)。駆動制御部10は、ロボット3に行わせる作業に応じた動作プログラムと、作業対象である物品Oのモデルとを読み込み、ロボット3のトラッキング座標系等の位置設定を行う。カメラ4は、予め設定されたフレームレートで、搬送される物品Oを含むコンベア2上を撮影して、視覚情報としての画像を取得する(ステップS12)。画像処理部8は、カメラ4により取得された複数の画像から物品Oを検出する(ステップS13)。速度算出部9は、図3に示すように、検出された物品Oの重心を用いて、コンベア2の搬送速度Vを算出する(ステップS14)。駆動制御部10は、搬送速度Vを用いて、コンベア2上における物品Oの現在の位置および姿勢を算出する。駆動制御部10は、算出した物品Oの現在の位置および姿勢に基づき、ロボット3を駆動させて、コンベア2上の物品Oに対してロボット3による作業が行われる(ステップS15)。そして、コンベア2により搬送される物品Oに対する作業実施方法が終了する。
このように構成された本実施形態に係るロボットシステム1の作用について以下に説明する。
本実施形態に係るロボットシステム1によれば、コンベア2によって物品Oが搬送されてくると、カメラ4によって物品Oが撮影される。撮影により取得された画像が画像処理部8により画像処理されることで、画像内から物品Oが検出される。物品Oの検出結果に基づいて、コンベア2の搬送速度Vが算出される。算出された搬送速度Vを用いながら、コンベア2により搬送される物品Oに対してロボット3による作業が行われる。
ロボット3およびカメラ4は、移動架台13に固定されているため、コンベア2を含む生産ラインにおいて生産される物品Oの数の増減に応じて、移動可能である。そのため、コンベア2に固定されるロボットと比較すると、生産ラインに対する過剰な設備とならない利点がある。さらに、本実施形態のロボットシステム1では、ロボット3に対しての位置が固定されたカメラ4により取得された画像に基づいて、コンベア2の搬送速度Vが算出される。これにより、コンベア2の搬送速度Vを算出するためのエンコーダ等が不要であり、コンベア2を含む生産ラインにおける過剰設備をさらに抑制できる利点がある。
そして、図3に示されるように、所定時間間隔Δtをあけて異なる時刻t1,t2,t3に取得された画像から算出された同一物品Oの重心の座標位置d1,d2,d3に基づいて、速度算出部9によりコンベア2による搬送速度Vが算出され、駆動制御部10に入力される。カメラ4とロボット3とは所定の距離だけ離れて配置されているので、コンベア2が等速で移動しているとすると当該距離を搬送速度Vで除算した時間後に物品Oがロボット3の動作範囲内に移動する。
駆動制御部10は、前述のように、物品Oが画像内に存在するいずれかの時点(時間間隔Δt)で物品Oのトラッキング座標系TFに対する位置および姿勢を認識し、その時点から現在時刻までの物品Oの移動量を算出する。そして、その移動量を成分とする座標変換行列をトラッキング座標系TFに乗算することにより、現在のトラッキング座標系TF′を算出する。
TF′=T・TF
そして、駆動制御部10は、算出された現在のトラッキング座標系TF′を基準とすることで、コンベア2によって搬送されている物品Oをロボットハンド7で追従しながら、物品Oを把持してコンベア2から取り上げることができる。
この場合において、ロボット3がロボットハンド7をコンベア2上の物品Oに追従させるように駆動されているときには、カメラ4が後続の物品Oを撮影し、速度算出部9により新たな搬送速度Vが算出されているので、駆動制御部10は新たに算出された搬送速度Vを用いてロボット3を制御することができ、コンベア2による搬送速度Vが変動しても物品Oを正しく取り上げることができる。
図5は、第2実施形態に係るロボットシステム(作業システム)1aを示す全体構成図である。第2実施形態のロボットシステム1aでは、第1実施形態のロボットシステム1におけるカメラ4の代わりに、カメラ4aとカメラ4bとを備える点が異なる。ロボットシステム1aは、その他の点では第1実施形態のロボットシステム1と同じ構成を有するため、第2実施形態ではカメラ4a,4bについて説明し、同じ構成についての説明を省略する。
第1実施形態のカメラ4が行っていたことを、第2実施形態では、カメラ4a,4bが行っている。具体的には、カメラ4aにより取得された画像に基づいて、コンベア2の搬送速度Vが算出され、カメラ4bにより取得された画像に基づいて、コンベア2により搬送される物品Oの位置および姿勢が算出される。このように、カメラ4aの画像とカメラ4bの画像とに対して行われる画像処理が異なることで、カメラ4a,4bのフレームレートや解像度の設計の自由度が向上する。
図6は、第3実施形態に係るロボットシステム(作業システム)1bを示す全体構成図である。第3実施形態のロボットシステム1bでは、第1実施形態のロボットシステム1におけるカメラ4の代わりに、カメラ4の撮影範囲と異なる範囲を撮影するカメラ4cを備える点が異なる。ロボットシステム1bは、その他の点では第1実施形態のロボットシステム1と同じ構成を有するため、第3実施形態ではカメラ4cについて説明し、同じ構成についての説明を省略する。
第3実施形態のカメラ4cの撮影範囲(画角)は、ロボット3の作業範囲を含んでいる。カメラ4cにより取得された画像に基づいて、物品Oの位置および姿勢が逐次算出される。
カメラ4cは二次元カメラでも三次元カメラでもよい。二次元カメラの場合、カメラ4cにより取得された複数の画像中の物品Oを用いて、第1実施形態と同様にトラッキング座標系の設定および各物品Oの位置および姿勢の検出等が行われる。なお、第1実施形態と同様にコンベア2の搬送速度の算出および物品Oの移動量の算出も行われるように、当該ロボットシステムを構成してもよい。
三次元カメラを用いる場合、カメラ4cに対する物品Oの位置および姿勢(傾き)をリアルタイムで三次元的に取得することができるため、物品が傾いていてもロボット3はカメラ4cの検出結果に基づき物品Oに対する作業を行うことができる。
このように、カメラ4cの撮影範囲とロボット3の作業範囲とが重複することでロボット3は検出された位置および姿勢を使って直接物品Oを取り上げることができるため、カメラ4cの撮影範囲とロボット3の作業範囲とが異なる場合と比較して、算出される物品Oの位置および姿勢の精度が高くなると共に、ロボット3が物品Oを取り上げるまでに物品の位置が多少変化してもロボット3は物品Oを取り上げることができる。なお、図6のようにカメラ4cの方向(光軸)を水平面(コンベヤ2の上面)に対し傾けると、ロボット3によりカメラ4cの視野が邪魔されることが少なくなるので、物品Oの位置、姿勢の検出精度を向上する上で有利である。このように、ロボット3の作業範囲と、カメラ4cの撮影範囲との関係については、種々変形可能である。
なお、上記実施形態では、ロボットシステム1の一例について説明したが、ロボットシステム1および生産ラインに配置、固定される移動可能なロボットについては、種々変形可能である。例えば、コンベア2を含むロボットシステム1ではなく、移動可能な移動架台13と、移動架台13に固定されると共にコンベア2により搬送される物品Oに対して作業を行うロボット3と、移動架台13に固定されると共に物品Oを撮影するカメラ4とを備えるロボットであってもよい。
移動架台13は、無人搬送車(Automated Guided Vehicle)であってもよい。この場合に、移動架台13は、複数のコンベア2を有する工場内の所定の経路を移動する光学誘導式や電磁誘導式などの無人搬送車であってもよい。移動架台13が所定の経路を移動することで、過剰な設備となるロボットの配置が抑制される。
他の実施形態のロボットシステムでは、上記実施形態のような制御部5を内蔵する複数のロボット3が1つのコンベア2に配置、固定され、これら複数のロボット3を制御するセル制御装置が設けられてもよい。このセル制御装置は、複数の制御部5の上位の制御装置であり、複数の移動架台13のそれぞれに固定された複数のロボット3およびカメラ4を制御する。この場合に、複数のロボット3が有するカメラ4の内の1つのカメラ4がコンベア2により搬送される物品OまたはマークMKの画像を取得すると、セル制御装置は、取得された画像を用いてコンベア2の搬送速度Vや物品Oの位置および姿勢を算出する。セル制御装置は、制御下にある複数のロボット3に対して、算出したコンベア2の搬送速度Vや物品Oの位置および姿勢を共有してもよい。
駆動制御部10は、作業対象である物品Oとは異なる別物品がコンベア2により搬送されてきたときに、ロボット3を作業範囲外に移動させてもよい。例えば、カメラ4により取得された画像から画像処理部8が別物品を検出すると、駆動制御部10は、ロボットハンド7を作業範囲外へと移動させる。これにより、ロボット3と別物品との衝突を回避して、コンベア2上における事故を防ぐことができる。
また、本実施形態においては、画像内に単一の物品Oが検出される場合について説明したが、これに代えて、図7に示されるように、複数の物品a1,a2,a3が同時にカメラ4の視野内に配置される場合にも適用することができる。
すなわち、画像内に複数の物品a1,a2,a3が認識された場合には、各物品a1,a2,a3について、異なる時刻に取得された画像内の物品a1,a2,a3との同一性を識別し、識別された同一物品a1,a2,a3間での移動距離に基づいてそれぞれ算出した速度V1,V2,V3を平均することにより搬送速度Vを算出することにしてもよい。この場合、同一物品a1,a2,a3間での移動距離は、所定時間間隔Δtをあけて異なる時刻t1,t2,t3に取得された画像から算出された同一物品a1,a2,a3の重心の座標位置d11,d12,d13,d22,d23,d24,d33,d34の差分により求められる。
上記実施形態のロボットシステム1では、コンベア2により搬送される物品Oの位置によってコンベア2の搬送速度Vが算出されたが、コンベア2に形成されたマークMKがカメラ4により撮影されることによって、コンベア2の搬送速度Vが算出されてもよい。マークMKとしては、矩形形状、円形状などの複数の形状が合わさったマークでもよい。マークMKが配置される位置は、カメラ3が移動可能な移動架台13に固定されているため、搬送方向および搬送方向に直交する方向に沿って、所定の間隔を空けて配置されてもよいし、ランダムに配置されてもよい。
上記実施形態では、移動架台13に固定されたロボット3が垂直多関節型ロボットのロボットであったが、コンベア2により搬送される物品Oに対して作業を行うロボットについては、種々変形可能である。例えば、ロボット3は、平置き型あるいは天吊り型等であってもよく、トレーと、トレーに物品Oを載置する機構とを有する簡易な作業装置であってもよく、任意の作業装置(作業部)が採用されればよい。
上記実施形態では、物品Oに対してロボットハンド7が行う作業として、コンベア2から取り上げる作業を例に挙げたが、作業については種々変形可能である。例えば、ロボットハンド7は、コンベア2上における物品Oを動かさずに、何らかの部品を溶接する作業を行ってもよい。
1,1a,1b ロボットシステム(作業システム)
2 コンベア(搬送装置)
3 ロボット(作業部)
4,4a,4b,4c カメラ(視覚センサ)
8 画像処理部(検出部)
9 速度算出部(算出部)
10 駆動制御部
12 報知部
13 移動架台
a1,a2,a3,O 物品
MK マーク
V 搬送速度
S11 配置ステップ
S12 視覚情報取得ステップ
S13 検出ステップ
S14 算出ステップ
S15 作業ステップ

Claims (8)

  1. 物品を搬送する搬送装置と、
    移動可能な移動架台と、
    該移動架台に固定され、前記搬送装置により搬送される前記物品に対して作業を行う作業部と、
    前記移動架台に固定され、前記搬送装置により搬送される前記物品または前記搬送装置上に形成されたマークの視覚情報を逐次取得する視覚センサと、
    該視覚センサにより取得される前記視覚情報を処理して前記物品又は前記マークの少なくとも位置を逐次検出する検出部と、
    該検出部により逐次検出される前記物品又は前記マークの位置に基づき前記搬送装置の搬送速度を算出する算出部と、
    前記搬送速度を用いて前記作業部を駆動させる駆動制御部とを備え
    前記視覚センサの撮像範囲は前記作業部による作業範囲よりも前記搬送装置の上流側であり、前記作業範囲は前記視覚センサによって撮影されない作業システム。
  2. 前記駆動制御部が、所定の期間に前記視覚センサにより取得された複数の前記視覚情報内に前記物品または前記マークが検出されない場合に、前記所定の期間の前に前記算出部によって算出された前記搬送速度を用いて前記作業部を駆動させる請求項1に記載の作業システム。
  3. 前記算出部が、算出した前記搬送速度に基づいて、前記搬送装置上を搬送される前記物品の移動量を算出し、
    前記駆動制御部が、前記検出部で検出される前記物品の位置と、前記算出部により算出される前記物品の前記移動量および前記搬送速度とを用いて、前記搬送装置により搬送される前記物品に追従しながら該物品に対して作業を行うように前記作業部を駆動させる請求項1または請求項2に記載の作業システム。
  4. 所定の期間に前記視覚センサにより取得された複数の前記視覚情報内に前記物品または前記マークが検出されない場合に、前記搬送装置上の前記物品の搬送が停止されていること又は前記搬送装置が停止していることを報知する報知部を備える請求項1に記載の作業システム。
  5. 前記駆動制御部が、前記報知部による報知が行われた場合に、前記作業部が前記物品に対して行う作業を中止する請求項4に記載の作業システム。
  6. 前記算出部が、前記搬送速度として、複数の前記物品の速度の平均値又は複数の前記マークの速度の平均値を算出する請求項1から請求項5のいずれかに記載の作業システム。
  7. 物品を搬送する搬送装置の近傍に作業部および視覚センサが固定された移動架台を配置する配置ステップと、
    前記移動架台に固定された視覚センサにより、前記搬送装置により搬送される前記物品または前記搬送装置上に形成されたマークの視覚情報を逐次取得する視覚情報取得ステップと、
    前記視覚センサにより取得される前記視覚情報を処理して前記物品又は前記マークの少なくとも位置を逐次検出する検出ステップと、
    逐次検出される前記物品又は前記マークの位置に基づき前記搬送装置の搬送速度を算出する算出ステップと、
    前記搬送速度を用いて、該移動架台に固定された作業部により、前記搬送装置により搬送される前記物品に対して作業を行う作業ステップとを備え
    前記視覚センサの撮像範囲は前記作業部による作業範囲よりも前記搬送装置の上流側であり、前記作業範囲は前記視覚センサによって撮影されない、物品に対する作業実施方法。
  8. 移動可能な移動架台と、
    該移動架台に固定され、搬送装置により搬送される物品又は前記搬送装置上に形成されたマークの視覚情報を逐次取得する視覚センサと、
    該視覚センサにより取得される前記視覚情報を処理して、前記物品又は前記マークの少なくとも位置を逐次検出する検出部と、
    該検出部により逐次検出される前記物品又は前記マークの位置に基づき前記搬送装置の搬送速度を算出する算出部と、
    前記搬送速度を用いて作業部を駆動させる駆動制御部を備え
    前記視覚センサの撮像範囲は前記作業部による作業範囲よりも前記搬送装置の上流側であり、前記作業範囲は前記視覚センサによって撮影されないロボット。
JP2017200233A 2017-10-16 2017-10-16 作業システム、物品に対する作業実施方法、およびロボット Active JP6646026B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017200233A JP6646026B2 (ja) 2017-10-16 2017-10-16 作業システム、物品に対する作業実施方法、およびロボット
US16/106,366 US10850927B2 (en) 2017-10-16 2018-08-21 Work system, method for executing work on object, and robot
CN201811132453.4A CN109665307B (zh) 2017-10-16 2018-09-27 作业系统、对物品的作业实施方法以及机器人
DE102018124712.5A DE102018124712B4 (de) 2017-10-16 2018-10-08 Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
JP2019162934A JP6889216B2 (ja) 2017-10-16 2019-09-06 作業システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017200233A JP6646026B2 (ja) 2017-10-16 2017-10-16 作業システム、物品に対する作業実施方法、およびロボット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019162934A Division JP6889216B2 (ja) 2017-10-16 2019-09-06 作業システム

Publications (2)

Publication Number Publication Date
JP2019072792A JP2019072792A (ja) 2019-05-16
JP6646026B2 true JP6646026B2 (ja) 2020-02-14

Family

ID=65910446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017200233A Active JP6646026B2 (ja) 2017-10-16 2017-10-16 作業システム、物品に対する作業実施方法、およびロボット

Country Status (4)

Country Link
US (1) US10850927B2 (ja)
JP (1) JP6646026B2 (ja)
CN (1) CN109665307B (ja)
DE (1) DE102018124712B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019214122A (ja) * 2017-10-16 2019-12-19 ファナック株式会社 作業システム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10078330B2 (en) * 2016-03-25 2018-09-18 International Business Machines Corporation Coordinating robotic apparatus deliveries
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
KR102490912B1 (ko) * 2018-09-12 2023-01-20 삼성전자주식회사 서버 및 서버의 제어 방법
DE102018132907A1 (de) * 2018-12-19 2020-06-25 Martin Bergmann System zum Aufnehmen, Fördern und Abgeben eines Produkts sowie Verfahren zum Steuern eines solchen Systems
JP7363098B2 (ja) * 2019-05-24 2023-10-18 セイコーエプソン株式会社 ロボットの制御方法
CN110293385B (zh) * 2019-08-03 2024-03-29 福建瑞德成自动化科技有限公司 冷热水陶瓷阀芯自动装配机
CN110637644B (zh) * 2019-08-20 2021-09-10 江苏大学 面向苗床盆栽的设施花卉搬运协同作业控制方法
CN114929436B (zh) * 2020-01-22 2024-09-20 Abb瑞士股份有限公司 用于控制机器人的系统和方法、电子设备和计算机可读介质
EP4093578A4 (en) * 2020-01-22 2023-10-18 Abb Schweiz Ag ROBOT ACTUATING SYSTEM AND METHOD, ELECTRONIC DEVICE AND COMPUTER READABLE MEDIUM
CN111361953A (zh) * 2020-04-08 2020-07-03 苏州迅益科系统科技有限公司 一种手机智能检测设备
JP7546268B2 (ja) 2020-09-16 2024-09-06 コーデンシ株式会社 移動量検知システム及び移動量検知システム用プログラム
JP7546269B2 (ja) 2020-09-16 2024-09-06 コーデンシ株式会社 移動量検知システム及び移動量検知システム用プログラム
JP2022061700A (ja) * 2020-10-07 2022-04-19 セイコーエプソン株式会社 ベルトコンベアキャリブレーション方法、ロボット制御方法、ロボットシステム、プログラム
DE102020129743A1 (de) 2020-11-11 2022-05-12 Carl Zeiss Ag Vorrichtung und verfahren zur vermessung, inspektion oder bearbeitung von objekten
CN112493522B (zh) * 2020-12-15 2023-11-10 广州富港生活智能科技有限公司 食品制作互动方法、计算机可读存储介质及食品制作设备
US20240181653A1 (en) 2021-06-08 2024-06-06 Fanuc Corporation Production system
CN113211450A (zh) * 2021-06-17 2021-08-06 宝武集团马钢轨交材料科技有限公司 火车车轮视觉识别定位校准装置及方法
CN114104655B (zh) * 2021-11-13 2022-10-28 浙江安胜科技股份有限公司 链条线跟随方法及装置
DE102022105608B3 (de) * 2022-03-10 2023-09-14 thinkTEC GmbH Vorrichtung zur Vereinzelung und Einzelentnahme von Teilen und Kalibrierverfahren
DE102023105672A1 (de) 2023-03-07 2024-09-12 Krones Aktiengesellschaft Virtueller Farbsensor zum Erkennen und Unterscheiden verschiedenfarbiger Objekte und insbesondere Behältnisse

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2594423B2 (ja) * 1985-09-02 1997-03-26 三菱電機株式会社 産業用ロボツトの制御装置
JP2658303B2 (ja) * 1988-11-29 1997-09-30 凸版印刷株式会社 間欠供給ワークの自動加工方法
JPH10105217A (ja) 1996-09-27 1998-04-24 Mitsubishi Electric Corp ロボットのトラッキング制御方法およびロボット制御システム
JPH11123677A (ja) * 1997-10-27 1999-05-11 Fujitsu Ltd 搬送ロボットの搬送速度制御方法及びその装置
JP2001121461A (ja) * 1999-10-26 2001-05-08 Denso Corp ロボットシステム
JP4131078B2 (ja) 2000-06-30 2008-08-13 株式会社デンソー ロボットコントローラ
US6675066B2 (en) * 2001-05-25 2004-01-06 George Koch Sons, Llc Conveyor line process control system and method
JP4864363B2 (ja) 2005-07-07 2012-02-01 東芝機械株式会社 ハンドリング装置、作業装置及びプログラム
JP2007030087A (ja) * 2005-07-26 2007-02-08 Fanuc Ltd 物流トラッキング装置
JP4594241B2 (ja) * 2006-01-06 2010-12-08 東京エレクトロン株式会社 基板搬送装置、基板搬送方法及びコンピュータプログラム
JP2009028818A (ja) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd ロボットシステム
AT507339B1 (de) 2008-09-26 2011-06-15 Stiwa Holding Gmbh Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
JP2010125583A (ja) * 2008-12-01 2010-06-10 Seiko Epson Corp ロボットアーム装置、ロボットアーム装置の制御方法および制御プログラム
JP2012187651A (ja) 2011-03-09 2012-10-04 Omron Corp 画像処理装置および画像処理システム、ならびにそれらに向けられたガイダンス装置
JP5984096B2 (ja) * 2011-08-30 2016-09-06 ディジマーク コーポレイション 物体を識別する方法及び機構
JP2013180366A (ja) 2012-03-01 2013-09-12 Seiko Epson Corp ロボット及びロボットハンド
DE102013020135B4 (de) 2013-12-06 2022-12-01 Mercedes-Benz Group AG Verfahren zurn Betreiben einer Produktionsanlage
CN103895042A (zh) * 2014-02-28 2014-07-02 华南理工大学 一种基于视觉引导的工业机器人工件定位抓取方法及系统
JP6476632B2 (ja) 2014-07-31 2019-03-06 セイコーエプソン株式会社 双腕ロボット
JP6042860B2 (ja) 2014-12-02 2016-12-14 ファナック株式会社 ロボットを用いて物品を移送する物品移送装置及び物品移送方法
EP3238882B1 (en) 2014-12-26 2022-02-02 Kawasaki Jukogyo Kabushiki Kaisha Production system
JP6505442B2 (ja) * 2015-01-14 2019-04-24 サンナイス株式会社 無人車
JP6407826B2 (ja) 2015-09-03 2018-10-17 ファナック株式会社 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム
JP6333870B2 (ja) 2016-01-28 2018-05-30 ファナック株式会社 複数の機械および少なくとも一つのセンサを備えたシステム
JP6213604B2 (ja) * 2016-04-15 2017-10-18 株式会社安川電機 作業ロボット及び作業システム
JP6478234B2 (ja) 2017-06-26 2019-03-06 ファナック株式会社 ロボットシステム
JP6697510B2 (ja) 2017-07-12 2020-05-20 ファナック株式会社 ロボットシステム
DE102018116413A1 (de) 2017-07-12 2019-01-17 Fanuc Corporation Robotersystem
JP6568163B2 (ja) 2017-08-09 2019-08-28 ファナック株式会社 ロボットシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019214122A (ja) * 2017-10-16 2019-12-19 ファナック株式会社 作業システム

Also Published As

Publication number Publication date
DE102018124712A1 (de) 2019-04-18
CN109665307B (zh) 2022-08-23
CN109665307A (zh) 2019-04-23
US10850927B2 (en) 2020-12-01
JP2019072792A (ja) 2019-05-16
US20190112134A1 (en) 2019-04-18
DE102018124712B4 (de) 2021-06-24

Similar Documents

Publication Publication Date Title
JP6646026B2 (ja) 作業システム、物品に対する作業実施方法、およびロボット
US10232512B2 (en) Coordinate system setting method, coordinate system setting apparatus, and robot system provided with coordinate system setting apparatus
US11046530B2 (en) Article transfer apparatus, robot system, and article transfer method
KR102226986B1 (ko) 자동화 장치 및 위치 검출 장치
CN109108959B (zh) 机器人系统
JP5887383B2 (ja) 物品をコンベヤに整列させる物品整列装置
JP6608977B2 (ja) 物品搬送システム
CN109916346B (zh) 一种基于视觉系统的工件平整度的检测装置及检测方法
JP2016055389A (ja) 物品搬送システム
JP2016147330A (ja) 物体認識に基づく制御装置
JP2020116687A (ja) 追随ロボットおよび作業ロボットシステム
JP4303411B2 (ja) トラッキング方法、及びトラッキングシステム
JP6889216B2 (ja) 作業システム
JP6697510B2 (ja) ロボットシステム
JP2011143494A (ja) ロボット制御装置及び方法
KR100842088B1 (ko) 연속컨베이어 기반 차체 위치계측시스템 및 그 방법
WO2021235331A1 (ja) 追随ロボット
US20220105641A1 (en) Belt Conveyor Calibration Method, Robot Control Method, and Robot System
JP7513381B2 (ja) ワークを検出する検出システム
JP5118896B2 (ja) 搬送ロボットシステム
CN113715935A (zh) 一种汽车挡风玻璃自动装配系统及自动装配方法
CN115803584A (zh) 取得工件表面的三维信息及工件的二维图像的拍摄装置
TW202247966A (zh) 生產系統
CN114800484B (zh) 机器人系统的控制方法及机器人系统
JPH07332944A (ja) 物体位置検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181221

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190315

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200109

R150 Certificate of patent or registration of utility model

Ref document number: 6646026

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150