[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021122879A - Image processing device and carrier device equipped with image processing device - Google Patents

Image processing device and carrier device equipped with image processing device Download PDF

Info

Publication number
JP2021122879A
JP2021122879A JP2020016823A JP2020016823A JP2021122879A JP 2021122879 A JP2021122879 A JP 2021122879A JP 2020016823 A JP2020016823 A JP 2020016823A JP 2020016823 A JP2020016823 A JP 2020016823A JP 2021122879 A JP2021122879 A JP 2021122879A
Authority
JP
Japan
Prior art keywords
article
image processing
image
articles
corners
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020016823A
Other languages
Japanese (ja)
Other versions
JP7146829B2 (en
Inventor
潤 中原
Jun Nakahara
潤 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meikikou Corp
Original Assignee
Meikikou Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meikikou Corp filed Critical Meikikou Corp
Priority to JP2020016823A priority Critical patent/JP7146829B2/en
Publication of JP2021122879A publication Critical patent/JP2021122879A/en
Application granted granted Critical
Publication of JP7146829B2 publication Critical patent/JP7146829B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

To provide a carrier device that carries an article while making article recognizing means grasp a position and a posture of a rectangular box-shape stacked article such as a cardboard box, and to provide article recognizing means that can reduce time required in processing for recognizing a position and a posture of an article and grasp the position and the posture of the article with high accuracy.SOLUTION: An image processing device 7 of a carrier device 1 comprises photographing means 10 that photographs a stacked article 30 in a rectangular box-shape to obtain image data and an image distance sensor 11 that measures distances to the article 30 with respect to a plurality of positions of the article 30 to obtain the distances as distance data. The image processing device 7 comprises: an image processing circuit that detects four corners 31 of a front surface of the article 30 from the image data and obtains distances to the four corners 31 of the front surface from the distance data; a position calculation circuit that calculates a position and a posture of the front surface of the article 30 on the basis of the distances to the four corners 31 of the front surface; and a control device 7b having a robot controller that controls a holding hand 4 and a robot arm 3.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置に関し、例えばコンテナ(トラックの荷室)内に段積みされた矩形箱形の物品を搬送するための搬送装置に用いられる画像処理装置、及び画像処理装置を備えた搬送装置に関する。 The present invention relates to an image processing device, for example, an image processing device used for a transport device for transporting rectangular box-shaped articles stacked in a container (loading room of a truck), and a transport provided with the image processing device. Regarding the device.

例えば段ボール箱等の矩形箱形の段積みされた物品をロボットハンドで保持して荷下ろし可能な搬送装置が提供されている。ロボットハンドを備えた搬送装置で物品を荷下ろしすることによって、省人化や作業の効率化を図ることができる。この搬送装置では、物品認識手段によって段積みされた物品の位置と姿勢を高精度で把握することで、より精確に物品を保持することができる。特許文献1には、物品の位置と姿勢を検出するための距離センサを、段積みされた物品の上方に配置した構成が開示されている。特許文献1記載の発明は、距離センサを移動または回転させて物品までの距離を複数位置で検出することで、物品に関する三次元の点群データを取得する構成になっている。特許文献2には、段積みされた複数の物品の上辺を検出し、当該上辺の位置に基づいて上側に積まれた物品から保持する搬送装置について開示されている。 For example, there is provided a transport device capable of holding and unloading rectangular box-shaped stacked articles such as cardboard boxes with a robot hand. By unloading articles with a transport device equipped with a robot hand, labor saving and work efficiency can be improved. In this transport device, the articles can be held more accurately by grasping the positions and postures of the stacked articles by the article recognition means with high accuracy. Patent Document 1 discloses a configuration in which a distance sensor for detecting the position and orientation of an article is arranged above the stacked articles. The invention described in Patent Document 1 is configured to acquire three-dimensional point group data relating to an article by moving or rotating a distance sensor to detect the distance to the article at a plurality of positions. Patent Document 2 discloses a transport device that detects the upper sides of a plurality of stacked articles and holds them from the articles stacked on the upper side based on the positions of the upper sides.

特許第5429614号公報Japanese Patent No. 5492614 特許第6172293号公報Japanese Patent No. 6172293

しかしながら、特許文献1記載の発明のように、三次元の点群データを利用して物品の位置と姿勢を認識する場合、データ数が多いために認識処理に時間が掛かってしまう。荷下ろし作業を効率よく行うためには、できるだけ物品の認識処理の時間を短縮できることが望ましい。また、特許文献2記載の発明のように、物品の上辺のみを検出する場合、物品の精確な位置と姿勢を把握することが難しい。そこで、認識処理の時間を短縮化しつつ、物品の精確な位置と姿勢を把握できる物品認識手段が望まれている。 However, when recognizing the position and orientation of an article using three-dimensional point cloud data as in the invention described in Patent Document 1, the recognition process takes time due to the large number of data. In order to carry out the unloading work efficiently, it is desirable that the time for recognizing the article can be shortened as much as possible. Further, when only the upper side of the article is detected as in the invention described in Patent Document 2, it is difficult to grasp the accurate position and posture of the article. Therefore, there is a demand for an article recognition means capable of grasping an accurate position and posture of an article while shortening the recognition processing time.

本発明は、認識処理の時間を短縮化することができ、かつ物品の位置と姿勢を高精度で把握することができる物品認識手段を提供することを目的とする。 An object of the present invention is to provide an article recognition means capable of shortening the recognition processing time and grasping the position and posture of an article with high accuracy.

本開示の一つの特徴によると、搬送装置の画像処理装置は、撮影手段と画像距離センサを有している。撮影手段は、段積みされた矩形箱形の物品を撮影して画像データを取得する。画像距離センサは、物品までの距離を物品の複数位置に対して測定して距離データとして取得する。画像処理装置には、画像処理回路と位置算出回路とロボット制御回路が設けられている。画像処理回路は、画像データから物品の撮影方向正面側の正面四隅を検出し、距離データから正面四隅までの距離を取得する。位置算出回路は、物品の正面四隅までの距離に基づいて物品の位置と姿勢を算出する。ロボット制御回路は、物品の位置と姿勢に基づいて、物品を保持する保持ハンドと、保持ハンドを移動させるロボットアームを制御する。 According to one feature of the present disclosure, the image processing device of the transport device includes a photographing means and an image distance sensor. The photographing means acquires image data by photographing stacked rectangular box-shaped articles. The image distance sensor measures the distance to the article with respect to a plurality of positions of the article and acquires it as distance data. The image processing device is provided with an image processing circuit, a position calculation circuit, and a robot control circuit. The image processing circuit detects the four front corners on the front side in the shooting direction of the article from the image data, and acquires the distances to the four front corners from the distance data. The position calculation circuit calculates the position and orientation of the article based on the distances to the four front corners of the article. The robot control circuit controls a holding hand that holds the article and a robot arm that moves the holding hand based on the position and posture of the article.

従って、画像距離センサが取得した距離データの中から物品の正面四隅までの距離のみを利用して物品の位置と姿勢を把握する。そのため、認識処理に必要なデータ数を少なくできる。これにより、認識処理の時間を短縮化することができ、かつ画像距離センサと対向する物品の矩形面の位置と姿勢を高精度で把握することができる。また、認識処理に必要なデータ数は、物品の大きさによらず物品の個数で決まる。そのため様々なサイズの物品の正面四隅を検知する際においても、短い処理時間で位置と姿勢を把握することができる。 Therefore, the position and posture of the article are grasped by using only the distances to the four front corners of the article from the distance data acquired by the image distance sensor. Therefore, the number of data required for the recognition process can be reduced. As a result, the time for the recognition process can be shortened, and the position and orientation of the rectangular surface of the article facing the image distance sensor can be grasped with high accuracy. Further, the number of data required for the recognition process is determined by the number of articles regardless of the size of the articles. Therefore, even when detecting the front four corners of articles of various sizes, the position and posture can be grasped in a short processing time.

本開示の他の特徴によると画像処理回路は、画像データから物品の撮影方向正面側の正面中心領域を検出し、距離データから正面中心領域までの距離を取得する。位置算出回路は、物品の正面四隅および正面中心領域までの距離に基づいて物品の位置と姿勢を算出する。 According to another feature of the present disclosure, the image processing circuit detects the front center region on the front side in the shooting direction of the article from the image data, and acquires the distance from the distance data to the front center region. The position calculation circuit calculates the position and orientation of the article based on the distances to the front four corners of the article and the front center region.

従って、物品1個あたりで正面四隅と正面中心領域の計5カ所の距離データを取得して認識処理する。これにより、認識処理を短時間で行うことができる。また、物品の正面四隅までの距離と、正面中心領域までの距離をそれぞれ検出することで、画像距離センサと対向する物品の矩形面の位置と姿勢をより高精度で把握することができる。例えば、矩形箱形の物品が段ボール箱等である場合、正面中心領域が正面四隅よりもわずかに張り出した位置にあり、矩形面が平面状でない場合等がある。このような場合においても、画像距離センサと対向する物品の矩形面の形状を概略的に把握しつつ、当該矩形面の位置と姿勢をより高精度で把握することができる。 Therefore, the distance data of the four front corners and the central front region of each article is acquired and recognized. As a result, the recognition process can be performed in a short time. Further, by detecting the distances to the four front corners of the article and the distances to the front center region, respectively, the position and orientation of the rectangular surface of the article facing the image distance sensor can be grasped with higher accuracy. For example, when the rectangular box-shaped article is a corrugated cardboard box or the like, the front center region may be located at a position slightly protruding from the front four corners, and the rectangular surface may not be flat. Even in such a case, the position and orientation of the rectangular surface can be grasped with higher accuracy while roughly grasping the shape of the rectangular surface of the article facing the image distance sensor.

本開示の他の特徴によると撮影手段と画像距離センサは、段積みされた複数の物品の画像データと距離データを同時に取得する。 According to another feature of the present disclosure, the photographing means and the image distance sensor simultaneously acquire image data and distance data of a plurality of stacked articles.

従って、複数の物品の位置と姿勢を同時に把握することができる。これにより、物品の位置と姿勢を認識するまでの時間を短縮させることができる。また、一度に複数の物品の位置と姿勢を認識することで、物品を保持する順番を、搬送作業の効率がよくなるように選択し易くなる。これにより、作業時間をより短縮させることができる。 Therefore, the positions and postures of a plurality of articles can be grasped at the same time. As a result, the time required to recognize the position and posture of the article can be shortened. Further, by recognizing the positions and postures of a plurality of articles at one time, it becomes easy to select the order of holding the articles so as to improve the efficiency of the transport work. As a result, the working time can be further shortened.

本開示の他の特徴によると画像処理装置を備えた搬送装置は、保持ハンドとロボットアームと台車を備えている。台車は、ロボットアームを搭載して移動可能である。撮影手段と画像距離センサは、台車に搭載されている。 According to another feature of the present disclosure, the transport device with the image processing device includes a holding hand, a robot arm, and a trolley. The dolly is movable with a robot arm mounted on it. The photographing means and the image distance sensor are mounted on the trolley.

従って、例えばコンテナ(トラックの荷室)や工場の倉庫等の様々な場所に段積みされている物品に対応して、特段の装置を別途設置することなく物品の位置と姿勢を把握することができる。また、保持ハンドとロボットアームによる搬送作業の合間に、台車に搭載した撮影手段による画像データの取得と、画像距離センサによる距離データの取得を行うことができる。そのため、作業時間を短縮化して作業効率を高めることができる。また、例えば物品がコンテナ内等に段積みされている場合、コンテナの天井近くまで物品が積まれていることがあり、物品の上方から物品の位置と姿勢を認識し難い場合がある。あるいは、物品認識手段を搬送装置1とは別体でコンテナ内に設置することが難しい場合もある。本開示の特徴により、物品が段積みされている場所によらず物品の位置と姿勢を把握できる。 Therefore, it is possible to grasp the position and posture of goods without installing a special device for goods stacked in various places such as containers (truck luggage compartments) and factory warehouses. can. Further, between the transfer work by the holding hand and the robot arm, the image data can be acquired by the photographing means mounted on the trolley and the distance data can be acquired by the image distance sensor. Therefore, the work time can be shortened and the work efficiency can be improved. Further, for example, when articles are stacked in a container or the like, the articles may be stacked near the ceiling of the container, and it may be difficult to recognize the position and posture of the articles from above the articles. Alternatively, it may be difficult to install the article recognition means separately from the transport device 1 in the container. According to the features of the present disclosure, the position and posture of the articles can be grasped regardless of the place where the articles are stacked.

本実施形態に係る搬送装置の全体側面図である。It is an overall side view of the transport device which concerns on this embodiment. コンテナ内に段積みされた物品の正面図である。It is a front view of the article stacked in a container. 画像処理装置の画像処理回路で認識した各物品の正面図である。It is a front view of each article recognized by the image processing circuit of an image processing apparatus. 本発明に係る保持ハンドの側面図である。It is a side view of the holding hand which concerns on this invention. 本発明に係る保持ハンドが物品を吸着した際の側面図である。It is a side view when the holding hand which concerns on this invention adsorbs an article. 本発明に係る保持ハンドの受け部を延ばした際の側面図である。It is a side view when the receiving part of the holding hand which concerns on this invention is extended. 本発明に係る画像処理装置における物品認識に係る各構成のブロック図である。It is a block diagram of each configuration which concerns on article recognition in the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置によって、全物品の位置と姿勢を認識するフローチャートを示す図である。It is a figure which shows the flowchart which recognizes the position and the posture of all the articles by the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置によってピッキング対象の物品の位置と姿勢を認識し、搬送装置によって物品をピッキングするフローチャートを示す図である。It is a figure which shows the flowchart which recognizes the position and the posture of the article to be picked by the image processing apparatus which concerns on this invention, and picks an article by the transport apparatus.

次に、本実施形態を図1〜9に基づいて説明する。図1に示すように搬送装置1は、物品30の位置と姿勢を認識するための画像処理装置7を備えている。また、搬送装置1は、台車2と、台車2の上側に搭載されたロボットアーム3と、ロボットアーム3の先端部に設けられた保持ハンド(ロボットハンド)4を備えている。台車2は、例えばコンテナや工場の倉庫等の床面上を自走可能である。以下の説明において、コンテナ(トラックの荷室)34内に段積みされた物品30を荷下ろしするための搬送装置1を例示する。物品30は、例えば段ボール箱等のように矩形箱形を有している。物品30は、上下方向に段積みされ、かつ奥行き方向に多数列積み込まれている。上下前後左右方向については、搬送装置1側から見た場合で規定し、物品30の手前側を前側とし、奥行き側を後側とする。 Next, this embodiment will be described with reference to FIGS. 1 to 9. As shown in FIG. 1, the transport device 1 includes an image processing device 7 for recognizing the position and orientation of the article 30. Further, the transport device 1 includes a carriage 2, a robot arm 3 mounted on the upper side of the carriage 2, and a holding hand (robot hand) 4 provided at the tip of the robot arm 3. The trolley 2 can self-propell on the floor surface of, for example, a container or a warehouse of a factory. In the following description, a transport device 1 for unloading the articles 30 stacked in the container (truck luggage compartment) 34 will be illustrated. The article 30 has a rectangular box shape, such as a cardboard box. The articles 30 are stacked in the vertical direction and are stacked in a large number in the depth direction. The up-down, front-back, left-right directions are defined when viewed from the transport device 1 side, and the front side of the article 30 is the front side and the depth side is the rear side.

図1に示すように、台車2は、クローラ形式の走行装置である。台車2は、無限軌道2aと駆動輪2bを備えている。電動モータの駆動によって駆動輪2bを回転させることで無限軌道2aが動作する。無限軌道2aの動作によって台車2がコンテナ34の床面上を移動する。 As shown in FIG. 1, the carriage 2 is a crawler type traveling device. The bogie 2 includes an endless track 2a and drive wheels 2b. The endless track 2a operates by rotating the drive wheels 2b by driving the electric motor. The dolly 2 moves on the floor surface of the container 34 by the operation of the endless track 2a.

図1に示すように、台車2には、6軸制御で多関節のロボットアーム3が搭載されている。ロボットアーム3は、台車2の上面から延びる第1アーム3aと、第1アーム3aの先端に連結される第2アーム3bと、第2アーム3bの先端に連結された第3アーム3cを備えている。第3アーム3cの先端に保持ハンド4が支持されている。画像処理装置7は、撮影部7aと制御装置7bを備えている。撮影部7aと制御装置7bは、台車2上に搭載されている。撮影部7aには、撮影手段(2Dカメラ)10と画像距離センサ(TOFカメラ)11が搭載されている。撮影手段10と画像距離センサ11は、物品30の前面側を撮影できるように、奥行き方向(後方)を向いて設けられている。 As shown in FIG. 1, the trolley 2 is equipped with an articulated robot arm 3 with 6-axis control. The robot arm 3 includes a first arm 3a extending from the upper surface of the carriage 2, a second arm 3b connected to the tip of the first arm 3a, and a third arm 3c connected to the tip of the second arm 3b. There is. The holding hand 4 is supported at the tip of the third arm 3c. The image processing device 7 includes a photographing unit 7a and a control device 7b. The photographing unit 7a and the control device 7b are mounted on the carriage 2. The photographing unit 7a is equipped with a photographing means (2D camera) 10 and an image distance sensor (TOF camera) 11. The photographing means 10 and the image distance sensor 11 are provided so as to face the depth direction (rear) so that the front side of the article 30 can be photographed.

図4に示すように、保持ハンド4は、物品30を吸着可能な吸着部5と、物品30を下方から支持可能な受け部6を備えている。吸着部5は、ロボットアーム3に連結された支持部5aによって支持されている。吸着部5は、支持部5aに対してばね力により上下にフローティング支持されている。吸着部5の後部には、複数の吸着パッド5bが後方を向いて設けられている。吸着部5には、特に図では見えていないが吸引ホースが配管されている。吸引ホースは、一端が吸着パッド5bに接続され、他端が保持ハンド4の外部に設けられた吸引機に接続されている。吸引機を起動させてエアを吸引させることで、吸着パッド5bで負圧が発生し、これにより吸着パッド5bで物品30の前面を吸着することができる。 As shown in FIG. 4, the holding hand 4 includes a suction portion 5 capable of sucking the article 30 and a receiving portion 6 capable of supporting the article 30 from below. The suction portion 5 is supported by a support portion 5a connected to the robot arm 3. The suction portion 5 is floatingly supported vertically with respect to the support portion 5a by a spring force. A plurality of suction pads 5b are provided at the rear portion of the suction portion 5 so as to face rearward. A suction hose is piped to the suction portion 5, although it is not particularly visible in the figure. One end of the suction hose is connected to the suction pad 5b, and the other end is connected to a suction machine provided outside the holding hand 4. By starting the suction machine and sucking air, a negative pressure is generated in the suction pad 5b, so that the front surface of the article 30 can be sucked by the suction pad 5b.

図4に示すように、受け部6は、保持ハンド4の下部に設けられている。受け部6は、支持部5aに支持されている。受け部6は、吸着部5とは独立して、支持部5aに対してばね力により上下にフローティング支持されている。受け部6の後部の受け台6bは、電動モータと動滑車機構により二段階で前後方向に変位可能である。受け部6の前部の受け台収容部6aは、受け台6bを前後方向に変位可能に支持している。図5に示すように、物品30の前面に保持ハンド4が接近する場合、受け台6bは、段積みされた下側の物品30と当接しないように、前側へ退避して、受け台収容部6aに収容された状態になっている。図6に示すように、保持ハンド4が段積みされた物品30を前側へ移動させる段階で、受け台6bが後方へ変位するように動作される。受け台6bの前後方向の動作は、吸着保持した物品30の移動(ロボットアーム3の動作)に同期してなされる。受け台6bが後方へ変位することで、吸着保持した物品30が下方から受けられる。受け部6で下方から受けられることにより、物品30の変形あるいは吸着パッド5bからの離脱が防止され、ひいてはロボットアーム3の高速動作が可能となっている。 As shown in FIG. 4, the receiving portion 6 is provided at the lower part of the holding hand 4. The receiving portion 6 is supported by the supporting portion 5a. The receiving portion 6 is floatingly supported up and down by a spring force with respect to the supporting portion 5a independently of the suction portion 5. The pedestal 6b at the rear of the receiving portion 6 can be displaced in the front-rear direction in two stages by an electric motor and a moving pulley mechanism. The pedestal accommodating portion 6a at the front of the receiving portion 6 supports the pedestal 6b so as to be displaceable in the front-rear direction. As shown in FIG. 5, when the holding hand 4 approaches the front surface of the article 30, the cradle 6b retracts to the front side so as not to come into contact with the stacked lower article 30, and accommodates the cradle. It is in a state of being housed in the part 6a. As shown in FIG. 6, when the holding hand 4 moves the stacked articles 30 to the front side, the cradle 6b is operated so as to be displaced rearward. The movement of the cradle 6b in the front-rear direction is performed in synchronization with the movement of the article 30 that is attracted and held (the movement of the robot arm 3). By displacing the cradle 6b rearward, the article 30 attracted and held can be received from below. By receiving from below by the receiving portion 6, the article 30 is prevented from being deformed or detached from the suction pad 5b, and the robot arm 3 can be operated at high speed.

図1に示す撮影手段10と画像距離センサ11は、図2に示す境界線L1と境界線L2の左右方向の間、および境界線L3と境界線L4の上下方向の間で設定される矩形の撮影範囲毎に段積みされた複数の物品30を撮影する。撮影手段10は、当該撮影範囲の2次元画像データを取得する。画像距離センサ11は、TOF(Time−оf−Flight)カメラと称され、当該撮影範囲に対して照射したパルス光の反射時間を測定することで、撮影範囲をピクセル単位で区切った複数位置について、各位置までの距離データを取得する。換言すると、画像距離センサ11は、一度の撮影で、撮影範囲の各位置までの距離データを面(2次元)のデータとして取得する。TOFカメラによれば、作業場所の明るさに左右されずに距離データを取得可能である。 The photographing means 10 and the image distance sensor 11 shown in FIG. 1 have a rectangular shape set between the boundary line L1 and the boundary line L2 shown in FIG. 2 in the left-right direction and between the boundary line L3 and the boundary line L4 in the vertical direction. A plurality of articles 30 stacked in each shooting range are photographed. The photographing means 10 acquires the two-dimensional image data of the photographing range. The image distance sensor 11 is called a TOF (Time-оf-Flight) camera, and by measuring the reflection time of pulsed light irradiated to the shooting range, the shooting range is divided into pixel units at a plurality of positions. Acquire distance data to each position. In other words, the image distance sensor 11 acquires distance data to each position in the shooting range as surface (two-dimensional) data in one shooting. According to the TOF camera, distance data can be acquired regardless of the brightness of the work place.

図7に示すように、制御装置7bは、画像処理制御ユニット21とプログラマブルロジックコントローラ(PLC)24とロボットコントローラ(ロボット制御回路)25を備えている。画像処理制御ユニット21は、画像処理回路22と位置算出回路23を備えている。画像処理回路22は、撮影手段10で取得した画像データに基づいて、個々の物品30の前面(撮影方向正面)の正面四隅31(図3参照)と正面中心(正面中心領域)32(図3参照)を検出する。さらに、画像処理回路22は、撮影手段10で取得した画像データに基づいて、検出した正面四隅31と正面中心32までの距離を、画像距離センサ11で取得した距離データの中から取得する。位置算出回路23は、画像処理回路22で取得した正面四隅31と正面中心32までの距離に基づいて、物品30の前面の三次元位置と傾き(姿勢)を算出する。プログラマブルロジックコントローラ24は、画像処理制御ユニット21から受信した物品30の前面の三次元位置と傾きについての入力信号と、予め設定されたプログラムに基づいて、出力信号をロボットコントローラ25に送信する。ロボットコントローラ25は、プログラマブルロジックコントローラ24から送られる信号に基づいて、ロボットアーム3と保持ハンド4の動作を制御する。 As shown in FIG. 7, the control device 7b includes an image processing control unit 21, a programmable logic controller (PLC) 24, and a robot controller (robot control circuit) 25. The image processing control unit 21 includes an image processing circuit 22 and a position calculation circuit 23. The image processing circuit 22 has four front corners 31 (see FIG. 3) and a front center (front center region) 32 (FIG. 3) of the front surface (front in the photographing direction) of each article 30 based on the image data acquired by the photographing means 10. See). Further, the image processing circuit 22 acquires the detected distances between the front four corners 31 and the front center 32 from the distance data acquired by the image distance sensor 11 based on the image data acquired by the photographing means 10. The position calculation circuit 23 calculates the three-dimensional position and inclination (posture) of the front surface of the article 30 based on the distances between the front four corners 31 and the front center 32 acquired by the image processing circuit 22. The programmable logic controller 24 transmits an output signal to the robot controller 25 based on an input signal about the three-dimensional position and inclination of the front surface of the article 30 received from the image processing control unit 21 and a preset program. The robot controller 25 controls the operations of the robot arm 3 and the holding hand 4 based on the signal sent from the programmable logic controller 24.

図1〜9に基づいて、画像処理装置7によって物品30の前面の三次元位置と傾きを検知して物品30を荷下ろしする一連の流れを説明する。まず、図8に示すステップ(以下、STと略記する)01で、台車2をコンテナ34内に段積みされた物品30の手前に移動させる。台車2を停止させ、ロボットアーム3を作動させて、物品30を撮影する撮影位置に撮影手段10と画像距離センサ11を移動させる(ST02)。撮影位置に移動した撮影手段10と画像距離センサ11は、図2に示す境界線L1と境界線L2の左右方向の間、および境界線L3と境界線L4の上下方向の間の撮影範囲の複数の物品30を同時に撮影する(ST03)。 Based on FIGS. 1 to 9, a series of steps for unloading the article 30 by detecting the three-dimensional position and inclination of the front surface of the article 30 by the image processing device 7 will be described. First, in step 01 shown in FIG. 8 (hereinafter abbreviated as ST) 01, the carriage 2 is moved to the front of the articles 30 stacked in the container 34. The dolly 2 is stopped, the robot arm 3 is operated, and the photographing means 10 and the image distance sensor 11 are moved to the photographing position where the article 30 is photographed (ST02). The photographing means 10 and the image distance sensor 11 that have moved to the photographing position have a plurality of photographing ranges between the boundary line L1 and the boundary line L2 in the left-right direction and the boundary line L3 and the boundary line L4 in the vertical direction shown in FIG. Article 30 is photographed at the same time (ST03).

次に、撮影手段10によって画像データが取得され、画像距離センサ11によって距離データが取得される。画像処理回路22によって、撮影手段10で撮影した画像データから複数の物品30の隙間33が検出される(ST04)。図2に示すように、隙間33として、上下方向に延びた縦の隙間33aと、左右方向に延びた横の隙間33bが検出される。なお、矩形の隙間33cは、隙間33aと隙間33bに囲まれた矩形領域として検出されるが、上下方向または左右方向の長さが物品30として認識されるように設定された長さよりも小さいため、隙間33として認識されている。画像処理回路22で物品30として認識される上下方向または左右方向の長さは、例えば物品30の代表的なサイズに基づいて、上限または下限もしくはその両方を適宜設定してもよく、また、特に設定しなくてもよい。 Next, the image data is acquired by the photographing means 10, and the distance data is acquired by the image distance sensor 11. The image processing circuit 22 detects the gaps 33 of the plurality of articles 30 from the image data captured by the photographing means 10 (ST04). As shown in FIG. 2, as the gap 33, a vertical gap 33a extending in the vertical direction and a horizontal gap 33b extending in the horizontal direction are detected. The rectangular gap 33c is detected as a rectangular region surrounded by the gap 33a and the gap 33b, but the length in the vertical direction or the horizontal direction is smaller than the length set so as to be recognized as the article 30. , Is recognized as a gap 33. The vertical or horizontal length recognized as the article 30 by the image processing circuit 22 may be appropriately set to an upper limit, a lower limit, or both based on, for example, a typical size of the article 30, and in particular. It does not have to be set.

次に、画像処理回路22によって、画像データで検出された隙間33が除去されて、図3に示すように複数の物品30の矩形の輪郭が同時に認識される(ST05)。図3で例示した場合では、物品30a,30b,30c,30d,30e,30f,30g,30h,30i,30j,30k,30l,30m,30nの14個の矩形の輪郭が認識されている。画像処理回路22によって、認識された各物品30の正面四隅31が検出される。さらに、画像処理回路22によって、各物品30の前面(撮影方向正面)の正面四隅31の左右方向および上下方向の中間位置として正面中心32が検出される。 Next, the image processing circuit 22 removes the gap 33 detected in the image data, and as shown in FIG. 3, the rectangular contours of the plurality of articles 30 are simultaneously recognized (ST05). In the case illustrated in FIG. 3, 14 rectangular contours of articles 30a, 30b, 30c, 30d, 30e, 30f, 30g, 30h, 30i, 30j, 30k, 30l, 30m, and 30n are recognized. The image processing circuit 22 detects the front four corners 31 of each recognized article 30. Further, the image processing circuit 22 detects the front center 32 as intermediate positions in the left-right direction and the up-down direction of the front four corners 31 of the front surface (front in the photographing direction) of each article 30.

次に、画像処理回路22によって、撮影手段10によって取得された画像データと、画像距離センサ11によって取得された距離データが照らし合わされ、各物品30の正面四隅31と正面中心32に対応する位置の距離データが取得される(ST06)。正面四隅31と正面中心32の距離データに基づいて、位置算出回路23によって、各物品30の前面の三次元位置と傾きが算出される(ST07)。 Next, the image processing circuit 22 compares the image data acquired by the photographing means 10 with the distance data acquired by the image distance sensor 11, and positions the positions corresponding to the front four corners 31 and the front center 32 of each article 30. Distance data is acquired (ST06). Based on the distance data between the front four corners 31 and the front center 32, the position calculation circuit 23 calculates the three-dimensional position and inclination of the front surface of each article 30 (ST07).

一度の撮影でコンテナ34内を全て撮影範囲に収めることが難しい場合、撮影範囲をずらして複数回に分けて撮影する。コンテナ34内の全ての撮影範囲を撮影し終えていない場合(ST08)、ST02に戻って、異なる撮影位置から撮影手段10と画像距離センサ11で撮影して画像データと距離データを取得する。全ての撮影位置でコンテナ34内の全ての物品30を撮影し終えた場合、全ての物品30の情報を生成する(ST09)。例えば図3に示す撮影範囲内の物品30f,30nは、実際には撮影範囲よりも右側にも延びている(図2参照)。物品30f,30nのように撮影範囲の境界に位置して2つの撮影範囲で分けて撮影された物品30については、2つの撮影範囲の画像データを照らし合わせて、それぞれの画像データの物品30が、それぞれ別々の物品30であるか、1つの繋がった物品30であるかを画像処理回路22で判別する。1つの繋がった物品30であると判別した場合、画像データから新たに正面四隅31と正面中心32を算出し、新たに正面四隅31と正面中心32の距離データを取得する。そして、位置算出回路23によって、物品30の前面の三次元位置と傾きを再算出する。全ての物品30の情報が生成されたら、ロボットアーム3を作動させて、撮影手段10と画像距離センサ11は待機位置へ移動する(ST10)。 If it is difficult to fit the entire inside of the container 34 into the shooting range in one shooting, the shooting range is shifted and the shooting is divided into a plurality of times. When the entire shooting range in the container 34 has not been shot (ST08), the process returns to ST02, and the shooting means 10 and the image distance sensor 11 shoot from different shooting positions to acquire image data and distance data. When all the articles 30 in the container 34 have been photographed at all the photographing positions, information on all the articles 30 is generated (ST09). For example, the articles 30f and 30n within the photographing range shown in FIG. 3 actually extend to the right side of the photographing range (see FIG. 2). For articles 30 that are located at the boundary of the shooting range and are divided into two shooting ranges, such as articles 30f and 30n, the image data of the two shooting ranges are compared, and the articles 30 of the respective image data are displayed. The image processing circuit 22 determines whether the articles 30 are separate articles or one connected article 30. When it is determined that the article 30 is one connected article, the front four corners 31 and the front center 32 are newly calculated from the image data, and the distance data between the front four corners 31 and the front center 32 is newly acquired. Then, the position calculation circuit 23 recalculates the three-dimensional position and inclination of the front surface of the article 30. When the information of all the articles 30 is generated, the robot arm 3 is operated to move the photographing means 10 and the image distance sensor 11 to the standby position (ST10).

次に、全ての物品30の三次元位置と傾きの情報に基づいて、保持ハンド4による物品30の荷下ろし作業がなされる。物品30は、例えば図3に示す物品30a,30b,30c…等の順番で上側から順に荷下ろしされる。まず、ロボットアーム3を作動させて、ピッキング(保持)対象の物品30の手前の撮影位置に、撮影手段10と画像距離センサ11を移動させる(図9のST11)。 Next, the holding hand 4 unloads the articles 30 based on the information on the three-dimensional positions and inclinations of all the articles 30. Article 30 is unloaded in order from the upper side, for example, articles 30a, 30b, 30c, etc. shown in FIG. First, the robot arm 3 is operated to move the photographing means 10 and the image distance sensor 11 to the photographing position in front of the article 30 to be picked (held) (ST11 in FIG. 9).

次に、図9を参照するようにピッキング対象の物品30の前面の三次元位置と傾きを再算出する。再算出する手順は、コンテナ34に段積みされた全ての物品30の前面の三次元位置と傾きを算出したST03〜ST07と同様である。撮影位置に移動した撮影手段10と画像距離センサ11は、ピッキング対象の物品30の周辺を撮影範囲として撮影する(ST12)。画像処理回路22によって、撮影手段10で撮影した画像データから複数の物品30の隙間33が検出される(ST13)。画像処理回路22によって、画像データで検出された隙間33が除去されて、物品30の矩形の輪郭が認識される(ST14)。画像処理回路22によって、認識された各物品30の正面四隅31と正面中心32が検出される。画像データと距離データが照らし合わされることで、ピッキング対象の物品30およびその周辺の各物品30の正面四隅31と正面中心32に対応する位置の距離データが取得される(ST15)。位置算出回路23によって、正面四隅31と正面中心32の距離データに基づいて、ピッキング対象の物品30およびその周辺の各物品30の前面の三次元位置と傾きが算出される(ST16)。例えば、物品30をピッキングする際に、ピッキングした周囲の物品30の位置がずれる場合がある。物品30の前面の三次元位置と傾きをより高精度で把握するため、物品30をピッキングする度に、ピッキング対象の物品30およびその周辺の各物品30の前面の三次元位置と傾きを算出する。 Next, as shown in FIG. 9, the three-dimensional position and inclination of the front surface of the article 30 to be picked are recalculated. The procedure for recalculating is the same as ST03 to ST07 for calculating the three-dimensional positions and inclinations of the front surfaces of all the articles 30 stacked in the container 34. The photographing means 10 and the image distance sensor 11 that have moved to the photographing position photograph the periphery of the picking target article 30 as the photographing range (ST12). The image processing circuit 22 detects the gaps 33 of the plurality of articles 30 from the image data captured by the photographing means 10 (ST13). The image processing circuit 22 removes the gap 33 detected in the image data, and recognizes the rectangular contour of the article 30 (ST14). The image processing circuit 22 detects the front four corners 31 and the front center 32 of each of the recognized articles 30. By comparing the image data with the distance data, the distance data of the positions corresponding to the front four corners 31 and the front center 32 of the picking target article 30 and each article 30 around it is acquired (ST15). The position calculation circuit 23 calculates the three-dimensional position and inclination of the front surface of the article 30 to be picked and each article 30 around it based on the distance data between the front four corners 31 and the front center 32 (ST16). For example, when picking an article 30, the position of the surrounding article 30 that has been picked may shift. In order to grasp the three-dimensional position and inclination of the front surface of the article 30 with higher accuracy, each time the article 30 is picked, the three-dimensional position and inclination of the front surface of the article 30 to be picked and the surrounding articles 30 are calculated. ..

次に、認識した複数の物品30の中からピッキング対象の物品30を探す(ST17)。ST16で算出された物品30の前面の三次元位置と傾きに基づいて、ピッキング対象の物品30の位置情報が更新される(ST18)。図4に示すように、ピッキング対象の物品30の前面の正面四隅31と正面中心32の位置情報に基づいて、正面中心32を目標にしてピッキング対象の物品30に保持ハンド4を接近させる。図5に示すように、ピッキング対象の物品30の前面に吸着パッド5bを当てる。吸引機を起動させて、吸着パッド5bを物品30の前面に吸着させる。図6に示すように、吸着パッド5bに物品30を吸着させた状態で、ロボットアーム3によって保持ハンド4を前方へ移動させる。保持ハンド4とともに物品30が前方へと移動するのに合わせて、受け部6を後方へ延ばす。物品30は、受け部6に載せられて下側から支持される。かくして、ピッキング対象の物品30がピッキング(保持)される(ST19)。保持ハンド4によれば、例えばコンテナ34の天井近くまで積まれた物品30(図1参照)を吸着パッド5bに吸着させて前方へとピッキングすることで、コンテナ34の天井に干渉されずに容易に物品30を荷下ろしすることができる。 Next, the picking target article 30 is searched for from the recognized plurality of articles 30 (ST17). The position information of the article 30 to be picked is updated based on the three-dimensional position and inclination of the front surface of the article 30 calculated in ST16 (ST18). As shown in FIG. 4, the holding hand 4 is brought close to the picking target article 30 with the front center 32 as a target based on the position information of the front four corners 31 and the front center 32 on the front surface of the picking target article 30. As shown in FIG. 5, the suction pad 5b is applied to the front surface of the article 30 to be picked. The suction machine is activated to suck the suction pad 5b to the front surface of the article 30. As shown in FIG. 6, the holding hand 4 is moved forward by the robot arm 3 in a state where the article 30 is attracted to the suction pad 5b. As the article 30 moves forward with the holding hand 4, the receiving portion 6 is extended backward. The article 30 is placed on the receiving portion 6 and supported from below. Thus, the article 30 to be picked is picked (held) (ST19). According to the holding hand 4, for example, by attracting the article 30 (see FIG. 1) stacked near the ceiling of the container 34 to the suction pad 5b and picking it forward, it is easy without interfering with the ceiling of the container 34. The article 30 can be unloaded.

次に、ピッキングされた物品30は、当該物品30をコンテナ34から搬出するための不図示のコンベヤへと移載される。コンベヤは、搬送装置1とは別体に設けられる。物品30を保持した状態で、ロボットアーム3によって保持ハンド4をコンベヤ上方に移動させる(ST20)。ST18で更新されたピッキング対象の物品30の前面の正面四隅31の位置情報に基づいて、コンベヤ上でピッキング対象の物品30の高さを計測する(ST21)。これにより例えば位置算出回路で算出した物品30の高さ情報が精確であるか否か確認でき、高さ情報が万一間違っていた場合でも更新できる。そのため保持ハンド4及び物品30の万一の故障等を防止できる。コンベヤ上方に移動した保持ハンド4は、受け部6を退避させつつ物品30の下面をコンベヤ上に載せて、吸引機を停止させる。これにより、ピッキング対象の物品30がコンベヤ上へと移載される(ST22)。保持ハンド4が全ての物品30をピッキングし終えていない場合(ST23)、新たなピッキング対象の物品30を撮影して画像データと距離データを得るため、ST11に戻って撮影手段10と画像距離センサ11を撮影位置へ移動させる。全ての物品30をピッキングしてコンベヤに移載した場合(ST23)、保持ハンド4を待機位置へ移動させる(ST24)。以上により搬送装置1による物品30の荷下ろし作業が終了する(ST25)。 Next, the picked article 30 is transferred to a conveyor (not shown) for carrying the article 30 out of the container 34. The conveyor is provided separately from the transport device 1. While holding the article 30, the robot arm 3 moves the holding hand 4 upward on the conveyor (ST20). The height of the article 30 to be picked is measured on the conveyor based on the position information of the front four corners 31 on the front surface of the article 30 to be picked updated in ST18 (ST21). As a result, for example, it is possible to confirm whether or not the height information of the article 30 calculated by the position calculation circuit is accurate, and even if the height information is incorrect, it can be updated. Therefore, it is possible to prevent accidental failure of the holding hand 4 and the article 30. The holding hand 4 moved above the conveyor puts the lower surface of the article 30 on the conveyor while retracting the receiving portion 6, and stops the suction machine. As a result, the article 30 to be picked is transferred onto the conveyor (ST22). When the holding hand 4 has not finished picking all the articles 30 (ST23), in order to photograph a new article 30 to be picked and obtain image data and distance data, it returns to ST11 and the photographing means 10 and the image distance sensor. Move 11 to the shooting position. When all the articles 30 are picked and transferred to the conveyor (ST23), the holding hand 4 is moved to the standby position (ST24). With the above, the unloading work of the article 30 by the transport device 1 is completed (ST25).

以上説明した本実施形態の搬送装置1の画像処理装置7によれば、図1に示すように、撮影手段10と画像距離センサ11を有している。撮影手段10は、段積みされた矩形箱形の物品30を撮影して画像データを取得する。画像距離センサ11は、物品30の複数位置に対して物品30までの距離を測定して距離データとして取得する。図7に示すように、画像処理装置7には、画像処理回路22と位置算出回路23とロボットコントローラ25が設けられている。画像処理回路22は、画像データから物品30の撮影方向正面側の正面四隅31(図3参照)を検出し、距離データから正面四隅31までの距離を取得する。位置算出回路23は、正面四隅31までの距離に基づいて物品30の前面の三次元位置と傾きを算出する。ロボットコントローラ25は、物品30の三次元位置と傾きに基づいて、物品30を保持する保持ハンド4と、保持ハンド4を移動させるロボットアーム3を制御する。 According to the image processing device 7 of the transport device 1 of the present embodiment described above, as shown in FIG. 1, the image processing device 10 and the image distance sensor 11 are provided. The photographing means 10 photographs the stacked rectangular box-shaped articles 30 to acquire image data. The image distance sensor 11 measures the distance to the article 30 with respect to a plurality of positions of the article 30 and acquires it as distance data. As shown in FIG. 7, the image processing device 7 is provided with an image processing circuit 22, a position calculation circuit 23, and a robot controller 25. The image processing circuit 22 detects the front four corners 31 (see FIG. 3) on the front side in the shooting direction of the article 30 from the image data, and acquires the distance from the distance data to the front four corners 31. The position calculation circuit 23 calculates the three-dimensional position and inclination of the front surface of the article 30 based on the distances to the four front corners 31. The robot controller 25 controls a holding hand 4 for holding the article 30 and a robot arm 3 for moving the holding hand 4 based on the three-dimensional position and inclination of the article 30.

従って、画像距離センサ11が取得した距離データの中から物品30の正面四隅31までの距離のみを利用して物品30の前面の三次元位置と傾きを把握する。そのため認識処理に必要なデータ数を少なくできる。例えば点群データを取得できるカメラを使用して物品の正面の位置と姿勢を算出する場合、上下方向と左右方向に所定の間隔(例えば5mm間隔)で点群データが取得される。そのため物品30の正面の大きさが大きいほど点群データの数が多くなる。例えば高さと左右幅が300mmの物品30の正面を5mm間隔で認識する際には、物品1個あたりで3600個の点群データが取得される。すなわち、物品30が30個ある場合には108000個のデータを処理する必要がある。 Therefore, the three-dimensional position and inclination of the front surface of the article 30 are grasped by using only the distances to the front four corners 31 of the article 30 from the distance data acquired by the image distance sensor 11. Therefore, the number of data required for the recognition process can be reduced. For example, when calculating the position and orientation of the front surface of an article using a camera capable of acquiring point cloud data, the point cloud data is acquired at predetermined intervals (for example, 5 mm intervals) in the vertical direction and the horizontal direction. Therefore, the larger the size of the front surface of the article 30, the larger the number of point cloud data. For example, when recognizing the front surface of an article 30 having a height and a left-right width of 300 mm at intervals of 5 mm, 3600 point cloud data is acquired for each article. That is, when there are 30 articles 30, it is necessary to process 108,000 data.

一方、画像処理装置7によれば、物品30が30個ある場合には各正面四隅31について計120個のデータを処理すればよい。これにより、認識処理の時間を短縮化することができ、かつ画像距離センサ11と対向する物品30の矩形の前面の三次元位置と傾きを高精度で把握することができる。また、認識処理に必要なデータ数は、物品30の正面の大きさによらず物品30の個数で決まる。そのため様々なサイズの物品30の正面四隅31を検知する際においても、短い処理時間で位置と姿勢を把握することができる。 On the other hand, according to the image processing device 7, when there are 30 articles 30, a total of 120 pieces of data may be processed for each of the four front corners 31. As a result, the time for the recognition process can be shortened, and the three-dimensional position and inclination of the front surface of the rectangle of the article 30 facing the image distance sensor 11 can be grasped with high accuracy. Further, the number of data required for the recognition process is determined by the number of articles 30 regardless of the size of the front surface of the articles 30. Therefore, even when detecting the front four corners 31 of articles 30 of various sizes, the position and posture can be grasped in a short processing time.

また、画像処理装置7によれば、図7に示す画像処理回路22は、画像データから図3に示す物品30の撮影方向正面側の正面中心32を検出し、距離データから正面中心32までの距離を取得する。図7に示す位置算出回路23は、図3に示す物品30の前面の正面四隅31および正面中心32までの距離に基づいて物品30の前面の三次元位置と傾きを算出する。 Further, according to the image processing device 7, the image processing circuit 22 shown in FIG. 7 detects the front center 32 on the front side in the photographing direction of the article 30 shown in FIG. 3 from the image data, and extends from the distance data to the front center 32. Get the distance. The position calculation circuit 23 shown in FIG. 7 calculates the three-dimensional position and inclination of the front surface of the article 30 based on the distances to the front four corners 31 and the front center 32 of the front surface of the article 30 shown in FIG.

従って、物品1個あたりで正面四隅31と正面中心32の計5カ所の距離データを取得して認識処理する。これにより、認識処理を短時間で行うことができる。また、物品30の前面の正面四隅31までの距離と正面中心32までの距離をそれぞれ検出することで、画像距離センサ11と対向する物品30の矩形の前面の三次元位置と傾きをより高精度で把握することができる。例えば、矩形箱形の物品30が段ボール箱等である場合、正面中心32が正面四隅31よりもわずかに前方に張り出した位置にあり、前面が平面状でない場合がある。このような場合においても、画像距離センサ11と対向する物品30の前面の形状を概略的に把握しつつ、物品30の前面の三次元位置と傾きをより高精度で把握することができる。 Therefore, distance data of a total of five locations, the front four corners 31 and the front center 32, is acquired and recognized for each article. As a result, the recognition process can be performed in a short time. Further, by detecting the distances to the front four corners 31 of the front surface of the article 30 and the distances to the front center 32, respectively, the three-dimensional position and inclination of the rectangular front surface of the article 30 facing the image distance sensor 11 can be more accurately determined. Can be grasped with. For example, when the rectangular box-shaped article 30 is a corrugated cardboard box or the like, the front center 32 may be located at a position slightly protruding forward from the front four corners 31, and the front may not be flat. Even in such a case, the three-dimensional position and inclination of the front surface of the article 30 can be grasped with higher accuracy while roughly grasping the shape of the front surface of the article 30 facing the image distance sensor 11.

また、画像処理装置7によれば、図1に示すように、撮影手段10と画像距離センサ11は、段積みされた複数の物品30の画像データと距離データを同時に取得する。 Further, according to the image processing device 7, as shown in FIG. 1, the photographing means 10 and the image distance sensor 11 simultaneously acquire image data and distance data of a plurality of stacked articles 30.

従って、複数の物品30の前面の三次元位置と傾きを同時に把握することができる。これにより、物品30の前面の三次元位置と傾きを認識するまでの時間を短縮させることができる。また、一度に複数の物品30の前面の三次元位置と傾きを認識することで、保持ハンド4が物品30を保持する順番を、搬送作業の効率がよくなるように選択し易くなる。これにより、作業時間をより短縮させることができる。 Therefore, the three-dimensional positions and inclinations of the front surfaces of the plurality of articles 30 can be grasped at the same time. This makes it possible to shorten the time required to recognize the three-dimensional position and inclination of the front surface of the article 30. Further, by recognizing the three-dimensional positions and inclinations of the front surfaces of the plurality of articles 30 at a time, it becomes easy to select the order in which the holding hand 4 holds the articles 30 so as to improve the efficiency of the transport work. As a result, the working time can be further shortened.

また、画像処理装置7を備えた搬送装置1によれば、図1に示すように、保持ハンド4とロボットアーム3と台車2を備えている。台車2は、ロボットアーム3を搭載して移動可能である。撮影手段10と画像距離センサ11は、台車2に搭載されている。 Further, according to the transport device 1 provided with the image processing device 7, as shown in FIG. 1, the holding hand 4, the robot arm 3, and the carriage 2 are provided. The dolly 2 is movable with the robot arm 3 mounted on it. The photographing means 10 and the image distance sensor 11 are mounted on the carriage 2.

従って、例えばコンテナ34や工場の倉庫等の様々な場所に段積みされている物品30に対応して、特段の装置を別途設置することなく物品30の前面の三次元位置と傾きを把握することができる。また、保持ハンド4とロボットアーム3による搬送作業の合間に、台車2に搭載した撮影手段10による画像データの取得と、画像距離センサ11による距離データの取得を行うことができる。そのため、作業時間を短縮化して作業効率を高めることができる。また、例えば物品30がコンテナ34内に段積みされている場合、コンテナ34の天井近くまで物品30が積まれていることがあり、物品30の上方から物品30の位置と姿勢を認識し難い場合がある。あるいは、画像処理装置7を搬送装置1とは別体でコンテナ34内に設置することが難しい場合もある。本開示の特徴により、物品30が段積みされている場所によらず物品30の位置と姿勢を把握できる。 Therefore, it is necessary to grasp the three-dimensional position and inclination of the front surface of the article 30 without installing a special device in response to the article 30 stacked in various places such as a container 34 or a warehouse of a factory. Can be done. Further, the image data can be acquired by the photographing means 10 mounted on the carriage 2 and the distance data can be acquired by the image distance sensor 11 between the transfer operations by the holding hand 4 and the robot arm 3. Therefore, the work time can be shortened and the work efficiency can be improved. Further, for example, when the articles 30 are stacked in the container 34, the articles 30 may be stacked near the ceiling of the container 34, and it is difficult to recognize the position and posture of the articles 30 from above the articles 30. There is. Alternatively, it may be difficult to install the image processing device 7 separately from the transport device 1 in the container 34. According to the features of the present disclosure, the position and posture of the articles 30 can be grasped regardless of the place where the articles 30 are stacked.

以上説明した本実施形態の搬送装置1及び画像処理装置7には、種々変更を加えることができる。撮影手段10と画像距離センサ11を設ける場所を適宜変更してもよい。本実施形態では、上記するように撮影手段10と画像距離センサ11が台車2に搭載されている。これに代えて、例えば搬送装置1とは別体で撮影手段10と画像距離センサ11をコンテナ34内に設置する構成としてもよい。例えばロボットアーム3に対して不動である撮影台を設け、当該撮影台に撮影手段10と画像距離センサ11を設けてもよい。これらの配置により、ロボットアーム3が動作する際に、撮影手段10と画像距離センサ11が移動し難い。従って、撮影手段10と画像距離センサ11を撮影位置まで移動させる時間を短縮でき、これにより、搬送作業の効率化を図ることができる。 Various changes can be made to the transport device 1 and the image processing device 7 of the present embodiment described above. The place where the photographing means 10 and the image distance sensor 11 are provided may be changed as appropriate. In the present embodiment, as described above, the photographing means 10 and the image distance sensor 11 are mounted on the carriage 2. Instead of this, for example, the photographing means 10 and the image distance sensor 11 may be installed in the container 34 separately from the transport device 1. For example, a photographing table that is immovable with respect to the robot arm 3 may be provided, and the photographing means 10 and the image distance sensor 11 may be provided on the photographing table. Due to these arrangements, it is difficult for the photographing means 10 and the image distance sensor 11 to move when the robot arm 3 operates. Therefore, the time for moving the photographing means 10 and the image distance sensor 11 to the photographing position can be shortened, and thereby the efficiency of the transport work can be improved.

例えば、台車2に搭載されているロボットアーム3の後側や、保持ハンド4の受け部6の下方に撮影手段10と画像距離センサ11を設けてもよい。この配置により、ロボットアーム3によって保持ハンド4をピッキング対象の物品30の手前に移動させ、撮影手段10と画像距離センサ11で撮影した後、すぐに物品30を保持ハンド4で保持するステップに移行できる。従って、搬送作業の効率化を図ることができる。 For example, the photographing means 10 and the image distance sensor 11 may be provided on the rear side of the robot arm 3 mounted on the carriage 2 or below the receiving portion 6 of the holding hand 4. With this arrangement, the robot arm 3 moves the holding hand 4 in front of the picking target article 30, and after taking a picture with the photographing means 10 and the image distance sensor 11, the step immediately shifts to the step of holding the article 30 with the holding hand 4. can. Therefore, the efficiency of the transport work can be improved.

例えば、ロボットアーム3または保持ハンド4の前側に撮影手段10と画像距離センサ11を設けてもよい。この配置により、保持ハンド4に保持された物品30を、例えば搬送装置1の前方に配置されたコンベヤに移載する際に、撮影手段10と画像距離センサ11を後方の段積みされた物品30側に向けることができる。そのため、ピッキング対象の物品30をコンベヤに移載している間または移載した直後に、次のピッキング対象の物品30を撮影手段10と画像距離センサ11で撮影することができる。従って、荷下ろし作業の作業時間の短縮化を図ることができる。 For example, the photographing means 10 and the image distance sensor 11 may be provided on the front side of the robot arm 3 or the holding hand 4. With this arrangement, when the article 30 held by the holding hand 4 is transferred to, for example, a conveyor arranged in front of the transport device 1, the photographing means 10 and the image distance sensor 11 are stacked behind the article 30. Can be turned to the side. Therefore, the next article 30 to be picked can be photographed by the photographing means 10 and the image distance sensor 11 while the article 30 to be picked is transferred to the conveyor or immediately after the transfer. Therefore, the work time of the unloading work can be shortened.

本実施形態で例示したコンテナ34に限らず、例えば工場の倉庫や船舶用のコンテナ等に段積みされた物品30を荷下ろしする際にも画像処理装置7を適用することができる。また、荷下ろしに限らず、例えば荷積みする際や段積みされた各物品30の位置を調整する際にも画像処理装置7を適用することができる。搬送装置1と画像処理装置7をそれぞれ別体に設けてもよい。ロボットアーム3として6軸制御の多関節ロボットを例示したが、より簡易な制御軸数の多関節ロボットを用いる構成としてもよい。吸着パッド5bで物品30の前面を吸着して保持する保持ハンド4を例示したが、例えば、吸着パッドで物品30の上面を吸着して保持する構成としてもよい。例えば、一対のクランプ機構によって左右方向または上下方向に物品30を挟み込んで保持する構成としてもよい。物品30の前面の正面四隅31の左右方向および上下方向の中間位置として正面中心32を検出する構成を例示したが、正面中心32に代えて、例えば、正面四隅31の中間部において上下左右方向に所定の拡がりのある正面中心領域を検出し、当該正面中心領域の距離データを取得する構成としてもよい。 The image processing device 7 can be applied not only to the container 34 illustrated in the present embodiment but also to unloading the articles 30 stacked in a warehouse of a factory, a container for a ship, or the like. Further, the image processing device 7 can be applied not only to unloading but also to, for example, when loading or adjusting the position of each of the stacked articles 30. The transport device 1 and the image processing device 7 may be provided separately. Although an articulated robot with 6-axis control has been exemplified as the robot arm 3, an articulated robot with a simpler control axis may be used. Although the holding hand 4 that sucks and holds the front surface of the article 30 with the suction pad 5b has been illustrated, for example, the upper surface of the article 30 may be sucked and held by the suction pad. For example, the article 30 may be sandwiched and held in the left-right direction or the up-down direction by a pair of clamp mechanisms. Although the configuration in which the front center 32 is detected as an intermediate position in the left-right direction and the vertical direction of the front four corners 31 of the front surface of the article 30 is illustrated, instead of the front center 32, for example, in the vertical and horizontal directions in the middle portion of the front four corners 31 A configuration may be configured in which a front center region having a predetermined extent is detected and distance data of the front center region is acquired.

1…搬送装置
2…台車、2a…無限軌道、2b…駆動輪
3…ロボットアーム、3a…第1アーム、3b…第2アーム、3c…第3アーム
4…保持ハンド(ロボットハンド)
5…吸着部、5a…支持部、5b…吸着パッド
6…受け部、6a…受け台収容部、6b…受け台
7…画像処理装置、7a…撮影部、7b…制御装置
10…撮影手段(2Dカメラ)
11…画像距離センサ(TOFカメラ)
21…画像処理制御ユニット、22…画像処理回路、23…位置算出回路
24…プログラマブルロジックコントローラ(PLC)
25…ロボットコントローラ(ロボット制御回路)
30,30a〜30n…物品
31…正面四隅、32…正面中心(正面中心領域)
33…隙間
33a…(縦方向の)隙間、33b…(横方向の)隙間、33c…(矩形の)隙間
34…コンテナ
L1,L2、L3,L4…(距離データ検出範囲を示す)境界線
1 ... Transport device 2 ... Bogie, 2a ... Track, 2b ... Drive wheel 3 ... Robot arm, 3a ... 1st arm, 3b ... 2nd arm, 3c ... 3rd arm 4 ... Holding hand (robot hand)
5 ... Adsorption unit, 5a ... Support unit, 5b ... Adsorption pad 6 ... Receiving unit, 6a ... Cradle accommodating unit, 6b ... Cradle 7 ... Image processing device, 7a ... Imaging unit, 7b ... Control device 10 ... Imaging means ( 2D camera)
11 ... Image distance sensor (TOF camera)
21 ... Image processing control unit, 22 ... Image processing circuit, 23 ... Position calculation circuit 24 ... Programmable logic controller (PLC)
25 ... Robot controller (robot control circuit)
30, 30a to 30n ... Article 31 ... Front four corners, 32 ... Front center (front center area)
33 ... Gap 33a ... (Vertical) Gap, 33b ... (Horizontal) Gap, 33c ... (Rectangular) Gap 34 ... Containers L1, L2, L3, L4 ... (Indicating distance data detection range) Boundary line

Claims (4)

搬送装置の画像処理装置であって、
段積みされた矩形箱形の物品を撮影して画像データを取得する撮影手段と、
前記物品までの距離を該物品の複数位置に対して測定して距離データとして取得する画像距離センサと、
前記画像データから前記物品の撮影方向正面側の正面四隅を検出し、前記距離データから前記正面四隅までの距離を取得する画像処理回路と、
前記正面四隅までの距離に基づいて前記物品の位置と姿勢を算出する位置算出回路と、
前記物品の位置と姿勢に基づいて前記物品を保持する保持ハンドと該保持ハンドを移動させるロボットアームを制御するロボット制御回路を有する画像処理装置。
An image processing device for a transport device
A photography method for acquiring image data by photographing stacked rectangular box-shaped articles,
An image distance sensor that measures the distance to the article with respect to a plurality of positions of the article and acquires it as distance data.
An image processing circuit that detects the four front corners of the article on the front side in the shooting direction from the image data and acquires the distances from the distance data to the four front corners.
A position calculation circuit that calculates the position and posture of the article based on the distances to the four front corners,
An image processing device having a holding hand that holds the article and a robot control circuit that controls a robot arm that moves the holding hand based on the position and orientation of the article.
請求項1に記載の画像処理装置であって、
前記画像処理回路は、前記画像データから前記物品の撮影方向正面側の正面中心領域を検出し、前記距離データから前記正面中心領域までの距離を取得し、
前記位置算出回路は、前記正面四隅および前記正面中心領域までの距離に基づいて前記物品の位置と姿勢を算出する画像処理装置。
The image processing apparatus according to claim 1.
The image processing circuit detects the front center region on the front side in the shooting direction of the article from the image data, and acquires the distance from the distance data to the front center region.
The position calculation circuit is an image processing device that calculates the position and orientation of the article based on the distances to the front four corners and the front center region.
請求項1または2に記載の画像処理装置であって、
前記撮影手段と前記画像距離センサは、段積みされた複数の前記物品の前記画像データと前記距離データを同時に取得する画像処理装置。
The image processing apparatus according to claim 1 or 2.
The photographing means and the image distance sensor are image processing devices that simultaneously acquire the image data and the distance data of a plurality of stacked articles.
請求項1〜3のいずれか1項に記載した画像処理装置を備えた搬送装置であって、
前記保持ハンドと前記ロボットアームと該ロボットアームを搭載して移動可能な台車を備え、
前記撮影手段と前記画像距離センサは、前記台車に搭載される搬送装置。
A transport device including the image processing device according to any one of claims 1 to 3.
A trolley on which the holding hand, the robot arm, and the robot arm are mounted and movable is provided.
The photographing means and the image distance sensor are transport devices mounted on the trolley.
JP2020016823A 2020-02-04 2020-02-04 Image processing device and transport device equipped with image processing device Active JP7146829B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020016823A JP7146829B2 (en) 2020-02-04 2020-02-04 Image processing device and transport device equipped with image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020016823A JP7146829B2 (en) 2020-02-04 2020-02-04 Image processing device and transport device equipped with image processing device

Publications (2)

Publication Number Publication Date
JP2021122879A true JP2021122879A (en) 2021-08-30
JP7146829B2 JP7146829B2 (en) 2022-10-04

Family

ID=77459829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020016823A Active JP7146829B2 (en) 2020-02-04 2020-02-04 Image processing device and transport device equipped with image processing device

Country Status (1)

Country Link
JP (1) JP7146829B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114700964A (en) * 2022-03-24 2022-07-05 贵阳臻芯科技有限公司 Intelligent auxiliary robot for container
JP2023094521A (en) * 2021-12-23 2023-07-05 所羅門股▲分▼有限公司 Method and system for automatically placing object into container
WO2024101036A1 (en) * 2022-11-08 2024-05-16 株式会社ダイフク Transfer system, method for controlling transfer system, and control program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54149666A (en) * 1978-05-16 1979-11-24 Takenaka Komuten Co Method of detecting levelness horizontality in heavy roof lifttup process
JPS6317735A (en) * 1986-07-07 1988-01-25 Okura Yusoki Co Ltd Takeout device
JPH11333770A (en) * 1998-03-20 1999-12-07 Kobe Steel Ltd Loading position and attitude recognizing device
JP2003172605A (en) * 2001-12-10 2003-06-20 Daifuku Co Ltd Article position recognizing device
JP2010228064A (en) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology Robot arm operating method of robot device for welfare, robot arm operation program, and recording medium
JP2010247959A (en) * 2009-04-16 2010-11-04 Ihi Corp Box-shaped work recognizing device and method
JP2015114292A (en) * 2013-12-16 2015-06-22 川崎重工業株式会社 Workpiece position information identification apparatus and workpiece position information identification method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54149666A (en) * 1978-05-16 1979-11-24 Takenaka Komuten Co Method of detecting levelness horizontality in heavy roof lifttup process
JPS6317735A (en) * 1986-07-07 1988-01-25 Okura Yusoki Co Ltd Takeout device
JPH11333770A (en) * 1998-03-20 1999-12-07 Kobe Steel Ltd Loading position and attitude recognizing device
JP2003172605A (en) * 2001-12-10 2003-06-20 Daifuku Co Ltd Article position recognizing device
JP2010228064A (en) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology Robot arm operating method of robot device for welfare, robot arm operation program, and recording medium
JP2010247959A (en) * 2009-04-16 2010-11-04 Ihi Corp Box-shaped work recognizing device and method
JP2015114292A (en) * 2013-12-16 2015-06-22 川崎重工業株式会社 Workpiece position information identification apparatus and workpiece position information identification method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023094521A (en) * 2021-12-23 2023-07-05 所羅門股▲分▼有限公司 Method and system for automatically placing object into container
CN114700964A (en) * 2022-03-24 2022-07-05 贵阳臻芯科技有限公司 Intelligent auxiliary robot for container
CN114700964B (en) * 2022-03-24 2023-09-22 贵阳臻芯科技有限公司 Intelligent auxiliary robot for container
WO2024101036A1 (en) * 2022-11-08 2024-05-16 株式会社ダイフク Transfer system, method for controlling transfer system, and control program

Also Published As

Publication number Publication date
JP7146829B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
JP7146829B2 (en) Image processing device and transport device equipped with image processing device
US20170151673A1 (en) Manipulator system, and image capturing system
WO2020009148A1 (en) Workpiece transport system and workpiece transport method
US20060072988A1 (en) Transfer robot system
JP6496333B2 (en) Article conveying apparatus using at least one sensor
JP5544320B2 (en) Stereoscopic robot picking device
JP2012240166A (en) Suction transfer device including vision sensor and suction device
US20190185266A1 (en) Picking system
JP2020163518A (en) Transfer device and delivery system
JP2018056256A (en) Board transfer hand diagnostic system
JP2010069542A (en) Workpiece picking method in bulk picking device
CN110803517A (en) Flexible OLED display panel laser shape cutting equipment with cleaning function
CN210456546U (en) Picking and feeding equipment
JP7283881B2 (en) work system
JP6475165B2 (en) Mounting device
WO2018134867A1 (en) Maintenance board
CN111278612B (en) Component transfer device
TWI653129B (en) Transportation system and operation method
JP7466435B2 (en) Robot and item dimension acquisition method
JP7568721B2 (en) Imaging device and control device for acquiring three-dimensional information on the surface of a workpiece and a two-dimensional image of the workpiece
JP5548947B2 (en) Electronic component mounting machine and electronic component mounting method
CN211310078U (en) Flexible OLED display panel laser shape cutting equipment with cleaning function
CN115593832A (en) Intelligent production line for unmanned environment operation
JP4236793B2 (en) Storage device and storage method
CN221520177U (en) Parts boxing system and vehicle production line

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7146829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150