[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPS6317735A - Takeout device - Google Patents

Takeout device

Info

Publication number
JPS6317735A
JPS6317735A JP15928386A JP15928386A JPS6317735A JP S6317735 A JPS6317735 A JP S6317735A JP 15928386 A JP15928386 A JP 15928386A JP 15928386 A JP15928386 A JP 15928386A JP S6317735 A JPS6317735 A JP S6317735A
Authority
JP
Japan
Prior art keywords
article
camera
projector
articles
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15928386A
Other languages
Japanese (ja)
Inventor
Norio Okura
大庫 典雄
Otoshi Minazu
水津 大利
Haruo Matsumura
松村 治男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Okura Yusoki KK
Original Assignee
Okura Yusoki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Okura Yusoki KK filed Critical Okura Yusoki KK
Priority to JP15928386A priority Critical patent/JPS6317735A/en
Publication of JPS6317735A publication Critical patent/JPS6317735A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PURPOSE:To make it possible to recognize a 3-dimensional position of each of stacked articles easily and to take out the articles one by one arranging an article position recognition device for instructing the position of the article to a takeout hand. CONSTITUTION:An article position recognition device 12 is provided with a projector 13 for projecting light from a specified direction to an aggregate body 2 of multiple articles 1 and a camera 14 keeping a certain length of base line relative to the projector 13. Projecting light from the projector 13 to the aggregate body 2 of the multiple articles 1, an image of light reflected from the article 1 of the aggregate body 2 is taken by the camera 14. An operation means 15, based on the image signal inputted from the camera 14, determines coordinates of the image and 3-dimensional position of the article 1 by operation based on triangulation using the coordinates, the preset base line length between the projector 13 and the camera 14, etc. Instructing the recognized position of the article 1 to a takeout hand 11, the article 1 is taken out by means of the takeout hand 11.

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、荷積みされた物品を1個fつ取出すピッキン
グ装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial Application Field) The present invention relates to a picking device that picks out one (f) loaded articles.

(従来の技術) 一般に、自a倉庫には、パレタイIf(荷積み装置)と
、デパレタイザ(荷下ろし装置)とが用いられており、
荷積みおよび荷小ろしが自動的に行なわれる。この場合
、通常は、パレタイザによって荷積みされた物品は、視
覚システムを持たないデパレタイザによって簡単に荷下
ろしすることができる。これは、パレタイザが荷積みを
行なうときに、荷積みパターンおよびその順序をコンピ
ュータに記憶させ、デパレタイザによって伺下ろしする
際には、上記記憶されたデータにより逆動作を行なえば
よいからである。
(Prior art) In general, a private warehouse uses a pallet tie If (loading device) and a depalletizer (unloading device).
Loading and unloading takes place automatically. In this case, articles loaded by a palletizer can usually be easily unloaded by a depalletizer without a vision system. This is because when the palletizer loads, the computer stores the loading pattern and its order, and when the depalletizer unloads, the reverse operation can be performed based on the stored data.

しかし、パレタイザによって整然と荷積みされても、そ
の後に荷ずれが生じたり、人手によって物品が勅かされ
たり、迫ったパターンに積まれる可能性もある。このよ
うな場合はパレタイザによる荷積みデータによって逆動
作させただけでは何下ろしを確実に行なうことが困難で
ある。このため、物品の1個ずつの荷下ろしは、人手に
よって行なわれることも多い。
However, even if the items are stacked in an orderly manner by the palletizer, there is a possibility that the items may be misaligned, or the items may be moved manually, or the items may be stacked in a similar pattern. In such a case, it is difficult to reliably unload the palletizer by simply performing a reverse operation based on the loading data of the palletizer. For this reason, unloading of articles one by one is often performed manually.

(発明が解決しようとする問題点) 上記のように荷積みパターンが一定でないものや、荷ず
れや人手によって動かされたりして荷積み状態が不安定
なものに対しては、物品の1個ずつの荷下ろしを自動的
に行なうことかできない場合がある。
(Problems to be Solved by the Invention) As mentioned above, when the loading pattern is not constant or the loading condition is unstable due to shifting or being moved manually, it is necessary to In some cases, it may not be possible to unload each load automatically.

本発明の目的は、荷積みされた各物品の三次元位置を容
易に認識でき、物品の1個ずつのピッキングを可能にし
たピッキング装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a picking device that allows easy recognition of the three-dimensional position of each loaded article and enables picking of articles one by one.

(発明の構成) (問題点を解決するための手段) 本発明によるピッキング装置は、ピッキングハンド11
およびこのピッキングハンド11に物品1の位置を指示
する物品位置認識装置12を具備し、この物品位置認識
装置12は、複数の物品1による集合体2に対して所定
の方向から光を投影する投影器13を設けると共に、こ
の投影器13に対し一定の基線長を保ってカメラ14を
設け、このカメラ14によって集合体2を構成する物品
1からの反射光を撮像する。さらに、このカメラ14か
らの画像信号を入力しこの画像の座標を基に前記集合体
2を構成する物品1の三次元位置を求める演算手段15
を設ける。
(Structure of the Invention) (Means for Solving the Problems) A picking device according to the present invention includes a picking hand 11
and an article position recognition device 12 for instructing the picking hand 11 to the position of the article 1. A camera 14 is provided with a constant base line length maintained with respect to the projector 13, and the reflected light from the articles 1 constituting the aggregate 2 is imaged by the camera 14. Further, a calculation means 15 inputs the image signal from this camera 14 and calculates the three-dimensional position of the article 1 constituting the aggregate 2 based on the coordinates of this image.
will be established.

(作用) 本発明は、複数の物品1の集合体2に対し投影器13か
ら光を投影し、上記集合体2の物品1からの反射光をカ
メラ14によって搬像する。演算手段15はカメラ14
からの映像信号を入力してその映像の鰻標を判断し、こ
の座標を基に予め設定されている投影器13とカメラ1
4との基線長等から三角測量法に基づいて演算を行ない
、物品1の三次元位置を求める。そして、この物品1の
認識位置をピッキングハンド11に指示して、ピッキン
グハンド11で物品1を取出す。
(Function) In the present invention, light is projected from a projector 13 onto an aggregate 2 of a plurality of articles 1, and reflected light from the articles 1 of the aggregate 2 is imaged by a camera 14. The calculation means 15 is the camera 14
The eel mark is determined by inputting the video signal from
4, the three-dimensional position of the article 1 is determined by calculation based on the triangulation method. Then, the recognition position of the article 1 is instructed to the picking hand 11, and the article 1 is taken out by the picking hand 11.

(実施例) 以下、本発明の一実施例を図面を参照して説明する。(Example) Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

第1図において、1は荷積みされた物品で、各品種ごと
に複数個ずつ段積みされて集合体2を構成している。
In FIG. 1, reference numeral 1 denotes loaded articles, and a plurality of articles of each type are stacked in stacks to form an aggregate 2.

10は走行台車で、この走行台車10上に上下方向およ
び水平方向可動自在なピッキングハンド11およびこの
ピッキングハンド11に取出すべき物品1の位置を指示
する物品位置認識装置12が設けられている。
Reference numeral 10 denotes a traveling trolley, and on this traveling trolley 10 are provided a picking hand 11 that is movable in vertical and horizontal directions, and an article position recognition device 12 that indicates the position of the article 1 to be taken out to the picking hand 11.

この物品位置認識装置12を第2図により説明する。第
2図において、13は投影器で、上記集合体2を構成す
る物品1の側面に横り向のスリット光りを投影させる。
This article position recognition device 12 will be explained with reference to FIG. In FIG. 2, a projector 13 projects horizontal slit light onto the side surfaces of the articles 1 constituting the aggregate 2.

14はカメラで、上記投影器13に対しZ軸方向に一定
の基線長りを保って配置されており、投影器13によっ
て光が投影された集合体2を斜上方から船隊し、集合体
2からの反射光を搬像する。上記投影器13とカメラ1
4どは図示しない移動elJI4により航記基線艮りを
保ったままZ軸方向に移動可能に構成される。15は演
算手段で、カメラ14からの画像信号を入力し、その画
像(反射光像)の座標を基に後述する演算手法により各
物品1の三次元位置を求める。
A camera 14 is arranged with a constant base line length in the Z-axis direction with respect to the projector 13, and it captures the aggregate 2 on which light is projected by the projector 13 from diagonally above, and captures the aggregate 2. The reflected light is transferred to an image. The above projector 13 and camera 1
4 is configured to be movable in the Z-axis direction while maintaining the navigation baseline position by a movement elJI4 (not shown). Reference numeral 15 denotes a calculation means which inputs an image signal from the camera 14 and calculates the three-dimensional position of each article 1 based on the coordinates of the image (reflected light image) using a calculation method described later.

次に、上記物品位置認識装@12の動作原理を第3図に
より説明する。図示のようなX−Y−Z直交座標におい
て、X−Y平面に格子を置さ、Z軸のH点から0点を俯
臘した場合、0点からH点までの高さが既知であればO
−0間の距1ffiYは次式で求められる。
Next, the principle of operation of the article position recognition device @12 will be explained with reference to FIG. In the X-Y-Z rectangular coordinates as shown, if a grid is placed on the X-Y plane and the 0 point is looked down from the H point on the Z axis, even if the height from the 0 point to the H point is known. BaO
The distance 1ffiY between -0 is determined by the following equation.

Y = 1」tanθ1   ・・・・・・・・・・・
・・・・・・・(1)同様にしてY軸上のA、B角点へ
の距離もθ1を対応する角度に設定すれば上式によって
求められる。また、D、E点(X、Y)座標は角度θの
ほかにXY平面上の角αを知ることにより次式によって
求められる。
Y = 1”tanθ1 ・・・・・・・・・・・・
(1) Similarly, the distances to corner points A and B on the Y axis can be found by the above equation by setting θ1 to the corresponding angle. Further, the (X, Y) coordinates of points D and E can be determined by the following equation by knowing the angle α on the XY plane in addition to the angle θ.

X = Htanθ・ sinα・・・・・・・・・・
・・・・・・・・(2)y = Htanθ−cosα
・・・・・・…・・・・・・・・・(3)本実施例は上
述した測定原理を用いて荷積みされた物品の各三次元位
置を求め、ピッキングするものである。
X = Htanθ・sinα・・・・・・・・・
・・・・・・・・・(2) y = Htanθ−cosα
(3) In this embodiment, each three-dimensional position of the loaded articles is determined and picked using the measurement principle described above.

上記構成において、カメラ14および投影器13を一定
の基線長りを保ったままZ軸方向に沿って下降させるも
のとする。このときカメラ14が撮像する画像を第4図
に示す。なお、第4図中の台形は、集合体2の平面周辺
を表わし、枠は画面の枠とする。
In the above configuration, it is assumed that the camera 14 and the projector 13 are lowered along the Z-axis direction while maintaining a constant base line length. FIG. 4 shows an image captured by the camera 14 at this time. Note that the trapezoid in FIG. 4 represents the planar periphery of the aggregate 2, and the frame is the frame of the screen.

投影器13が下降し、高さP3の位置にあり、カメラ1
4はQ3の位置にあるとする。このとき投影器13から
のスリット光りはまだ集合体2の側面には投影されてい
ず、背景に線L3として投影される。この場合、高さQ
3の位置にあるカメラ14が撮像した画像は第4図(2
)で示すとおりであり、スリット光りの画1+13は集
合体2から外れた位置にある。次に、投影器13を高さ
Qlまで手降さゼると、スリット光しは集合体2を構成
する物品1 (A、B、C)の側面に線L2として投影
される。このとき高ざQlにあるカメラ14がle像し
た画像は第4図(ハ)で示すとおりであり、スリット光
しは画像L2として撮像されている。さらに、投影器1
3を高さQlまで下降させると、スリット光[は集合体
2を構成する物品1 (E、F、G)の側面に線L1と
して投影される。このとき高さQlにあるカメラ14が
撮像した画像は、第4図(旬で示すとおりであり、スリ
ット光りは画像L1として撮像されている。
The projector 13 is lowered and is at a height P3, and the camera 1
Assume that 4 is in position Q3. At this time, the slit light from the projector 13 has not yet been projected onto the side surface of the assembly 2, but is projected onto the background as a line L3. In this case, the height Q
The image taken by the camera 14 at position 3 is shown in Figure 4 (2
), and the slit light image 1+13 is located outside the aggregate 2. Next, when the projector 13 is lowered to a height Ql, the slit beam is projected onto the side surface of the articles 1 (A, B, C) constituting the assembly 2 as a line L2. At this time, the image captured by the camera 14 at the height Ql is as shown in FIG. 4(C), and the slit beam is captured as an image L2. Furthermore, projector 1
3 is lowered to a height Ql, the slit light [is projected as a line L1 onto the side surface of the articles 1 (E, F, G) constituting the assembly 2. The image taken by the camera 14 at the height Ql at this time is as shown in FIG.

次に、上述した画@L1、L2  (L3は測定範囲外
なので無視してよい)の画面上の座標を求める。例えば
、第4図の画面左上隅を原点とし、右にX、下にyをと
ることにより画IL1、L2に対応する画素の位置(座
標x、y>が求められる。したがって、この座標x1y
を用いて投影器13から画像L1、L2を形成する物品
1までのx1Y方向の距離が求められる。すなわち、座
標yにより第3図で説明した角度θが決まり、座標Xに
より角度αが決まる。そして、Hはhとして決っている
ため、第4図のXY平而面の座標X、Yは前述した(1
) (2) (3)式から求められる。
Next, the coordinates on the screen of the above-mentioned images @L1 and L2 (L3 can be ignored since it is outside the measurement range) are determined. For example, by setting the upper left corner of the screen in FIG. 4 as the origin, and taking X to the right and y to the bottom, the position of the pixel (coordinates
The distance in the x1Y direction from the projector 13 to the article 1 forming the images L1 and L2 is determined using . That is, the coordinate y determines the angle θ explained in FIG. 3, and the coordinate X determines the angle α. Since H is determined as h, the coordinates X and Y of the XY plane in Figure 4 are (1
) (2) Calculated from equation (3).

このようにして各物品1のX、Y方向の位置が求められ
、かつZ方向の位置は投影器13の高さから決まるので
、各物品1の三次元位置が認識され、この位置データに
基づいてピッキングハンド11のコントローラを制御し
、ピッキングハンド11を物品1の位置および状態に対
応して動かすことにより、各物品1を確実にピッキング
することができる。
In this way, the position of each article 1 in the X and Y directions is determined, and the position in the Z direction is determined from the height of the projector 13, so the three-dimensional position of each article 1 is recognized and based on this position data. By controlling the controller of the picking hand 11 and moving the picking hand 11 in accordance with the position and state of the article 1, each article 1 can be reliably picked.

第5図で示す実施例は、投影器13としてスリット光り
を上下2段に投影するものを用いている。
The embodiment shown in FIG. 5 uses a projector 13 that projects slit light in two stages, upper and lower.

この場合、上段のスリット光が背景に投影され、下段の
スリット光が集合体2の最上部の物品1の側面に投影さ
れることにより投影器13およびカメラ14の下降を停
止するように構成しておけば、常に集合体2の最上部の
物品1の位置認識を行なうことができ、荷下ろし作業に
おける位置データとして最適である。また、投影器13
とカメラ14との下降停止制御に際しても下段のスリッ
ト光が物品1の上面から一定距離下降した時点で常に停
止制御されるので、下降停止位置が一定化しない甲−の
スリット光の場合に比べ、下降速度等に影響されること
なく動作が安定する。さらに、上下2段のスリット光を
用いているので、前置に対する物品の角度等も容易に判
別でき、より正確な位置認識が行なえる。
In this case, the upper slit light is projected onto the background, and the lower slit light is projected onto the side of the article 1 at the top of the assembly 2, thereby stopping the descent of the projector 13 and camera 14. If this is done, the position of the article 1 at the top of the assembly 2 can be recognized at all times, which is optimal as position data for unloading work. In addition, the projector 13
Even when controlling the descending stop of the camera 14, the lower slit light is always stopped when it descends a certain distance from the top surface of the article 1, so compared to the case of the instep slit light where the descending stop position is not constant, Operation is stable without being affected by descending speed, etc. Furthermore, since two levels of slit light, upper and lower, are used, the angle of the article relative to the front can be easily determined, allowing for more accurate position recognition.

第6図は集合体2における物品1の荷積み状態が正常な
場合と、物品1の一部にずれ等を生じた場合との認識例
を示す。
FIG. 6 shows an example of recognition when the loading state of the articles 1 in the assembly 2 is normal and when a part of the articles 1 is misaligned.

同図(2)は各物品1が正しく荷積みされており、画面
上のスリット光しによる画像も物品1の外縁に従って正
常な状態を表わしている。同図に)は集合体2中の1個
の物品(右側中列のもの)が外方に向って平行にずれた
場合で、画面上のスリット光しによる画像もこのずれを
表わしている。同図りは同じく1個の物品(右側中列の
もの)が回転方向にずれた場合で、画面上のスリット光
りによる画像もこの回転方向のずれを表わしている。
In FIG. 2, the articles 1 are loaded correctly, and the image created by the slit light on the screen also shows a normal state according to the outer edges of the articles 1. ) is a case in which one item in the assembly 2 (the item in the middle row on the right) is shifted outward in parallel, and the image created by the slit light on the screen also represents this shift. This diagram also shows a case where one article (the one in the middle row on the right) is shifted in the rotational direction, and the image created by the slit light on the screen also represents this shift in the rotational direction.

このように物品1が正常な荷積み状態でなくとも、スリ
ット光しによる画像から物品1のずれ状態を含めてその
位置認識を行なうことができ、このようなずれに対応し
たピッキングが可能となる。
In this way, even if the article 1 is not in a normal loading state, it is possible to recognize the position of the article 1, including its misalignment, from the image obtained by the slit light beam, and it is possible to perform picking that takes into account such misalignment. .

第7図の実施例は、投影器13として複数のコードマス
ク1f3(A、B、C)を用いてコードパターンを投影
し、物品1上に投影されたコードパターンをカメラ14
によって画像するものである。ここで各コードマスク1
6(Δ、B、C)において黒色部分は光をしヤ所し、白
色部分は光を透過するものとする。
In the embodiment shown in FIG. 7, a plurality of code masks 1f3 (A, B, C) are used as the projector 13 to project the code pattern, and the code pattern projected onto the article 1 is transferred to the camera 14.
The image is created by Here each code mask 1
6 (Δ, B, C), the black portions transmit light, and the white portions transmit light.

上記構成において、まず、Aのコードマスク16を用い
て物品1に光を投影させる。ここで、光が透過した明部
分を“1″、光がしゃ断された明部分を“O”とする。
In the above configuration, first, light is projected onto the article 1 using the code mask 16 of A. Here, the bright portion through which light is transmitted is designated as “1”, and the bright portion where light is blocked is designated as “O”.

演算手段15はカメラ14からの画像信号により画面を
構成する各画素毎に上記“1′′またはOIIを記憶す
る。次に、Bのコードマスク16を用いて同様に光を投
影させ、その時のカメラ14からの画像信号により各画
素毎に″1パまたは“O”を記憶する。さらに、Cのコ
ードマスク16を用いて光を投影させ、同じく各画Sf
eに“1パまたはO゛を記憶する。すなわち、投影器1
3は3枚のコードマスク16(A、B、C)により図中
O〜7までの各領域毎に3ビツトの2進コード(領域0
はコード000、領tiiはコード001、領域2はコ
ード011、・・・・・・)を投影する。
The calculation means 15 stores the above-mentioned "1" or OII for each pixel constituting the screen based on the image signal from the camera 14.Next, the code mask 16 of B is used to similarly project light, and the current Based on the image signal from the camera 14, "1pa" or "O" is stored for each pixel. Furthermore, light is projected using the code mask 16 of C, and each image Sf
Store “1 Pa or O゛” in e. That is, projector 1
3 uses three code masks 16 (A, B, C) to create a 3-bit binary code (area 0
projects code 000, region tii projects code 001, region 2 projects code 011, etc.).

また、演算手段15はカメラ14からの画像信舅により
物品1に投影されたコードパターンを各画素毎に記憶さ
せたので、どの画素がどの」−ドをとらえたか判る。
Further, since the calculation means 15 stores the code pattern projected onto the article 1 by image transmission from the camera 14 for each pixel, it can be determined which pixel captures which code.

このように投影器13から投影される空間のコードによ
り投影の方向(角度φ)が19られ、画像中の対応する
コードをとらえた画素(点)の座標からカメラの視線方
向(角度θ、δ)が得られる。
In this way, the direction of projection (angle φ) is determined by the spatial code projected from the projector 13, and the line of sight direction of the camera (angles θ, δ ) is obtained.

したがって、予め求められている基線[dとにより物品
1の座標X、Y、Zは次式によって求められる。
Therefore, the coordinates X, Y, and Z of the article 1 can be determined by the following equation using the previously determined base line [d.

Z=d/(tanθ−tanφ) X=Ztanδ Y=Ztanθ なお、コードとしては」−ドマスク16(A。Z=d/(tanθ−tanφ) X=Ztanδ Y=Ztanθ In addition, the code is "-Domask 16 (A.

B、C)の位置ずれ等による8領域の境界での認識誤り
を防ぐため、公知のグレイコード(反転2逆符号〉を用
いている。
In order to prevent recognition errors at the boundaries of the eight areas due to positional deviations in B and C), a known Gray code (inverted 2 inverted code) is used.

このようなグレイコードを用いた位置認識装置は、セメ
ントや穀物などの入ったバッグの位置認識に適している
。すなわち、このようなバックは定形でないため航述し
たスリット光による位置認識は困難であるが、グレイコ
ードを用いた位置認識装置は定形でなくとし充分にその
傭行を認識できる。例えば、このようなバッグは荷下ろ
し等の際にバキュームハンドを上面に吸着させ、これに
よって吊り上げるようにしており、荷積みされたバッグ
の上面を認識する必要がある。この場合、スリット光を
用いた位置認識は困難であるが、グレイコードを用いた
位置認識は充分に可能である。
A position recognition device using such a gray code is suitable for recognizing the position of bags containing cement, grain, etc. That is, since such a back is not a regular shape, it is difficult to recognize its position using the slit light described above, but a position recognition device using a gray code does not have a regular shape and can sufficiently recognize its location. For example, when unloading such a bag, a vacuum hand is attached to the top surface of the bag to lift it up, and it is necessary to recognize the top surface of the loaded bag. In this case, position recognition using a slit light is difficult, but position recognition using a gray code is fully possible.

さらに、バキュームハンドを用いる場合、バッグ上面の
滑かさを調べる必要があるが、このグレイコードを用い
た認識装置では、グレイコードの歪みによりバッグ上面
の滑らかさを容易に検出することが可能である。
Furthermore, when using a vacuum hand, it is necessary to check the smoothness of the top surface of the bag, but with this recognition device using Gray code, it is possible to easily detect the smoothness of the top surface of the bag based on the distortion of the Gray code. .

〔発明の効果〕〔Effect of the invention〕

本発明によれば、荷積みされた複数の物品の位置および
その状態を確実に認識できるので、これら物品に対する
ピッキングが確実になり、物品111iilずつの荷下
ろし作業の自動化を容易(4行なうことができる。
According to the present invention, since the positions and conditions of a plurality of loaded articles can be reliably recognized, the picking of these articles can be ensured, and the unloading operation of each article 111iil can be easily automated (up to 4 steps can be carried out). can.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明によるピッキング装置の一実施例を示す
斜視図、第2図は第1図の物品借賃認識装置の説明図、
第3図は第2図の測定原理の説明図、第4図は第2図に
おける画像の説明図、第5図はスリット光を2段にした
実施例を示す説明図、第6図は物品の荷積み状態が正常
な場合と胃常な場合との認識例を比較して示す説明図、
第7図はグレイコードを用いた実施例を示す説明図であ
る。 1・・物品、2・・集合体、11・・ピッキングハンド
、12・・物品位置認識装置、13・・投影器、14・
・カメラ、15・・演算手段、16・・グレイコードマ
スク。 +X
FIG. 1 is a perspective view showing an embodiment of a picking device according to the present invention, FIG. 2 is an explanatory diagram of the article rental recognition device shown in FIG. 1,
Fig. 3 is an explanatory diagram of the measurement principle in Fig. 2, Fig. 4 is an explanatory diagram of the image in Fig. 2, Fig. 5 is an explanatory diagram showing an embodiment with two stages of slit light, and Fig. 6 is an explanatory diagram of the article. An explanatory diagram showing a comparison of recognition examples when the loading state is normal and when the loading state is normal;
FIG. 7 is an explanatory diagram showing an embodiment using a Gray code. 1... Article, 2... Aggregate, 11... Picking hand, 12... Article position recognition device, 13... Projector, 14...
- Camera, 15... Arithmetic means, 16... Gray code mask. +X

Claims (3)

【特許請求の範囲】[Claims] (1)ピッキングハンドおよびこのピツキングハンドに
物品の位置を指示する物品位置認識装置を具備し、 この物品位置認識装置は、 複数の物品による集合体に対して所定の方向から光を投
影する投影器と、 この投影器に対し一定の基線長を保って設けられ集合体
を構成する物品からの反射光を撮像するカメラと、 このカメラからの画像信号を入力しこの画像の座標を基
に前記集合体を構成する物品の三次元位置を求める演算
手段と、 を備えたことを特徴するピッキング装置。
(1) Equipped with a picking hand and an article position recognition device that indicates the position of an article to the picking hand, and this article position recognition device is a projection device that projects light from a predetermined direction onto an aggregate of a plurality of articles. a camera that is installed at a constant baseline length with respect to the projector and captures the reflected light from the objects that make up the aggregate; an image signal from the camera is inputted, and the image signal is input based on the coordinates of the image. A picking device comprising: arithmetic means for determining three-dimensional positions of articles constituting an aggregate;
(2)投影器として、集合体を構成する物品の側面に横
方向のスリット光を投影させるものを用い、かつカメラ
は集合体を斜上方から俯瞰するように配置したことを特
徴とする特許請求の範囲第1項記載のピッキング装置。
(2) A patent claim characterized in that the projector is a device that projects horizontal slit light onto the side surfaces of the articles constituting the assembly, and the camera is arranged so as to overlook the assembly from diagonally above. The picking device according to item 1.
(3)投影器として、集合体を構成する物品に複数のグ
レイコードマスクによるグレイコードパターンを投影さ
せるものを用い、かつ演算手段として、映像を構成する
グレイコードの内容およびその座標から物品の三次元位
置を求めるものを用いたことを特徴とする特許請求の範
囲第1項記載のピッキング装置。
(3) As a projector, a device that projects a Gray code pattern based on a plurality of Gray code masks onto the items constituting the aggregate is used, and as a calculation means, the content of the Gray code that makes up the image and its coordinates are used to The picking device according to claim 1, characterized in that a device for determining the original position is used.
JP15928386A 1986-07-07 1986-07-07 Takeout device Pending JPS6317735A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15928386A JPS6317735A (en) 1986-07-07 1986-07-07 Takeout device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15928386A JPS6317735A (en) 1986-07-07 1986-07-07 Takeout device

Publications (1)

Publication Number Publication Date
JPS6317735A true JPS6317735A (en) 1988-01-25

Family

ID=15690409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15928386A Pending JPS6317735A (en) 1986-07-07 1986-07-07 Takeout device

Country Status (1)

Country Link
JP (1) JPS6317735A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02239029A (en) * 1989-03-11 1990-09-21 Datsuku Eng Kk Method for detecting position on surface of packed box
JPH05246545A (en) * 1992-01-13 1993-09-24 G D Spa Method and system for automatic pickup
US5317388A (en) * 1992-06-29 1994-05-31 United Parcel Service Of America, Inc. Method and apparatus for determining the displacement of a rectangular object with respect to a reference position
JPH06345270A (en) * 1993-06-08 1994-12-20 Mitsubishi Electric Corp Unloading device
JPH0797058A (en) * 1993-09-27 1995-04-11 Murata Mach Ltd Picking device
JPH07277512A (en) * 1994-04-13 1995-10-24 Murata Mach Ltd Article position deviation correcting device
JPH07299782A (en) * 1994-04-26 1995-11-14 Kawasaki Heavy Ind Ltd Method and device for image preparation for depalletizing
JP2009166237A (en) * 2008-01-15 2009-07-30 San Shing Fastech Corp Workpiece holding device and nut tapping machine with the same
JP2011083882A (en) * 2009-10-19 2011-04-28 Yaskawa Electric Corp Robot system
JP2012198898A (en) * 2012-04-02 2012-10-18 Mitsubishi Heavy Ind Ltd Position specification device, operation instruction device, and self-propelled robot
JP2021111353A (en) * 2020-01-10 2021-08-02 株式会社Mujin Method and system of classifying image for object recognition
JP2021122879A (en) * 2020-02-04 2021-08-30 株式会社メイキコウ Image processing device and carrier device equipped with image processing device
US11538238B2 (en) 2020-01-10 2022-12-27 Mujin, Inc. Method and system for performing image classification for object recognition

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02239029A (en) * 1989-03-11 1990-09-21 Datsuku Eng Kk Method for detecting position on surface of packed box
US5608818A (en) * 1992-01-13 1997-03-04 G.D Societa' Per Azioni System and method for enabling a robotic arm to grip an object
JPH05246545A (en) * 1992-01-13 1993-09-24 G D Spa Method and system for automatic pickup
US5317388A (en) * 1992-06-29 1994-05-31 United Parcel Service Of America, Inc. Method and apparatus for determining the displacement of a rectangular object with respect to a reference position
JPH06345270A (en) * 1993-06-08 1994-12-20 Mitsubishi Electric Corp Unloading device
JPH0797058A (en) * 1993-09-27 1995-04-11 Murata Mach Ltd Picking device
JPH07277512A (en) * 1994-04-13 1995-10-24 Murata Mach Ltd Article position deviation correcting device
JPH07299782A (en) * 1994-04-26 1995-11-14 Kawasaki Heavy Ind Ltd Method and device for image preparation for depalletizing
JP2009166237A (en) * 2008-01-15 2009-07-30 San Shing Fastech Corp Workpiece holding device and nut tapping machine with the same
JP2011083882A (en) * 2009-10-19 2011-04-28 Yaskawa Electric Corp Robot system
JP2012198898A (en) * 2012-04-02 2012-10-18 Mitsubishi Heavy Ind Ltd Position specification device, operation instruction device, and self-propelled robot
JP2021111353A (en) * 2020-01-10 2021-08-02 株式会社Mujin Method and system of classifying image for object recognition
US11538238B2 (en) 2020-01-10 2022-12-27 Mujin, Inc. Method and system for performing image classification for object recognition
US12080006B2 (en) 2020-01-10 2024-09-03 Mujin, Inc. Method and system for performing image classification for object recognition
JP2021122879A (en) * 2020-02-04 2021-08-30 株式会社メイキコウ Image processing device and carrier device equipped with image processing device

Similar Documents

Publication Publication Date Title
JPS6317735A (en) Takeout device
US9611126B2 (en) Method and system for automatically landing containers on a landing target using a container crane
US20230260071A1 (en) Multicamera image processing
JP2021503374A (en) Robot system equipped with automatic object detection mechanism and its operation method
JP6689467B2 (en) Crane equipment
JP2002211747A (en) Conveyor device
JP2003172605A (en) Article position recognizing device
CN107055331A (en) Container guides system to case
JP2023523282A (en) robot for stacking elements
JPH07266268A (en) Hand positioning device of mobile robot
JPH11231933A (en) Device for detecting deviation of stop position of mobile object and unmanned carrier
JP2021165897A (en) Control device, moving control system, control method and program
JP2006273533A (en) Crane for loading/unloading container
TW202030132A (en) Overhead conveyance vehicle
JP7549121B2 (en) Robot system and control device
JPH09255158A (en) Article disposition recognizing device
JP7519222B2 (en) Image Processing Device
JPS61101389A (en) Container crane
JPH02276725A (en) Instruction for robot
JP2020193081A (en) Teaching system, conveyance system, and teaching data generation method
JPH07187398A (en) Article transferring device
JP7295602B2 (en) CONTROL SYSTEM AND POSITION DIFFERENCE DETECTION METHOD
CN111496795A (en) Method and device for grabbing multilayer materials
JP3271689B2 (en) Article position detection device
US20230400858A1 (en) Identifying transport structures