[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE4236813C2 - Hochgeschwindigkeits-Greifsystem für übereinanderliegende Gegenstände oder Teile - Google Patents

Hochgeschwindigkeits-Greifsystem für übereinanderliegende Gegenstände oder Teile

Info

Publication number
DE4236813C2
DE4236813C2 DE4236813A DE4236813A DE4236813C2 DE 4236813 C2 DE4236813 C2 DE 4236813C2 DE 4236813 A DE4236813 A DE 4236813A DE 4236813 A DE4236813 A DE 4236813A DE 4236813 C2 DE4236813 C2 DE 4236813C2
Authority
DE
Germany
Prior art keywords
predetermined
comparison
predetermined portion
parts
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4236813A
Other languages
English (en)
Other versions
DE4236813A1 (de
Inventor
Yasuhiro Iida
Yasuo Hibi
Toshio Kato
Hiroshi Harada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP3313975A external-priority patent/JP2555823B2/ja
Priority claimed from JP3313976A external-priority patent/JP2555824B2/ja
Priority claimed from JP3313974A external-priority patent/JP2555822B2/ja
Priority claimed from JP3320994A external-priority patent/JP2679490B2/ja
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE4236813A1 publication Critical patent/DE4236813A1/de
Application granted granted Critical
Publication of DE4236813C2 publication Critical patent/DE4236813C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)

Description

Die Erfindung betrifft ein Hochgeschwindigkeits- Greifsystem für übereinanderliegende Gegenstände oder Teile. Insbesondere betrifft die vorliegende Erfindung ein Hochgeschwindigkeits-Greifsystem, mit dem übereinanderlie­ gende, aufeinandergestapelte oder angehäufte Gegenstände oder Teile, welche sich innerhalb eines Behälters befinden, nacheinander ergriffen werden können.
Es ist bekannt, zum nacheinander Ergreifen einer Mehr­ zahl von Gegenständen oder Teilen Grauskala-Daten Variabler Dichte auf der Grundlage eines Videosignales zu erzeugen, wobei das Videosignal mittels einer Bildeingabekamera er­ zeugt wird. Nachfolgend werden die Daten differenziert, um die Kammlinie von Randbilddaten zu erhalten, um eine Grenz­ linie zu extrahieren, um daraus ein Liniensegmentbild zu erhalten. Weiterhin wird eine Musteranpassung zwischen die­ sem Liniensegmentbild und einem Vergleichsmodell entspre­ chend der Formgebung eines Gegenstandes oder Teiles be­ wirkt, um das oberste Teil aus der Vielzahl von Teilen zu erkennen und zu ergreifen. Allerdings sind für gewöhnlich Teile oder Gegenstände übereinander innerhalb eines Aufnah­ mebehälters oder dergleichen angeordnet oder gestapelt, so daß jedes der gestapelten oder aufgehäuften Teile gegenüber der horizontalen Ebene mehr oder weniger stark geneigt oder verkippt ist. In diesem Fall bestehen Schwierigkeiten eines der Teile auf der Grundlage des Vergleichsmodelles zu er­ kennen und zu ergreifen, da das Vergleichsmodell unter der Annahme gebildet wird, daß das oberste Teil gegenüber der Horizontalen nicht gekippt oder geneigt ist.
Aus R. B. KELLEY et al.: "Three Vision Algorithmus for Aquiring Workpieces from Bins", Proceedings of the IEEE, Bd. 71, Nr. 7, Juli 1983, Seiten 803 bis 820 ist ein Hochgeschwindigkeits-Greifsystem für übereinanderliegende Gegen­ stände oder Teile bekannt, wobei die Teile mittels elektro­ nischer Bildverarbeitung erkannt werden, so daß sie von ei­ ner Mehrzahl von Greifern eines Roboters ergriffen werden können, wobei das Greifsystem Einrichtungen zum Bestimmen verschiedener Formabschnitte der Werkstücke und Befehlsein­ richtungen zum Auswählen und Positionieren eines Greifers aus der Mehrzahl von Greifern entsprechend der Werkstück­ form an einer bestimmten Position, um das Werkstück zu greifen, aufweist.
Aus W. HÄTTICH: "Erkennung und Positionsbestimmung überlappender Werkstücke zur Steuerung von Handhabungsgerä­ ten beim Zugriff auf ungeordnete Teile", FhG-Berichte 1/2- 81, Seiten 4-7 ist ein Hochgeschwindigkeits-Greifsystem für übereinanderliegende Gegenstände oder Teile bekannt, wobei die Teile mittels elektronischer Bildverarbeitung erkannt werden, so daß sie von Greifern eines Roboters ergriffen werden können, wobei das Greifsystem Einrichtungen zum Speichern einer Mehrzahl von Vergleichsmodellen, welche vorab auf der Grundlage von Daten festgesetzt werden, wel­ che eine Formgebung des Werkstücks spezifizieren, um das Halten des Werkstücks zu ermöglichen, aufweist.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Hochgeschwindigkeits-Greifsystem für übereinanderlie­ gende Gegenstände zu schaffen, welches in der Lage ist, übereinander gestapelte oder aufgehäufte Gegenstände mit hoher Geschwindigkeit zu erkennen und zu ergreifen.
Die Lösung dieser Aufgabe erfolgt erfindungsgemäß durch die in Anspruch 1, 5 bzw. 6 angegebenen Merkmale.
Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den jeweiligen abhängigen Ansprüchen.
Weitere Einzelheiten, Aspekte und Vorteile der vorlie­ genden Erfindung ergeben sich aus der nachfolgenden Be­ schreibung unter Bezugnahme auf die Zeichnung.
Es zeigt:
Fig. 1 die Gesamtansicht eines Hochgeschwindigkeits-Greif­ systems gemäß einer ersten Ausführungsform der vor­ liegenden Erfindung;
Fig. 2 ein Blockdiagramm zu Veranschaulichung des Aufbaus eines wesentlichen Teiles aus dem System gemäß Fig. 1;
Fig. 3 ein Flußdiagramm zur Veranschaulichung eines Pro­ zeßablaufes in einer zentralen Datenverarbeitungs­ einheit in dem System gemäß Fig. 2;
Fig. 4 Darstellungen von Lagezuständen von Gegenständen oder Teilen innerhalb eines Behälters;
Fig. 5 die wesentlichen Schritte der Greifvorgänge von übereinander gestapelten oder aufgehäuften Teilen unterschiedlichster Formgebung;
Fig. 6 die Gesamtansicht eines Hochgeschwindigkeits-Greif­ systems gemäß einer zweiten Ausführungsform der vor­ liegenden Erfindung;
Fig. 7 eine Ansicht ähnlich der von Fig. 2 für das System von Fig. 6;
Fig. 8 ein Flußdiagramm zur Veranschaulichung des Prozeßab­ laufes in einer zentralen Datenverarbeitungseinheit in dem System von Fig. 6;
Fig. 9A und 9B Darstellungen zur Beschreibung von Rechenver­ fahren für die Mitten eines Kreises und einer El­ lipse in der zweiten Ausführungsform;
Fig. 10 eine Darstellung zur Beschreibung von Arbeitsstel­ lungen welche Greifen erlauben bzw. nicht erlauben;
Fig. 11 eine graphische Darstellung zur Beschreibung der Wahrscheinlichkeit eines erfolgreichen Greifvorgan­ ges relativ zum Neigungswinkel eines Gegenstandes oder Teiles;
Fig. 12A und 12B Darstellungen zur Beschreibung von Zyklus­ zeiten bei der Erkennung eines Kreises bzw. einer Ellipse;
Fig. 13 die Gesamtansicht eines Hochgeschwindigkeits-Greif­ systems gemäß einer dritten Ausführungsform der vor­ liegenden Erfindung;
Fig. 14 eine Ansicht ähnlich der von Fig. 2 oder Fig. 7 für das System gemäß Fig. 13;
Fig. 15 bis 17 Flußdiagramme zur Darstellung des Prozeßab­ laufes in einer zentralen Verarbeitungseinheit im System von Fig. 13;
Fig. 18 die grundlegenden Schritte von Greifvorgängen für gestapelte oder aufeinandergehäufte Teile unter­ schiedlichster Formgebung;
Fig. 19A und 19B Darstellungen zur Beschreibung der Schritte und der nötigen Zeiten für den Fall des Ergreifens eines Teiles aus einer Mehrzahl von aufeinanderge­ häuften Teilen;
Fig. 20A bis 20C Darstellungen zur Beschreibung anderer La­ gekorrekturverfahren von einem Teil, welches von aufeinandergestapelten Teilen weg ergriffen wird;
Fig. 21 ein Blockdiagramm zur Darstellung des Aufbaues eines wesentlichen Teiles eines Hochgeschwindigkeits- Greifsystems gemäß einer vierten Ausführungsform der vorliegenden Erfindung;
Fig. 22 und 23 Flußdiagramme zur Veranschaulichung eines Prozeßablaufes, der in einer zentralen Verarbei­ tungseinheit in dem System von Fig. 21 erfolgt;
Fig. 24 eine Draufsicht auf ein Werkstück oder einen Gegen­ stand mit einer aufgedruckten Markierung darauf; und
Fig. 25 Darstellungen von Anordnungen von Gegenständen, wel­ che das Ergreifen ermöglichen bzw. nicht ermögli­ chen.
Unter Bezug auf die Fig. 1 und 2 erfolgt nachfolgend eine Beschreibung einer ersten Ausführungsform der vorliegenden Erfindung. Gemäß Fig. 1 umfaßt das erfindungsgemäße Hochge­ schwindigkeits-Greifsystem 100 im wesentlichen eine Bildein­ gabekamera 10, eine Objekterkennungsvorrichtung 20, einen Greifroboter 30 mit einer Hand 40, welche an ihrem Endab­ schnitt einen Finger aufweist, mit dem ein Gegenstand oder Werkstück W greifbar ist und Austauschhänden 41, 42 und 43. Die Austauschhände 41 bis 43 sind bei Bedarf an dem Greifro­ boter 30 abhängig von bestimmten Abschnitten der Werkstücke W anordenbar. Beispielsweise dient die am Greifroboter 30 von Fig. 1 angeordnete Hand 40 dazu, ein Werkstück W an ei­ nem bestimmten Abschnitt einfacher Formgebung, beispiels­ weise an einem kreisförmigen Loch in dem Werkstück W zu er­ greifen, die Hand 41 ist zum Halten eines Werkstückes W an deren äußerer Form, die Hand 42 ist zum Halten eines Werk­ stückes W dadurch, daß in eine Bohrung des Werkstückes W eingegriffen und verhakt wird und die Hand 43 ist zum Halten eines Werkstückes W durch Ansaugen an einem flachen Ab­ schnitt des Werkstückes W. Auf einem Arbeitstisch ist ein Behälter T angeordnet, in welchem sich eine Mehrzahl der Werkstücke W in einem übereinandergestapelten oder aufge­ häuften Zustand befindet.
Gemäß Fig. 2 ist die Bildeingabekamera 10 oberhalb des Be­ hälters T mit den Werkstücken oder Teilen W darin angeordnet und weiterhin ist eine Beleuchtungsvorrichtung L vorgesehen, mit der die Werkstücke W gleichmäßig aus einer Position oberhalb der Mitte des Behälters T beleuchtbar sind. Die Ob­ jekterkennungsvorrichtung 20 umfaßt eine zentrale Verarbei­ tungseinheit (CPU) 21 zur Durchführung von Datenverarbei­ tungsabläufen wie beispielsweise Vergleichen und Entscheiden und eine Bildverarbeitungseinheit 22 zur Durchführung von Datenverarbeitungsvorgängen wie beispielsweise Verarbeiten eines Videosignales von der Bildeingabekamera 10, um die Grenzlinie eines zu erkennenden Gegenstandes zu detektieren, um Liniensegmente zu extrahieren, welche die Grenzlinie bil­ den oder um kombinierte Rand- oder Kantenbilder zu erhalten. Weiterhin befindet sich in der Bilderkennungsvorrichtung 20 eine Speichereinheit 23, in der Daten eines Vergleichsmodel­ les und Daten bezüglich der Werkstücke gespeichert sind, so­ wie eine Beleuchtungssteuereinheit 24.
Die Bildverarbeitungseinheit 22 umfaßt einen Bildeingabeab­ schnitt 221 zum Einlesen eines Videosignales von der Kamera 10, um Grauskalen-Pegel zu digitalisieren zur Erzeugung von Grauskalen-Bilddaten, einen Kanten-Erkennungsabschnitt 222 zum Erhalten eines Helligkeitsgradienten von den Grauskalen- Bilddaten mittels einer Differentialberechnung, um Kanten- Bilddaten zu erzeugen, welche die Kanten eines Objektbildes anzeigen und einen Segment-Extraktionsabschnitt 223 zum Auf­ finden der Grenzlinie auf der Grundlage der Kanten-Bildda­ ten, um die bildenden Liniensegmente der Grenzlinie zu ex­ trahieren, um Daten zu erzeugen, welche die Lagen der bil­ denden Liniensegmente anzeigen. Die Speichereinheit 23 weist weiterhin ein RAM und andere Speichervorrichtungen auf mit einem Vergleichsmodell-Speicherbereich 231, der als Ver­ gleichsmodell-Speichereinrichtung dient, in welcher eine Mehrzahl von Vergleichsmodellen vorab auf der Grundlage von Daten abgespeichert ist, welche eine bestimmte Formgebung spezifizieren. Weiterhin weist die Speichereinheit 23 einen Handinformations-Speicherbereich 232 auf, der als Handinfor­ mations-Speichereinrichtung dient, in der eine Mehrzahl von Handinformationen gespeichert ist, um es zu ermöglichen, daß die Mehrzahl von bestimmten Abschnitten an den Werkstücken ergriffen werden können und einen Erkennungsergebnis- Speicherbereich 233 zur Speicherung der Vergleichsergebnisse des Liniensegmentbildes entsprechend einer Anzahl von Werk­ stücken innerhalb des Behälters T.
Unter Bezug auf das Flußdiagramm von Fig. 3 erfolgt nachfol­ gend eine Beschreibung des Prozeßablaufes in der Objekt-Er­ kennungsvorrichtung 20 nach der Eingabe des Videosignales einer Anzahl von Werkstücken W von der Bildeingabekamera 10 und der Extraktion der bildenden Liniensegmente. Hier wird für den Fall, daß Kammlinien eines parallelen geraden Zap­ fens vorliegen, der als Zustand 1 in Fig. 4 durch die Strichlierung hervorgehoben ist, dieser spezielle Bereich anhand eines Vergleichsmodells (1) überprüft, wobei das Ver­ gleichsmodell sich ausdrücken läßt als "Liniensegmente par­ allel zueinander und in gleicher Länge". In dem Fall, daß die Kammlinien eines parallelen Zapfens oder Bolzens so vor­ liegen, wie sie in Fig. 4 als Zustand 2 durch die Strichlie­ rung hervorgehoben sind, wird dieser spezielle Bereich oder Abschnitt des Werkstückes anhand eines Vergleichsmodells (2) überprüft, welches sich ausdrücken läßt als "Liniensegmente parallel zueinander aber in unterschiedlicher Länge". In dem Fall, daß ein kreisförmiges Loch vorliegt, welches in Fig. 4 als Zustand 3 durch die Strichlierung hervorgehoben ist, wird dieser spezielle Bereich anhand eines Vergleichsmodells (3) überprüft, welches sich als "Kreis" ausdrücken läßt.
Zunächst wird die Beleuchtungsvorrichtung L durch die Be­ leuchtungssteuereinheit 24 eingeschaltet und das von der Bildeingabekamera 10 stammende Videosignal wird in den Bild­ eingabeabschnitt 221 der Bildverarbeitungseinheit 22 einge­ geben. Der Bildeingabeabschnitt 221 tastet das Videosignal ab und setzt es in ein digitales Signal um, um ein Grauska­ labild zu erzeugen. Die Grauskala-Bilddaten werden dem Kan­ ten-Erkennungsabschnitt 222 eingegeben, dort differenziert und ein Kantenbild erzeugt. Diese Kantenbild-Daten werden dem Segment-Extraktionsabschnitt 223 eingegeben, um die Grenzlinie des Objektes durch Auffinden der Kammlinien zu extrahieren. Die Grenzlinie wird weiterhin durch eine ab­ geknickte Linie, einen Kreis oder dergleichen angenähert, um ein Liniensegment-Bild zu erhalten.
Gemäß Fig. 3 wird in einem Schritt 100 von der CPU 21 das Liniensegment-Bild von der Bildverarbeitungseinheit 22 ein­ gegeben. In einem Schritt 102 wird eine serielle Linienseg­ ment-Gruppe von dem eingegebenen Liniensegment-Bild extra­ hiert und es erfolgt eine Suche anhand des Vergleichsmodells (1) nach dem speziellen Abschnitt oder Bereich des Werk­ stückes W "Liniensegments parallel (Abstand m1) und gleiche Länge (ℓ1)". Hier erfolgt beispielsweise die Suche anhand einer Mehrzahl von Vergleichsmodellen in der Reihenfolge ei­ ner abnehmenden Häufigkeitsrate von Zuständen innerhalb des Behälters T gemäß Fig. 4. Wenn weiterhin die Greiferfolg- Wahrscheinlichkeit von jedem Lagezustand vorab bekannt ist, kann es auch vorteilhaft sein, die Suche anhand der Ver­ gleichsmodelle in der Reihenfolge einer abnehmenden Greifer­ folgs-Wahrscheinlichkeit durchzuführen.
Nachfolgend wird ein Schritt 104 durchgeführt, wo überprüft wird, ob das Zielwerkstück W durch die Suche anhand des Ver­ gleichsmodells (1) gefunden worden ist. Wenn die Antwort im Schritt 104 bejahend ist, folgt ein Schritt 106, wo Informa­ tionen hinsichtlich der Position (Koordinatenlage mit Rich­ tung) des speziellen Abschnittes des Werkstückes W gesucht mit dem Vergleichsmodell (1) und der Hand (Handnummer), wel­ che in der Lage ist, diesen speziellen Bereich zu halten dem Greifroboter 30 zugeführt werden. Wenn die Antwort im Schritt 104 negativ ist, folgt ein Schritt 108, um eine se­ rielle Liniensegment-Gruppe von dem eingegebenen Linienseg­ ment-Bild zu extrahieren, um eine Suche auf der Grundlage des Vergleichsmodells (2) durchzuführen entsprechend dem speziellen oder bestimmten Abschnitt des Werkstückes W "Li­ niensegmente parallel (Distanz m2) mit unterschiedlichen Längen (ℓ2, ℓ3)".
Nach dem Schritt 108 wird ein Schritt 110 durchgeführt, wo überprüft wird, ob das Zielwerkstück W durch die Suche an­ hand des Vergleichsmodells (2) gefunden worden ist. Wenn die Antwort im Schritt 110 bejahend ist, wird ein Schritt 112 zugeführt, wo Informationen hinsichtlich der Position des speziellen Abschnittes des Werkstückes W gesucht durch das Vergleichsmodell (2) und der Hand, die in der Läge ist, die­ sen speziellen Abschnitt zu greifen dem Greifroboter 30 zu­ geführt werden. Wenn andererseits die Antwort im Schritt 110 negativ ist, folgt ein Schritt 114, um eine serielle Linien­ segment-Gruppe von dem eingegebenen Liniensegment-Bild zu extrahieren, um eine Suche auf der Grundlage des Vergleichs­ modells (3) durchzuführen, welches dem speziellen Abschnitt des Werkstückes W "Kreis (c)" entspricht.
Obgleich hier die Vergleichsmodelle (1), (2) und (3) in den oben erwähnten Schritten 102, 108 und 114 auf der Grundlage von Daten vorabbestimmt sind, welche die Konfigurationen spezifizieren, wenn die speziellen Abschnitte oder Bereiche des Werkstückes W die Grundposition einnehmen, kann der Übereinstimmungsbereich beim Vergleich vergrößert werden durch Verwendung des Grenzwinkels bei dem das Werkstück W noch gegriffen und gehalten werden kann, wenn das Werkstück W einen geneigten oder verkippten Zustand einnimmt.
Nachfolgend wird ein Schritt 116 durchgeführt, wo überprüft wird, ob das Zielwerkstück W durch die Suche anhand des Ver­ gleichsmodells (3) gefunden worden ist. Wenn die Antwort im Schritt 116 bejahend ist, folgt ein Schritt 118, wo Informa­ tionen hinsichtlich der Position des speziellen Abschnittes des Werkstückes W gesucht durch das Vergleichsmodell (3) und der Hand, die in der Lage ist, diesen speziellen Abschnitt zu greifen dem Greifroboter 30 zugeführt werden. Wenn ande­ rerseits die Antwort im Schritt 116 negativ ist, folgt ein Schritt 120, in dem ein Anregungsbefehl ausgegeben wird, der eine entsprechende Vorrichtung ansteuert, mit der der Behälter T gerüttelt oder geschüttelt wird, um die Lagezustände der Werkstücke W zum Zeitpunkt des nächsten Eingebens des Liniensegmentbildes zu ändern, um die Wahrscheinlichkeit zu erhöhen, daß die Suche durch die Vergleichsmodelle möglich bzw. erfolgreich wird.
Danach folgt ein Schritt 122, wo die Anzahl der Anregungen gezählt wird. Dieser Zählzustand wird anfangs auf 0 gesetzt und immer dann erhöht, wenn die Suche anhand der gesamten Vergleichsmodelle ohne Erfolg endet. In einem Schritt 124 wird überprüft, ob der Zählzustand C ≧ 3 ist. Dies bedeutet, daß in dem Fall, in dem die Zustände oder Lagen der Werk­ stücke W ungeachtet von drei Rüttel- oder Schüttelvorgängen sich nicht ändern, so daß drei Suchvorgänge mit allen Ver­ gleichsmodellen ohne Erfolg enden, entschieden wird, daß die Werkstücke W innerhalb des Behälters T nicht mehr vorhanden sind oder die vorhandenen Lagezustände der verbleibenden Werkstücke W so schlecht sind, daß sie für eine weitere Su­ che nicht geeignet sind. Hierdurch wird das Programm been­ det.
Die Schritte 102, 108 und 114 sind hierbei als Erkennungs­ vorrichtungen für einen speziellen Abschnitt, die Schritte 104, 110 und 116 als Bestimmungsvorrichtungen für eine Posi­ tion und die Schritte 106, 112 und 118 als Befehlsvorrich­ tungen zu verstehen.
Durch Durchführung des oben beschriebenen Programmablaufes wird ein Teil, der anhand einer Mehrzahl von Vergleichsmo­ dellen erkannt worden ist, welche in Übereinstimmung mit ei­ ner Mehrzahl von speziellen Abschnitten dieses Teiles gebil­ det sind durch den Greifroboter 30 mit einer der Hände 40 bis 43 ergriffen. Somit können die Greifvorgänge, welche durch die Mehrzahl von Händen entsprechend der Mehrzahl von Abschnitten des Teiles bewirkt werden, die Greiferfolgs- Wahrscheinlichkeit extrem verbessern. Obgleich in der oben beschriebenen Ausführungsform die Hände des Greifroboters den Vergleichsmodellen zur Suche des speziellen Abschnittes des Teiles eins zu eins entsprechen ist es nicht immer not­ wendig, eine Mehrzahl von Händen bereitzuhalten. Wenn bei­ spielsweise die Teile durch die gleiche Hand ergriffen wer­ den können, selbst wenn die speziellen Abschnitte oder Be­ reiche der Teile sich voneinander unterscheiden, beispiels­ weise dann, wenn die speziellen Abschnitte flach ausgebildet sind und sich nur in ihrer Breite unterscheiden ist es nicht nötig, eine Mehrzahl von Händen bereitzustellen. Obgleich weiterhin in der oben beschriebenen Ausführungsform ein Kreis oder ein paralleler Abschnitt als die Mehrzahl von speziellen Abschnitten des Werkstückes oder Teiles ausge­ wählt worden ist, ist es genausogut möglich, ein Langloch, eine gerade Linie, einen Bogen, eine Kante oder andere Ab­ schnitte oder Bereiche als die jeweiligen speziellen Ab­ schnitte auszuwählen. Zusätzlich ist es möglich oder vor­ teilhaft, eine Stanzmarke, eine aufgedruckte Markierung oder dergleichen als speziellen Abschnitt auszuwählen. In diesem Fall kann ein Abschnitt der äußeren Formgebung als Halteab­ schnitt oder Halteposition ausgewählt werden.
Fig. 5 zeigt die grundlegenden Schritte für den Hochge­ schwindigkeits-Greifvorgang von übereinandergestapelten oder aufgeschütteten Teilen mit einer Anzahl von unterschiedli­ chen Formgebungen.
Obgleich weiterhin in der oben beschriebenen Ausführungsform der Greifvorgang auf der Annahme durchgeführt wird, daß ein Teil einige spezielle zu haltende Abschnitte hat, ist das System auch in dem Fall anwendbar, in dem unterschiedliche Arten von Teilen gemischt innerhalb des Behälters vorliegen. In diesem Fall ist es möglich, wenn der spezielle Abschnitt eines jeden Teiles eingegrenzt und erkannt worden ist, die Teile durch Hände sicher zu halten, welche für die jeweili­ gen speziellen Bereiche oder Abschnitte geeignet sind. Obgleich weiterhin die zu haltenden Gegenstände bei der be­ schriebenen Ausführungsform übereinandergestapelte oder auf­ geschüttete Gegenstände sind, ist die vorliegende Erfindung auch anwendbar bei einem Teil, welches frei auf einer Ebene liegt, bei unterschiedlichen Teilen, die ineinandergeschüt­ tet sind und bei Teilen, welche getrennt innerhalb eines Be­ hälters angeordnet sind, der in einzelne Fächer oder Ab­ schnitte unterteilt ist.
Wie beschrieben speichert bei der vorliegenden Erfindung das Hochgeschwindigkeits-Greifsystem eine Mehrzahl von Ver­ gleichsmodellen, welche vorherbestimmt sind auf der Grund­ lage von Daten, welche die Formgebungen spezifizieren, wenn eine Mehrzahl von speziellen Abschnitten einfache Formgebung haben, um es Halteteilen zu erlauben, die speziellen Ab­ schnitte zu greifen und speichert weiterhin Informationen für eine Mehrzahl von Händen eines Roboters, der die Mehr­ zahl von speziellen Abschnitten halten kann, so daß ein Ab­ schnitt eines zweidimensionalen Bildes mit der Mehrzahl von Vergleichsmodellen verglichen wird und erkannt wird als ei­ ner aus der Mehrzahl von speziellen Abschnitten, um die Lage oder Position des erkannten oder detektierten speziellen Ab­ schnittes zu bestimmen und eine aus der Mehrzahl von Händen auszuwählen und bezüglich der bestimmten Position des spe­ ziellen Abschnittes anzuordnen, um diesen speziellen Ab­ schnitt zu greifen. Wenn somit wenigstens einer aus der Mehrzahl von speziellen Abschnitten des Teiles W mit den Vergleichsmodellen verglichen und erkannt wird, kann die Hand des Roboters, die zum Halten des speziellen Abschnittes geeignet ist ausgewählt werden und gegenüber dem erkannten speziellen Bereich angeordnet werden, um das Teil zu ergrei­ fen. Der Vergleich mit den Vergleichsmodellen entsprechend der Mehrzahl von speziellen Abschnitten des Teiles kann die Wahrscheinlichkeit verbessern, daß die speziellen Abschnitte erkannt werden. Da weiterhin Greifinformationen, wie die Po­ sition entsprechend dem erkannten speziellen Abschnitt des Teiles und die auszuwählende Hand dem Roboter zugeführt wer­ den, ist es möglich, die Greiferfolgs-Wahrscheinlichkeit des Teiles erheblich zu verbessern.
Eine zweite Ausführungsform der vorliegenden Erfindung wird nachfolgend unter Bezug auf die Fig. 7 und 6 beschrieben. Fig. 6 zeigt die gesamte Anordnung der zweiten Ausführungs­ form eines erfindungsgemäßen Hochgeschwindigkeits-Greifsy­ stemes und Fig. 7 zeigt die Anordnung eines wesentlichen Ab­ schnittes des Systems von Fig. 6, wobei Teile entsprechend Teilen von Fig. 1 und 2 mit gleichen Bezugszeichen versehen sind und eine nochmalige Beschreibung hiervon nicht erfolgt. In den Fig. 6 und 7 umfaßt das Hochgeschwindigkeits- Greifsystem 100 im wesentlichen die Bildeingabekamera 10, die Objekterkennungsvorrichtung 20 und den Greifroboter 30. Die Objekterkennungsvorrichtung 20 umfaßt die zentrale Ver­ arbeitungseinheit (CPU) 21, die Bildverarbeitungseinheit 22, die Speichereinheit 23 und die Beleuchtungssteuereinheit 24. Die Bildverarbeitungseinheit 22 umfaßt den Bildeingabeab­ schnitt 221, den Kanten-Erkennungsabschnitt 222 und den Seg­ ment-Extraktionsabschnitt 223. Die Speichereinheit 23 ist aus RAMs oder dergleichen aufgebaut und beinhaltet wenig­ stens den einen Vergleichsmodell-Speicherbereich 231, der als Vergleichsmodell-Speichereinrichtung dient und ein Ver­ gleichsmodell beinhaltet, welches vorab auf der Basis von Daten festgesetzt wird, welche die Formgebung spezifizieren, wenn ein spezieller Abschnitt des Werkstückes W die Grund­ stellung einnimmt. Die Speichereinheit 23 umfaßt weiterhin einen Vergleichsgrenzwert-Speicherbereich 234, der als Ver­ gleichsgrenzwert-Speichereinrichtung dient und einen Ver­ gleichsgrenzwert beinhaltet, der den Nichtübereinstimmungs- Erlaubnisbereich zwischen dem speziellen Abschnitt und dem Vergleichsmodell anzeigt, sowie den Erkennungsergebnis- Speicherbereich 233, der das Vergleichsergebnis eines Lini­ ensegmentbildes entsprechend einer Anzahl von aufeinanderge­ stapelten Werkstücken W innerhalb des Behälters T speichert.
Bei dieser zweiten Ausführungsform werden das Vergleichsmo­ dell und der Vergleichsgrenzwert (Schwellenwert) gespei­ chert, wobei das Vergleichsmodell vorab auf der Grundlage von Daten festgesetzt wird, die eine Formgebung spezifizie­ ren, wenn ein einfach geformter spezieller Abschnitt oder Bereich des Werkstückes oder Teiles die Grundposition oder Grundlage einnimmt und der Vergleichsgrenzwert zeigt einen erlaubten Nichtübereinstimmungsbereich zwischen dem speziel­ len Abschnitt und dem Vergleichsmodell an. Weiterhin wird ein Abschnitt, der innerhalb des durch den Vergleichsgrenz­ wert bestimmten Nichtübereinstimmungsbereich liegt und der von dem zweidimensionalen Bild erkannt wird unter Vergleich mit dem Vergleichsmodell als spezieller Abschnitt detektiert und die Lage dieses detektierten speziellen Abschnittes wird bestimmt und eine Befehlsfolge wird dem Roboter 30 übermit­ telt, so daß die Hand an der Position angeordnet wird, an der der spezielle Abschnitt ergriffen werden kann.
Unter Bezug auf das Flußdiagramm von Fig. 8 erfolgt nun eine Beschreibung des Prozeßablaufes in der Objekterkennungsvor­ richtung 20 der zweiten Ausführungsform nach der Eingabe des Videosignales einer Anzahl von aufeinandergestapelten oder übereinandergeschütteten Werkstücken W von der Bildeinga­ bekamera 10 und der Extraktion der bildenden Liniensegmente für den Fall, für den beispielsweise ein Kreis als speziel­ ler Abschnitt aus den unterschiedlichen bildenden Linienseg­ menten ausgewählt wird und mit einem Vergleichsmodell "Kreis" verglichen wird.
Zuerst wird die Beleuchtungsvorrichtung L von der Beleuch­ tungssteuereinheit 24 eingeschaltet und das Videosignal von der Bildeingabekamera 10 wird dem Bildeingabeabschnitt 221 in der Bildverarbeitungseinheit 22 eingegeben. Der Bildein­ gabeabschnitt 221 tastet das Videosignal ab und setzt es in ein digitales Signal um, um ein Grauskalenbild zu erzeugen. Die Grauskalen-Bilddaten werden dem Kanten-Erkennungsabschnitt 222 eingegeben um dort differenziert zu werden, um ein Kantenbild zu erzeugen. Diese Kantenbilddaten werden dem Segment-Extraktionsabschnitt 223 eingegeben, um die Grenzli­ nie des Objektes oder Gegenstandes durch Suchen der Kammli­ nien zu extrahieren. Die Grenzlinie wird weiterhin durch eine geknickte Linie, einen Kreis oder dergleichen angenä­ hert, um ein Liniensegmentbild zu erhalten.
In einem Schritt 200 gibt die CPU 21 das Liniensegmentbild von der Bildverarbeitungseinheit 22 ein. In einem Schritt 202 wird eine serielle Liniensegmentgruppe des eingegebenen Liniensegmentbildes in einem Speicherbereich A der CPU 21 gespeichert. Dann wird ein Schritt 204 durchgeführt, wo überprüft wird, ob der Speicherbereich A leer ist, d. h., ob die serielle Liniensegment-Gruppe, welche das Vergleichsob­ jekt ist, innerhalb des Speicherbereiches A verbleibt. Bei dem ersten Ablaufzyklus ist der Speicherbereich A in dem Fall nicht leer, in dem die serielle Liniensegment-Gruppe erfolgreich von dem eingegebenen Liniensegment-Bild extra­ hiert wurde und das Programm geht zu einem Schritt 206. In dem Schritt 206 werden n Sätze von zwei Segmenten aus der seriellen Liniensegment-Gruppe innerhalb des Speicherberei­ ches A ausgewählt, um die Schnitte Gi (i = 1, 2, . . ., n) der vertikalen halbierenden Schnittlinien hiervon zu berechnen. Die Fig. 9A und 9B zeigen Rechenverfahren für die Mittel­ punkte eines Kreises und einer Ellipse. Wie in Fig. 9A dar­ gestellt, sind, wenn die serielle Liniensegment-Gruppe nahe an einem Kreis ist, die Koordinaten der Schnittpunkte der vertikalen halbierenden Schnittlinien der n Sätze von zwei Liniensegmenten (ℓ1 und ℓ2, ℓ3 und ℓ4, ℓ5 und ℓ6, . . .) im wesentlichen zusammenfallend und gleich G0. Wenn anderer­ seits die serielle Liniensegment-Gruppe eine Ellipse bildet, wie in Fig. 9B dargestellt, fallen die Koordinaten der Schnittpunkte der vertikalen halbierenden Schnittlinien der n Sätze von zwei Liniensegmenten (ℓ1 und ℓ2, ℓ3 und ℓ4, ℓ5 und ℓ6, . . .) nicht zusammen und bilden G1, G2, G3, . . ., Gn.
Gemäß Fig. 8 wird dann ein Schritt 208 durchgeführt, wo überprüft wird, ob alle maximalen Distanzwerte zwischen be­ liebigen zwei Schnittpunkten Gi (i = 1, 2, . . ., n) aus dem Schritt 206 in einem bestimmten Toleranzbereich (zulässigen Bereich) δ1 liegen, der ein erster Vergleichsgrenzwert für das Vergleichsmodell ist. Genauer gesagt, die serielle Lini­ ensegment-Gruppe wird im wesentlichen daraufhin überprüft, ob sie einen Kreis bildet. Im Falle von Fig. 9B ist der oben erwähnte Toleranzbereich δ1 der innere Bereich (gestrichelte Bereich) eines Kreises, der durch eine gestrichelte Linie angedeutet ist und stellt die Vergleichsgrenzwerte dar, wel­ che den Vergleich relativ zu dem Vergleichsmodell in dem Fall erlauben, daß ein kreisförmiges Loch innerhalb eines bestimmten Bereiches des Werkstückes W zur Horizontalen ge­ neigt ist und eine Ellipse bildet. Wenn im Schritt 208 alle Schnittpunkte Gi (i = 1, 2, . . ., n) innerhalb der Toleranz δ1 liegen, folgt ein Schritt 210, wo der Durchschnittswert (G1, G2, . . ., Gn)/n der Schnittpunkte Gi (i = 1, 2, . . ., n) berech­ net wird, um die Mittenkoordinate Gm zu erhalten.
Danach wird ein Schritt 212 durchgeführt, wo der Mittelwert der Distanzen zwischen der Mittenkoordinate Gm aus dem Schritt 210 und den entsprechenden Liniensegmenten ausge­ wählt im Schritt 206 berechnet wird, um einen Radius rm zu erhalten. Es folgt ein Schritt 214, wo überprüft wird, ob die Abweichung |rm - ro| relativ zu dem Radius ro des Krei­ ses des Vergleichsmodelles gespeichert in dem Vergleichsmo­ dell-Speicherbereich 231 der Speichereinheit 23 innerhalb einer bestimmten Toleranz δ2 liegt.
Fig. 10 zeigt die Lagen von Werkstücken W wo eine Entschei­ dung gemacht wird, ob das Greifen möglich ist oder nicht. Genauer, wenn der Werkstückneigungswinkel θ2 ist, wie in (b) von Fig. 10 dargestellt, kann des Werkstück W durch die Hand 40 des Roboters 30 nicht ergriffen werden. Wenn andererseits der Werkstückneigungswinkel kleiner als θ1 ist, wie in (a) von Fig. 10 dargestellt ist, kann das Werkstück W ergriffen werden. Dieser Werkstückneigungswinkel θ1 wird als Grenzwert für den speziellen Abschnitt des Werkstückes W gesetzt. Ein zweiter Vergleichsgrenzwert des Vergleichsmodelles basierend auf dem Neigungsgrenzwert θ1 innerhalb dem das Halten bzw. Greifen des speziellen Abschnittes, d. h. des kreisförmigen Loches im Werkstück W möglich ist, ist die Toleranz δ2. Wird ein Sicherheitsfaktor mit berücksichtigt wird der Grenzwert θ1 auf einen Winkel festgesetzt, der etwas kleiner ist als der Werkstückneigungswinkel θ, bei dem die Greiferfolgs- Wahrscheinlichkeit 100% beträgt. Wie in Fig. 11 dargestellt, kann die Greiferfolgs-Wahrscheinlichkeit des speziellen Ab­ schnittes des Werkstückes bezüglich des Werkstückneigungs­ winkels θ experimentell ermittelt werden. Wie aus Fig. 11 hervorgeht, wächst die Anzahl der erkannten Werkstücke W, wenn der Werkstückneigungswinkel θ auf ungefähr 50° an­ wächst. Wenn andererseits der Werkstückneigungswinkel θ 35° übersteigt, nimmt die Greiferfolgs-Wahrscheinlichkeit all­ mählich von 100% ab. Dies bedeutet, daß gegenüber einem her­ kömmlichen Werkstück-Greifbereich, der ein kleiner Bereich mit dem Werkstückneigungswinkel θ von unterhalb 10° ist, so daß der bestimmte Bereich im wesentlichen als Kreis erkannt wird, es bei der vorliegenden Erfindung möglich ist, den Ob­ jektgreifbereich auf ungefähr 35° zu erhöhen, wo eine El­ lipse noch als Kreis erkannt wird.
Zurück zu Fig. 8. Wenn im Schritt 214 die Bedingung |rm - ro| < δ2 erfüllt ist, folgt ein Schritt 216, um die im Schritt 210 erhaltene Zentralkoordinate Gm dem Greifroboter 30 zu übertragen, da entschieden wurde, daß ein Vergleichserfolg vorliegt, wonach das Programm beendet wird. Wenn anderer­ seits die Entscheidung im Schritt 208 oder 214 "nein" ist, folgt ein Schritt 218, um die Liniensegmentdaten aus dem Speicherbereich A zu löschen, wonach zum Schritt 204 zurück­ gekehrt wird, um einen ähnlichen Prozeß durchzuführen. Wenn weiterhin im Schritt 204 entschieden wird, daß die serielle Liniensegment-Gruppe weg ist, so daß der Speicherbereich A leer wird, wird das Programm beendet. In diesem Programm wirken die Schritte 206 und 208 als Detektionsvorrichtungen für den speziellen Bereich, die Schritte 210 bis 214 wirken als Lagebestimmungsvorrichtungen und der Schritt 216 wirkt als Befehlsvorrichtung.
Durch Ablaufenlassen des oben beschriebenen Programmes wird ein Werkstück W von der Hand 40 des Roboters 30 auf der Grundlage der Zentralkoordinate Gm ergriffen, welche anfangs übereinstimmend mit dem speziellen Bereich oder Abschnitt des Werkstückes erkannt wurde. Hierbei ist es ebenfalls vor­ teilhaft, daß - als unterschiedliche Greifmethode - die Mit­ tenkoordinate Gm des speziellen Bereiches unter Heranziehung der kleinsten Neigungslage, die geeignet ist für den Greif­ vorgang aus einer Mehrzahl von speziellen Bereichen aus dem gesamten zweidimensionalen, von der Kamera 10 eingegebenen Bild berechnet und dem Roboter übertragen wird. Selbst wenn eine lange Zeit nötig ist zur Erkennung des speziellen Be­ reiches ist es in diesem Fall möglich, die Greiferfolgs- Wahrscheinlichkeit weiter zu verbessern.
Die Fig. 12A und 12B zeigen die Bestätigungsergebnisse der Zykluszeiten bei der Erkennung eines Kreises bzw. einer El­ lipse. Fig. 12A zeigt die nötige Zeit in Sekunden pro jeder Kreiserkennung und Fig. 12B zeigt die nötige Zeit in Sekun­ den für die Ellipsenerkennung. Da das Hochgeschwindigkeits- Greifsystem gemäß dieser Ausführungsform die Ellipsenerken­ nung durchführt, die es erlaubt, eine Ellipse als Kreis zu erkennen, kann die für den Greifvorgang nötige Zeit auf 2,2 bis 3,8 Sekunden (3 Sekunden im Durchschnitt) reduziert wer­ den gegenüber einer herkömmlichen Kreiserkennung, welche 2,7 bis 9 Sekunden (4,8 Sekunden im Durchschnitt) benötigt. Wie weiterhin aus den zeichnerischen Darstellungen hervorgeht, ist es möglich, Variationen der nötigen Zeit erheblich zu verringern.
Obgleich in der obigen Ausführungsform Teile mit Löchern, deren Formgebung kreisförmig sind ergriffen werden, ist es gleichermaßen möglich, unterschiedliche Teile zu ergreifen, beispielsweise Teile mit parallelen Abschnitten und Teile mit Bolzen oder Zapfen durch einen ähnlichen Ablauf, wo ein­ fach geformte Abschnitte eingegrenzt und als spezielle Ab­ schnitte oder Bereiche erkannt werden. Obgleich das zu er­ greifende Teil in der beschriebenen Ausführungsform mit an­ deren Teilen im Stapel oder als Schüttgut beschrieben wur­ den, ist diese Ausführungsform gleichermaßen geeignet, ein Teil zu greifen, welches frei auf einer Ebene liegt, oder unterschiedliche gemischte Teile oder Teile zu greifen, wel­ che voneinander getrennt in einem Behälter mit Trennwänden angeordnet sind.
Unter Bezug auf die Fig. 13 und 14 erfolgt nachfolgend eine Beschreibung eines Hochgeschwindigkeits-Greifsystems gemäß einer dritten Ausführungsform der vorliegenden Erfin­ dung. Fig. 13 zeigt den gesamten Aufbau und Fig. 14 zeigt den Aufbau eines wesentlichen Teiles des Systems, wobei Teile, welche Teilen in den Fig. 6 und 7 entsprechen, mit den gleichen Bezugszeichen versehen sind und eine nochmalige Beschreibung nicht erfolgt. In Fig. 13 und 14 ist zusätzlich zu der Bildeingabekamera 10 zur Aufnahme eines Bildes von aufeinandergestapelten Werkstücken W innerhalb des Behälters T von der Oberseite des Werkstückstapels her eine weitere Bildeingabekamera 11 vorgesehen, welche ein Bild eines ein­ zelnen Werkstückes W aufnimmt, das von der Hand 40 des Robo­ ters 30 ergriffen worden ist, wobei die Unterseite des er­ griffenen Werkstückes W betrachtet wird. Wenn hierbei die Bildeingabekamera 10 zusätzlich so ausgelegt werden kann, daß sie ein Bild des Werkstückes W aufnimmt, wenn dieses von der Hand 40 des Roboters 30 (Taktzeit) ergriffen worden ist, ist es möglich auch nur eine Bildeingabekamera zu verwenden. Die Beleuchtungsvorrichtung L ist so angeordnet, daß sie die Werkstücke W gleichmäßig beleuchtet, wobei die Beleuchtung so ist, daß auch das einzelne Werkstück W gleichmäßig be­ leuchtet wird, wenn dieses von der Bildeingabekamera L abge­ tastet wird.
Die Objekterkennungsvorrichtung 20 weist die CPU 21, die Bildverarbeitungseinheit 22, die Speichereinheit 23 und Be­ leuchtungssteuereinheit 24 auf. Die Bildverarbeitungseinheit 22 umfaßt den Bildeingabeabschnitt 221, den Kanten-Erken­ nungsabschnitt 222 und den Segment-Extraktionsabschnitt 223. Die Speichereinheit 23 ist mit RAMs oder dergleichen aufge­ baut und umfaßt wenigstens den Vergleichsmodell-Speicherbe­ reich 231, der als Vergleichsmodell-Speichereinrichtung wirkt, um ein Vergleichsmodell zu speichern, welches vorab auf der Basis von Daten festgesetzt worden ist, welche die Formgebung spezifizieren, wenn ein spezieller Bereich oder Abschnitt eines Werkstückes W die Grundlage einnimmt. Die Speichereinheit 23 umfaßt weiterhin einen Lagevergleichsmo­ dell-Speicherbereich 235, der als Lagevergleichsmodell-Spei­ chereinrichtung dient, um ein Lagevergleichsmodell zu spei­ chern, welches vorab auf der Grundlage von Daten festgesetzt worden ist, welche die Formgebung spezifizieren, wenn das Werkstück W eine bestimmte Lage einnimmt. Weiterhin vorgese­ hen ist der Erkennungsergebnis-Speicherbereich 233, der das Vergleichsergebnis eines Liniensegment-Bildes entsprechend einer Anzahl von aufeinandergestapelten Werkstücken W inner­ halb des Behälters T speichert. Unter Bezug auf die Flußdia­ gramme der Fig. 15 und 17, welche den Verarbeitungsablauf der Objekterkennungsvorrichtungen 20 zeigen und des Flußdia­ grammes von Fig. 16, welches einen Prozeßablauf einer Steuereinheit auf seiten des Roboters 30 zeigt, wird nach­ folgend die Arbeitsweise dieses Systems beschrieben. Die Be­ schreibung erfolgt hierbei anhand des Falles, daß ein Kreis als spezieller Abschnitt oder Bereich aus verschiedenen bil­ denden Liniensegmenten ausgewählt wird und mit einem Ver­ gleichsmodell "Kreis" verglichen wird nach dem Eingeben des Videosignales einer Anzahl von aufeinanderliegenden Werkstücken W von der Bildeingabekamera 10 und der Extraktion von bildenden Liniensegmenten und weiterhin unter der An­ nahme des Falles, daß ein Videosignal eines einzelnen Werk­ stückes W, welches von der Hand 40 des Roboters 30 gehalten wird von der Bildeingabekamera 11 eingegeben wird, um bil­ dende Liniensegmente zu extrahieren, um die Lage des Werk­ stückes W zu korrigieren.
Zunächst wird in die Objekterkennungsvorrichtung 20 in Ant­ wort auf das Einschalten der Beleuchtungsvorrichtung L über die Beleuchtungssteuereinheit 24 ein Videosignal von aufein­ anderliegenden Werkstücken W innerhalb des Behälters T, er­ halten von der Bildeingabekamera 10, dem Bildeingabeab­ schnitt 221 eingegeben, dort abgetastet und in ein digitales Signal umgesetzt, um ein Grauskalenbild zu erzeugen. Die Grauskalendaten werden in den Kanten-Erkennungsabschnitt 222 eingegeben, und dort differenziert, um ein Kantenbild zu er­ zeugen. Dieses Kantenbild wird dem Segment-Extraktionsab­ schnitt 223 eingegeben, um die Kammlinie zu suchen, um die Grenzlinie des Objektes zu extrahieren. Weiterhin wird die Grenzlinie durch eine gekrümmte Linie, einen Kreis oder der­ gleichen angenähert, um ein Liniensegmentbild zu erhalten.
In einem Schritt 300 im Ablauf gemäß Fig. 15 gibt die CPU 21 das in der Bildverarbeitungseinheit 22 erhaltene Linienseg­ mentbild ein. Dann wird ein Schritt 302 durchgeführt, um eine serielle Liniensegment-Gruppe von dem eingegebenen Li­ niensegmentbild zu extrahieren, so daß die extrahierte seri­ elle Liniensegment-Gruppe durch das Vergleichsmodell "Kreis" entsprechend dem speziellen Abschnitt des Werkstückes W ge­ sucht werden kann. Hierbei wird das Vergleichsmodell "Kreis" vorab auf der Basis von Daten gesetzt, welche die Formgebung spezifizieren, wenn das Werkstück W die Grundlage oder Grundstellung einnimmt, wobei der Vergleichsübereinstim­ mungsbereich durch den erlaubten Grenzwinkel oder derglei­ chen vergrößert wird, der es erlaubt, daß das Werkstück W von der Hand 40 des Roboters 30 gehalten wird, so daß die Suche auch dann durchgeführt wird, wenn das Werkstück W ge­ genüber der Horizontalen verkippt ist. Nachfolgend wird ein Schritt 304 durchgeführt, wo der Übereinstimmungsgrad zwi­ schen dem Vergleichsmodell "Kreis" verwendet für die Suche im Schritt 302 und dem speziellen Abschnitt oder Bereich des Werkstückes W, nach dem gesucht wird berechnet wird. Für den Fall, daß die Suche mit dem Vergleichsmodell "Kreis" durch­ geführt wird, ist, da ein Kreis als Ellipse erkannt wird, wenn das Werkstück W verkippt ist, dieser Übereinstimmungs­ grad durch das Verhältnis von Hauptachse und Nebenachse der Ellipse ausgedrückt.
Danach wird ein Schritt 306 durchgeführt, wo überprüft wird, ob ein spezieller Abschnitt eines Werkstückes W vorliegt, dessen Übereinstimmungsgrad gößer ist als ein Wert a. Dieser Wert a ist als der oben erwähnte noch erlaubte Grenzwert oder dergleichen bestimmt. Wenn eine Anzahl spezieller Be­ reiche von Werkstücken W erkannt wird, von denen jeder die oben erwähnte Beziehung erfüllt, wird derjenige spezielle Abschnitt ausgewählt, der den größten Übereinstimmungsgrad hat. Wenn die Antwort im Schritt 306 bejahend ist, folgt ein Schritt 308, um die Lageinformation dem Greifroboter 30 zu­ zuführen. Wenn andererseits die Antwort im Schritt 306 verneinend ist, wird ein Schritt 310 durchgeführt, um an eine Erregervorrichtung einen entsprechenden Befehl auszuge­ ben, um die Lagezustände der gestapelten Werkstücke W zur Zeit des nächsten Eingebens des Liniensegmentbildes zu än­ dern, um die Erkennungswahrscheinlichkeit spezieller Berei­ che von Werkstücken W zu erhöhen, welche mittels der Ver­ gleichsmodelle gesucht werden.
Nachdem die Lageinformation des oben erwähnten Werkstückes W von der Steuereinheit des Roboters 30 empfangen wird, wird gemäß Schritt 400 in Fig. 16 die Hand 40 des Roboters 30 auf der Grundlage dieser Lageinformation, welche dem speziellen Bereich oder Abschnitt des Werkstückes W zugehörig ist aus­ gerichtet. Dann wird ein Schritt 402 durchgeführt, um die Höhe der Hand 40 bezüglich des speziellen Abschnittes des Werkstückes W mittels eines Distanzsensors zu messen, der nahe der Hand 40 angeordnet ist. Dieser Distanzsensor ist in Fig. 13 mit dem Bezugszeichen 41 versehen. Es folgt ein Schritt 404, um den speziellen Abschnitt des Werkstückes W durch die Hand 40 des Roboters 30 zu halten, um das Werk­ stück W anzuheben. Es folgt ein Schritt 406, wo entschieden wird, ob das Werkstück W tatsächlich gehalten ist. Diese Entscheidung kann dadurch getroffen werden, daß der Bewe­ gungsbetrag eines Spitzenbereiches der Hand 40 mittels eines Grenzschalters, einer magnetischen Skala oder dergleichen detektiert wird. Wenn das Werkstück W gehalten wird, was im Schritt 406 detektiert wird, folgt ein Schritt 408, um das Werkstück W, welches von der Hand 40 des Roboters 30 gehal­ ten wird hoch in eine Bildaufnahmeposition oberhalb der Ka­ mera 11 zu bewegen, wonach der Programmablauf beendet wird.
Wenn von der Objekterkennungsvorrichtung 20 ein Signal emp­ fangen wird, welches die Tatsache anzeigt, daß das Werkstück W in die Bildaufnahmeposition der Kamera 11 hochbewegt wird, schaltet die Beleuchtungssteuereinheit 24 die Beleuchtungs­ vorrichtung L ein und ein Videosignal entsprechend dem ein­ zelnen Werkstück W von der Bildeingabekamera 11 wird dem Bildeingabeabschnitt 221 zugeführt. Im Bildeingabeabschnitt 221 wird das Videosignal abgetastet und in ein digitales Si­ gnal umgesetzt, um ein Grauskalenbild zu erzeugen. Die Grauskalenbilddaten werden dem Kanten-Erkennungsabschnitt 222 eingegeben und dort differenziert, um ein Kantenbild zu erzeugen. Die Kantenbilddaten werden dem Segment-Extrakti­ onsabschnitt 223 eingegeben, um nach der Kammlinie zu su­ chen, um die Grenzlinie des Objektes zu extrahieren. Weiter­ hin wird dann diese Grenzlinie durch eine gekrümmte Linie, einen Kreis oder dergleichen angenähert, um ein Linienseg­ mentbild zu erhalten.
In einem Schritt 500 in Fig. 17 gibt die CPU 21 das von der Bildverarbeitungseinheit 22 erhaltene Liniensegmentbild ein. Dann wird ein Schritt 502 durchgeführt, um einen Vergleich zwischen dem eingegebenen Liniensegmentbild und einem Lage- Vergleichsmodell durchzuführen, um die Lage des Werkstückes W zu erkennen. Hierbei wird das Werkstück W von der Hand 40 des Roboters 30 gehalten, so daß ein kreisförmiges Loch, d. h. der spezielle Abschnitt oder Bereich des Werkstückes W gehalten wird, um eine Lage aufgrund des einen Freiheitsgra­ des einzunehmen. Demzufolge wird im Schritt 502 zur Lageer­ kennung des Werkstückes W das Lagevergleichsmodell gedreht, um mit dem Liniensegmentbild des Werkstückes W übereinzu­ stimmen.
Nachfolgend wird ein Schritt 504 durchgeführt, um einen La­ gekorrekturbetrag zu berechnen, der eine Abweichung in der Drehrichtung und im Winkel des Schrittes 502 ist, gefolgt von einem Schritt 506, um den im Schritt 504 im berechneten Lagekorrekturbetrag dem Roboter 30 zuzuführen, wonach das Programm beendet wird.
Hierbei wirken die Schritte 302 und 304 als Erkennungsvor­ richtungen für den speziellen Abschnitt, der Schritt 306 wirkt als Lagebestimmungsvorrichtung, der Schritt 308 wirkt als Greifbefehlsvorrichtung, die Schritte 502 und 504 wirken als Berechnungsvorrichtungen für den Korrekturbetrag und der Schritt 506 wirkt als Lagekorrektur-Befehlsvorrichtung.
Fig. 18 zeigt die grundlegenden Schritte von Greifvorgängen für übereinandergestapelte oder aufeinandergeschüttete Teile unterschiedlichster Formgebung. Obgleich in der oben be­ schriebenen Ausführungsform Teile ergriffen werden, welche kreisförmige Löcher oder Bohrungen aufweisen, ist es genau­ sogut möglich, andere Teile zu ergreifen, beispielsweise Teile mit parallelen Abschnitten und Teile mit Bolzen oder Zapfen, wobei ähnliche Abläufe durchgeführt werden, d. h. einfach geformte Abschnitte eingegrenzt und als spezielle Abschnitte erkannt werden. Obgleich weiterhin das zu ergrei­ fende und zu haltende Objekt bei der beschriebenen Ausfüh­ rungsform von einem Stapel aufeinanderliegender Teile abge­ hoben wurde, ist es genausogut möglich, ein einzelnes Teil zu greifen, welches frei auf einer Ebene liegt, oder unter­ schiedliche untereinandergemischte Teile zu ergreifen oder Teile zu ergreifen, welche separat in einem Behälter in von­ einander getrennten Abteilungen oder Kammern angeordnet sind.
Die Fig. 19A und 19B zeigen die Schritte und die notwen­ digen Zeiten zum Erkennen und Ergreifen eines Teiles aus ei­ ner Mehrzahl von aufeinanderliegenden oder aufeinandergesta­ pelten Teilen. Fig. 19A zeigt den Fall der Verwendung eines Vergleichsmodells gemäß einer bekannten Technik und Fig. 19B zeigt den Fall der Verwendung des Vergleichsmodells und des Lagevergleichsmodells gemäß der vorliegenden Erfindung. In den Vergleichsschritten wird, wenn das Vergleichsmodell "Kreis" entsprechend einem speziellen Abschnitt eines Teiles mit einfacher Formgebung ist, die Wahrscheinlichkeit der Er­ kennung des speziellen Bereiches hoch, so daß die nötige Zeit für den Vergleich extrem kurz wird. Weiterhin wird bei der herkömmlichen Technik nach dem Vergleichsschritt die Hand des Greifroboters unmittelbar ausgerichtet, so daß das Teil von der Hand ergriffen wird. Bei der vorliegenden Er­ findung wird, nachdem das Teil von der Hand des Greifrobo­ ters ergriffen worden ist die Lagekorrektur nötig auf der Grundlage des Lagevergleichsmodells. Die bei der vorliegen­ den Erfindung notwendigen Schritte erhöhen sich hierdurch, wobei jedoch der Lagevergleich für ein ergriffenes Teil in extrem kurzer Zeit durchgeführt werden kann, wodurch die Zeit für das Ergreifen und die Lagekorrektur nicht so lange dauert wie bei einer herkömmlichen Technik. Bei der vorlie­ genden Erfindung ist es somit möglich, die Greiferfolgs- Wahrscheinlichkeit für ein Teil, welches aus einer Vielzahl von Teilen ergriffen wird extrem zu erhöhen und weiterhin ist es möglich, die hierzu nötige Zeit im Vergleich mit her­ kömmlichen Techniken beachtlich zu verkürzen.
Die Fig. 20A bis 20C zeigen andere Verfahren zum Ergrei­ fen eines Teiles aus einem Stapel oder Haufen von Teilen, um die Lagekorrektur durchzuführen. Fig. 20A zeigt einen Kor­ rekturvorgang mittels einer Führung, wobei ein Teil, dessen spezieller Abschnitt ergriffen wird auf einer bestimmten Führung angeordnet wird, um seine Ausrichtung festzulegen. Fig. 20B zeigt einen Korrekturvorgang unter Verwendung des Massenschwerpunktes, wobei die Richtung eines Teiles, dessen spezieller Bereich (hier: kreisförmige Bohrung) ergriffen wird durch das Eigengewicht bestimmt wird. Fig. 20C zeigt eine Neigungskorrektur mittels einer parallelen Hand, wo die Ausrichtung eines Teiles von der Hand bestimmt wird, welche sich in Parallelrichtung bewegt, wenn der spezielle Bereich ergriffen wird. Bei den erwähnten Verfahren wird der spe­ zielle Abschnitt oder Bereich des Werkstückes W mittels der Bildeingabekamera 10 eingegrenzt und erkannt und in dem Zu­ stand, wo dieser spezielle Bereich ergriffen wird (Bohrung im Falle von Fig. 20B und rechteckförmige Ausnehmung im Falle von Fig. 20C) wird die Lageerkennung von der Bildein­ gabekamera 11 durchgeführt und die Lagekorrektur wird durch­ geführt.
Hierbei kann der Fall vorliegen, daß die Lagekorrektur me­ chanisch anstelle der Bildverarbeitung mit der Kamera 11 nach dem Greifvorgang durchgeführt werden kann. Genauer, wenn die Formgebung des Werkstückes W Lagekorrekturen gemäß den Fig. 20A bis 20C erlaubt, ist es nicht immer nötig, den Prozeßschritt durchzuführen, mit dem die Bildverarbei­ tung mit der Kamera 11 durchgeführt wird, um die Lagekorrek­ tur nach dem Ergreifen des speziellen Bereiches durchzufüh­ ren. In diesem Fall wird die Bildverarbeitung über die Ka­ mera 11 nur zur Bestätigung verwendet, ob die mechanisch und somit selbständig erfolgende Lagekorrektur korrekt erfolgt ist. Auch hierzu wird das Lagevergleichsmodell verwendet.
Bei der beschriebenen Ausführungsform wird somit ein Bereich eines zweidimensionalen Bildes von aufeinandergestapelten oder aufeinanderliegenden Teilen, der durch einen Vergleich mit einem Vergleichsmodell als spezieller Bereich detektiert wird herangezogen, um die Lage des detektierten speziellen Bereiches zu bestimmen, um den Roboter mit einem Greifbefehl zu versorgen, wodurch die Hand des Roboters an der Stelle des speziellen Abschnittes angeordnet wird, um diesen spe­ ziellen Abschnitt zu ergreifen. Weiterhin wird das zweidi­ mensionale Bild des ergriffenen einzelnen Teiles oder Werk­ stückes mit einem Lagevergleichsmodell verglichen, um den Lagekorrekturbetrag zu berechnen, der die Abweichung zwi­ schen der Lage oder Ausrichtung des ergriffenen Teiles und des Lagevergleichsmodelles ist, so daß die Lage des Teiles auf der Grundlage des berechneten Lagekorrekturbetrages kor­ rigiert wird.
Durch Durchführung des Vergleiches an dem Vergleichsmodell entsprechend dem speziellen Abschnitt des Teiles mit einfa­ cher Formgebung wird die Zeit, die für den Vergleich nötig ist extrem kurz und die Erkennungswahrscheinlichkeit für den speziellen Teil wird extrem hoch. Da weiterhin der spezielle Bereich sofort durch die Hand des Roboters ergriffen wird, ist es möglich, die Greiferfolgs-Wahrscheinlichkeit beacht­ lich zu erhöhen. Da zusätzlich das Teil ergriffen wird und die Lage des ergriffenen Teiles in einem bestimmten Zustand korrigiert wird, sind bei der Hochgeschwindigkeits-Greifvor­ richtung für gestapelte Teile gemäß dieser Ausführungsform der vorliegenden Erfindung - obgleich die Verarbeitungszeit zum Ergreifen eines Teiles die Summe der Zeit zum Greifen des speziellen Bereiches oder Abschnittes des Teiles und der Zeit zum Einnehmen einer bestimmten Position nach dem Er­ greifen ist - die jeweiligen Zeiten kurz, so daß im Vergleich zu einer herkömmlichen Technik die gesamte Verarbei­ tungszeit erheblich verkürzt werden kann.
Unter Bezug auf Fig. 21 erfolgt nachfolgend eine Beschrei­ bung eines Hochgeschwindigkeits-Greifsystems gemäß einer vierten Ausführungsform der vorliegenden Erfindung. Der Ge­ samtaufbau dieser Ausführungsform entspricht im wesentlichen demjenigen der zweiten Ausführungsform von Fig. 6. Fig. 21 zeigt die Anordnung eines wesentlichen Abschnittes der vier­ ten Ausführungsform, wobei Teile entsprechend Teilen aus den Fig. 2 oder 7 oder 14 mit den gleichen Bezugszeichen ver­ sehen sind und eine nochmalige Beschreibung hiervon nicht erfolgt.
Gemäß Fig. 21 umfaßt die Erkennungsvorrichtung 20 die CPU 21, die Bildverarbeitungseinheit 22, die Speichereinheit 23 und Beleuchtungssteuereinheit 24. Die Bildverarbeitungsein­ heit 22 beinhaltet den Bildeingabeabschnitt 221, den Kanten- Erkennungsabschnitt 222 und den Segment-Extraktionsabschnitt 223. Die Speichereinheit 23 ist aus RAMs oder dergleichen aufgebaut und beinhaltet den wenigstens einen Vergleichsmo­ dell-Speicherbereich 231, der als Vergleichsmodell-Speicher­ einrichtung dient, um ein Vergleichsmodell zu speichern, welches vorab auf der Basis von Daten festgesetzt wird, wel­ che die Formgebung spezifizieren, wenn ein spezieller Be­ reich oder Abschnitt des Werkstückes W die Grund- oder Aus­ gangsstellung einnimmt. Die Speichereinheit 23 beinhaltet weiterhin einen Greifabschnitt-Speicherbereich 236, der als Speichervorrichtung für einen Greifabschnitt dient, um einen Greifabschnitt zu speichern, der ganz klar eine quantitative relative Lagebeziehung zu einem speziellen Abschnitt hat. Weiterhin ist der Erkennungsergebnis-Speicherbereich 233 vorgesehen, der das Vergleichsergebnis eines Liniensegment­ bildes entsprechend einer Anzahl von aufeinandergestapelten Teilen W innerhalb des Behälters T speichert.
Nachfolgend wird die Arbeitsweise dieses Systems unter Bezug auf die Flußdiagramme der Fig. 22 und 23 unter der An­ nahme beschrieben, daß ein Markierungsabschnitt, beispiels­ weise eine aufgedruckte Markierung auf dem Werkstück W als spezieller Abschnitt mit einfacher Formgebung verwendet wird, um eine visuelle Erkennung aus unterschiedlichen bil­ denden Liniensegmenten, welche selektiv mit einem Ver­ gleichsmodell "Markierung" verglichen werden zu ermöglichen, nachdem ein Videosignal einer Anzahl von aufeinanderliegen­ den Werkstücken W von der Bildeingabekamera 10 erfolgt ist und die Extraktion der bildenden Liniensegmente hiervon durchgeführt wurde. Gemäß Fig. 24 ist auf einem plattenför­ migen Werkstück W eine Markierung vorgesehen bestehend aus einem Kreis und einer vertikalen Linie, deren eines Ende sich bis zur Außenseite des Kreises hin erstreckt. Dies be­ deutet, daß das Vergleichsmodell "Markierung" so angeordnet ist, daß die Ausrichtung des Werkstückes W bestätigt werden kann, es also möglich ist zu bestätigen, ob das Werkstück W nach oben, unten, rechts oder links verschoben ist. Es nicht vorteilhaft, als Markierung einen Kreis alleine zu verwen­ den, da hierdurch die Bestätigung der Werkstückausrichtung nicht möglich ist.
In Antwort auf das Einschalten der Beleuchtungsquelle L mit der Beleuchtungssteuereinheit 24 wird ein von der Kamera 10 erhaltenes Videosignal dem Bildeingabeabschnitt 221 eingege­ ben, um das Videosignal dort abzutasten und in ein digitales Signal umzusetzen, um ein Grauskalenbild zu erzeugen. Die Grauskalendaten werden dem Kanten-Erkennungsabschnitt 222 eingegeben und dort differenziert, um ein Kantenbild zu er­ zeugen. Die Kantenbilddaten werden dem Segment-Extraktions­ abschnitt 223 eingegeben, um die Rammlinie zu suchen, um die Grenzlinie des Objektes zu extrahieren. Die Grenzlinie wird dann durch eine gekrümmte Linie, einen Kreis oder derglei­ chen angenähert, um ein Liniensegmentbild zu erhalten.
In einem Schritt 600 von Fig. 22 gibt die CPU 21 das von der Bildverarbeitungseinheit 22 erhaltene Liniensegmentbild ein. Dann wird ein Schritt 602 durchgeführt, um einen Suchprozeß auf der Grundlage des Vergleichsmodells "Markierung" ent­ sprechend dem Markierungsbereich M auf dem Werkstück W durchzuführen. Beim Ablauf des Schrittes 602 wird in einem Unterprogramm gemäß Fig. 23 in einem Schritt 700 eine seri­ elle Liniensegment-Gruppe des eingegebenen Liniensegmentbil­ des in einem Speicherbereich A der CPU 21 gespeichert. Dann wird ein Schritt 702 durchgeführt, wo überprüft wird, ob der Speicherbereich A leer ist, d. h., ob die serielle Linien­ segment-Gruppe, d. h. das Vergleichsobjekt innerhalb des Speicherbereiches A verbleibt. Beim ersten Ablaufzyklus geht der Ablauf zu einem Schritt 704 weiter, da der Speicherbe­ reich A in dem Fall nicht leer ist, in dem die serielle Li­ niensegment-Gruppe sukzessive extrahiert wird. Im Schritt 704 werden n Sätze von zwei Liniensegmenten aus der seriel­ len Liniensegment-Gruppe innerhalb des Speicherbereiches A ausgewählt, um die Schnittpunkte Gi (i = 1, 2, . . ., n) der vertikalen Mittenschnittlinien hiervon zu berechnen. Wie in Fig. 9A dargestellt, sind, wenn die serielle Liniensegment- Gruppe einem Kreis sehr ähnlich ist, die Koordinaten der Schnittpunkte der vertikalen Mittenschnittlinien der n Sätze von zwei Liniensegmenten (ℓ1 und ℓ2, ℓ3 und ℓ4, ℓ5 und ℓ6, . . .) im wesentlichen zusammenfallend bei G0. Wenn anderer­ seits die serielle Liniensegment-Gruppe eine Ellipse bildet, sind die Koordinaten der Schnittpunkte der vertikalen Mit­ tenschnittlinien der n Sätze von zwei Liniensegmenten (ℓ1 und ℓ2, ℓ3 und ℓ4, ℓ5 und ℓ6, . . .) nicht miteinander zusam­ menfallend und liegen bei G1, G2, G3, . . ., Gn.
Gemäß Fig. 23 wird dann ein Schritt 706 durchgeführt, um zu überprüfen, ob alle maximalen Distanzwerte zwischen zwei be­ liebigen Punkten der Schnitte Gi (i = 1, 2, . . ., n) aus dem Schritt 704 in einem bestimmten Toleranzbereich δ1 für das Vergleichsmodell liegen. Dies bedeutet, daß die serielle Liniensegment-Gruppe daraufhin überprüft wird, ob sie im we­ sentlichen einen Kreis bildet. Im Falle von Fig. 9B ist die oben erwähnte Toleranz δ1 der schraffierte Bereich des Krei­ ses, der durch die gestrichelte Linie dargestellt ist und ist ein Anzeigekriterium des Vergleichsgrenzwertes, der den Vergleich relativ zum Vergleichsmodell in dem Fall erlaubt, daß ein kreisförmiges Loch, welches der spezielle Abschnitt des Werkstückes W ist, relativ zur Horizontalen verkippt ist und sich als Ellipse darstellt. Wenn im Schritt 706 alle Schnittpunkte Gi (i = 1, 2, . . ., n) innerhalb der Toleranz δ1 liegen, folgt ein Schritt 708, um den Durchschnitt (G1, G2, . . ., Gn)/n der Schnittpunkte Gi (i = 1, 2, . . ., n) zu be­ rechnen, um die Mittenkoordinate Gm zu erhalten.
Danach wird ein Schritt 710 durchgeführt, um den Mittel- oder Durchschnittswert der Distanzen zwischen der Mittenko­ ordinate Gm aus dem Schritt 708 und den jeweiligen Linien­ segmenten ausgewählt im Schritt 704 zu berechnen, um einen Radius rm zu erhalten. Es folgt ein Schritt 712 zum Überprü­ fen, ob die Abweichung |rm - ro| relativ zu dem Radius ro des Kreises des Vergleichsmodells "Markierung" aus dem Ver­ gleichsmodell-Speicherbereich 231 der Speichereinheit 23 in einer vorherbestimmten Toleranz δ2 liegt.
Fig. 25 zeigt die Ausrichtungen von Werkstücken, wobei eine Entscheidung gemacht wird, ob der Greifvorgang zweckmäßig ist oder nicht. Genauer, wenn der Werkstückneigungswinkel θ2 beträgt, wie in (b) von Fig. 25 dargestellt, kann das Werk­ stück W durch die Hand 40 des Greifroboters 30 nicht ergrif­ fen werden. Wenn andererseits der Werkstückneigungswinkel unterhalb von θ1 liegt, wie in (a) von Fig. 25 dargestellt, kann das Werkstück W ergriffen werden. Dieser Werkstücknei­ gungswinkel θ1 wird als Grenzwinkel für den speziellen Ab­ schnitt des Werkstückes W festgesetzt. Ein Vergleichsgrenz­ wert für das Vergleichsmodell basierend auf dem Neigungs­ grenzwinkel θ1 bei dem es noch möglich ist, einen parallelen Endoberflächenabschnitt zu halten, d. h. den zu ergreifenden Abschnitt des Werkstückes W ist die Toleranz δ2. Wird ein Sicherheitsfaktor berücksichtigt, wird der Grenzwinkel θ1 auf einen Winkelwert festgesetzt, der etwas kleiner ist als der Werkstückneigungswinkel θ, so daß die Greiferfolgs-Wahr­ scheinlichkeit 100% beträgt. Die Greiferfolgs-Wahrschein­ lichkeit des zu ergreifenden Abschnittes des Werkstückes W bezüglich des Werkstückneigungswinkels θ läßt sich experi­ mentell ermitteln.
Wenn die Entscheidung im Schritt 706 und im Schritt 712 nein ist, geht der Ablauf zu einem Schritt 714, um die Linienseg­ mentdaten aus dem Speicherbereich A zu löschen, wonach zum Schritt 702 zurückgekehrt wird, um den gleichen Prozeßablauf erneut zu beginnen.
Wenn im Schritt 702 die serielle Liniensegment-Gruppe weg ist, so daß der Speicherbereich A leer wird, geht der Ablauf zu einem Schritt 604 (Fig. 22). Im Schritt 604 wird über­ prüft, ob ein Markierungsabschnitt M vorliegt, der der spe­ zielle Abschnitt des Werkstückes W ist. Wenn der Markie­ rungsabschnitt M, der die Bedingung |rm - ro| < δ2 erfüllt, im Schritt 712 erhalten ist, geht der Ablauf zu einem Schritt 606. Hier wird in dem Fall, daß eine Anzahl von Mar­ kierungsabschnitten M, welche die oben erwähnte Beziehung erfüllen, erkannt werden, der Markierungsabschnitt M ausge­ wählt, der den kleinsten Wert |rm - ro| hat.
Der Schritt 606 ist zum Berechnen der relativen Lagekoordi­ naten des zu ergreifenden Abschnittes auf der Grundlage der Mittenkoordinate Gm eines Kreises oder einer Ellipse des er­ kannten Markierungsabschnittes M. Wie in Fig. 24 darge­ stellt, entspricht der zu ergreifende Abschnitt den Lagen P1 und P2 der parallelen Endoberflächen, welche durch Distanzen L1 und L2 von der Mittenkoordinate Gm des Markierungsab­ schnittes M entfernt sind, wenn das Werkstück W eine horizontale Lage einnimmt. Die dem Greifroboter 30 zu übertra­ gende Lageinformation ist die Greifrichtung für die Hand 40, welche die Richtung der vertikalen Linie in dem Kreis oder der Ellipse, erzeugt durch Erkennung des Markierungsab­ schnittes M und die Greif-Mittenkoordinate ist. Die Mitten­ koordinate in der Bildebene wird in die Mittenkoordinate im echten Raum umgewandelt und dem Greifroboter 30 übertragen.
Wie beschrieben ist die Distanz von der Mittenkoordinate Gm des Markierungsabschnittes M (wobei die Markierung einen Kreis und eine vertikale Linie umfaßt, dessen eines Ende sich zur Außenseite des Kreises erstreckt) zu der einen Re­ lativlage P1 des von der Hand 40 des Roboters 30 zu ergrei­ fenden Abschnittes L1 und die Distanz zu der anderen Rela­ tivlage P2 ist L2 und diese quantitative relative Lagebezie­ hung ist in dem Greifabschnitt-Speicherbereich 236 der Spei­ chereinheit 23 gespeichert. Somit ist die Greifmittenposi­ tion die Position, welche um den Betrag |(L1 - L2)/2| × COSθ von der Mittenkoordinate Gm des Markierungsabschnittes M in der Richtung entfernt ist, in der die vertikale Linie von dem Kreis oder der Ellipse des Markierungsabschnittes M vor­ ragt. Der oben erwähnte Werkstückneigungswinkel θ wird er­ halten auf der Basis der Länge der Nebenachse der Ellipse oder des Kreises des Markierungsabschnittes M. Genauer, wenn die Hauptachse und die Nebenachsen des Markierungsabschnit­ tes M zueinander gleiche Länge haben (Kreis) ist θ gleich 0°. Wenn andererseits die Hauptachse und die Nebenachsen sich in ihrer Länge voneinander unterscheiden (Ellipse) wird θ mit der nachfolgenden Gleichung ermittelt:
θ = COS-1{(Länge der Nebenachse)/(Länge der Hauptachse)}.
Danach wird ein Schritt 608 durchgeführt, um die Lageinfor­ mation des zu greifenden Abschnittes des Werkstückes W zu übertragen.
Wenn andererseits im Schritt 604 das Nichtvorhandensein des Markierungsabschnittes M entschieden wird, wird ein Schritt 610 durchgeführt, um ein Erregersignal auszugeben, um den Behälter T mittels einer entsprechenden Vorrichtung zu rüt­ teln oder zu schütteln, um die Lagen der Werkstücke W zum Zeitpunkt des nächsten Eingebens eines Bildes zu ändern, um die auf dem Vergleichsmodell basierende Suchwahrscheinlich­ keit zu verbessern. Dann wird ein Schritt 612 durchgeführt, um die Anzahl der Rüttel- oder Schüttelvorgänge zu zählen. Dieser Zählwert wird zum Programmbeginn auf 0 gesetzt und inkrementiert wann immer ein Suchvorgang anhand des Ver­ gleichsmodells mit einem Fehlversuch endet. In einem nach­ folgenden Schritt 614 wird überprüft, ob der Zählbetrag C ≧ 3 ist. Dies bedeutet, daß, wenn der Lagezustand der Werk­ stücke W ungeachtet von drei Rüttelvorgängen unverändert ist, so daß drei Suchvorgänge mit dem Vergleichsmodell mit einem Fehler enden eine Entscheidung gemacht wird, daß Werk­ stücke W innerhalb des Behälters T nicht mehr vorhanden sind oder die vorliegenden Lagen der Werkstücke W so schlecht sind, daß sie nicht mehr geeignet sind eine weitere Suche durchzuführen, so daß das Programm beendet wird.
Die Schritte 602 und 604 wirken hierbei als Erkennungsvor­ richtungen für einen speziellen Abschnitt, der Schritt 606 dient als Vorrichtung zur Lagebestimmung und der Schritt 608 dient als Befehlsvorrichtung.
Auf der Grundlage des oben beschriebenen Programmablaufs kann der zu ergreifende Abschnitt entsprechend dem Markie­ rungsbereich M des Werkstückes W von der parallel bewegli­ chen Hand 40 des Greifroboters 30 ergriffen werden. Somit wird bei dem Hochgeschwindigkeits-Greifsystem gemäß dieser Ausführungsform, da der Vergleichsvorgang an einem speziel­ len Abschnitt des Werkstückes W, der visuelle Erkennung er­ laubt, durchgeführt wird, die Zeit für den Vergleich extrem kurz. Da weiterhin das Greifen an einem zu ergreifenden Abschnitt, der leicht zu halten ist und klar die quantitative relative Lagebeziehung zu dem speziellen Abschnitt hat, er­ folgt, wird die Greiferfolgs-Wahrscheinlichkeit hoch. Da weiterhin der spezielle Abschnitt von dem zu greifenden Ab­ schnitt unterschiedlich ist, ist es möglich, das Werkstück W auch dann zu ergreifen, wenn der spezielle Abschnitt klein ist und es schwierig wäre, ihn mit der Hand 40 des Roboters 30 zu greifen.
Obgleich weiterhin die zu greifenden Objekte oder Gegen­ stände bei der beschriebenen vierten Ausführungsform aufein­ anderliegende oder aufeinandergestapelte Teile sind, ist diese vierte Ausführungsform gleichermaßen gut anwendbar bei einem einzelnen Teil, welches individuell auf einer Ebene liegt, bei unterschiedlich geformten ineinandergeschütteten Teilen und bei Teilen, die separat in einem Behälter liegen, der in einzelne Fächer unterteilt ist.

Claims (8)

1. Hochgeschwindigkeits-Greifsystem für übereinanderlie­ gende Gegenstände oder Teile zum Erzielen von Grenz­ linien übereinanderliegender Gegenstände oder Teile von einem zweidimensionalen Bild, um eine Mehrzahl von den Grenzlinien entsprechenden Liniensegmenten aus den Grenzlinien zu extrahieren, um die Teile auf der Grundlage der Liniensegmente derart zu erkennen, daß die Teile von einer Mehrzahl von Händen eines Ro­ boters ergriffen werden können, wobei das Greifsystem aufweist:
Einrichtungen zum Speichern einer Mehrzahl von Ver­ gleichsmodellen, welche vorab auf der Grundlage von Daten festgelegt werden, welche eine Formgebung spe­ zifizieren, wenn eine Mehrzahl von vorbestimmten Ab­ schnitten der Teile jeweils vorbestimmte Positionen einnehmen, wobei die Mehrzahl von Vergleichsmodellen derart angeordnet ist, daß sie der Mehrzahl der vor­ bestimmten Abschnitte entsprechen, um die Mehrzahl der vorbestimmten Abschnitte in dem zweidimensionalen Bild zu erkennen, wobei jeder der Mehrzahl der vorbe­ stimmten Abschnitte eine einfache Form aufweist, um das Halten des Teils zu ermöglichen;
Einrichtungen zum Speichern von Handinformationen für die Mehrzahl von Händen, von denen jede das Halten von jedem der Mehrzahl der vorbestimmten Abschnitte zuläßt;
Einrichtungen zum Erfassen eines vorbestimmten Ab­ schnitts, die aus der Mehrzahl von vorbestimmten Ab­ schnitten einen Bereich des zweidimensionalen Bilds erfassen, der durch einen Vergleich mit der Mehrzahl von Vergleichsmodellen erkannt wird;
Einrichtungen zum Bestimmen einer Lage des vorbe­ stimmten Abschnitts, der von den Einrichtungen zum Erfassen des vorbestimmten Abschnitts erfaßt wird; und
Befehlseinrichtungen zum Auswählen und Positionieren einer Hand aus der Mehrzahl von Händen entsprechend dem vorbestimmten Abschnitt an der vorbestimmten Po­ sition, um den vorbestimmten Abschnitt zu greifen, wobei
eines der Mehrzahl von Vergleichsmodellen auf der Grundlage von Daten festgelegt wird, welche eine Kreisform spezifizieren, wenn der vorbestimmte Ab­ schnitt die vorbestimmte Position einnimmt.
2. Greifsystem nach Anspruch 1, gekennzeichnet durch Einrichtungen zum Ändern des Lagezustands der aufein­ anderliegenden Teile, wenn der vorbestimmte Abschnitt in dem zweidimensionalen Bild bei dem Vergleich mit der Mehrzahl von Vergleichsmodellen von den Einrich­ tungen zum Erfassen des vorbestimmten Abschnitts nicht erkannt wird.
3. Greifsystem nach Anspruch 1 oder 2, dadurch gekenn­ zeichnet, daß eines aus der Mehrzahl von Vergleichs­ modellen auf der Grundlage von Daten festgelegt wird, welche eine Formgebung spezifizieren, die Linienseg­ mente beinhaltet, die parallel zueinander verlaufen und miteinander die gleiche Länge aufweisen, wenn der vorbestimmte Abschnitt die vorbestimmte Position ein­ nimmt.
4. Greifsystem nach Anspruch 1 oder 2, dadurch gekenn­ zeichnet, daß eines aus der Mehrzahl von Vergleichs­ modellen auf der Grundlage von Daten festgelegt wird, welche eine Formgebung spezifizieren, die Linienseg­ mente beinhalten, die parallel zueinander verlaufen und voneinander unterschiedliche Länge aufweisen, wenn der vorbestimmte Abschnitt die vorbestimmte Po­ sition einnimmt.
5. Hochgeschwindigkeits-Greifsystem für übereinanderlie­ gende Gegenstände oder Teile zum Erzielen von Grenz­ linien übereinanderliegender Gegenstände oder Teile von einem zweidimensionalen Bild, um eine Mehrzahl von den Grenzlinien entsprechenden Liniensegmenten aus den Grenzlinien zu extrahieren, um die Teile auf der Grundlage der Liniensegmente derart zu erkennen, daß die Teile von einer Hand eines Roboters ergriffen werden können, wobei das Greifsystem aufweist:
Einrichtungen zum Speichern einer Mehrzahl von Ver­ gleichsmodellen, welche vorab auf der Grundlage von Daten festgelegt werden, welche eine Formgebung spe­ zifizieren, wenn eine Mehrzahl von vorbestimmten Ab­ schnitten der Teile jeweils vorbestimmte Positionen einnehmen, wobei die Mehrzahl von Vergleichsmodellen derart angeordnet ist, daß sie der Mehrzahl der vor­ bestimmten Abschnitte entsprechen, um die Mehrzahl der vorbestimmten Abschnitte in dem zweidimensionalen Bild zu erkennen, wobei jeder der Mehrzahl der vorbe­ stimmten Abschnitte eine einfache Form aufweist, um das Halten des Teils zu ermöglichen;
Einrichtungen zum Speichern eines Vergleichsgrenzwerts, der vorab auf der Grundlage eines Neigungs­ grenzwinkels des vorbestimmten Abschnitts relativ zu der vorbestimmten Position festgelegt wird und der einen Bereich anzeigt, der das Halten des vorbestimm­ ten Abschnitts durch die Hand zuläßt und der einen zulässigen Nichtübereinstimmungsbereich zwischen dem vorbestimmten Abschnitt und dem Vergleichsmodell an­ zeigt;
Einrichtungen zum Erfassen des vorbestimmten Ab­ schnitts, die als den vorbestimmten Abschnitt einen Bereich in dem zweidimensionalen Bild erfassen, der sich innerhalb des Nichtübereinstimmungsbereichs be­ findet, der durch den Vergleichsgrenzwert bestimmt wird, und der anhand des Vergleichsmodells erkannt wird;
Einrichtungen zum Bestimmen einer Lage des erfaßten vorbestimmten Abschnitts; und
Befehlseinrichtungen zum Positionieren der Hand an der bestimmten Position des erfaßten vorbestimmten Abschnitts, um den vorbestimmten Abschnitt zu grei­ fen, wobei
eines aus der Mehrzahl von Vergleichsmodellen auf der Grundlage von Daten festgelegt wird, welche eine Kreisform spezifizieren, wenn der vorbestimmte Ab­ schnitt die vorbestimmte Position einnimmt, wobei der Vergleichsgrenzwert, der in den Einrichtungen zum Speichern eines Vergleichsgrenzwerts gespeichert ist, ein Wert ist, der auf der Grundlage einer Differenz zwischen einem Radius der Kreisform, wenn der vorbe­ stimmte Abschnitt die vorbestimmte Position einnimmt, und einem Radius einer im wesentlichen kreisförmigen Formgebung erzielt wird, wenn der vorbestimmte Abschnitt eine geneigte Lage einnimmt.
6. Hochgeschwindigkeits-Greifsystem für übereinanderlie­ gende Gegenstände oder Teile zum Erzielen von Grenz­ linien übereinanderliegender Gegenstände oder Teile von einem zweidimensionalen Bild, um eine Mehrzahl von den Grenzlinien entsprechenden Liniensegmenten aus den Grenzlinien zu extrahieren, um die Teile auf der Grundlage der Liniensegmente derart zu erkennen, daß die Teile von einer Hand eines Roboters ergriffen werden können, wobei das Greifsystem aufweist:
Einrichtungen zum Speichern einer Mehrzahl von Ver­ gleichsmodellen, welche vorab auf der Grundlage von Daten festgelegt werden, welche eine Formgebung spe­ zifizieren, wenn ein vorbestimmter Abschnitt des Teils eine vorbestimmte Position einnimmt, wobei das Vergleichsmodell derart angeordnet ist, daß es dem vorbestimmten Abschnitt entspricht, um den vorbe­ stimmten Abschnitt in dem zweidimensionalen Bild zu erkennen, wobei der vorbestimmte Abschnitt eine ein­ fache Form aufweist, um eine visuelle Erkennung zu ermöglichen;
Einrichtungen zum Speichern eines Lagevergleichsmo­ dells, welches vorab auf der Grundlage von Daten festgelegt wird, welche eine Formgebung spezifizie­ ren, wenn das Teil eine bestimmte Position einnimmt, wobei das Lagevergleichsmodell dazu dient, eine Lage des vorbestimmten Abschnitts auf der Grundlage der Erkennung des vorbestimmten Abschnitts zu spezifizie­ ren;
Einrichtungen zum Erfassen des vorbestimmten Ab­ schnitts, die als den vorbestimmten Abschnitt einen Bereich in dem zweidimensionalen Bild erfassen, der durch einen Vergleich mit dem Vergleichsmodell er­ kannt wird;
Einrichtungen zum Bestimmen einer Lage des erfaßten vorbestimmten Abschnitts;
Befehlseinrichtungen zum Positionieren der Hand an der bestimmten Position, um das Teil zu ergreifen;
Einrichtungen zum Berechnen eines Lagekorrekturbe­ trags, der eine Abweichung zwischen einer Lage des Teils, welches durch einen Vergleich zwischen einer Mehrzahl von Liniensegmenten aufgenommen wird, die aus Grenzlinien eines zweidimensionalen Bilds eines einzelnen Teils extrahiert werden, und dem Lagever­ gleichsmodell anzeigt, wobei dies in dem Fall durch­ geführt wird, in dem das einzelne Teil durch Halten des vorbestimmten Abschnitts durch die Hand ergriffen wird; und
Befehlseinrichtungen zum Korrigieren der Lage des Teils auf der Grundlage des berechneten Lagekorrek­ turbetrags.
7. Greifsystem nach Anspruch 6, dadurch gekennzeichnet, daß eines aus der Mehrzahl von Vergleichsmodellen auf der Grundlage von Daten festgelegt wird, welche eine kreisförmige Formgebung spezifizieren, wenn der vor­ bestimmte Abschnitt die vorbestimmte Position ein­ nimmt, wobei als Reaktion auf einen Korrekturbefehl von den Befehlseinrichtungen für die Lagekorrektur eine Lagekorrektur durch Bewegung des Massenschwer­ punkts des Gewichts des Teils durchgeführt wird, wenn das Teil ergriffen wird.
8. Greifsystem nach Anspruch 6, dadurch gekennzeichnet, daß eines aus der Mehrzahl von Vergleichsmodellen auf der Grundlage von Daten festgelegt wird, welche eine Formgebung spezifizieren, die Liniensegmente beinhal­ tet, die zueinander parallel verlaufen und miteinan­ der die gleiche Länge aufweisen, wenn der vorbe­ stimmte Abschnitt die vorbestimmte Position einnimmt, wobei als Reaktion auf einen Korrekturbefehl von den Befehlseinrichtungen für die Lagekorrektur eine Lage­ korrektur durch Bewegungen der Hand durchgeführt wird, wenn das Teil ergriffen wird.
DE4236813A 1991-10-30 1992-10-30 Hochgeschwindigkeits-Greifsystem für übereinanderliegende Gegenstände oder Teile Expired - Fee Related DE4236813C2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP3313975A JP2555823B2 (ja) 1991-10-30 1991-10-30 山積み部品の高速ピッキング装置
JP3313976A JP2555824B2 (ja) 1991-10-30 1991-10-30 山積み部品の高速ピッキング装置
JP3313974A JP2555822B2 (ja) 1991-10-30 1991-10-30 山積み部品の高速ピッキング装置
JP3320994A JP2679490B2 (ja) 1991-11-08 1991-11-08 山積み部品の高速ピッキング装置

Publications (2)

Publication Number Publication Date
DE4236813A1 DE4236813A1 (de) 1993-05-06
DE4236813C2 true DE4236813C2 (de) 2002-06-13

Family

ID=27480106

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4236813A Expired - Fee Related DE4236813C2 (de) 1991-10-30 1992-10-30 Hochgeschwindigkeits-Greifsystem für übereinanderliegende Gegenstände oder Teile

Country Status (3)

Country Link
US (1) US5446835A (de)
DE (1) DE4236813C2 (de)
GB (1) GB2261069B (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006028219A1 (de) * 2006-06-14 2007-12-20 Schunk Gmbh & Co. Kg Spann- Und Greiftechnik Verfahren zum Ansteuern eines Endeffektors, insbesondere einer Greifeinrichtung, und System hierfür
DE102010050019A1 (de) * 2010-11-02 2012-05-03 B. B. Maschinenbau Gmbh Verfahren zum Entnehmen von Verpackungseinheiten aus einem Vorrat
DE102018100049B4 (de) 2017-01-11 2019-09-19 Fanuc Corporation Artikelfördereinrichtung

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE9701547D0 (sv) 1997-04-23 1997-04-23 Alfa Laval Agri Ab Apparatus and method for recognising and determining the positon of a part of an animal
DE19744488B4 (de) * 1997-10-08 2006-10-26 BSH Bosch und Siemens Hausgeräte GmbH Roboter zur Bedienung von Haushaltsgeräten
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
JPH11300670A (ja) * 1998-04-21 1999-11-02 Fanuc Ltd 物品ピックアップ装置
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
SE524796C2 (sv) * 2002-12-10 2004-10-05 Svensk Industriautomation Ab Kollisionsskydd
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
US6947801B2 (en) * 2003-08-13 2005-09-20 Taiwan Semiconductor Manufacturing Co., Ltd. Method and system for synchronizing control limit and equipment performance
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
WO2007149183A2 (en) * 2006-05-25 2007-12-27 Braintech Canada, Inc. System and method of robotically engaging an object
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
WO2009117700A2 (en) * 2008-03-21 2009-09-24 Foba Technology + Services Gmbh Multi model registration (mmr) for a galvanometer and laser system
US8862269B2 (en) * 2008-08-29 2014-10-14 Abb Research Ltd. Robotic picking of parts from a bin
JP5265296B2 (ja) * 2008-10-10 2013-08-14 本田技研工業株式会社 ワーク取り出し方法
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP5333344B2 (ja) * 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
WO2011031523A2 (en) 2009-08-27 2011-03-17 Abb Research Ltd. Robotic picking of parts from a parts holding bin
JP5382621B2 (ja) * 2010-06-03 2014-01-08 株式会社安川電機 移載装置
DE102010034647A1 (de) * 2010-08-17 2012-02-23 Ks Control Kommunikations- Und Steuerungstechnik Ks-Schneider/Ruhland Gmbh Kontrollverfahren und Kontrollvorrichtung für Montagevorgänge an personenbedienten Arbeitsplätzen
JP5489000B2 (ja) 2010-08-31 2014-05-14 株式会社安川電機 作業装置及び部品ピッキングシステム
JP5685027B2 (ja) * 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
US9089966B2 (en) * 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP5533727B2 (ja) * 2011-02-18 2014-06-25 株式会社安川電機 ワークピッキングシステム
JP5085749B2 (ja) 2011-02-21 2012-11-28 ファナック株式会社 棒状部材の搬送装置
ITTO20110214A1 (it) * 2011-03-10 2012-09-11 Febo S R L Metodo e impianto di trasferimento per disporre un pezzo in un orientamento richiesto, e pinza di robot per tale impianto di trasferimento
JP5835926B2 (ja) 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5765355B2 (ja) * 2013-03-18 2015-08-19 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP6176091B2 (ja) * 2013-12-02 2017-08-09 トヨタ自動車株式会社 把持方法、運搬方法及びロボット
JP2015205383A (ja) * 2014-04-23 2015-11-19 ファナック株式会社 位置決め機構を備えたワーク搬送装置
JP6632208B2 (ja) * 2015-03-24 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
CN106466848A (zh) * 2015-08-21 2017-03-01 沈昌余 机械手末端机构及取卸料方案
CN105014658B (zh) * 2015-08-22 2017-06-09 衢州市立掏智能科技有限公司 自动取卸物件的方法
CN106041942B (zh) * 2016-07-01 2018-09-25 江苏捷帝机器人股份有限公司 一种抓取大小混杂圆管的机械手
EP3600795A1 (de) 2017-03-30 2020-02-05 Soft Robotics, Inc. Benutzergestützte robotersteuersysteme
JP2018203480A (ja) * 2017-06-07 2018-12-27 株式会社東芝 仕分装置および仕分システム
US10761542B1 (en) 2017-07-11 2020-09-01 Waymo Llc Methods and systems for keeping remote assistance operators alert
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US10751882B1 (en) * 2018-05-14 2020-08-25 Amazon Technologies, Inc. End effector for autonomous object retrieval
US11148289B1 (en) 2019-01-08 2021-10-19 Amazon Technologies, Inc. Entanglement end effector for autonomous object retrieval
CN114025928A (zh) * 2019-06-27 2022-02-08 松下知识产权经营株式会社 末端执行器的控制系统以及末端执行器的控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0243543A1 (de) * 1986-04-28 1987-11-04 International Business Machines Corporation Roboterzusammenbaugerät mit Roboterwerkzeug zum Setzen mehrerer Komponenten auf einem Werkstück

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198307A (ja) * 1983-04-27 1984-11-10 Komatsu Ltd 棒状物体の追跡判定方法
JPS60200385A (ja) * 1984-03-26 1985-10-09 Hitachi Ltd 姿勢判定方式
JPH0823889B2 (ja) * 1986-12-26 1996-03-06 トヨタ自動車株式会社 ロボットを用いた物体の取出し方法
DK0500225T3 (da) * 1991-01-31 1996-02-05 Texas Instruments Inc System, fremgangsmåde og proces til computerstyret fremstilling af tredimensionale genstande udfra computerdata

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0243543A1 (de) * 1986-04-28 1987-11-04 International Business Machines Corporation Roboterzusammenbaugerät mit Roboterwerkzeug zum Setzen mehrerer Komponenten auf einem Werkstück

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R.B. KELLEY et al. "Three Vision Algorithms for Acquiring Workpieces from Bins" Proc. of the IEEE, Vol. 71, No. 7, July 1983, S. 803-820 *
W. HÄTTICH "Erkennung und Positionsbestimmung überlappender Werkstücke zur Steuerung von Handhabungsgeräten beim Zugriff auf ungeordnete Teile" FhG-Berichte 1/2-81, S. 4-7 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006028219A1 (de) * 2006-06-14 2007-12-20 Schunk Gmbh & Co. Kg Spann- Und Greiftechnik Verfahren zum Ansteuern eines Endeffektors, insbesondere einer Greifeinrichtung, und System hierfür
DE102010050019A1 (de) * 2010-11-02 2012-05-03 B. B. Maschinenbau Gmbh Verfahren zum Entnehmen von Verpackungseinheiten aus einem Vorrat
DE102018100049B4 (de) 2017-01-11 2019-09-19 Fanuc Corporation Artikelfördereinrichtung
US10589422B2 (en) 2017-01-11 2020-03-17 Fanuc Corporation Article conveying apparatus

Also Published As

Publication number Publication date
US5446835A (en) 1995-08-29
GB2261069B (en) 1995-11-01
DE4236813A1 (de) 1993-05-06
GB9222280D0 (en) 1992-12-09
GB2261069A (en) 1993-05-05

Similar Documents

Publication Publication Date Title
DE4236813C2 (de) Hochgeschwindigkeits-Greifsystem für übereinanderliegende Gegenstände oder Teile
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
AT507339B1 (de) Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
DE102014016033B4 (de) Vorrichtung und Verfahren zum Aufnehmen von regellos verteilten Gegenständen mit einem Roboter
DE102018006465B4 (de) Artikelstapelvorrichtung und maschinelle Lernvorrichtung
DE102019108787B4 (de) Handsteuerungsvorrichtung und Handsteuerungssystem
DE112018007727B4 (de) Robotersystem
DE112012002677B4 (de) Zuführvorrichtung für Bauelemente
DE102015015638B4 (de) Vorrichtung und Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
DE102016122678B4 (de) Werkstückpositions-/-Stellungsberechnungssystem und Handhabungssystem
DE102014016032B4 (de) Vorrichtung und Verfahren zum Aufnehmen von wahllos gehäuften Gegenständen mit einem Roboter
DE112019000097B4 (de) Steuervorrichtung, Arbeitsroboter, Programm und Steuerverfahren
DE102018111370B4 (de) Werkstückaufnahmesystem
WO2010096850A1 (de) Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten
EP3351350A2 (de) Vorrichtung zum automatisierten entnehmen von in einem behälter angeordneten werkstücken
DE68925257T2 (de) Kartenschranksystem
EP3702108A1 (de) Verfahren zum ermitteln einer greifposition zum ergreifen eines werkstücks
EP4008499A1 (de) Verfahren und vorrichtung zum entnehmen eines nachgiebigen gebindes aus einer mehrzahl an gebinden
AT525778A1 (de) Verfahren und Vorrichtung zum Entnehmen eines Ladeguts von einem Stapel
DE112017007903T5 (de) Haltepositions- und orientierungslehreinrichtung, haltepositions- und orientierungslehrverfahren und robotersystem
DE112020006594B4 (de) Maschinenlernverfahren und Robotersystem
DE112022000335T5 (de) Robotersystem und Steuervorrichtung
EP1111334A1 (de) Verfahren und Anordnung zum Lokalisieren von zylinderförmigen Objekten
DE102019106068B3 (de) System zur beseitigung von überlagerungen zufällig angeordneter werkstücke

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: DENSO CORP., KARIYA, AICHI, JP

8128 New person/name/address of the agent

Representative=s name: WINTER, BRANDL, FUERNISS, HUEBNER, ROESS, KAISER,

8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G06K 9/00

D2 Grant after examination
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8339 Ceased/non-payment of the annual fee