[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102009018464A1 - Optischer Sensor - Google Patents

Optischer Sensor Download PDF

Info

Publication number
DE102009018464A1
DE102009018464A1 DE102009018464A DE102009018464A DE102009018464A1 DE 102009018464 A1 DE102009018464 A1 DE 102009018464A1 DE 102009018464 A DE102009018464 A DE 102009018464A DE 102009018464 A DE102009018464 A DE 102009018464A DE 102009018464 A1 DE102009018464 A1 DE 102009018464A1
Authority
DE
Germany
Prior art keywords
optical sensor
sensor according
camera
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009018464A
Other languages
English (en)
Other versions
DE102009018464B4 (de
Inventor
Jörg Wörner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leuze Electronic GmbH and Co KG
Original Assignee
Leuze Electronic GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leuze Electronic GmbH and Co KG filed Critical Leuze Electronic GmbH and Co KG
Priority to DE102009018464.3A priority Critical patent/DE102009018464B4/de
Publication of DE102009018464A1 publication Critical patent/DE102009018464A1/de
Application granted granted Critical
Publication of DE102009018464B4 publication Critical patent/DE102009018464B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft einen optischen Sensor (1) und umfasst eine Flächenkamera (2), eine Beleuchtungseinheit mit einer Steuereinheit zur Steuerung der wenigstens einen Beleuchtungseinheit und/oder Flächenkamera (2) und eine Auswerteeinheit (5), in welcher Ausgangssignale der Flächenkamera (2) auswertbar sind. Der optische Sensor (1) ist alternierend in zwei Betriebsarten betrieben, wobei in einer ersten Betriebsart eine Oberflächenerfassung eines Objekts (11) erfolgt, indem für die einzelnen Bildpunkte der Flächenkamera (2) Farb- oder Intensitätswerte bestimmt werden. In einer zweiten Betriebsart wird die Form des Objekts (11) bestimmt, indem für jeden Bildpunkt der Flächenkamera Distanzwerte des Objekts (11) ermittelt werden. In der Auswerteeinheit (5) werden die Informationen der Oberflächen- und Formerfassung zusammengeführt.

Description

  • Die Erfindung betrifft einen optischen Sensor gemäß dem Oberbegriff des Anspruchs 1.
  • Derartige optische Sensoren werden typischerweise im Bereich der Automatisierungstechnik eingesetzt. Dabei werden die optischen Sensoren bevorzugt zur Qualitätskontrolle in Produktionsprozessen eingesetzt um zu prüfen, ob Objekte hinsichtlich ihrer Form und/oder Oberflächenbeschaffenheit bestimmte Anforderungen erfüllen.
  • Bekannte optische Sensoren der in Rede stehenden Art stellen bildverarbeitende Systeme dar, welche eine Flächenkamera und eine dieser zugeordnete Beleuchtungseinheit aufweisen. Mit der Beleuchtungseinheit erfolgt die Beleuchtung einer Szene, in welcher zu detektierende Objekte vorhanden sind. Die Flächenkamera ist typischerweise als Schwarz/Weiß- oder Farbkamera ausgebildet und weist eine matrixförmige Anordnung von Bildpunkten auf.
  • Zur Erkennung von Objekten hat sich als wirksame Methode die sogenannte BLOB(binarized large object)-Analyse etabliert. Bei der BLOB Analyse werden Objekte innerhalb eines Bildes von einem Hintergrund separiert, so dass danach die Objekte einzeln ausgewertet werden können.
  • Die Separation der Objekte vom Hintergrund erfolgt dabei anhand eines binarisierten Bildes. Ist die Flächenkamera beispielsweise von einer Schwarz/Weiß-Kamera gebildet, so liegen die Bildinformationen eines Bildes zunächst in Form analoger Grauwerte für die einzelnen Bildpunkte vor. Durch eine Schwellwertbewertung wird ein binäres Bild generiert, bei welchem den ein zelnen Bildpunkten ein Hell- oder Dunkelwert als binärer Wert zugeordnet ist. Ein Objekt kann dann von einem zusammenhängenden Bereich von dunklen Bildpunkten gebildet sein, während die hellen Bildpunkte den Hintergrund bilden.
  • Nachteilig bei diesem Verfahren ist, dass dieses nur dann funktioniert, wenn sich die Objekte vom Hintergrund hinsichtlich ihres Farb- oder Hell/Dunkel-Kontrastes deutlich vom Hintergrund abheben. Bei kontrastarmen Bildern ist jedoch die BLOB-Analyse mit hohen Unsicherheiten behaftet oder überhaupt nicht mehr durchführbar.
  • Der Erfindung liegt die Aufgabe zugrunde, einen optischen Sensor der eingangs genannten Art so auszubilden, dass mit diesem auch bei kontrastarmen Bildern eine sichere Objekterfassung möglich ist.
  • Zur Lösung dieser Aufgabe sind die Merkmale des Anspruchs 1 vorgesehen. Vorteilhafte Ausführungsformen und zweckmäßige Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.
  • Der erfindungsgemäße optische Sensor umfasst eine Flächenkamera, eine Beleuchtungseinheit, sowie eine Steuereinheit zur Steuerung der wenigstens einen Beleuchtungseinheit und/oder Flächenkamera und eine Auswerteeinheit, in welcher Ausgangssignale der Flächenkamera auswertbar sind. Der optische Sensor ist alternierend in zwei Betriebsarten betrieben, wobei in einer ersten Betriebsart eine Oberflächenerfassung eines Objekts erfolgt, indem für die einzelnen Bildpunkte der Flächenkamera Farb- oder Intensitätswerte bestimmt werden. In einer zweiten Betriebsart wird die Form des Objekts bestimmt, indem für jeden Bildpunkt der Flächenkamera Distanzwerte des Objekts ermittelt werden. In der Auswerteeinheit werden die Informationen der Oberflächen- und Formerfassung zusammengeführt.
  • Der erfindungsgemäße optische Sensor stellt ein bildverarbeitendes System dar, das vorteilhaft in der Automatisierungstechnik, insbesondere zur Qualitätskontrolle in Produktionsprozessen, eingesetzt wird.
  • Die hierfür erforderliche zuverlässige und genaue Erkennung von Objekten und deren Strukturen wird erfindungsgemäß dadurch gewährleistet, dass mit dem optischen Sensor nicht nur eine Oberflächenerfassung eines Objekts durchgeführt wird indem für die einzelnen Bildpunkte einer Flächenkamera Farb- oder Intensitätswerte bestimmt werden. Vielmehr werden als zusätzliche Bildinformationen für die Bildpunkte der oder einer weiteren Flächenkamera Distanzwerte ermittelt, anhand derer die Form des Objekts bestimmt werden kann. Die Oberflächen- und Distanzinformationen werden dann in der Auswerteeinheit zusammengeführt, so dass beide simultan für die Objekterkennung zur Verfügung stehen. Damit ist eine besonders genaue und zuverlässige Objekterkennung möglich. Dies gilt insbesondere auch für äußerst kontrastarme Bilder, da auch bei diesen durch die zusätzlich zur Verfügung stehenden Distanzinformationen Objekte und deren Strukturen genau erfasst werden können.
  • Besonders vorteilhaft werden Objekte innerhalb eines Bildes von einem Hintergrund durch eine erweiterte BLOB-Analyse separiert. Im Unterschied zu einer herkömmlichen BLOB-Analyse werden nicht nur Farb- oder Intensitätswerte, sondern auch Distanzwerte herangezogen, um Objekte von dem Hintergrund zu trennen. Die so erweiterte BLOB-Analyse ermöglicht eine zuverlässigere und genauere Separation der Objekte.
  • Ein wesentlicher Vorteil der Erfindung besteht darin, dass die Form- und Oberflächeninformationen zur Objekterkennung in Echtzeit generiert werden, so dass nicht nur eine genaue, sondern auch eine schnelle Objekterkennung gewährleistet ist.
  • Hierzu wird der optische Sensor alternierend in zwei Betriebsarten betrieben. Zweckmäßigerweise wird in einer ersten Betriebsart ein Bild mit Distanzwerten und dann in einer zweiten Betriebsart ein Bild mit Farb- oder Intensitätswerten ermittelt. In der Auswerteeinheit werden dann die Distanzinformationen einerseits und die Farb- oder Intensitätswerte andererseits zur Objekterkennung zusammen geführt. Dieser Vorgang wird dann periodisch wiederholt. Prinzipiell können während jeder Betriebsart auch mehrere gleichartige Bilder ermittelt werden, um beispielsweise eine Mittelung mehrerer Bilder durchzuführen.
  • Besonders vorteilhaft können einzelne oder mehrere Sensorkomponenten in Form von Beleuchtungseinheiten oder Flächenkameras für die Form- und Oberflächenerfassung der Objekte gemeinsam genutzt werden, wodurch ein besonders einfacher, kompakter und kostengünstiger Aufbau des optischen Sensors erhalten wird.
  • Gemäß einer ersten Variante der Erfindung erfolgt die Distanzmessung mit dem optischen Sensor nach dem Triangulationsprinzip. In diesem Fall kann eine als Schwarz/Weiß- oder Farbkamera ausgebildete Flächenkamera nicht nur zur Oberflächenbestimmung, sondern auch zur Durchführung der Distanzmessungen verwendet werden.
  • Während bei der Oberflächenbestimmung eine Beleuchtungseinheit zur homogenen Beleuchtung der zu detektierenden Objektoberfläche eingesetzt wird, wird zur Durchführung der Distanzmessungen eine Beleuchtungseinheit verwendet, mittels derer auf der Objektoberfläche ein definiertes Streifenmuster generiert wird. Durch das Höhenprofil der Objektoberfläche erfolgt dann eine Verbesserung des Streifenmusters, die in der Flächenkamera registriert und in der Auswerteeinheit zur Bestimmung von dreidimensionalen Abstandsdaten und damit zur Form des Objekts ausgewertet wird.
  • Bestehen die einzelnen Streifenmuster aus identischen Streifen, so kann es zu Mehrdeutigkeiten in der Auswertung der einzelnen Streifen kommen, wenn beispielsweise durch stärkere Verzerrungen und Versetzungen einzelner Strei fen auf der Objektoberfläche eine eindeutige Zuordnung einzelner Streifensegmente nicht mehr möglich ist.
  • Um diese die Abstandsmessungen verfälschende Mehrdeutigkeiten zu eliminieren, können Streifenmuster aus unterschiedlich ausgebildeten Streifen bestehen. So können die einzelnen Streifen unterschiedliche Kodierungen in Form unterschiedlicher Muster, Farben und/oder Breiten aufweisen. Auch die Abstände zwischen den Streifen können unterschiedlich sein.
  • Als Beleuchtungseinheit zur Generierung derartiger Streifenmuster eignen sich insbesondere Videoprojektoren und Videogeneratoren, die in neuester Zeit als Bildprojektoren in Mobiltelefonen eingesetzt werden. Die Videoprojektoren oder die Videogeneratoren bilden hochintegrierte, elektrooptische Einheiten, die in besonders kleinen Bauformen herstellbar sind. Zudem weisen die Videoprojektoren oder Videogeneratoren bei kleinem Bauvolumen hohe Leistungsdichten auf, so dass auch bei größeren Objektdistanzen und Objektoberflächen die Streifenmuster exakt vorgegeben werden können, wodurch eine genaue Abstandsmessung ermöglicht wird.
  • Insbesondere ein Videoprojektor kann auch derart betrieben werden, dass mit diesem eine homogene Beleuchtung einer Objektoberfläche durchführ ist. Durch eine Betriebsartumschaltung kann daher ein solcher Videoprojektor sowohl als Streifenmuster generierende Beleuchtungseinheit für die Distanzmessungen als auch als homogene Beleuchtungsquelle für die Oberflächenerfassung eingesetzt werden.
  • Gemäß einer zweiten Variante der Erfindung werden die Distanzmessungen mittels einer Lichtlaufzeitmessung durchgeführt. Die Flächenkamera ist zur Durchführung der nach einer Lichtlaufzeitmessung erfolgenden Distanzmessung von einer TOF(time of flight)- oder von einer PMD(Photonic Mixer Device)-Kamera gebildet. In diesem Fall wird zur Oberflächenerfassung eine separate Flächenkamera in Form einer Schwarz/Weiß- oder Farbkamera einge setzt. Allerdings kann zur nach einer Lichtlaufzeitmessung erfolgenden Distanzmessung und zur Oberflächenerfassung dieselbe Beleuchtungseinheit verwendet werden, da in beiden Fällen eine Beleuchtungseinheit verwendet wird, mittels derer die Objektoberfläche homogen ausgeleuchtet wird.
  • Die Erfindung wird im Folgenden anhand der Zeichnungen erläutert. Es zeigen:
  • 1: Erstes Ausführungsbeispiel eines optischen Sensors.
  • 2: Darstellung eines in einer ersten Betriebsart des optischen Sensors generierten Bildes.
  • 3: Darstellung eines in einer zweiten Betriebsart des optischen Sensors generierten Bildes.
  • 4: Zweites Ausführungsbeispiel eines optischen Sensors.
  • 5: Drittes Ausführungsbeispiel eines optischen Sensors.
  • 1 zeigt ein erstes Ausführungsbeispiel eines optischen Sensors 1. Der optische Sensor 1 stellt ein bildverarbeitendes System dar und weist als Sensorkomponente eine Flächenkamera 2 mit vorgeordneter Optik 3 sowie eine in Abstand zur Flächenkamera 2 angeordnete Beleuchtungseinheit in Form eines Videoprojektors 4 auf. Die Sensorkomponenten sind mit einer Auswerteeinheit 5 in einem Sensorgehäuse 6 integriert. Die Auswerteeinheit 5 bildet zugleich eine Steuereinheit zur Steuerung des Betriebs der Flächenkamera 2 des Videoprojektors 4 und ist von einer Rechnereinheit wie einem Mikroprozessor gebildet. In der Auswerteeinheit 5 erfolgt weiterhin die Auswertung der Ausgangssignale der Flächenkamera 2.
  • Die Flächenkamera 2 des optischen Sensors 1 gemäß 1 besteht aus einem CCD- oder einem CMOS-Array. Prinzipiell kann die Kamera als Farbkamera ausgebildet sein. Im vorliegenden Fall ist die Flächenkamera 2 als Schwarz/Weiß-Kamera ausgebildet, das heißt die Ausgangssignale der Bildpunkte der Flächenkamera 2 bilden analoge Grauwerte, die in der Auswerteeinheit ausgewertet werden.
  • Der Videoprojektor 4 des optischen Sensors 1 gemäß 1 weist eine Anordnung von Lichtstrahlen 7 emittierenden Lichtquellen 8 auf. Im vorliegenden Fall sind die Lichtquellen 8 von Hochleistungs-Leuchtdioden gebildet. Der Anordnung von Lichtquellen 8 ist ein transmissives LCD (Liquid Crystal Display)-Array 9 nachgeordnet. Zudem weist der Videoprojektor 4 eine Optik 10 zur Strahlformung der Lichtstrahlen 7 auf.
  • Alternativ kann das LCD-Array 9 durch ein Miniatur-Spiegelarray, bestehend aus einer Vielzahl von beweglichen Spiegeln sehr kleiner Abmessungen, ersetzt sein. Die Lichtquellen 8 können dann wieder aus einer Anordnung von Hochleisstungs-Leuchtdioden bestehen. Alternativ können die Lichtquellen 8 aus einer Anordnung von Hochleistungs-Laserdioden bestehen.
  • Anstelle des Videoprojektors 4 kann auch ein Videogenerator eingesetzt werden. Der Videogenerator bildet ein scannendes Projektionssystem, bei welchem mehrere Laserdioden vorgesehen sind, die bevorzugt Laserlicht in unterschiedlichen Farben emittieren. Die Laserstrahlen 4 werden mittels eines Scanspiegels vorzugsweise in zwei Raumrichtungen abgelenkt.
  • Mit dem optischen Sensor 1 wird, insbesondere zu Zwecken der Qualitätssicherung in einem Produktionsprozess, ein Objekt 11 erkannt, das auf einer ebenen Unterlage 12 aufliegt. Im vorliegenden Fall weist das Objekt 11 die Form einer Halbkugel auf.
  • Durch die Ansteuerung mit der Steuereinheit werden die Sensorkomponenten des optischen Sensors 1 alternierend nacheinander in zwei unterschiedlichen Betriebsarten betrieben. In der ersten Betriebsart wird die Oberflächenbeschaf fenheit des Objekts 11 ermittelt, indem ein Kontrastbild des auf der Unterlage liegenden Objekts 11 ermittelt wird. Ein solches Kontrastbild zeigt 2. Der Videoprojektor 4 wird in diesem Fall so betrieben, dass er eine homogene Beleuchtungseinheit bildet. Durch eine Binarisierung der Grauwerte der einzelnen Bildpunkte wird, wie aus 2 ersichtlich, im Kontrastbild das Objekt 11 als dunkler zusammenhängender Bereich vor einem hellen, von der Unterlage gebildeten Hintergrund erhalten.
  • In der zweiten Betriebsart wird der optische Sensor 1 als ein nach dem Triangulationsprinzip arbeitender Distanzsensor betrieben. In dieser Betriebsart wird der Videoprojektor 4 derart betrieben, dass mit diesem ein Streifenmuster generiert wird, das auf die Unterlage und die Objektoberfläche projiziert wird. Das vom Videoprojektor 4 generierte Streifenmuster besteht, wie aus dem Bild gemäß 3 ersichtlich, aus einer Folge parallel laufender Streifen 13. Um die einzelnen Streifen 13 voneinander unterscheiden zu können, können diese unterschiedliche Breiten oder Abstände zueinander aufweisen.
  • Wie aus 3 weiter ersichtlich, wurden die Streifen 13 im Bereich des Objekts 11 verzerrt, wobei die Verzerrungen das Höhenprofil des Objekts 11 kennzeichnen. Mit der Flächenkamera 2 werden diese Streifen 13 und deren Verzerrungen detektiert. In der Auswerteeinheit 5 wird durch Auswertung der Verzerrungen der Streifen 13 Distanzwerte des Objekts 11 und der Unterlage und damit das Höhenprofil und die Form des Objekts 11 bestimmt.
  • In jedem Zyklus werden die beiden für die zwei Betriebsarten ermittelten Bilder (gemäß 2 und 3) in der Auswerteeinheit 5 zusammen ausgewertet, so dass die in der ersten Betriebsphase bei der Ermittlung der Oberflächenbeschaffenheit ermittelten Intensitätswerte für die einzelnen Bildpunkte einerseits und die in der zweiten Betriebsphase für die einzelnen Bildpunkte ermittelten Distanzwerte zusammengeführt sind.
  • Diese Bildinformationen können in einer erweiterten BLOB-(binarized large object)Analyse dazu verwendet werden, das zu detektierende Objekt 11 von dem von der Unterlage gebildeten Hintergrund zu separieren. Das so separierte Objekt 11 kann dann hinsichtlich seiner Form und Oberflächenbeschaffenheit analysiert werden.
  • 4 zeigt die Sensorkomponente eines zweiten Ausführungsbeispiels eines optischen Sensors 1. Das Sensorgehäuse 6 und die Auswerteeinheit 5, die analog zur Ausführungsform gemäß 1 vorhanden sind, sind in 4 nicht gesondert dargestellt. Die Anordnung gemäß 4 ist gegenüber dem Ausführungsbeispiel gemäß 1 dahingehend erweitert, dass außer dem Videoprojektor 4 als weitere Beleuchtungseinheit eine Leuchtdiodenanordnung 14 vorgesehen ist. Der Videoprojektor 4 und die Beleuchtungseinheit sind beidseits der Flächenkamera 2 angeordnet, die wiederum als Schwarz/Weiß-Kamera ausgebildet ist.
  • In der ersten Betriebsphase, in welcher zur Ermittlung der Oberflächenbeschaffenheit mit der Flächenkamera 2 wieder Kontrastbilder von zu detektierenden Objekten 11 generiert werden, wird über die in der Auswerteeinheit 5 integrierte Steuereinheit die Leuchtdiodenanordnung zur homogenen Ausleuchtung einer Szene aktiviert, während der Videoprojektor 4 deaktiviert ist.
  • In der zweiten Betriebsphase erfolgen wieder Distanzmessungen nach dem Triangulationsprinzip. In diesem Fall ist die Leuchtdiodenanordnung deaktiviert, während der Videoprojektor 4 zur Generierung des Streifenmusters aktiviert ist.
  • Die Signalauswertung zur Objekterfassung erfolgt analog zur Ausführungsform gemäß 1.
  • 5 zeigt die Sensorkomponente eines dritten Ausführungsbeispiels eines optischen Sensors 1. Das Sensorgehäuse 6 und die Auswerteeinheit 5, die ana log zur Ausführungsform gemäß 1 vorhanden sind, sind in 5 nicht gesondert dargestellt.
  • Bei der Ausführungsform gemäß 5 sind zur Oberflächenerfassung von Objekten 11 während der ersten Betriebsphase und zur Distanzmessung während der zweiten Betriebsphase unterschiedliche Flächenkameras 2, 2' vorgesehen. Als Flächenkamera 2 zur Durchführung der Oberflächenerfassung ist wiederum eine Schwarz/Weiß-Kamera vorgesehen. Die Distanzmessung während der zweiten Betriebsphase erfolgt im vorliegenden Fall durch eine Lichtlaufzeitmessung. Je nachdem ob die Distanzmessung nach einem Pulslaufzeitverfahren oder nach einem Phasenmessverfahren erfolgt, ist die hierzu verwendete Flächenkamera 2' als TOF-(time of flight)-Kamera oder als PMD(Photonic Mixer Device)-Kamera ausgebildet.
  • Als Beleuchtungseinheit ist bei der Ausführungsform gemäß 5 ein Videoprojektor 4 vorgesehen. Die mit dem Videoprojektor 4 generierten Lichtstrahlen 7 werden auf das Objekt 11 projiziert. Die von dort reflektierten Lichtstrahlen 7 werden über einen Strahlteiler 15 beiden Flächenkameras 2, 2' zugeführt. In der ersten Betriebsphase zur Oberflächenerfassung des Objekts 11 emittiert der Videoprojektor 4 vorzugsweise homogenes Licht in Form von Gleichlicht. Dabei ist nur die erste Flächenkamera 2 aktiviert. In der zweiten Betriebsphase zur Durchführung der Distanzmessungen emittiert der Videoprojektor 4 pulsförmiges Licht oder mit einer Modulationsfrequenz moduliertes Gleichlicht, je nachdem, ob die Distanzmessung nach einem Pulslaufzeitverfahren oder nach einem Phasenmessverfahren erfolgt. Das vom Videoprojektor 4 emittierte Licht ist dabei insofern homogen, dass dieses keine Streifenmuster enthält. Dabei ist in der zweiten Betriebsphase nur die zweite Flächenkamera 2' aktiviert.
  • Die Signalauswertung erfolgt wieder analog zum Ausführungsbeispiel gemäß 1.
  • 1
    Optischer Sensor
    2
    Flächenkamera
    2'
    Flächenkamera
    3
    Optik
    4
    Videoprojektor
    5
    Auswerteeinheit
    6
    Sensorgehäuse
    7
    Lichtstrahl
    8
    Lichtquelle
    9
    LCD-Array
    10
    Optik
    11
    Objekt
    12
    Unterlage
    13
    Streifen
    14
    Leuchtdiodenanordnung
    15
    Strahlteiler

Claims (16)

  1. Optischer Sensor mit wenigstens einer Flächenkamera, wenigstens einer Beleuchtungseinheit mit einer Steuereinheit zur Steuerung der wenigstens einen Beleuchtungseinheit und/oder Flächenkamera und mit einer Auswerteeinheit, in welcher Ausgangssignale der Flächenkamera auswertbar sind, dadurch gekennzeichnet, dass der optische Sensor (1) alternierend in zwei Betriebsarten betrieben ist, wobei in einer ersten Betriebsart eine Oberflächenerfassung eines Objekts (11) erfolgt, indem für die einzelnen Bildpunkte der Flächenkamera (2) Farb- oder Intensitätswerte bestimmt werden, und wobei in einer zweiten Betriebsart die Form des Objekts (11) bestimmt wird, indem für jeden Bildpunkt der Flächenkamera (2) Distanzwerte des Objekts (11) ermittelt werden, und dass in der Auswerteeinheit (5) die Informationen der Oberflächen- und Formerfassung zusammengeführt werden.
  2. Optischer Sensor nach Anspruch 1, dadurch gekennzeichnet, dass alternierend jeweils ein Bild mit Distanzwerten und ein Bild mit Farb- oder Intensitätswerten ermittelt wird.
  3. Optischer Sensor nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Distanzmessungen nach dem Triangulationsprinzip durchgeführt werden.
  4. Optischer Sensor nach Anspruch 3, dadurch gekennzeichnet, dass die Beleuchtungseinheit zur Durchführung der nach dem Triangulationsprinzip erfolgenden Distanzmessungen als Videoprojektor (4) oder als Vi deogenerator ausgebildet ist, mittels dessen auf der Objektoberfläche ein Streifenmuster generiert wird.
  5. Optischer Sensor nach Anspruch 4, dadurch gekennzeichnet, dass die Streifen (13) des Streifenmusters unterschiedlich ausgebildet sind.
  6. Optischer Sensor nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Flächenkamera (2) zur Durchführung der nach dem Triangulationsprinzip erfolgenden Distanzmessungen von einer Schwarz/Weiß- oder Farbkamera gebildet ist, wobei diese auch zur Oberflächenerfassung des Objekts (11) eingesetzt wird.
  7. Optischer Sensor nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Distanzmessungen mittels einer Lichtlaufzeitmessung durchgeführt werden.
  8. Optischer Sensor nach Anspruch 7, dadurch gekennzeichnet, dass die Flächenkamera (2) zur Durchführung der nach einer Lichtlaufzeitmessung erfolgenden Distanzmessungen von einer TOF(time of flight)- oder von einer PMD(Photonic Mixer Device)-Kamera gebildet ist.
  9. Optischer Sensor nach Anspruch 8, dadurch gekennzeichnet, dass zur Oberflächenerfassung eine separate Flächenkamera (2') in Form einer Schwarz/Weiß- oder Farbkamera eingesetzt wird.
  10. Optischer Sensor nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass zur Durchführung der nach einer Lichtlaufzeitmessung erfolgenden Distanzmessung eine Beleuchtungseinheit eingesetzt wird, mittels derer die Objektoberfläche homogen beleuchtet ist.
  11. Optischer Sensor nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass zur Oberflächenerfassung eine Beleuchtungseinheit eingesetzt wird, mittels derer die Objektoberfläche homogen beleuchtet ist.
  12. Optischer Sensor nach Anspruch 11, dadurch gekennzeichnet, dass zur Durchführung der nach einer Lichtlaufzeitmessung erfolgenden Distanzmessung und zur Oberflächenerfassung dieselbe Beleuchtungseinheit verwendet wird.
  13. Optischer Sensor nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, dass die oder jede Beleuchtungseinheit zur homogenen Oberflächenbeleuchtung von einem Videoprojektor (4) oder einer Leuchtdiodenanordnung gebildet ist.
  14. Optischer Sensor nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass die oder jede Flächenkamera (2, 2') von einem CCD- oder CMOS-Array gebildet ist.
  15. Optischer Sensor nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass die Steuereinheit Bestandteil der Auswerteeinheit (5) ist.
  16. Optischer Sensor nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, dass mittels einer erweiterten BLOB-(binarized large object)-Analyse unter Heranziehung ermittelter Distanzwerte sowie Farb- und Intensitätswerte Objekte (11) von einem Hintergrund separierbar sind.
DE102009018464.3A 2009-04-22 2009-04-22 Optischer Sensor Active DE102009018464B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009018464.3A DE102009018464B4 (de) 2009-04-22 2009-04-22 Optischer Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009018464.3A DE102009018464B4 (de) 2009-04-22 2009-04-22 Optischer Sensor

Publications (2)

Publication Number Publication Date
DE102009018464A1 true DE102009018464A1 (de) 2010-11-11
DE102009018464B4 DE102009018464B4 (de) 2014-10-30

Family

ID=42932267

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009018464.3A Active DE102009018464B4 (de) 2009-04-22 2009-04-22 Optischer Sensor

Country Status (1)

Country Link
DE (1) DE102009018464B4 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010060851A1 (de) * 2010-11-29 2012-05-31 Breitmeier Messtechnik Gmbh Verfahren zur Analyse der Mikrostruktur von Werkstückoberflächen
DE102011104550A1 (de) * 2011-06-17 2012-12-20 Precitec Kg Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
DE102014002454A1 (de) * 2014-02-25 2015-08-27 Vdeh-Betriebsforschungsinstitut Gmbh Vorrichtung und Verfahren zum Ermitteln von Planheitsabweichungen beim Behandeln eines bandförmigen Guts
DE102014207022A1 (de) * 2014-04-11 2015-10-29 Siemens Aktiengesellschaft Tiefenbestimmung einer Oberfläche eines Prüfobjektes
EP2980527A1 (de) * 2014-08-01 2016-02-03 GOM Gesellschaft für optische Meßtechnik mbH Messeinrichtung zum dreidimensionalen optischen vermessen von objekten mit einem topometrischen sensor sowie verwendung eines multi-laserchip-bauelementes
WO2016050701A1 (en) * 2014-09-29 2016-04-07 Politecnico Di Milano Method and device for detecting the form of sails
DE102016214455A1 (de) * 2016-08-04 2018-02-08 Ifm Electronic Gmbh Lichtschnittsensor
DE102019124142A1 (de) * 2019-09-09 2021-03-11 pmdtechnologies ag Lichtlaufzeitkamerasystem

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69628956T2 (de) * 1995-07-26 2004-05-27 Stephen James Waltham Cross Crampton Abtastvorrichtung und -verfahren
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69628956T2 (de) * 1995-07-26 2004-05-27 Stephen James Waltham Cross Crampton Abtastvorrichtung und -verfahren
US20060239558A1 (en) * 2005-02-08 2006-10-26 Canesta, Inc. Method and system to segment depth images and to detect shapes in three-dimensionally acquired data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
S.E. Ghobadi et al.: Hand Segmentation Using 2D / 3D Images. In: Proceedings of Image and Vision Computing New Zealand 2007, Dec. 2007, S. 64-69 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010060851A1 (de) * 2010-11-29 2012-05-31 Breitmeier Messtechnik Gmbh Verfahren zur Analyse der Mikrostruktur von Werkstückoberflächen
DE102011104550A1 (de) * 2011-06-17 2012-12-20 Precitec Kg Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
DE102011104550B4 (de) * 2011-06-17 2014-04-30 Precitec Kg Optische Messvorrichtung zur Überwachung einer Fügenaht, Fügekopf und Laserschweißkopf mit der selben
US10166630B2 (en) 2011-06-17 2019-01-01 Precitec Kg Optical measuring device for monitoring a joint seam, joining head and laser welding head with same
DE102014002454A1 (de) * 2014-02-25 2015-08-27 Vdeh-Betriebsforschungsinstitut Gmbh Vorrichtung und Verfahren zum Ermitteln von Planheitsabweichungen beim Behandeln eines bandförmigen Guts
DE102014207022A1 (de) * 2014-04-11 2015-10-29 Siemens Aktiengesellschaft Tiefenbestimmung einer Oberfläche eines Prüfobjektes
US10247548B2 (en) 2014-04-11 2019-04-02 Siemens Aktiengesellschaft Measuring depth of a surface of a test object
EP2980527A1 (de) * 2014-08-01 2016-02-03 GOM Gesellschaft für optische Meßtechnik mbH Messeinrichtung zum dreidimensionalen optischen vermessen von objekten mit einem topometrischen sensor sowie verwendung eines multi-laserchip-bauelementes
WO2016050701A1 (en) * 2014-09-29 2016-04-07 Politecnico Di Milano Method and device for detecting the form of sails
US10502834B2 (en) 2014-09-29 2019-12-10 Politecnico Di Milano Method and device for detecting the form of sails
DE102016214455A1 (de) * 2016-08-04 2018-02-08 Ifm Electronic Gmbh Lichtschnittsensor
DE102019124142A1 (de) * 2019-09-09 2021-03-11 pmdtechnologies ag Lichtlaufzeitkamerasystem

Also Published As

Publication number Publication date
DE102009018464B4 (de) 2014-10-30

Similar Documents

Publication Publication Date Title
DE102009018464B4 (de) Optischer Sensor
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102008002730B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE102013013791B4 (de) Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen
EP2799810A1 (de) Vorrichtung und Verfahren zum simultanen dreidimensionalen Vermessen von Oberflächen mit mehreren Wellenlängen
DE102008002725B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE202012104890U1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009009372A1 (de) Monitoring von kippbaren Spiegeln
DE102015113051A1 (de) Messvorrichtung, Leiterplattenprüfvorrichtung und Verfahren zu deren Steuerung
WO2004051186A1 (de) Verfahren und vorrichtung zur optischen formvermessung und/oder beurteilung
WO2012095088A1 (de) Vorrichtung und verfahren zur dreidimensionalen optischen vermessung von oberflächen
DE102013111761A1 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
DE102014115650B4 (de) Inspektionssystem und Verfahren zur Fehleranalyse
DE102014104903A1 (de) Verfahren und Sensor zum Erzeugen und Erfassen von Mustern auf einer Oberfläche
DE102009015204A1 (de) Optischer Sensor
WO2007134567A1 (de) Verfahren zum erzeugen von bildinformationen
WO2006103191A1 (de) Vorrichtung zur bestimmung von raumkoordinaten von objektoberflächen
DE102006061712A1 (de) Erstellung eines Abstandsbildes
DE102018105794A1 (de) Abbildung eines Objektes mittels Schattenwurf
DE102016109131B4 (de) Verfahren zur dreidimensionalen Erfassung eines Objekts
DE102004016829B4 (de) Verfahren und Vorrichtung zur Ermittlung der Farbe von Schüttgut
WO2008141924A1 (de) Verfahren und vorrichtung zur oberflächenerfassung eines räumlichen objektes
DE10301094B4 (de) Vorrichtung zur Messung des Abstandes von Entfernungspunkten zu einer Kamera
DE102018101995B3 (de) 6Vorrichtung zur Messung nach dem Lichtschnitt-Triangulationsverfahren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final