[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102017129654A1 - 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen - Google Patents

3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen Download PDF

Info

Publication number
DE102017129654A1
DE102017129654A1 DE102017129654.9A DE102017129654A DE102017129654A1 DE 102017129654 A1 DE102017129654 A1 DE 102017129654A1 DE 102017129654 A DE102017129654 A DE 102017129654A DE 102017129654 A1 DE102017129654 A1 DE 102017129654A1
Authority
DE
Germany
Prior art keywords
light
scene
sensor system
characteristic
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017129654.9A
Other languages
English (en)
Inventor
Urs Hunziker
Johannes Eckstein
Christian Seiler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bircher Reglomat AG
Original Assignee
Bircher Reglomat AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bircher Reglomat AG filed Critical Bircher Reglomat AG
Priority to DE102017129654.9A priority Critical patent/DE102017129654A1/de
Publication of DE102017129654A1 publication Critical patent/DE102017129654A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/499Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using polarisation effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Beschrieben wird ein Sensorsystem (100) sowie ein Verfahren zum dreidimensionalen Erfassen einer Szene (190). Das Sensorsystem (190) weist auf (a) eine Beleuchtungseinrichtung (140) zum Beleuchten der Szene (190) mit Beleuchtungslicht (141); (b) eine Messeinrichtung (110), welche eingerichtet ist (b1) zum Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene (190) enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (141) ist, (b2) zum Ermitteln von Distanzen basierend auf einer Lichtlaufzeit des Beleuchtungslichts (141) und des Messlichts (196) und (b3) zum Erfassen von zumindest einem charakteristischen Merkmal der elektromagnetischen Wellen des empfangenen Messlichts (196); und eine Datenverarbeitungseinrichtung (150), welche der Messeinrichtung (100) nachgeschaltet ist und welche eingerichtet ist, ein in der Szene (190) vorhandenes Objekt (195) basierend auf gemessenen Distanzen und auf dem erfassten charakteristischen Merkmal zu erkennen. Ferner werden verschiedene Verwendungen für ein solches Sensorsystem (100) beschrieben.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft ein Sensorsystem sowie ein Verfahren zum dreidimensionalen Erfassen einer Szene basierend auf Laufzeitmessungen. Ferner betrifft die vorliegende Erfindung mehrere Verwendungen eines solchen Sensorsystems.
  • Hintergrund der Erfindung
  • Zum Öffnen und/oder Verschließen von Öffnungen werden häufig mittels Aktuatoren betriebene Verschließkörper verwendet, welche für Bedienpersonen die Handhabung des betreffenden Verschließkörpers erleichtern oder ohne jede Bedienaktion automatisch betrieben werden, wenn beispielsweise ein die Öffnung zu passierendes Objekt in den Bereich der Öffnung gelangt. Eine solche Öffnung kann beispielsweise ein Durchgang in einem Gebäude sein. Ein Verschließkörper kann beispielsweise eine Tür oder ein Tor sein.
  • Um eine hohe Betriebssicherheit von automatisch zu öffnenden und zu schließenden Verschließkörpern zu erreichen, ist es bekannt, den Bereich vor oder innerhalb einer mit einem Verschließkörper bedeckbaren Öffnung mittels eines optischen Sensorsystems zu erfassen. Damit kann zum einen sichergestellt werden, dass beim Verschießen der Öffnung nicht versehentlich ein Objekt, beispielsweise eine Person, von dem Verschließkörper eingeklemmt wird. Außerdem kann bei manchen Applikationen ein solches Sensorsystem ein automatisches Öffnen des Verschließkörpers bzw. der Öffnung veranlassen.
  • Aus EP 2 453 252 B1 ist für den Anwendungsbereich der Überwachung von automatisch zu öffnenden Türen und/oder Toren ein 3D-Sensorsystem bekannt, welches auf dem Prinzip der Laufzeitmessung von Lichtstrahlen beruht, die von Beleuchtungsquellen ausgesandt und nach einer zumindest teilweisen Reflexion bzw. (Rück)Streuung von einem Lichtempfänger detektiert werden. Solche Sensorsysteme werden allgemein als „Time-of-Flight“ (TOF) Sensorsysteme bezeichnet.
  • TOF Sensorsysteme haben jedoch allgemein den Nachteil, dass mit zunehmendem Abstand d des zu erfassenden Objekts die Intensität des von einem Lichtempfänger des TOF Sensorsystems zu erfassenden (zurückgestreuten) Messlichts in zweifacher Hinsicht geschwächt ist. Eine erste Schwächung betrifft den distanzbasierten Verlust der Lichtstrahlen auf dem Weg von der Beleuchtungsquelle zu einem Objekt, an dem das Beleuchtungslicht gestreut wird. Eine zweite Schwächung betrifft den distanzbasierten Verlust der gestreuten Lichtstrahlen des Messlichts auf dem Weg von dem Objekt bis zu dem Lichtempfänger. Aus diesen Gründen ist eine relative hohe Intensität von Beleuchtungslicht erforderlich, um eine zuverlässige 3D Szenenerfassung zu gewährleisten. Eine hohe Beleuchtungslichtintensität ist jedoch mit einem hohen Energieverbrauch verbunden, was die Einsatzmöglichkeiten für TOF Sensorsysteme einschränkt.
  • Eine besonders hohe Beleuchtungslichtintensität ist erforderlich, wenn sehr helle Objekte und insbesondere selbst leuchtende Objekte dreidimensional erfasst werden sollen. Selbst leuchtende Objekte sind in der Praxis häufig Objekte, die von Fremdlicht, beispielsweise von Sonnenlicht, angeleuchtet werden.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde eine aus energetischer Sicht effiziente und trotzdem zuverlässige dreidimensionale Erfassung einer Szene, welche auch relativ hell und/oder weit entfernte Objekte umfasst, zu ermöglichen.
  • Zusammenfassung der Erfindung
  • Diese Aufgabe wird gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhafte Ausführungsformen der vorliegenden Erfindung sind in den abhängigen Ansprüchen beschrieben.
  • Gemäß einem ersten Aspekt der Erfindung wird ein Sensorsystem zum dreidimensionalen Erfassen einer Szene beschrieben. Das beschriebene Sensorsystem weist auf (a) eine Beleuchtungseinrichtung zum Beleuchten der Szene mit Beleuchtungslicht; (b) eine Messeinrichtung, welche eingerichtet ist (b1) zum Empfangen von Messlicht, welches zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt zurückgestreutes Beleuchtungslicht ist, (b2) zum Ermitteln von Distanzen basierend auf einer Lichtlaufzeit des Beleuchtungslichts und des Messlichts und (b3) zum Erfassen von zumindest einem charakteristischen Merkmal der elektromagnetischen Wellen des empfangenen Messlichts; und (c) eine Datenverarbeitungseinrichtung, welche der Messeinrichtung nachgeschaltet ist und welche eingerichtet ist, ein in der Szene vorhandenes Objekt basierend auf gemessenen Distanzen und auf dem erfassten charakteristischen Merkmal zu erkennen.
  • Dem beschriebenen Sensorsystem liegt die Erkenntnis zugrunde, dass ein „Time-of-Flight“ (TOF) Sensorsystem energetisch auf besonders effiziente Weise betrieben werden kann, wenn zusätzlich zu der üblichen TOF Information über die Laufzeit des Beleuchtungslichts und des Messlichts noch zumindest eine weitere Zusatzinformation über das von einem Lichtempfänger der Messeinrichtung empfangene Messlicht erfasst und zusammen mit der entsprechenden TOF Information (für jedes Pixel) des Lichtempfängers ausgewertet wird. Auf diese Weise kann das Messlicht, welches lediglich das von dem jeweiligen Objekt auf den Lichtempfänger gestreute Beleuchtungslicht ist, von anderem Licht (Störlicht oder Fremdlicht) diskriminiert werden.
  • Unter dem Begriff „Szene“ kann insbesondere derjenige räumliche Bereich verstanden werden, welcher von dem Sensorsystem optisch erfasst wird. In der Szene befindliche Objekte werden durch eine geeignete Bildauswertung erkannt. Dazu kann von der Datenverarbeitungseinrichtung auf bekannte Methoden zur Bildauswertung und/oder Bildanalyse zurückgegriffen werden. Die Datenverarbeitungseinrichtung kann demzufolge ein spezieller Bildverarbeitungsprozessor sein und einen solchen aufweisen, der konfiguriert ist, bekannte Verfahren zur Bildauswertung und/oder Bildverarbeitung anzuwenden bzw. durchzuführen.
  • Unter dem Begriff „Objekt“ kann jede räumlich körperliche Struktur verstanden werden, welche eine Oberflächenbeschaffenheit aufweist, die zu einer zumindest teilweisen Reflexion bzw. Streuung von Beleuchtungslicht führt und damit durch das resultierende Messlicht für die Messeinrichtung sichtbar ist. Das Objekt kann ein Gegenstand wie beispielsweise ein Kraftfahrzeug oder ein Lebewesen wie beispielweise ein Mensch sein. Das Objekt kann ein in Bezug auf das Sensorsystem statisches oder ruhendes Objekt sein. Ferner kann das Objekt sich auch innerhalb der Szene bewegen, dies verlassen oder in diese eintreten. Durch eine wiederholte Szenenerfassung kann dann (durch einen Vergleich der mit verschiedenen Szenenerfassungen ermittelten verschiedenen Ortspositionen) die Bewegung (nach der Gesetzmäßigkeit Geschwindigkeit = Weg / Zeit) des Objekts bestimmt werden. Hierbei können je nach Anwendungsfall der Absolutwert der Geschwindigkeit und/oder der Bewegungsvektor, d.h. zusätzlich die Bewegungsrichtung, ermittelt werden.
  • Unter dem Begriff „Beleuchtungslicht“ sind in diesem Dokument diejenigen elektromagnetischen Wellen zu verstehen, welche von einer Lichtquelle der Beleuchtungseinrichtung ausgesandt werden und auf das betreffende Objekt der Szene treffen. Das „Messlicht“ sind die von bzw. an dem Objekt reflektierten bzw. zurückgestreuten elektromagnetischen Wellen, welche von der Messeinrichtung bzw. einem Lichtempfänger der Messeinrichtung empfangen und für die dreidimensionale Auswertung der Szene, zusammen mit den entsprechenden TOF Distanzinformationen, verwendet werden.
  • Die Begriffe „optisch“ und/oder „Licht“ können sich auf elektromagnetische Wellen beziehen, die eine bestimmte Wellenlänge bzw. Frequenz oder ein bestimmtes Spektrum von Wellenlängen bzw. Frequenzen haben. Insbesondere können die zum Einsatz kommenden elektromagnetischen Wellen dem für das menschliche Auge sichtbaren Spektralbereich zugeordnet werden. Alternativ oder in Kombination können auch elektromagnetische Wellen verwendet werden, die dem ultravioletten (UV) oder dem infraroten (IR) Spektralbereich zugeordnet sind. Der IR Spektralbereich kann sich bis in den langwelligen IR Bereich mit Wellenlängen zwischen 3,5 µm bis 15 µm erstrecken, welche mittels des Lichtempfängers des Sensors erfasst werden können.
  • Gemäß einem Ausführungsbeispiel der Erfindung ist das charakteristische Merkmal der elektromagnetischen Wellen ein charakteristisches Merkmal der einzelnen Photonen des empfangenen Messlichts. Das charakteristische Merkmal ist also nicht ein Merkmal einer Vielzahl bzw. einer Gesamtheit von Photonen eines Photonenstromes sondern ein Merkmal, welches jedes einzelne Photon des Photonenstromes charakterisiert. Dies bedeutet, dass der Begriff „charakteristisches Merkmal“ ausdrücklich nicht die Intensität bzw. die Energie eines Photonenstromes umfasst, sofern diese mit der Anzahl der Photonen pro Zeit skalieren. Der Begriff „charakteristisches Merkmal“ umfasst jedoch Merkmale, die unabhängig von der „Anzahl der Photonen pro Zeit“ einen Einfluss auf die Intensität bzw. die Energie des Messlichtes haben. Ein solches charakteristische Merkmal ist beispielsweise die Frequenz des Messlichts bzw. die Frequenz der darin enthaltenen Photonen.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Messeinrichtung eine Licht-Charakterisierungseinheit zum Erfassen des charakteristischen Merkmals der elektromagnetischen Wellen des empfangenen Messlichts auf. Die Licht-Charakterisierungseinheit ist mit der Datenverarbeitungseinrichtung gekoppelt, so dass eine Information über das erfasste charakteristische Merkmal an die Datenverarbeitungseinrichtung übergebbar ist.
  • Die Licht-Charakterisierungseinheit kann dem Lichtempfänger zugeordnet sein und das charakteristische Merkmal während des Betriebs des Sensorsystems überwachen und die entsprechende Information in Echtzeit an die Datenverarbeitungseinheit übergeben. Bei einfacheren Ausführungsformen, insbesondere bei den vorstehend beschriebenen Filtern für Wellenlänge und/oder Polarisation, kann diese Information einfach der aktuelle „Betriebszustand“ des Filters bzw. der Filterelemente sein. Bei noch einfacheren Ausführungsformen, bei denen der Filter ein statischer Filter ist bzw. die Filter statische Filter sind, kann die von der Licht-Charakterisierungseinheit an die Datenverarbeitungseinrichtung übermittelte Information einfach der (bei einer Installation des Sensorsystems eingestellte) Zustand des Filters bzw. der Filter sein.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das charakteristische Merkmal der elektromagnetischen Wellen des empfangenen Messlichts zumindest eines aus einer Gruppe, die besteht aus: (a) der Wellenlänge, (b) der spektralen Intensitätsverteilung, (c) der Polarisation, und (d) der Intensitätsverteilung für unterschiedliche Polarisationen.
  • Die Wellenlänge und/oder die spektrale Intensitätsverteilung können für eine Szenenauswertung wertvolle Informationen über die Farben der erfassten Objekte geben. Ferner kann durch das von einem Lichtempfänger der Messeinrichtung empfangene Spektrum bzw. die spektrale Verteilung des Messlichts ein Indikator von unerwünschtem Fremdlicht sein, was bei der Szenenauswertung berücksichtigt werden kann.
  • Auf den Lichtempfänger gerichtetes Fremdlicht kann beispielsweise durch eine geeignete spektrale Filterung von dem Lichtempfänger ferngehalten werden. Dies hat zur Folge, dass von dem Lichtempfänger nur oder lediglich stark bevorzugt das Messlicht mit einem bestimmten charakteristischen Merkmal erfasst und für die nachfolgende Szenenauswertung durch die Datenverarbeitungseinrichtung verwendet wird. Im Falle eines vollständigen Herausfilterns von Licht, welches nicht das charakteristische Merkmal aufweist, besteht (die Information über) das charakteristische Merkmal, welche bzw. welches von der Datenverarbeitungseinrichtung für die Objekterkennung bzw. Szenenauswertung verwendet wird, darin, dass das von dem Lichtempfänger erfasste Messlicht (zumindest annähernd) ausschließlich Licht mit diesem charakteristischen Merkmal ist. Im Falle eines nicht vollständigen Herausfilterns besteht (die Information über) das charakteristische Merkmal darin, dass ein entsprechender Anteil von erfasstem Licht ein Licht mit diesem charakteristischen Merkmal ist.
  • Die Polarisation oder Polarisationsrichtung und/oder die Intensitätsverteilung für unterschiedliche Polarisationen oder Polarisationsrichtungen können in bekannter Weise mit Polarisationsfiltern erfasst werden. Auch hier kann Licht mit einer „falschen“ Polarisation bzw. Polarisationsrichtung herausgefiltert werden, so dass es erst gar nicht von dem Lichtempfänger erfasst wird.
  • Die „Polarisation“ kann insbesondere eine lineare Polarisation entlang einer bestimmten Polarisationsrichtung sein. Die „Polarisationsrichtung“ kann bestimmt sein durch den Winkel zwischen (a) einer Vorzugsrichtung in einer Ebene senkrecht zu der Ausbreitungsrichtung des von dem Lichtempfänger erfassten Messlichts und (b) der Richtung der maximalen Intensität einer linear polarisierten elektromagnetischen Welle des Messlichts, welches auf den Lichtempfänger trifft. Im 90 Grad Winkel zu der Polarisationsrichtung liegt das Intensitätsminimum dieser elektromagnetischen Welle. Mit einem linearen Polarisationsfilter, dessen Transmissionsrichtung auf dieses Minimum ausgerichtet ist, können unerwünschte Reflexionen von Fremdlicht zumindest weitgehend ausgeblendet werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Messeinrichtung einen wellenlängenabhängiger Filter und/oder einen polarisationsabhängigen Filter auf.
  • Die beschriebenen Filter können an bzw. in einem Lichtempfänger der Messeinrichtung angeordnet bzw. integriert sein. Bevorzugt weisen die Filter eine Vielzahl von Filterelementen auf, die pixelbasiert dem Lichtempfänger zugeordnet sind. Dabei kann jedem einzelnen Pixel des Lichtempfängers ein eigenes Filterelement zugeordnet sein. Alternativ kann jeweils einer gewissen Anzahl von nebeneinander angeordneten Pixeln ein solches Filterelement zugeordnet sein.
  • Die Filter oder die Filterelemente können statische Filter sein, deren Verhalten beim Aufbau der Messeinrichtung bzw. dem Lichtempfänger festgelegt wird. Alternativ kann der Filter oder können zumindest einige der Filterelemente dynamische bzw. adaptierbare Filterelemente sein, deren Filterverhalten durch geeigneten Steuersignale verändert werden kann. Die Steuersignale können externe Steuersignale sein, die von einer Steuereinheit stammen und die das Verhalten des betreffenden Filters bzw. der betreffenden Filterelemente bestimmen. Ein externes Steuersignal kann a vorhandenes „a-priori Wissen“ über Eigenschaften der zu erfassenden Objekts bzw. der zu erfassenden Szene enthalten. Alternativ oder in Kombination können die Steuersignale auch interne Steuersignale sein, welche von der Charakteristik der jeweils zu erfassenden und von der Datenverarbeitungseinrichtung ausgewerteten Szene abhängen. Die internen Steuersignale können dann insbesondere von der Datenverarbeitungseinrichtung stammen. Eine solche szenenabhängige Steuerung der Filter bzw. der Filterelemente stellt streng genommen eine Regelung der Filtereigenschaften dar.
  • Alle beschriebenen Filter sorgen dafür, dass von der Messeinrichtung lediglich Lichtanteile erfasst werden, welche das von dem jeweiligen Filter bestimmte charakteristische Merkmal aufweisen.
  • Wellenlängenabhängige Filter können beispielsweise bekannte Farbfilter, Interferenzfilter, Kantenfilter, etc. sein. Polarisationsabhängige Filter können bekannte Polarisationsfilter sein. Auch polarisierende Strahlteiler können in diesem Zusammenhang einen polarisationsabhängigen Filter darstellen.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Messeinrichtung auf (a) einen Lichtempfänger mit einer Vielzahl von Pixel zum Empfangen von Messlicht; (b) eine dem Lichtempfänger nachgeschaltete Zeit-Messeinheit, welche konfiguriert ist die Lichtlaufzeit zu messen basierend auf (b1) einer Messung der Zeitspanne zwischen einen Aussenden eines Pulses des Beleuchtungslichts und dem Empfang des zu dem Puls gehörigen Messlichts und/oder (b2) einer Messung einer Phasenverschiebung zwischen einer zeitlichen Modulation des Beleuchtungslichts und einer zugehörigen Modulation des empfangenen Messlichts. Dies hat den Vorteil, dass das beschriebene Sensorsystem abhängig von dem jeweiligen Anwendungsfall auf eine geeignete Weise unter Ausnutzung eines jeweils geeigneten TOF Messprinzips realisiert werden kann. Bei manchen Ausführungsformen ist das Sensorsystem derart konfiguriert, dass flexibel bzw. bei Bedarf zwischen den beiden verschiedenen Messprinzipien „Pulsbetrieb“ und „Phasenmessung“ umgeschaltet werden kann.
  • Unabhängig von dem angewendeten Messprinzip weist der Lichtempfänger eine lichtsensitive Oberfläche auf, welche in eine Vielzahl von Pixeln unterteilt ist. Mit bzw. auf jedem Pixel werden diejenigen Photonen des Messlichts akkumuliert, welche aus einem bestimmten Raumwinkelbereich bzw. dem zugehörigen Teilbereich der Szene stammen. Die Messeinheit wird dazu verwendet, für jeden Pixel die Laufzeit der zugehörigen Lichtstrahlen des Beleuchtungslichts und des Messlichts zu ermitteln.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist der Lichtempfänger auf (a) erste Pixel für ein Erfassen der Lichtlaufzeit und (b) zweite Pixel für ein Erfassen des charakteristischen Merkmals. Dies hat den Vorteil, dass jede Art von Pixel für ihren Erfassungszweck optimal konfiguriert werden kann.
  • Bei manchen Ausführungsformen sind die ersten Pixel konfiguriert, einfallendes Messlicht mit einem möglichst geringen Intensitätsverlust zu empfangen. Dies bedeutet, dass, ggf. abgesehen von Schichten zum (mechanischen) Schutz des Lichtempfängers, keine zusätzlichen (ungewollt) Licht absorbierenden oder Licht reflektierenden Schichten vorhanden sind, so dass für die Laufzeitmessung keine Lichtintensität verloren geht und die entsprechend hohe Photonenakkumulation zu einem geringen statistischen Rauschen und damit zu einer genauen TOF Messung beiträgt.
  • Die zweiten Pixel können mit jeweils einem Filterelement versehen sein, welches, wie vorstehend beschrieben, ein wellenlängenabhängiges Filterelement oder ein polarisationsabhängiges Filterelement sein kann. Auch eine Kombination von jeweils einem wellenlängenabhängigen Filterelement und einem polarisationsabhängigen Filterelement für einen zweiten Pixel ist möglich.
  • Es wird darauf hingewiesen, dass der Lichtempfänger auch dritte Pixel aufweisen kann, wobei die zweiten Pixel ein zweites charakteristisches Merkmal, beispielsweise die Wellenlänge, und die dritten Pixel ein drittes charakteristisches Merkmal, beispielsweise die Polarisation, erfassen.
  • Die verschiedenen Arten von Pixel können abwechselnd angeordnet sein. Dies kann entlang einer oder bevorzugt entlang zweier Raumrichtungen der Fall sein. Dadurch wird zwar die räumliche Auflösung reduziert, die erfasste Zusatzinformation über das charakteristische Merkmal kann diesen Nachteil jedoch in vielen Fällen (über)kompensieren. Bei einer abwechselnden Anordnung entlang zweier Raumrichtungen können die ersten Pixel und die zweiten Pixel entsprechend den schwarzen und weißen Feldern eines Schachbrettmusters angeordnet sein.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist der Lichtempfänger auf (a) einen ersten Sensor mit einer ersten Pixelkonfiguration für ein Erfassen der Lichtlaufzeit und (b) einen zweiten Sensor mit einer zweiten Pixelkonfiguration für ein Erfassen des charakteristischen Merkmals. Auch diese Ausführungsform hat den Vorteil, dass sowohl für die Lichtlaufzeiterfassung auch als für die Erfassung des charakteristischen Merkmals jeweils ein optimal konfigurierter Sensor verwendet werden kann.
  • Die beiden Sensoren können separate, ggf. sogar räumlich voneinander getrennte Sensoren sein. In diesem Fall sollte durch eine geeignete Optik dafür Sorge getragen werden, dass die separaten Sensoren beide den gleichen oder annähernd gleichen Bereich der Szene erfassen, so dass über zwei getrennte optische Abbildungen jedem Punkt bzw. jedem Teilbereich der Szene bestimmte Pixel der beiden Pixelkonfigurationen zugeordnet sind. Die beiden Sensoren können jedoch auch verschiedene Teilbereiche von ein- und demselben Sensor sein, welcher insbesondere ein Halbleitersensor bzw. eine Sensorchip sein kann.
  • Die erste Pixelkonfiguration und/oder die zweite Pixelkonfiguration können zueinander unterschiedlich sein in Bezug auf (i) die Anzahl der Pixel, (ii) die Größe bzw. die Auflösung der Pixel, und/oder (iii) die optischen Empfangscharakteristiken (z.B. Polarisation, Farbe, spektrale Verteilung). Die Pixelkonfigurationen können bei bestimmten Ausführungsformen auch dynamisch veränderbar sein. Dies kann von extern z.B. basierend auf einen „a-priori Wissen“ über die optischen Eigenschaften des zu erkennenden Objekts veranlasst werden oder szenenspezifisch basierend auf den Ergebnissen von (vorherigen) Szenenauswertungen erfolgen. Eine dynamische Änderung der Pixelkonfiguration kann auch mit einer Lichtempfänger-Steuereinrichtung erfolgen, welche nachstehend in Zusammenhang mit einem anderen Ausführungsbeispiel beschrieben ist.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist die Messeinrichtung ferner eine mit dem Lichtempfänger gekoppelte Lichtempfänger-Steuereinrichtung auf, wobei die Lichtempfänger-Steuereinrichtung und der Lichtempfänger derart konfiguriert sind, dass in einem modifizierten Betrieb des Sensorsystems zumindest zwei Pixel der Vielzahl von Pixel zu einem übergeordneten Pixel zusammengefasst sind.
  • Typischerweise werden zumindest einige der Vielzahl von Pixel dahingehend zusammengefasst, dass jeweils eine gewisse Anzahl von Pixel zu einem übergeordneten Pixel zusammengefasst wird. Die gewisse Anzahl kann dabei beispielsweise (bevorzugt) zwei, drei, (bevorzugt) vier, sechs, (bevorzugt) acht, oder (bevorzugt) neun sein. Selbstverständlich ist auch eine noch stärkere Zusammenfassung von Pixeln möglich.
  • Ein solches Zusammenfassen von Pixel, welches auch als „Binning“ bezeichnet wird, hat die Wirkung, dass auf Kosten der räumlichen Auflösung die Anzahl an Photonen des Messlichts, die während einer Szenenerfassung von einem Pixel eingesammelt bzw. akkumuliert werden, entsprechend der Anzahl an zu einem übergeordneten Pixel zusammengefassten Pixel erhöht wird. Dadurch verringert sich insbesondere bei einem schwachen Messlicht das sog. statistische Photonenrauschen, was die Szenenauswertegenauigkeit verbessert. Ein „Binning“ ist deshalb insbesondere bei einem schwachen Messlicht dann von Vorteil, wenn eine hohe räumliche Auflösung nicht (zwingend) erforderlich ist.
  • Es wird darauf hingewiesen, dass über die Fläche des Lichtempfängers ein Binning auch lokal in lediglich zumindest einem Teilbereich der aktiven Flächen des Lichtempfängers durchgeführt werden kann. Dies führt dann zwar zu einer inhomogenen räumlichen Auflösung, welche nicht unbedingt gewünscht ist. Der Nachteil einer solchen inhomogenen räumlichen Auflösung wird aber in vielen Anwendungsfällen durch die erhöhte Photonenakkumulation überkompensiert. Ein lokales „Binning“ kann zumindest bei einigen bekannten Lichtempfängern ohne besondere elektronische oder apparative Elemente einfach durch eine entsprechende Ansteuerung des Lichtempfängers erfolgen, welche Ansteuerung das „Binning“ und damit den Betriebsmodus des Sensorsystems bestimmt.
  • Bei bevorzugten Ausführungsformen wird ein lokales „Binning“ dahingehend durchgeführt, dass, von der Messeinrichtung gemessen und/oder von der Datenverarbeitungseinrichtung erlernt, genau diejenigen Bereiche des Lichtempfängers, welche bei zumindest einer vorherigen Szenenerfassung zu wenig Lichtenergie erhalten haben, durch eine geeignete Ansteuerung des Lichtempfängers durch die Lichtempfänger-Steuereinrichtung bei nachfolgenden Szenenerfassungen in geeigneter Weise zu übergeordneten Pixel zusammengefasst werden. Ein solches dynamisch gesteuertes oder - genauer ausgedrückt - geregeltes „Binning“ kann während eines üblichen Betriebs des Sensorsystems (erlernt) und/oder während der Konfiguration des Sensorsystems beispielsweise im Rahmen einer (Erst)Installation, einer Wartung, einer zyklischen bzw. automatischen Re-Konfiguration etc. durchgeführt werden.
  • Es wird darauf hingewiesen, dass bei einer nicht quadratischen Anzahl an zu einem übergeordneten Pixel zusammengefassten einzelnen Pixeln die räumliche Auflösung des Lichtempfängers entlang unterschiedlicher Richtungen jedenfalls dann unterschiedlich ist, wenn die einzelnen Pixel eine quadratische Form haben.
  • Dies kann bei manchen Anwendungsfällen in vorteilhafter Weise ausgenutzt werden. Ein solcher Anwendungsfall liegt beispielsweise dann vor, wenn eine Bewegung eines Objekts der Szene entlang einer vorbekannten Raumrichtung mit hoher Genauigkeit erfasst werden soll. In einem solchen Fall kann die Anzahl an Pixel, welche entlang einer Linie senkrecht zu dieser vorbekannten Raumrichtung (so wie sie auf dem Lichtempfänger abgebildet ist) angeordnet sind, größer sein als die Anzahl an Pixel, welche entlang einer dazu senkrechten Linie angeordnet sind. Dann ist die räumliche Auflösung entlang der Bewegungsrichtung größer als die räumliche Auflösung senkrecht zu der Bewegungsrichtung und das Bewegungsprofil eines solchen linear bewegten Objekts kann mit einer besonders hohen Genauigkeit auch bei einem vergleichsweise schwachen Messlicht ermittelt werden.
  • Es wird ferner darauf hingewiesen, dass das beschriebene Binning auch adaptiv als Reaktion auf zumindest eine zuvor erfasste (und ausgewertete) Szenencharakteristik (auf automatische Weise) aktiviert werden kann. Dies bedeutet, dass das „Binning“ von der Lichtempfänger-Steuereinrichtung nicht nur gesteuert sondern abhängig von den durch eine Szenenauswertung gewonnenen Ergebnissen geregelt wird. Dadurch wird eine besonders zuverlässige Szenenerfassung auch bei schwachem Messlicht ermöglicht, so dass das beschriebene Sensorsystem auch mit einem entsprechend schwachen Beleuchtungslicht und damit auf energieeffiziente Weise betrieben werden kann.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Sensorsystem ferner eine mit der Beleuchtungseinrichtung gekoppelte Beleuchtungslicht-Steuereinrichtung auf, welche konfiguriert ist, die Beleuchtungseinrichtung derart anzusteuern, dass eine Charakteristik des Beleuchtungslichts während eines Betriebes des Sensorsystems veränderbar ist.
  • Durch eine (dynamische) Veränderbarkeit der Charakteristik des Beleuchtungslichts kann ein und dieselbe Szene bei unterschiedlichen Beleuchtungsbedingungen (nacheinander) mehrfach aufgenommen werden. Dadurch stehen der Datenverarbeitungseinrichtung unterschiedliche Datensätze von ein und derselben Szene zur Verfügung, sodass mittels einer geeigneten Methode der Bildanalyse (von der Datenverarbeitungseinrichtung) derjenige Datensatz für die Ermittlung der dreidimensionalen Charakteristik der Szene verwendet werden kann, welcher die Szene am genauesten wiedergibt. Dabei kann gegebenenfalls ein „a priori Wissen“ über die optischen und/oder geometrischen Eigenschaften von in der Szene befindlichen Objekten berücksichtigt werden.
  • Ferner kann eine optimale Beleuchtungscharakteristik auch nach dem Prinzip „Try-and-Error“ oder durch andere statistische Optimierungsprozeduren ermittelt werden. Dies kann dynamisch während eines reellen Betriebs des Sensorsystems oder im Rahmen einer Kalibrierung mittels einer Erkennung von geeigneten Referenzobjekten erfolgen.
  • Bei manchen Ausführungsformen können auch die bei unterschiedlichen Beleuchtungscharakteristiken aufgenommenen 3D Bilder der Szene gemeinsam verarbeitet werden, sodass für eine finale Ermittlung der 3D Charakteristik der Szene ein umfangreicher Datensatz zur Verfügung steht. Bei einer solchen gemeinsamen Verarbeitung können unterschiedliche Teilbereiche der Szene dadurch charakterisiert werden, dass für einen ersten Teilbereich ein bei einer ersten Beleuchtungscharakteristik aufgenommener erster Teil-Datensatz und für einen zweiten Teilbereich der bei einer zweiten Beleuchtungscharakteristik aufgenommene zweiter Teil-Datensatz für die Ermittlung der Gesamtcharakteristik der Szene verwendet werden. Selbstverständlich können für die Erfassung der Gesamtcharakteristik der Szene auch mehr als drei Datensätze herangezogen werden, welche jeweils einer unterschiedlichen Beleuchtung Lichtcharakteristik zugeordnet sind.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Charakteristik des Beleuchtungslichts durch zumindest eines der folgenden Merkmale bestimmt: (a) Wellenlänge; (b) spektrale Intensitätsverteilung; (c) Polarisationsrichtung und (d) Intensitätsverteilung für unterschiedliche Polarisationsrichtungen. Dies hat den Vorteil, dass die Beleuchtung an die Art und/oder an den Wert des erfindungsgemäß zu erfassenden charakteristischen Merkmals der elektromagnetischen Wellen des empfangenen Messlichts angepasst werden kann. Dadurch kann die Erfassung des charakteristischen Merkmals sowohl erleichtert aus auch die Zuverlässigkeit der Erfassung erhöht werden.
  • Durch eine anwendungsspezifische Verwendung von einem dieser Merkmale oder durch eine geeignete Kombination von zumindest zweien dieser Merkmale können zudem die zu erkennenden Objekte besonders gut beleuchtet und als Ergebnis mit besonders hoher Genauigkeit und Zuverlässigkeit (basierend auf der erfassten bzw. gemessenen Laufzeit) erkannt werden.
  • Die Wellenlänge, Frequenz bzw. Farbe des Beleuchtungslichts kann durch eine geeignete Ansteuerung von spektral unterschiedlichen Leuchtelementen, insbesondere LEDs mit unterschiedlicher Farbe, variiert bzw. an die zu erwartende Charakteristik der Szene angepasst werden. Die Polarisationsrichtung des Beleuchtungslichts kann auf bekannte Weise beispielsweise durch die Verwendung von Polarisationsfiltern eingestellt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung beschreibt die Charakteristik des Beleuchtungslichts eine Abhängigkeit der Beleuchtungsintensität des Beleuchtungslichts von dem Raumwinkel.
  • Durch eine hinsichtlich der Intensität variable Ausleuchtung der zu erfassenden Szene kann eine optimale Beleuchtung erreicht werden, welche im Ergebnis dazu führt, dass von allen Teilbereichen der Szene empfangenes Messlicht hinsichtlich seiner Intensität zumindest annähernd gleich ist. Dadurch kann vermieden werden, dass es in einem Bild der erfassten Szene von dem Messlicht unterbelichtete und/oder überbelichtete Teilbereiche gibt. Die Charakteristik des Beleuchtungslichts kann damit so eingestellt werden, dass die Intensität stets gerade so hoch ist, wie es für eine zuverlässige Erfassung des dem jeweiligen Raumwinkelbereich zugeordneten Teilbereichs der Szene erforderlich ist. Dadurch wird für die Beleuchtung lediglich so viel Energie benötigt, wie es erforderlich ist, so dass sich das beschriebene Sensorsystem im Ergebnis durch eine gute Energieeffizienz auszeichnet.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Beleuchtungslicht-Steuereinrichtung mit der Datenverarbeitungseinrichtung gekoppelt und die Beleuchtungslicht-Steuereinrichtung ist konfiguriert, basierend auf einer Auswertung der dreidimensionalen Charakteristik der Szene durch die Datenverarbeitungseinrichtung die Charakteristik des Beleuchtungslichts zu verändern.
  • Unter dem Begriff „Charakteristik einer Szene“ kann die Gesamtheit aller räumlichen Strukturen verstanden werden, welche von dem Sensorsystem erfasst werden. Dabei können von der Datenverarbeitungseinrichtung mittels einer Bildverarbeitung und/oder Bilderkennung manche Strukturen als relevant und andere Strukturen als weniger oder sogar als irrelevant erkannt werden.
  • Anschaulich ausgedrückt hängt bei diesem Ausführungsbeispiel die Art und Weise, wie die Szene für eine Szenenerfassung raumwinkelabhängig und/oder in Bezug auf charakteristische Merkmale des Beleuchtungslicht von der Beleuchtungseinrichtung beleuchtet wird, von Mess- und Auswertungsergebnissen ab, die aus einer vorherigen Szenenerfassung ermittelt worden sind. Die Charakteristik der Beleuchtung wird also dynamisch aufgrund von Messergebnissen einer vorherigen Szenenerfassung und Szenenauswertung angepasst. Damit findet korrekt ausgedrückt nicht mehr lediglich eine Steuerung der Beleuchtungseinrichtung sondern vielmehr eine Regelung derselben statt. Dies erlaubt auf vorteilhafte Weise eine besonders genaue Adaption der Szenenbeleuchtung in Hinblick auf eine optimale Szenenauswertung.
  • Eine geeignete Steuerung der Beleuchtungseinrichtung kann von aktuellen Umgebungsbedingungen abhängen, welche sich in dem Ergebnis der Szenenauswertung widerspiegeln. Solche Umgebungsbedingungen können Wetterbedingungen wie beispielsweise das Vorhandensein von Regen, Schnee, Hagel, Nebel, Rauch, Schwebepartikeln, Spiegelung der Sonne auf Oberflächen (z.B. Wasser) etc. in der Szene sein.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Sensorsystem ferner eine Halterung auf, welche zumindest mit der Messeinrichtung mechanisch gekoppelt ist, wobei die Halterung derart ausgebildet ist, dass das Sensorsystem an einer in Bezug auf die zu erfassende Szene stationären Haltestruktur anbringbar ist.
  • Anschaulich ausgedrückt sorgt die Halterung dafür, dass das beschriebene Sensorsystem ein stationäres System sein kann, welches einen bestimmten räumlich festen Erfassungsbereich hat und damit immer die gleiche Szene überwacht. Durch einen Vergleich von verschiedenen zeitlich voneinander beabstandeten Erfassungen der von der Orientierung des Sensorsystems abhängigen Szene können im Rahmen einer Bildauswertung räumlich stationäre Objekte, die in der Szene vorhanden sind, erkannt und bei einer weiteren Bildauswertung in Hinblick auf Bewegungsprofile ausgeblendet werden. Dadurch kann Rechenleistung eingespart werden und die energetische Effizienz des beschriebenen Sensorsystems kann verbessert werden.
  • Die stationäre Haltestruktur kann direkt oder indirekt mechanisch gekoppelt sein mit einer Vorrichtung zum Steuern einer Bedeckungscharakteristik einer von dem Objekt zu passierenden Öffnung durch zumindest einen Verschließkörper. Bevorzugt weist diese Vorrichtung neben einer geeigneten Führung bzw. Lagerung des Verschließkörpers einen Aktuator zum Bewegen des Verschließkörpers auf, insbesondere zum Bewegen des Verschließkörpers zwischen einer geschlossenen Position und einer geöffneten Position (und umgekehrt).
  • Im Bereich der Gebäudesicherheit kann die Öffnung ein Eingang, beispielsweise für eine Person oder ein Fahrzeug sein. Der Verschließkörper kann eine Tür sein, beispielsweise eine Haustür bzw. ein Garagentor. Die stationäre Haltestruktur kann beispielsweise die stationäre Rahmenstruktur eines Eingangs sein, beispielsweise der Rahmen einer Tür.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Datenverarbeitungseinrichtung ferner derart konfiguriert, dass eine Bedeckungscharakteristik einer von einem Objekt zu passierenden Öffnung durch zumindest einen Verschließkörper steuerbar ist. Dadurch kann die Öffnung, welche beispielsweise ein Eingang (bzw. ein Ausgang) eines Gebäudes ist, auf energetisch günstige Weise automatisch überwacht werden und durch eine geeignete Ansteuerung eines Aktuators kann der Verschließkörper automatisch zwischen einer geöffneten Position und einer geschlossenen Position bewegt werden. Dazu kann die Datenverarbeitungseinrichtung des beschriebenen Sensorsystems mit der Steuerung eines bekannten Steuersystems für einen Verschließkörper gekoppelt werden.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein Verfahren zum dreidimensionalen Erfassen einer Szene beschrieben. Das Verfahren weist auf (a) ein Beleuchten der Szene mit Beleuchtungslicht mittels einer Beleuchtungseinrichtung; (b) ein Empfangen von Messlicht mittels einer Messeinrichtung, wobei das Messlicht zumindest teilweise von zumindest einem in der Szene enthaltenen Objekt zurückgestreutes Beleuchtungslicht ist; (c) ein Ermitteln von Distanzen basierend auf einer Lichtlaufzeit des Beleuchtungslichts und des Messlichts mittels der Messeinrichtung; (d) ein Erfassen von zumindest einem charakteristischen Merkmal der elektromagnetischen Wellen des empfangenen Messlichts mittels der Messeinrichtung; und (e) ein Erkennen, mittels einer der Messeinrichtung nachgeschalteten Datenverarbeitungseinrichtung, ein in der Szene vorhandenes Objekt basierend auf gemessenen Distanzen und auf dem erfassten charakteristischen Merkmal.
  • Auch dem beschriebenen Verfahren liegt die Erkenntnis zugrunde, dass durch die Berücksichtigung von zumindest einer weiteren Zusatzinformation über das von einem Lichtempfänger der Messeinrichtung empfangene Messlicht trotz einer energetisch günstigen Durchführung der TOF Messung eine hohe Zuverlässigkeit einer Szenenauswertung, welche zumindest eine Objekterkennung umfasst, erreicht werden kann.
  • Gemäß einem Ausführungsbeispiel der Erfindung weist das Verfahren ferner auf (a) ein Vergleichen des erkannten Objekts mit zumindest einem in einer Datenbank hinterlegten Vergleichsobjekt; und (b), wenn das Objekt innerhalb vorgegebener zulässiger Abweichungen mit einem Vergleichsobjekt übereinstimmt, ein Identifizieren des Objekts als ein für eine bestimmte Aktion zugelassenes Objekt. Nebst dem rein vergleichenden Erkennen sind auch Erkennungs- und Identifikationsmechanismen auf der Basis von Teilmusterinterpretationen möglich (Erkennen von infrarotreflektierenden Codierungen, QR- und Barcodes, Autonummern, usw.).
  • Die zugelassene Aktion kann beispielsweise eine erlaubte Passage durch eine Öffnung in einem Gebäude sein, welche Öffnung vor der Identifizierung als zugelassenes Objekt durch einen Verschließkörper verschlossen ist und erst nach der erfolgreichen Identifizierung durch eine entsprechende Bewegung des Verschließkörpers geöffnet wird. Die zu identifizierenden Objekte können bevorzugt Personen und/oder Fahrzeuge sein. Eine erfolgreiche Identifizierung kann zur Steuerung bzw. zur Aktivierung eines Verschlussmechanismus für einen Verschließkörper vor einer Öffnung eines Gebäudes verwendet werden.
  • Gemäß einem weiteren Aspekt der Erfindung wird beschrieben eine Verwendung des vorstehend beschriebenen Sensorsystems für ein Steuern einer Bedeckungscharakteristik einer von einem Objekt zu passierenden Öffnung durch zumindest einen Verschließkörper.
  • Der beschriebenen Verwendung liegt die Erkenntnis zugrunde, dass eine auf energetisch effiziente Weise vorgenommen Erfassung und Auswertung einer optischen Szene auf vorteilhafte Weise bei Durchgängen eingesetzt werden kann, welche von einem Verschließkörper verschlossen werden können. Dies gilt insbesondere für Durchgänge, welche eine Verschließ- bzw. eine Bedeckungscharakteristik aufweisen, die von dem beschriebenen Sensorsystem gesteuert oder zumindest mitgesteuert wird. Da solche Sensorsysteme üblicherweise durch die Verschlusssysteme für die Verschließkörper mit Energie versorgt werden, ist es besonders wichtig, mit einer vergleichsweise geringen Energiemenge auszukommen und trotzdem zu zuverlässigen TOF Szenenauswertungen zu kommen.
  • Durch die erfindungsgemäße Verwendung des vorstehend beschriebenen Sensorsystems können auf energetisch effiziente Weise auch größere Distanzen überwacht werden, welches naturgemäß zu einem früheren Erkennen einer Öffnungsanforderung des Verschlusskörpers führt, was insbesondere bei sich schnell bewegenden Objekten von großem Vorteil sein kann. Ferner kann die Szene mit einem breiteren Erfassungswinkel erfasst werden, was beispielswiese zu einem frühzeitiges Erkennen von sich quer zur Öffnung bewegenden Querverkehr und damit zu einem zuverlässigeres Erkennen von Objekten im Sicherheitsbereich des Verschlusssystems führen kann. Dadurch kann bei Querverkehr eine unnötige Öffnungsanforderung unterdrückt werden.
  • Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist die Öffnung ein Eingang oder ein Ausgang ist, insbesondere ein Notausgang in einem Gebäude und/oder das Objekt ist eine Person oder ein Fahrzeug.
  • Durch das Erkennen eines zwar vorhandenen, aber sich ggf. nicht bewegenden Objektes in einem Durchgangsbereich kann ein Eingang oder Ausgang überwacht, insbesondere ein blockierter Notausgang erkannt, und die entsprechende Information an ein angegliedertes System, beispielsweise an ein Überwachungssystem, übermittelt werden. Das Gebäude kann insbesondere ein Haus bzw. eine Garage sein.
  • Gemäß einem weiteren Aspekt der Erfindung wird beschrieben eine Verwendung eines vorstehend beschriebenen Sensorsystems für ein Erfassen und/oder Steuern von Verkehrsströmen von Objekten, welche sich durch eine Szene des Sensorsystems bewegen, wobei die Szene durch einen räumlichen Erfassungsbereich des Sensorsystems bestimmt ist.
  • Auch dieser beschriebenen Verwendung liegt die Erkenntnis zugrunde, dass es bei einer Verkehrserfassung und/oder Verkehrsstromlenkung auf eine energieeffiziente Sensorik ankommt, da diese Sensorik typischerweise ständig in Betrieb ist und darüber hinaus insbesondere bei größeren Verkehrsströmen typischerweise eine sehr hohe Anzahl derartiger Sensorsysteme im Einsatz sind.
  • Die für den betreffenden Verkehrsstrom relevanten Objekte können beispielsweise Personen, Fahrzeuge, Produkte wie z.B. Pakete, Koffer, etc. sein. Da für derartige Anwendungen üblicherweise eine Mehrzahl oder gar eine Vielzahl von 3D Sensoren einsetzt werden, wirken sich hier Energieeinsparungen besonders positiv aus.
  • Es wird darauf hingewiesen, dass Ausführungsformen der Erfindung mit Bezug auf unterschiedliche Erfindungsgegenstände beschrieben wurden. Insbesondere sind einige Ausführungsformen der Erfindung mit Vorrichtungsansprüchen und andere Ausführungsformen der Erfindung mit Verfahrensansprüchen bzw. Verwendungsansprüchen beschrieben. Dem Fachmann wird jedoch bei der Lektüre dieser Anmeldung sofort klar werden, dass, sofern nicht explizit anders angegeben, zusätzlich zu einer Kombination von Merkmalen, die zu einem Typ von Erfindungsgegenstand gehören, auch eine beliebige Kombination von Merkmalen möglich ist, die zu unterschiedlichen Typen von Erfindungsgegenständen gehören.
  • Bevor an späterer Stelle und bezugnehmend auf die Zeichnung exemplarische Ausführungsbeispiele der Erfindung beschrieben werden, werden an dieser Stelle einige technische Überlegungen dargestellt, die im Zusammenhang mit der Erfindung stehen.
  • TOF-basierende Sensorsysteme können generell sowohl in Bezug auf das Beleuchtungslicht als auch in Bezug auf das Messlicht in zwei grundsätzlich unterschiedliche Klassen unterteilt werden, welche beliebig miteinander kombiniert werden können.
  • B1: Die erste Alternative (B1) für die Beleuchtung zeichnet sich dadurch aus, dass die Szene mittels eines einzelnen Beleuchtungslichtstrahls hoher Fokussierung und niedriger Divergenz (also hoher Kollimation) sequentiell abgetastet wird. Für jede Position des Beleuchtungslichtstrahls in der Szene wird eine Messung der Laufzeit des Beleuchtungslichts und des Messlichts vorgenommen. Das Abtasten kann unter Verwendung von beweglichen optischen Komponenten, insbesondere Spiegel, realisiert werden. Alternativ oder in Kombination kann für ein sequentielles Abtasten der Szene mit dem Beleuchtungslichtstrahl ein Festkörper verwendet werden, welcher ohne mechanisch bewegliche Teile auskommt und integrierte photonische Strukturen bzw. Schaltungen aufweist. Bei einer geeigneten Ansteuerung dieser Strukturen wird der Beleuchtungslichtstrahl dann auf die gewünschte Stelle der Szene gerichtet. Ein solcher Festkörper ist beispielsweise aus US 2015/293224 A1 bekannt.
  • B2: Die zweite Alternative (B2) für die Beleuchtung zeichnet sich dadurch aus, dass die gesamte Szene (auf einmal und flächig) beleuchtet wird. Bei Bedarf kann die Intensität des Beleuchtungslichts in ausgewählten Teilbereichen der Szene (punktuell) erhöht werden, um an diesen Stellen eine verbesserte 3D Objekterfassung zu ermöglichen. Eine solche räumlich ungleichmäßige Verteilung der Intensität des Beleuchtungslichts kann ohne bewegliche optische Komponenten beispielsweise mittels eines sog. Diffraktiven Optischen Elementes (DOE) erfolgen.
  • M1: Eine erste Alternative (M1) für die Messung basiert auf gepulsten Beleuchtungslichtstrahlen. Dabei wird die „Reisezeit“ eines Lichtimpulses auf der Empfängerseite für jeden Pixel innerhalb eines Zeitfensters bestimmt und daraus die Entfernung abgeleitet.
  • M2: Die zweite Alternative (M2) für die Messung basiert auf einer zeitlichen, bevorzugt sinusförmigen, Modulation des Beleuchtungslichts mit einer vorgegebenen Frequenz, wobei geeignete Werte für diese Frequenz von der zu erwartenden Laufzeit bzw. der maximalen Erfassungsdistanz abhängen. Auf der Seite des Lichtempfängers wird die Phasendifferenz für jeden Pixel gemessen und daraus die Distanzinformation abgeleitet.
  • Beide Messprinzipien M1 und M2 basieren auf einer Integration der Anzahl von Photonen bzw. der in dem Lichtempfänger generierten Photoelektronen, welche auf jedem zu messenden Pixel eintreffen. In diesem Zusammenhang ist es offensichtlich, dass ein stets vorhandenes Licht- bzw. Photonenrauschen von der Anzahl der in einem Pixel akkumulierten Photonen abhängt. Daher wird die aus der TOF Messung gewonnen Distanzinformation umso genauer, je höher die Anzahl an akkumulierten Photonen ist.
  • Der Energieverbrauch des beschriebenen TOF Sensorsystems kann deshalb durch die Verwendung einer reduzierten Beleuchtungslichtintensität verringert werden, weil die Berücksichtigung von Zusatzinformationen über charakteristische Merkmale (der Photonen) des empfangenen Messlichts bei der Auswertung bzw. bei der Beurteilung der Charakteristik der erfassten Szene berücksichtigt und/oder für die Objekterkennung verwendet werden. Insbesondere bei der Objekterkennung und einer optionalen Objektverfolgung eines bewegten Objekts ist es von hoher Wichtigkeit, aus einzelnen von dem Lichtempfänger erfassten Informationen zusammenhängende Objektteile zuverlässig zu interpretieren. Da zusammenhängende Objektteile sehr häufig ähnliche Eigenschaften aufweisen, lässt sich durch ein Sensorsystem, das solche Eigenschaften erkennt, ein entsprechender Zusammenhang bilden. Zusammenhängende Eigenschaften können beispielsweise Muster, Farben, optische Kontraste in dem erfassten Messlicht, spektrale Verteilung des Messlichts, Reflexionseigenschaften über ein breiteres Spektrum als das sichtbare Spektrum, Polarisationsrichtung des Messlichts, etc. sein.
  • Ferner können externe Störfaktoren wie Fremdbeleuchtung dadurch eliminiert werden, dass lediglich diejenigen Anteile des auf den Lichtempfänger auftreffenden Lichts verwendet werden, welche eine bestimmte Polarisationsrichtung haben. So kann zum Beispiel eine Streuung von Fremdlicht mit einer anderen Polarisationsrichtung des gestreuten Lichts einhergehen wie dies bei der Streuung des Beleuchtungslichts stattfindet. Um diesen Unterschied besonders deutlich werden zu lassen, kann beispielsweise gemäß den o.g. Beleuchtungsprinzipien B1 oder B2 erzeugtes Beleuchtungslicht als Licht mit einer bevorzugten Polarisationsrichtung erzeugt werden. Dadurch kann durch eine Diskriminierung zwischen verschiedenen Polarisationsrichtungen „szenengegebenes“ Messlichtlicht von gestreutem und ebenfalls auf den Lichtempfänger auftreffendem unerwünschten Fremdlicht unterschieden werden.
  • Ferner kann bei der Auswertung der erfassten Szene berücksichtigt werden, dass die spektrale Intensitätsverteilung des Messlichts von der Farbe des Objekts abhängt. So streuen beispielsweise rote Oberflächen wenig blaues und grünes Licht. Auch solche spektrale Objekteigenschaften können, ggf. in Verbindung mit einem „a-priori“ Wissen über die Farbe des jeweiligen Objekts, als Zusatzinformationen bei der Szeneauswertung berücksichtigt werden. Auch in diesem Zusammenhang kann der störende Einfluss von Fremdlicht reduziert und/oder der Sensorbetrieb energetisch optimiert werden, indem eine geeignete spektrale Verteilung des Beleuchtungslichts gemäß den o.g. Beleuchtungsprinzipien B1 oder B2 (dynamisch) eingestellt wird.
  • Durch ein Zusammenführen von Zusatzinformationen von Pixeln, auf denen ein und dasselbe Objekt der Szene abgebildet ist, kann eine Reduktion der Rechenleistung der Datenverarbeitungseinrichtung erreicht werden, was zu einer zusätzlichen energetischen Optimierung des Sensorbetriebes führt. Eine solche zusätzliche Optimierung kann insbesondere dann nicht unerheblich sein, wenn diese Zusatzeigenschaft der Datenverarbeitungseinrichtung bereits in digitaler Form zugeführt wird.
  • Andere Ausführungsformen der Erfindung verwenden eine szenenabhängige bzw. dynamische Beleuchtungsenergieoptimierung in Bezug auf die spektrale Verteilung der Intensität des Beleuchtungslichts. Dabei wird bei den einzelnen Szenenerfassungen vor allem für diejenigen Frequenzen bzw. Wellenlängen, welche die stärkste Streuung zeigen, eine relativ geringe Beleuchtungsenergie emittiert, wohingegen für andere Frequenzen bzw. Wellenlängen die Energie (für den entsprechenden dem zu erfassenden Objekt zugeordneten Raumwinkel) noch weiter reduziert wird. Beispielsweise wird bei einem roten Objekt primär rotes Beleuchtungslicht verwendet, der grüne und der blaue Anteil des Beleuchtungslichts wird (für diesen Raumwinkel) noch weiter (ggf. sogar auf den Wert Null) reduziert. Dasselbe Prinzip kann auch in Bezug auf sichtbares Licht und IR Licht angewendet werden.
  • Weitere Vorteile und Merkmale der vorliegenden Erfindung ergeben sich aus der folgenden beispielhaften Beschreibung derzeit bevorzugter Ausführungsformen.
  • Figurenliste
    • 1 die Verwendung eines Sensorsystems 100 mit zwei Filtern zum Erfassen von charakteristischen Merkmalen von Messlicht zum Steuern einer Bedeckungscharakteristik einer Öffnung 184.
    • 2a und 2b zeigen verschiedenen Ausführungsformen eines Sensorchips für den in 1 dargestellten Lichtempfänger.
    • 3 zeigt eine Filteranordnung zum Erfassen von charakteristischen Merkmalen von Messlicht, wobei die Filteranordnung einen Farbfilter und einen Polarisationsfilter aufweist.
    • 4a und 4b illustrieren ein Zusammenfassen von Einzelpixeln eines Sensorchips zu einem übergeordneten Pixel mit einer höheren Photonenakkumulation.
    • 5a bis 5c zeigen verschiedenen Ausführungsformen eines Sensorchips für den in 1 dargestellten Lichtempfänger.
    • 6 zeigt die Verwendung eines Sensorsystems zum Erfassen eines Verkehrsflusses von auf einem Förderband transportierten Objekten.
  • Detaillierte Beschreibung
  • Es wird darauf hingewiesen, dass die nachfolgend beschriebenen Ausführungsformen lediglich eine beschränkte Auswahl an möglichen Ausführungsvarianten der Erfindung darstellen. Insbesondere ist es möglich, die Merkmale einzelner Ausführungsformen in geeigneter Weise miteinander zu kombinieren, so dass für den Fachmann mit den hier explizit dargestellten Ausführungsvarianten eine Vielzahl von verschiedenen Ausführungsformen als offensichtlich offenbart anzusehen sind.
  • Bevor in diesem Abschnitt die Figuren im Detail beschrieben werden, werden nachstehend einige Aspekte und Vorteile von verschiedenen Ausführungsformen erläutert.
    1. (1) Bei dem beschriebenen Sensorsystem wird zusätzlich zu der üblichen TOF Information über die Laufzeit des Beleuchtungslichts und des Messlichts noch zumindest eine weitere Zusatzinformation über das von einem Lichtempfänger der Messeinrichtung empfangene Messlicht erfasst und zusammen mit der entsprechenden TOF Information (für jedes Pixel) des Lichtempfängers ausgewertet. Dadurch kann TOF Nutzlicht von störenden Fremdlicht diskriminiert werden und es wird eine höchst energieeffiziente 3D TOF Erfassung der Szene bzw. der darin befindlichen Objekte ermöglicht. Es wird darauf hingewiesen, dass der Lichtempfänger für die TOF-Information und der Lichtempfänger für die Zusatzinformation unterschiedliche (räumliche) Auflösungen aufweisen können. Abhängig von dem jeweiligen Anwendungsfall können diese Auflösungsunterschiede beispielsweise einen Faktor 2, 4, 6, 8 oder sogar noch höher betragen.
    2. (2) Das beschriebene Sensorsystem kann beispielsweise bei Durchgängen einsetzt werden, insbesondere bei Durchgängen, welche eine Verschlusscharakteristik aufweisen, die automatisch gesteuert wird (z.B. mittels Türen, Tore, Barrieren, Ampeln, etc.). Da die Sensorik für eine Durchgangssteuerung üblicherweise durch die vorhandenen Verschlusssysteme mit Energie versorgt wird, gilt es mit einer gegebenen Energiemenge möglichst viel sensorische Wirkung zu erzielen. Das in diesem Dokument beschriebene Sensorsystem erlaubt im Vergleich zu bekannten Sensorsystemen (i) eine Datenerfassung für größere Distanzen (früheres Erkennen einer Öffnungsanforderung, insbesondere bei schneller bewegenden Objekten), (ii) breitere Erfassungswinkel (z.B. frühzeitiges Erkennen und Verfolgen von Querverkehr) und/oder (iii) ein zuverlässigeres Erkennen von Objekten in einem Sicherheitsbereich des Verschlusssystems.
    3. (3) In einer weiteren Ausführungsform wird eine raumwinkelabhängig variable Beleuchtung verwendet, welche zu einer Widergabe der Szene auf dem Lichtempfänger mit zumindest annähernd räumlich gleich verteilter Helligkeit verwendet werden kann. Bei Bedarf können auch Bereiche der Szene, welche wichtiger Objektinformationen enthalten, heller als andere „weniger wichtige“ Bereiche wiedergegebene werden. Eine variable Beleuchtung kann mittels wenigstens zwei Ablenkspiegeln erzeugt werden. Dabei können den verschiedenen Ablenkspiegeln unterschiedliche Filter zur gezielten Energieverteilung des Beleuchtungslichts zugeordnet sein. Die räumliche Verteilung des Beleuchtungslichts mit diesen mit speziellen Eigenschaften versehenen Ablenkspiegeln (unterschiedliche Polarität, unterschiedliche Farbe, Verteilung von IR oder sichtbarem Licht, etc.) kann abhängig von den Zusatzinformationen gesteuert werden, welche von dem Lichtempfänger erfasst (und von der Datenverarbeitungseinrichtung ermittelt) werden. Eine Vielzahl von beweglichen Ablenkspiegeln können mittels Mikrospiegelarrays realisiert werden, die aus der sog. Digital Light Processing (DLP) Projektionstechnik bekannt sind. Auch mit sog. Mikro Elektro Mechanische Systeme (microelectromechanical systems, MEMS) Vorrichtungen lassen sich eine Vielzahl von Ablenkspiegeln derart bewegen, dass es zu einer gewünschten raumwinkelabhängigen Beleuchtungsintensität kommt.
    4. (4) In einer weiteren Ausführungsform wird eine szenenabhängige Einmessung einer punktuell notwendigen Beleuchtungsintensität und/oder der Charakteristik bzw. der Lichtattribute des Beleuchtungslichts (spektrale Verteilung, Polarisation, etc.) zu vorbestimmten Zeiten und/oder in einem vordefinierten zeitlichen Rhythmus vorgenommen. Eine solche Einmessung kann beispielsweise im Rahmen einer (Erst)Installation, bei Wartungsarbeiten oder in anderen regelmäßigen Abständen (z.B. täglich, stündlich, minütlich, zu Beginn einer bestimmten Szenenerfassungssequenz, etc.) stattfinden.
    5. (5) In einer weiteren Ausführungsform wird das (zumindest eine) charakteristische Merkmal der elektromagnetischen Wellen des empfangenen Messlichts für eine primäre Energieoptimierung in Bezug auf die Erzeugung bzw. die Charakteristik des Beleuchtungslichts verwendet. Alternativ oder in Kombination wird dieses charakteristische Merkmal von der Datenverarbeitungseinrichtung zur Erkennung von Objekt-Zusammengehörigkeiten verwendet. Pixel des Lichtempfängers mit nahezu gleichen charakteristischen Merkmalen gehören mit hoher Wahrscheinlichkeit zu ein und demselben (meist nicht elastischen) Objekt. Dadurch kann zur Objekterkennung benötigte Rechenleistung reduziert werden, was wiederum auf Seiten der Datenverarbeitungseinrichtung zu einer Energieverbrauchsreduktion führt. So kann z.B. auch eine erhöhte optische Auflösung zu einer Oberflächenmustererkennung verwendet werden, was es der nachgeschalteten Datenverarbeitungseinrichtung erleichtert, in der Szene zusammengehörige Bereiche und/oder Grenzen bzw. Kanten zu erkennen. Eine solche zusätzliche optisch höher auflösende Information kann auch mit einem zweiten (rein optischen) Lichtempfänger im selben oder in einem benachbarten Strahlengang wie die eigentliche TOF Messung ermittelt werden.
  • 1 zeigt die Verwendung eines Sensorsystems 100 zum Steuern einer Bedeckungscharakteristik einer Öffnung 184 abhängig von der Charakteristik einer von dem Sensorsystem 100 überwachten Szene 190. Gemäß dem hier dargestellten Ausführungsbeispiel ist die Öffnung 184 eine Eintrittsöffnung für Personen in ein Gebäude oder eine Garageneinfahrt für Kraftfahrzeuge. Die entsprechende Eingangsstruktur ist mit dem Bezugszeichen 180 versehen. Ein in der Szene 190 befindliches Objekt 195 soll eine solche Person oder ein Kraftfahrzeug symbolisieren.
  • Die Eingangsstruktur 180 umfasst eine stationäre Haltestruktur 182, welche einen Rahmen sowie eine Führung für zwei als Schiebetüren ausgebildete Verschließkörper 186 darstellt. Die Schiebetüren 186 können jeweils mittels eines Motors 187 entlang der durch zwei dicke Doppelpfeile dargestellten Verschieberichtungen bewegt werden. Die Ansteuerung der Motoren 187 erfolgt, wie im Folgenden dargelegt, mittels des in diesem Dokument beschriebenen Sensorsystems 100.
  • Das Sensorsystem 100 weist eine TOF-Messeinrichtung 110, eine Datenverarbeitungseinrichtung 150 sowie eine Datenbank 160 auf. Die TOF-Messeinrichtung 110 weist als optische bzw. opto-elektronische Komponenten auf eine Beleuchtungseinrichtung 140 zum Aussenden von Beleuchtungslicht 141 sowie einen Lichtempfänger 120 zum Empfangen von Messlicht 196. In Übereistimmung mit dem Prinzip einer 3D TOF Erfassung ist das Messlicht 196 zumindest teilweise von dem Objekt 195 zurückgestreutes Beleuchtungslicht 141.
  • Mittels einer Halterung 111 ist zumindest die TOF-Messeinrichtung 110 an der stationären Haltestruktur 182 in mechanisch stabiler und räumlich fester Weise angebracht. Bevorzugt ist das ganze Sensorsystem 100 (im Gegensatz zu der Darstellung von 1) als ein Modul aufgebaut, welches innerhalb einer kompakten Bauweise neben der TOF-Messeinrichtung 110 auch noch die Datenverarbeitungseinrichtung 150 sowie die Datenbank 160 aufweist.
  • In der in 1 dargestellten Architektur des Sensorsystems 100 weist die TOF-Messeinrichtung 110 neben den genannten optischen bzw. opto-elektronischen Komponenten 140 und 120 mehrere als Funktionsblöcke dargestellte Komponenten auf, die mittels Hardware, Software oder einer Kombination von Hardware und Software realisiert werden können. Diese Komponenten sind zunächst eine dem Lichtempfänger 120 nachgeschaltete und für jede TOF Messung erforderliche Zeit-Messeinheit 136 auf. Die Zeit-Messeinheit 136 ist eingerichtet zum Messen einer Lichtlaufzeit zwischen von der Beleuchtungseinrichtung 140 ausgesandtem Beleuchtungslicht 141 und von dem Lichtempfänger 120 empfangenem Messlicht 196. Die Zeit-Messeinheit 136 übergibt ihre entsprechenden Messdaten an die Datenverarbeitungseinrichtung 150, mittels welcher in bekannter Weise die 3D Charakteristik der erfassten Szene 190 ermittelt wird.
  • Ferner weist die TOF-Messeinrichtung 110 eine ebenfalls dem Lichtempfänger 120 nachgeschaltete Licht-Charakterisierungseinheit 132 auf. Die Licht-Charakterisierungseinheit 132 erfasst charakteristische Merkmale der Photonen des empfangenen Messlichts 196, welche gemäß dem hier dargestellten Ausführungsbeispiel die Farbe des Messlichts 196 sowie die Polarisation des Messlichts 196 sind. Zu diesem Zweck erhält die Licht-Charakterisierungseinheit 132 von einer Filteranordnung 122 Informationen über diese charakteristischen Merkmale. Wie aus 1 ersichtlich, befindet sich die Filteranordnung 122 in dem Strahlengang des Messlichts 196 und ist ein integraler Bestandteil des Lichtempfängers 120. Das von dem Objekt gestreute Beleuchtungslicht 141 tritt als Messlicht 196 zunächst durch einen Farbfilter 123 der Filteranordnung 122 und dann durch einen Polarisationsfilter 124 der Filteranordnung 122, bevor es von einem nicht dargestellten Sensorchip des Lichtempfängers 120 erfasst wird.
  • Gemäß dem hier dargestellten Ausführungsbeispiel kann (optional) mittels einer Filter-Steuereinrichtung 134 der TOF-Messeinrichtung der Betriebszustand der beiden Filter 123, 124 dynamisch variiert werden. Der Farbfilter 123 kann beispielsweise ein Filterrad sein, so dass durch eine Rotation dieses Filterrades unterschiedliche Farbfilter in den Strahlengang des Messlichts 196 eingebracht werden können. Ähnliches gilt auch für den Polarisationsfilter 124, welcher unterschiedliche räumlich getrennte Teilbereiche mit jeweils einer unterschiedlichen Polarisationsfilter-Charakteristik aufweisen kann. Alternativ oder in Kombination können auch Filter 123, 124 verwendet werden, deren Filter-Charakteristik durch eine elektronische Ansteuerung durch die Filter-Steuereinrichtung 134 modifiziert werden kann. Ein Wechsel des Betriebsmodus des Sensorchips des Lichtempfängers
  • Des Weiteren weist die TOF-Messeinrichtung 110 eine Lichtempfänger-Steuereinrichtung 138 auf, welche den Betrieb des Lichtempfängers 120 steuert. Gemäß dem hier dargestellten Ausführungsbeispiel kann die Lichtempfänger-Steuereinrichtung 138 den Lichtempfänger 120 dazu veranlassen, in einem bestimmten von zumindest zwei unterschiedlichen Betriebsmodi zu arbeiten. In den verschiedenen Betriebsmodi können, beispielsweise veranlasst durch eine vorherige Szenenauswertung mittels der Datenverarbeitungseinrichtung 150, einzelne Pixel eines nicht dargestellten Sensorchips des Lichtempfängers 120 eine unterschiedliche Sensitivität bzw. einen unterschiedlichen Wirkungsgrad in Bezug auf eine Akkumulation von Photonen haben. Auch ein nachstehend anhand der 4a und 4b beschriebenes szenenabhängiges Zusammenfassen von Pixeln des Lichtempfängers 120 kann von der Lichtempfänger-Steuereinrichtung 138 veranlasst bzw. gesteuert werden.
  • Ein an die Datenverarbeitungseinrichtung 150 über eine Schnittstelle 152 übergebenes externes Steuersignal 152a kann dazu verwendet werden, den Betrieb der Datenverarbeitungseinrichtung 150 zumindest teilweise von externen Informationen abhängig zu machen. Insbesondere kann über das Steuersignal 152a ein „a priori Wissen“ über ein Objekt 195 für eine verbesserte Auswertung der erfassten Szene 190 und insbesondere für eine verbesserte Objekterkennung übermittelt werden.
  • Gemäß dem hier dargestellten Ausführungsbeispiel beleuchtet die Beleuchtungseinrichtung 140, welche beispielsweise ein Array von individuell ansteuerbaren Laser- oder Leuchtdioden sein kann, die Szene 190 und damit auch das in der Szene 190 befindliche Objekt 195 mit einem gepulsten und damit zeitlich modulierten Beleuchtungslicht 141. Eine aus Gründen der Übersicht mittels zweier Funktionsblöcke dargestellte Beleuchtungslicht-Steuereinrichtung 142 ist konfiguriert, die Beleuchtungseinrichtung 140 derart anzusteuern, dass eine Charakteristik des Beleuchtungslichts 141, welche die Abhängigkeit der Beleuchtungsintensität des Beleuchtungslichts 141 von dem Raumwinkel (eines Teilbereiches der Szene 190) beschreibt, während eines Betriebes des Sensorsystems 100 dynamisch veränderbar ist.
  • Die raumwinkelabhängige Intensitätsverteilung des Beleuchtungslichts 141 ist in 1 aus Gründen der Übersichtlichkeit nicht dargestellt. Um eine möglichst gleichmäßige Verteilung der Intensität des zurückgestreuten Messlichts 196 zu erreichen (so wie es auf den Lichtempfänger 120 trifft), werden diejenigen Raumwinkel der Szene 190, welche einer größeren Messdistanz zugeordnet sind, stärker beleuchtet als andere Raumwinkel, welche einer geringeren Messdistanz zugeordnet sind.
  • Die Beleuchtungslicht-Steuereinrichtung 142 kann die Charakteristik des Beleuchtungslichts 141 auch in Bezug weitere (nicht räumliche) Eigenschaften des Beleuchtungslichts 141 modifizieren, beispielsweise dessen (a) Wellenlänge, (b) spektrale Intensitätsverteilung, (c) Polarisationsrichtung, und (d) Intensitätsverteilung für unterschiedliche Polarisationsrichtungen. Diese weiteren Eigenschaften können dabei derart ausgewählt sein, dass sie zu einer möglichst zuverlässigen und genauen Objekterkennung beitragen. Auch hier kann ein „a priori Wissen“ über optische Eigenschaften des Objekts 195 berücksichtigt werden.
  • Es wird darauf hingewiesen, dass die Beleuchtungseinrichtung neben den in 1 dargestellten Beleuchtungseinheiten 140 auch noch andere Beleuchtungseinheiten aufweisen kann, welche die Szene 190 aus einem anderen Winkel beleuchten. Ebenfalls können die beiden Beleuchtungseinheiten 140 oder es kann auch nur eine Beleuchtungseinheit auch außerhalb des Gehäuses der TOF-Messeinrichtung 110 angeordnet und damit von dem Lichtempfänger 120 weiter beabstandet sein. An den Prinzipien der durchgeführten TOF Messung ändert sich dadurch nichts.
  • Gemäß dem hier dargestellten Ausführungsbeispiel wird basierend auf diesen 3D Daten die erfasste optische Szene 190 mit der Datenverarbeitungseinrichtung 150 unter Verwendung von geeignete Methoden der Bildauswertung ausgewertet. Dazu können mehrere Bilder, welche von der Szene 190 unter unterschiedlichen Beleuchtungsbedingungen bzw. unterschiedlichen Beleuchtungscharakteristika aufgenommen wurden, gemeinsam verwendet werden.
  • Gemäß dem hier dargestellten Ausführungsbeispiel ist das Sensorsystem 100 in der Lage, eine Objekterkennung vorzunehmen. Dazu greift die Datenverarbeitungseinrichtung 150 auf einen in der Datenbank 160 abgelegten Datensatz von Referenzobjekten zu, welche ausgewählten Objekten entsprechen, die autorisiert sind, die Öffnung 184 zu passieren. Dies bedeutet, dass bei einer geeigneten Annäherung des Objekts 195 an den Eingang 184 die Schiebetüren 186 lediglich dann geöffnet werden, wenn das erfasste Objekt 195 zumindest annähernd mit einem der hinterlegten Referenzobjekte übereinstimmt. Dies bedeutet anschaulich, dass bei der hier beschriebenen Verwendung des Sensorsystems 100 die Bedeckungscharakteristik der Öffnung 184 auch noch von dem Ergebnis einer objektbasierten Zugangskontrolle abhängt.
  • Die 2a und 2b zeigen zwei Ausführungsformen von Lichtempfängern 220a und 220b, welche jeweils einen integrierten Polarisationsfilter aufweisen. Beide Lichtempfänger 220a, 220b sind jeweils mittels eines (Halbleiter)-Sensorchips realisiert. Der Sensorchip (der beiden Lichtempfänger 220a, 220b) weist auf eine Photodiodenschicht 226, eine oberhalb der Photodiodenschicht 226 ausgebildete Passivierungsschicht 225 aus SiO2 und eine oberhalb der Passivierungsschicht 225 ausgebildete Mikrolinsenstruktur 228. An der Oberseite des Sensorchips befindet sich zum Zwecke eines mechanischen Schutzes eine Glasabdeckung 229. Ein Pixelabstand zwischen zwei benachbarten in der Photodiodenschicht 226 ausgebildeten Pixel ist mit dem Bezugszeichen 227 versehen.
  • Bei dem Lichtempfänger 220a ist ein Polarisationsfilter 224a unterhalb der Glasabdeckung 229 ausgebildet. Der Polarisationsfilter 224a befindet sich oberhalb der Mikrolinsenstruktur 228. Ein (vertikaler) Abstand zwischen der Photodiodenschicht 226 und dem Polarisationsfilter 224a ist mit „dl“ gekennzeichnet. Bei dem Lichtempfänger 220b ist ein Polarisationsfilter 224b direkt auf der Passivierungsschicht 225 ausgebildet. Der Polarisationsfilter 224b befindet sich damit zwischen der Passivierungsschicht 225 und der Mikrolinsenstruktur 228. Ein (vertikaler) Abstand zwischen der Photodiodenschicht 226 und dem Polarisationsfilter 224a ist mit „d2“ gekennzeichnet. Der Abstand d2 ist deutlich kleiner als der Abstand d1.
  • Mit den Lichtempfängern 220a und 220b ist es möglich, für jeden Pixel die Polarisationsrichtung des auftreffenden Messlichts zu bestimmen. Dies geschieht durch eine geeignete Strom- bzw. Spannungsansteuerung der Schicht, in welcher die Polarisationsfilter 224a bzw. 224b (mit jeweils einer Vielzahl von einzeln ansteuerbaren Filterelementen) ausgebildet sind. Insbesondere kann die TOF-Messung bei einer geeigneten Einstellung des Polarisationsfilter 224a/224b ausschließlich mit Messlicht derjenigen Polarisationsrichtung vorgenommen werden, in welcher ein störender Fremdlichteinfluss am kleinsten ist. Wenn sich beispielsweise die Sonne auf einem Glas oder einer Flüssigkeitsoberfläche spiegelt, dann hat das gespiegelte Sonnenlicht eine bevorzugte Polarisationsrichtung und es ergibt sich eine Polarisationsrichtung mit einem maximal störenden Fremdlichteinfluss und eine um 90 Grad gedrehte Polarisationsrichtung mit einem minimalen Fremdlichteinfluss. Für die Richtung mit minimalem Fremdlichteinfluss kann die für die TOF Messung erforderliche Beleuchtungsintensität deutlich geringer sein als für die Richtung mit maximal störendem Fremdlichteinfluss. Durch eine TOF Beleuchtung mit lediglich einer Polarisationsrichtung, die dem minimalen Fremdlichteinfluss entspricht, kann eine signifikante Reduzierung der Beleuchtungsenergie vorgenommen werden, ohne dass es dabei zu einer Qualitätseinbuße bei der TOF Messung kommt.
  • 3 zeigt eine Filteranordnung 122 zum Erfassen von charakteristischen Merkmalen von Messlicht 196. Die Filteranordnung 122 weist einen Farbfilter 123 und einen Polarisationsfilter 124 auf. Jeder der beiden Filter 123, 124 umfasst eine Vielzahl von Filterelementen. Wie aus 3 ersichtlich, umfasst der Farbfilter 123 in einem zweidimensionalen Array angeordnete R, G, B-Filterelemente. Der Polarisationsfilter 124 umfasst ebenfalls in einem zweidimensionalen Array angeordnete Polarisationsfilterelemente, welche jeweils lediglich linear polarisiertes Licht mit einer bestimmten Polarisationsrichtung passieren lassen.
  • Die 4a und 4b illustrieren ein Zusammenfassen von Einzelpixeln eines als ein Halbleiter- bzw. CCD Chip ausgebildeten Lichtempfängers 420a bzw. 420b. Der Lichtempfänger 420a weist eine Vielzahl von lichtsensitiven bzw. Photonen sammelnden Pixeln 422a auf. Gemäß dem hier dargestellten Ausführungsbeispiel sind die Pixel 422a der vollen räumlichen Auflösung des Lichtempfängers 420a zugeordnet, welche Auflösung durch die Halbleiter-Architektur des Chips 420a vorgegeben ist.
  • Bei dem Lichtempfänger 420b sind jeweils vier der lichtsensitiven Pixel (für eine volle Auflösung) zu einem übergeordneten Pixel 422b (für eine erhöhte Photonenakkumulation pro Pixel auf Kosten einer reduzierten räumlichen Auflösung) zusammengefasst. Anschaulich ausgedrückt sammelt ein Pixel 422b im Vergleich zu einem einzelnen Pixel 422a eine vierfache Menge an Licht auf. Ein solches Zusammenfassen (Englisch „Binning“) von Pixeln reduziert die erforderliche (Mindest)Intensität des erfassten Messlichts, welche zum Auswerten des entsprechenden Bildbereiches der Szene benötigt wird. Da die Intensität des Messlichts unmittelbar von der Intensität des Beleuchtungslichts abhängt, kann durch das „Binning“ die Intensität des Beleuchtungslichts reduziert und damit der Energieverbrauch des Sensorsystems verringert werden.
  • Das beschriebene „Binning“ kann auch dynamisch durch eine entsprechende Ansteuerung ein und desselben Lichtempfängers 420a bzw. 420b realisiert werden. Dabei wird der Lichtempfänger entweder in einem ersten Betriebsmodus (mit voller Auflösung) oder in einem zweiten Betriebsmodus (mit Photonen sammelnden zusammengefassten Pixeln) betrieben. Ein Umschalten zwischen verschiedenen Betriebsmodi kann von externen Steuersignalen gesteuert werden. Alternativ oder in Kombination kann ein solches Umschalten auch von dem Ergebnis einer Szenenauswertung abhängen, so dass der „Binning“ Betriebsmodus für eine nächste Szenenerfassung geregelt wird.
  • Es wird darauf hingewiesen, dass auch mehr als zwei unterschiedliche Betriebsmodi mit jeweils einer unterschiedlich starken Zusammenfassung von Pixeln zum Einsatz kommen können. Ferner ist es möglich, in unterschiedlichen Teilbereichen des Lichtempfängers jeweils eine unterschiedliche Anzahl von Einzelpixeln zu einem übergeordneten Pixel zusammenzufassen. Dann können einzelne Teilbereiche der Szene mit einer höheren räumlichen Auflösung (und einer geringeren Photonenakkumulation) und andere Teilbereich der Szene mit einer niedrigeren räumlichen Auflösung (und einer höheren Photonenakkumulation) erfasst werden. Das beschriebene lokale und unterschiedlich starke Zusammenfassen von Pixeln kann dynamisch bzw. adaptiv in genau den Teilbereichen durchgeführt werden kann, in denen sich gerade ein bestimmtes Objekt befindet.
  • Die 5a, 5b und 5c zeigen verschiedenen Ausführungsformen eines Lichtempfängers, mit denen jeweils eine mehr oder weniger starke Energieeinsparung bei der Erfassung einer Szene realisiert werden kann.
  • 5a zeigt einen Lichtempfänger 520a, dessen lichtsensitive Oberfläche in unterschiedlichen Teilbereichen bzw. Sensorbereichen eine unterschiedliche räumliche (Pixel)Auflösung aufweist. Gemäß dem hier dargestellten Ausführungsbeispiel weist die lichtsensitive Oberfläche drei unterschiedliche Sensorbereiche 521-1 und 521-2 auf. Dem ersten Sensorbereiche 521-1 ist eine erste Pixelkonfiguration zugeordnet. Dem zweiten Sensorbereiche 521-2 ist eine zweite Pixelkonfiguration zugeordnet. In dem ersten Sensorbereich bzw. der ersten Pixelkonfiguration 521-1 ist die räumliche Dichte der lichtsensitiven Pixel 422a so hoch, wie es die Halbleiter-Architektur des Sensorchips erlaubt. In den beiden Sensorbereichen 521-2 bzw. der zweiten Pixelkonfiguration sind jeweils vier der lichtsensitiven Pixel (für eine volle Auflösung) zu einem übergeordneten Pixel 422b (für eine reduzierte Auflösung und erhöhte Photonenakkumulation pro Pixel) zusammengefasst, sodass dieser eine im Vergleich zu einem einzelnen Pixel 422a eine vierfache Menge an Licht aufgesammelt. Dadurch wird die Lichtsensitivität des Sensorbereiches 521-2 (auf Kosten der räumlichen Auflösung) erhöht. Durch ein solches Zusammenfassen (Englisch „Binning“) wird die Energie reduziert, welche zum Auswerten des entsprechenden Bildbereiches der Szene benötigt wird. Eine weitere vermutlich noch stärkere Möglichkeit der Energieeinsparung ergibt sich dadurch, dass im Falle einer Beleuchtung durch die vorstehend beschriebene Beleuchtungseinrichtung die entsprechenden Bildbereiche der Szene weniger stark oder eventuell sogar gar nicht beleuchtet werden müssen.
  • Es wird darauf hingewiesen, dass eine solche ungleiche räumliche Auflösung dann nicht zu einer reduzierten Erkennungssicherheit eines Objekts führt, wenn die Teilbereiche der Szene, in welchen sich das Objekt befindet, mit der vollen Auflösung erfasst werden, und andere Teilbereiche der Szene, insbesondere Hintergründe, mit der niedrigen Auflösung erfasst werden. Es wird ferner darauf hingewiesen, dass das beschriebene Zusammenfassen von Pixeln bei manchen Sensorchips auch dynamisch bzw. adaptiv in genau den Teilbereichen durchgeführt werden kann, in denen sich gerade das Objekt befindet. In Falle einer nicht adaptiven Zusammenfassung von Pixeln können die verschiedenen Sensorbereiche auch mittels unterschiedlichen Sensorchips realisiert werden. Dies hat den Vorteil, dass die Kosten für die unterschiedlichen Sensorchips niedriger sein können als ein solcher Sensorchip mit einer adaptiv einstellbaren räumlichen Auflösung.
  • 5b zeigt einen Lichtempfänger 520b, welcher entlang unterschiedlicher Koordinatenrichtungen eine unterschiedliche räumliche Auflösung aufweist. Eine solche asymmetrische Auflösung kann durch ein Zusammenfassen von Pixeln erfolgen, wobei entlang der einen Richtung eine geringere Anzahl an Pixeln zusammengefasst wird als entlang der anderen Richtung. Dabei kann die geringere Anzahl auch eins sein, d. h. es findet kein Zusammenfassen von Pixel statt. Auch hier kann die Anzahl an Pixel, die zusammengefasst werden, von der Datenverarbeitungseinrichtung adaptiv unabhängig von den bisherigen bzw. zu erwartenden Objektpositionen eingestellt werden.
  • Gemäß dem dargestellten Ausführungsbeispiel ist die Auflösung entlang einer y-Richtung die volle Auflösung, welche der Sensorchip des Lichtempfängers 520b ermöglicht. Diese Auflösung entspricht der Beabstandung zweier Pixel entlang der y-Richtung und ist in 5b mit „d“ bezeichnet. Im Gegensatz dazu ist die Auflösung entlang der x-Richtung nur halb so hoch, weil jeweils zwei einzelne Pixel zu einem übergeordneten Pixel zusammengefasst wurden. Die Auflösung entlang der x-Richtung entspricht damit dem doppelten Abstand zwischen zwei benachbarten einzelnen Pixeln und ist in 5b mit „2d“ bezeichnet.
  • 5c zeigt einen Lichtempfänger 520c, welcher in unterschiedlichen Sensorbereichen eine unterschiedliche spektrale Empfindlichkeit aufweist. In einem ersten Sensorbereich 521-3 ist der Sensorchip des Lichtempfänger 520c optimiert auf eine Detektion von Licht im sichtbaren Spektralbereich. Dies ist in 5c durch die Bezeichnung „RGB“ veranschaulicht. In dem zweiten Sensorbereich 521-4 ist der Sensorchip des Lichtempfängers 520c optimiert auf eine Detektion vom Licht im infraroten Spektralbereich. Dies ist in 5c durch die Bezeichnung „IR“ veranschaulicht.
  • Es wird darauf hingewiesen, dass die räumliche feste und nicht veränderliche Aufteilung in die beiden Sensorbereiche 521-3 und 521-4 eine Ausführungsform darstellt, bei der geeignete optische Strahlformungssysteme verwendet werden sollten, damit ein und dieselbe Szene von beiden Sensorbereichen 521-3 und 521-4 erfasst werden können. Dabei kann insbesondere ein Strahlteiler zum Einsatz kommen.
  • In einer anderen aus Gründen der Übersichtlichkeit in diesem Dokument nicht dargestellten Ausführungsformen sind die beiden Sensorbereiche 521-3 und 521-4 miteinander verschachtelt. Dies bedeutet, dass in der Ebene des Sensorchips die RGB Pixel und die IR Pixel jeweils abwechselnd angeordnet sind und bevorzugt dynamisch bzw. adaptiv aktiviert werden können. Ebenfalls denkbar sind Ausführungsformen, bei denen zunächst eine Bilderfassung lediglich im sichtbaren Bereich (RGB) vorgenommen wird und unmittelbar bzw. möglichst kurz danach eine zweite Bilderfassung im infraroten Bereich (IR) vorgenommen wird (beispielsweise durch Einschieben eines Filters) und später die entsprechenden Bildinformationen aus den beiden Spektralbereich gemeinsam von der Datenverarbeitungseinrichtung ausgewertet werden. Selbstverständlich sind auch andere Kombinationen von in unterschiedlichen Spektralbereichen erfassten Bildinformationen möglich.
  • 6 zeigt eine weitere Verwendung bzw. einen weiteren Einsatz des Sensorsystems 100. Aus Gründen der Übersichtlichkeit ist in 6 lediglich die TOF-Messeinrichtung 110 des Sensorsystems 100 dargestellt.
  • Gemäß dem hier dargestellten Ausführungsbeispiel erfasst die TOF-Messeinrichtung 110 einen Verkehrsfluss von (verschiedenen) Objekten 695a, 695b, 695c, 695d und 695e, welche sich auf einem Förderband 698 befinden und entlang der durch einen Pfeil dargestellten Bewegungsrichtung durch eine Szene 690 hindurch bewegen. Eine zuverlässige Kenntnis der Anzahl und/oder der Art der Objekte 695a bis 695e kann im Bereich der Logistik für eine Steuerung des Verkehrsflusses verwendet werden. Lediglich ein Beispiel für eine solche Steuerung eines Verkehrsfluss ist die Steuerung des Gepäcktransportes in einem Flughafen. Dabei können auch Etiketten auf den betreffenden Objekten 695a - 695e die Art des jeweiligen Objektes bestimmen. Es wird jedoch darauf hingewiesen, dass der Einsatz in einem Flughafen lediglich ein Beispiel von einer Vielzahl von anderen Anwendungsmöglichkeiten auf dem Gebiet der Verkehrsteuerung ist.
  • Zuletzt sei angemerkt, dass der Begriff „aufweisen“ nicht andere Elemente ausschließt und dass das „ein“ nicht eine Mehrzahl ausschließt. Auch können Elemente, die in Zusammenhang mit unterschiedlichen Ausführungsbeispielen beschrieben sind, kombiniert werden. Es sollte auch angemerkt werden, dass Bezugszeichen in den Ansprüchen nicht als den Schutzbereich der Ansprüche beschränkend ausgelegt werden sollen.
  • Bezugszeichenliste
  • 100
    Sensorsystem
    110
    TOF-Messeinrichtung
    111
    Halterung
    120
    Lichtempfänger
    122
    Filteranordnung
    123
    Farbfilter
    124
    Polarisationsfilter
    132
    Licht-Charakterisierungseinheit
    134
    Filter-Steuereinrichtung
    136
    Zeit-Messeinheit
    138
    Lichtempfänger-Steuereinrichtung
    140
    Beleuchtungseinrichtung
    141
    Beleuchtungslicht
    142
    Beleuchtungslicht-Steuereinrichtung
    150
    Datenverarbeitungseinrichtung
    152
    Schnittstelle
    152a
    externes Steuersignal
    160
    Datenbank
    180
    Eingangsstruktur
    182
    stationäre Haltestruktur
    184
    Öffnung / Eingang
    186
    Verschließkörper / Schiebetür
    187
    Motor
    190
    Szene
    195
    Objekt
    196
    Messlicht
    220a
    Lichtempfänger
    220b
    Lichtempfänger
    224a
    Polarisationsfilter
    224b
    Polarisationsfilter
    225
    Passivierungsschicht
    226
    Photodiodenschicht
    227
    Pixelabstand
    228
    Mikrolinsenstruktur
    229
    Glasabdeckung
    d1/d2
    Abstand
    420a
    Lichtempfänger (mit maximaller Auflösug)
    420b
    Lichtempfänger (mit zusammengefassten Pixeln)
    422a
    Pixel
    422b
    übergeordnetes Pixel / zusammengefasstes Pixel
    520a/b/c
    Lichtempfänger
    521-1
    erster Sensorbereich / erste Pixelkonfiguration
    521-2
    zweiter Sensorbereich / zweite Pixelkonfiguration
    521-3
    erster Sensorbereich (RGB)
    521-4
    zweiter Sensorbereich (IR)
    690
    Szene
    695a-e
    Objekte
    698
    Förderband
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 2453252 B1 [0004]
    • US 2015293224 A1 [0079]

Claims (20)

  1. Sensorsystem (100) zum dreidimensionalen Erfassen einer Szene (190), das Sensorsystem (190) aufweisend eine Beleuchtungseinrichtung (140) zum Beleuchten der Szene (190) mit Beleuchtungslicht (141); eine Messeinrichtung (110), welche eingerichtet ist (i) zum Empfangen von Messlicht (196), welches zumindest teilweise von zumindest einem in der Szene (190) enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (141) ist, (ii) zum Ermitteln von Distanzen basierend auf einer Lichtlaufzeit des Beleuchtungslichts (141) und des Messlichts (196) und (iii) zum Erfassen von zumindest einem charakteristischen Merkmal der elektromagnetischen Wellen des empfangenen Messlichts (196); und eine Datenverarbeitungseinrichtung (150), welche der Messeinrichtung (100) nachgeschaltet ist und welche eingerichtet ist, ein in der Szene (190) vorhandenes Objekt (195) basierend auf gemessenen Distanzen und auf dem erfassten charakteristischen Merkmal zu erkennen.
  2. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei das charakteristische Merkmal der elektromagnetischen Wellen ein charakteristisches Merkmal der einzelnen Photonen des empfangenen Messlichts (196) ist.
  3. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Messeinrichtung (110) aufweist eine Licht-Charakterisierungseinheit (132) zum Erfassen des charakteristischen Merkmals der elektromagnetischen Wellen des empfangenen Messlichts (196), wobei die Licht-Charakterisierungseinheit (132) mit der Datenverarbeitungseinrichtung (150) gekoppelt ist, so dass eine Information über das erfasste charakteristische Merkmal an die Datenverarbeitungseinrichtung (150) übergebbar ist.
  4. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei das charakteristische Merkmal der elektromagnetischen Wellen des empfangenen Messlichts (196) zumindest eines aus einer Gruppe ist, die besteht aus (a) der Wellenlänge, (b) der spektralen Intensitätsverteilung, (c) der Polarisation, und (d) der Intensitätsverteilung für unterschiedliche Polarisationen.
  5. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei die Messeinrichtung (110) einen wellenlängenabhängiger Filter (123) und/oder einen polarisationsabhängigen Filter (124) aufweist.
  6. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Messeinrichtung (110) aufweist einen Lichtempfänger (120) mit einer Vielzahl von Pixel (422a) zum Empfangen von Messlicht (196); eine dem Lichtempfänger (120) nachgeschaltete Zeit-Messeinheit (136), welche konfiguriert ist die Lichtlaufzeit zu messen basierend auf einer Messung der Zeitspanne zwischen einen Aussenden eines Pulses des Beleuchtungslichts (141) und dem Empfang des zu dem Puls gehörigen Messlichts und/oder einer Messung einer Phasenverschiebung zwischen einer zeitlichen Modulation des Beleuchtungslichts und einer zugehörigen Modulation des empfangenen Messlichts (196).
  7. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei der Lichtempfänger (120) aufweist erste Pixel für ein Erfassen der Lichtlaufzeit und zweite Pixel für ein Erfassen des charakteristischen Merkmals.
  8. Sensorsystem (100) gemäß einem der beiden vorangehenden Ansprüche, wobei der Lichtempfänger (120) aufweist einen ersten Sensor (521-1) mit einer ersten Pixelkonfiguration für ein Erfassen der Lichtlaufzeit und einen zweiten Sensor (521-2) mit einer zweiten Pixelkonfiguration für ein Erfassen des charakteristischen Merkmals.
  9. Sensorsystem (100) gemäß einem der drei vorangehenden Ansprüche, wobei die Messeinrichtung (110) ferner aufweist eine mit dem Lichtempfänger (120) gekoppelte Lichtempfänger-Steuereinrichtung (138), wobei die Lichtempfänger-Steuereinrichtung (138) und der Lichtempfänger (120) derart konfiguriert sind, dass in einem modifizierten Betrieb des Sensorsystems (120) zumindest zwei Pixel (422a) der Vielzahl von Pixel (422a) zu einem übergeordneten Pixel (422b) zusammengefasst sind.
  10. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, ferner aufweisend eine mit der Beleuchtungseinrichtung gekoppelte Beleuchtungslicht-Steuereinrichtung (142), welche konfiguriert ist, die Beleuchtungseinrichtung (140) derart anzusteuern, dass eine Charakteristik des Beleuchtungslichts (141) während eines Betriebes des Sensorsystems (141) veränderbar ist.
  11. Sensorsystem (100) gemäß dem vorangehenden Anspruch, wobei die Charakteristik des Beleuchtungslichts (141) durch zumindest eines der folgenden Merkmale bestimmt ist: (a) Wellenlänge; (b) spektrale Intensitätsverteilung; (c) Polarisationsrichtung und (d) Intensitätsverteilung für unterschiedliche Polarisationsrichtungen.
  12. Sensorsystem (100) gemäß einem der beiden vorangehenden Ansprüche, wobei die Charakteristik des Beleuchtungslichts (141) eine Abhängigkeit der Beleuchtungsintensität des Beleuchtungslichts (141) von dem Raumwinkel beschreibt.
  13. Sensorsystem (100) gemäß einem der drei vorangehenden Ansprüche, wobei die Beleuchtungslicht-Steuereinrichtung (142) mit der Datenverarbeitungseinrichtung (150) gekoppelt ist und die Beleuchtungslicht-Steuereinrichtung (142) konfiguriert ist, basierend auf einer Auswertung der dreidimensionalen Charakteristik der Szene (190) durch die Datenverarbeitungseinrichtung (150) die Charakteristik des Beleuchtungslichts (141) zu verändern.
  14. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, ferner aufweisend eine Halterung (111), welche zumindest mit der Messeinrichtung (110) mechanisch gekoppelt ist, wobei die Halterung (111) derart ausgebildet ist, dass das Sensorsystem (100) an einer in Bezug auf die zu erfassende Szene stationären Haltestruktur (182) anbringbar ist.
  15. Sensorsystem (100) gemäß einem der vorangehenden Ansprüche, wobei die Datenverarbeitungseinrichtung (150) ferner derart konfiguriert ist, dass eine Bedeckungscharakteristik einer von einem Objekt (195) zu passierenden Öffnung (184) durch zumindest einen Verschließkörper (186) steuerbar ist.
  16. Verfahren zum dreidimensionalen Erfassen einer Szene (190), das Verfahren aufweisend Beleuchten der Szene (190) mit Beleuchtungslicht (141) mittels einer Beleuchtungseinrichtung (140); Empfangen von Messlicht (196) mittels einer Messeinrichtung (110), wobei das Messlicht (196) zumindest teilweise von zumindest einem in der Szene (190) enthaltenen Objekt (195) zurückgestreutes Beleuchtungslicht (141) ist; Ermitteln von Distanzen basierend auf einer Lichtlaufzeit des Beleuchtungslichts (141) und des Messlichts (196) mittels der Messeinrichtung (110); Erfassen von zumindest einem charakteristischen Merkmal der elektromagnetischen Wellen des empfangenen Messlichts (196) mittels der Messeinrichtung (110); und Erkennen, mittels einer der Messeinrichtung (110) nachgeschalteten Datenverarbeitungseinrichtung (150), ein in der Szene (190) vorhandenes Objekt (195) basierend auf gemessenen Distanzen und auf dem erfassten charakteristischen Merkmal.
  17. Verfahren gemäß dem vorangehenden Anspruch, ferner aufweisend Vergleichen des erkannten Objekts (195) mit zumindest einem in einer Datenbank (160) hinterlegten Vergleichsobjekt; und, wenn das Objekt (195) innerhalb vorgegebener zulässiger Abweichungen mit einem Vergleichsobjekt übereinstimmt, Identifizieren des Objekts (195) als ein für eine bestimmte Aktion zugelassenes Objekt.
  18. Verwendung eines Sensorsystems (100) gemäß einem der vorangehenden Ansprüche 1 bis 15 für ein Steuern einer Bedeckungscharakteristik einer von einem Objekt (195) zu passierenden Öffnung (184) durch zumindest einen Verschließkörper (186).
  19. Verwendung gemäß dem vorangehenden Anspruch, wobei die Öffnung (184) ein Eingang oder ein Ausgang ist, insbesondere ein Notausgang in einem Gebäude und/oder das Objekt (195) eine Person oder ein Fahrzeug ist.
  20. Verwendung eines Sensorsystems (100) gemäß einem der vorangehenden Ansprüche 1 bis 15 für ein Erfassen und/oder Steuern von Verkehrsströmen von Objekten (695a-e), welche sich durch eine Szene (190) des Sensorsystems (100) bewegen, wobei die Szene (190) durch einen räumlichen Erfassungsbereich des Sensorsystems (100) bestimmt ist.
DE102017129654.9A 2017-12-12 2017-12-12 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen Withdrawn DE102017129654A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017129654.9A DE102017129654A1 (de) 2017-12-12 2017-12-12 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017129654.9A DE102017129654A1 (de) 2017-12-12 2017-12-12 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen

Publications (1)

Publication Number Publication Date
DE102017129654A1 true DE102017129654A1 (de) 2019-07-25

Family

ID=67144732

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017129654.9A Withdrawn DE102017129654A1 (de) 2017-12-12 2017-12-12 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen

Country Status (1)

Country Link
DE (1) DE102017129654A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022210578A1 (de) 2022-10-06 2024-04-11 Smiths Detection Germany Gmbh Erkennungsvorrichtung für eine Erkennung von Leer-Wannen bei einer Fördervorrichtung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2453252A1 (de) 2010-11-15 2012-05-16 Cedes AG Energiespar-3D-sensor
EP2722684A1 (de) * 2012-10-19 2014-04-23 Sick Ag Laserscanner
US20150293224A1 (en) 2013-05-09 2015-10-15 Quanergy Systems, Inc. Solid state optical phased array lidar and method of using same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2453252A1 (de) 2010-11-15 2012-05-16 Cedes AG Energiespar-3D-sensor
EP2722684A1 (de) * 2012-10-19 2014-04-23 Sick Ag Laserscanner
US20150293224A1 (en) 2013-05-09 2015-10-15 Quanergy Systems, Inc. Solid state optical phased array lidar and method of using same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN, Xiaozhi [u.a.]: Multi-view 3D object detection network for autonomous driving. In: 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 21 July - 26 July 2017, Hawaii, USA. 2017, S. 1-9. URL: https://arxiv.org/pdf/1611.07759 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022210578A1 (de) 2022-10-06 2024-04-11 Smiths Detection Germany Gmbh Erkennungsvorrichtung für eine Erkennung von Leer-Wannen bei einer Fördervorrichtung
DE102022210578B4 (de) 2022-10-06 2024-05-23 Smiths Detection Germany Gmbh Erkennungsvorrichtung für eine Erkennung von Leer-Wannen bei einer Fördervorrichtung

Similar Documents

Publication Publication Date Title
DE112017001112T5 (de) Verfahren und Vorrichtung für eine aktiv gepulste 4D-Kamera zur Bildaufnahme und -analyse
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
DE102011077038A1 (de) Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
EP2062198B1 (de) Erkennung von fahrzeuglichtern mit einer kamera
DE102009045600B4 (de) Kamerasystem
EP2306426B1 (de) Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche
WO2014023307A1 (de) Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung
EP3696537B1 (de) Vorrichtung und verfahren zur schadenserkennung an einem fahrenden fahrzeug
EP3311190A1 (de) Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
WO2020229186A1 (de) 3D SENSORSYSTEM, BETREIBBAR IN VERSCHIEDENEN BETRIEBSMODI IN ABHÄNGIGKEIT EINES BETRIEBSZUSTANDES EINES VERSCHLIEßKÖRPERS
DE102006055905A1 (de) Verfahren zur Fahrzeugumfelderkennung und Vorrichtung zur Umfelderkennung in einem Kraftfahrzeug
WO2007036553A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
EP2562685B1 (de) Verfahren und Vorrichtung zur Klassifizierung eines sich in einem Vorfeld eines Fahrzeugs befindlichen Lichtobjekts
DE102017129654A1 (de) 3D Szenenerfassung basierend auf Lichtlaufzeiten und einem charakteristischen Merkmal von erfassten elektromagnetischen Wellen
WO2019115561A1 (de) Sensorsystem zum dreidimensionalen erfassen einer szene mit verschiedenen photonenakkumulationen
DE102005011116B4 (de) Vorrichtung zur Ansteuerung und/oder Überwachung eines Flügels
EP3724601B1 (de) Abstandsermittlung basierend auf verschiedenen tiefenschärfebereichen bei unterschiedlichen fokuseinstellungen eines objektivs
DE102006004770A1 (de) Verfahren zur bildgestützten Erkennung von Fahrzeugen im Umfeld eines Sraßenfahrzeugs
DE102012111199A1 (de) Optische Vorrichtung mit multifokaler Bilderfassung
EP3724674A1 (de) 3d sensorsystem mit einer freiformoptik
WO2020229190A1 (de) Identifizierung eines objekts basierend auf einer erkennung eines teils des objekts und auf beschreibungsdaten von einem referenzobjekt
WO2019115559A1 (de) 3d sensorsystem mit einer von einem raumwinkel abhängigen szenenbeleuchtung
DE10137817B4 (de) Vorrichtung und Verfahren zur Erkennung von optischen Markierungen
DE102019112340A1 (de) TOF Sensorsystem mit einer Beleuchtungseinrichtung mit einem Array von Einzellichtquellen
DE102017129663A1 (de) Sensorsystem mit einer Lichtfeldkamera zum Bestimmen der Charakteristik einer Szene

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee