[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102021209538A1 - Verfahren und Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems - Google Patents

Verfahren und Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems Download PDF

Info

Publication number
DE102021209538A1
DE102021209538A1 DE102021209538.0A DE102021209538A DE102021209538A1 DE 102021209538 A1 DE102021209538 A1 DE 102021209538A1 DE 102021209538 A DE102021209538 A DE 102021209538A DE 102021209538 A1 DE102021209538 A1 DE 102021209538A1
Authority
DE
Germany
Prior art keywords
sensor
infrastructure
camera images
georeferenced
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021209538.0A
Other languages
English (en)
Inventor
Tobias Frye
Yann-Ael Muller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021209538.0A priority Critical patent/DE102021209538A1/de
Priority to CN202211026577.0A priority patent/CN115731300A/zh
Publication of DE102021209538A1 publication Critical patent/DE102021209538A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3852Data derived from aerial or satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

Gemäß einem ersten Aspekt der Erfindung wird ein Verfahren zum Kalibrieren eines Infrastruktursensorsystems vorgeschlagen, das die folgenden Schritte aufweist:
- Erfassen einer Vielzahl von Kamerabildern einer Umgebung eines Infrastruktursystems in der das Infrastruktursensorsystem installiert ist oder installiert werden wird, durch eine fliegende Drohne,
- Erzeugen einer georeferenzierten 3D-Punktwolke aus den Kamerabildern und georeferenzierter Bildmetadaten der Kamerabilder mittels eines Bildverarbeitungs-Algorithmus;
- Bereitstellen der georeferenzierten 3D-Punktwolke in einer Recheneinheit des Infrastruktursystems;
- Erfassen von Umgebungsdaten durch das Infrastruktursensorsystem durch mindestens einen Sensor des Infrastruktursensorsystems;
- Anwenden eines, insbesondere iterativen, Anpassungsalgorithmus auf die georeferenzierten 3D-Punktwolkendaten und die durch den mindestens einen Sensor des Infrastruktursensorsystems erfassten Umgebungsdaten und daraus Bestimmung der Sensorpose des mindestens einen Sensors und zugehöriger Sensorparameter.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems. Die Erfindung betrifft ferner ein Infrastruktursystem.
  • Stand der Technik
  • Multi-Sensor-Wahrnehmungssysteme finden sich häufig in autonomen Fahrzeugen und Robotern sowie stationär in Infrastruktur-Lösungen wie beispielsweise Kamera-Netzwerke in Sicherheitssystemen oder zur Verkehrsüberwachung. Derartige Multi-Sensorsysteme verwenden oft eine Kombination aus Kamera, Radar und Lidar-Sensoren.
  • Für zukünftige Fahrerassistenzsysteme (ADAS) und automatisierte Fahrzeuge (AD) ist eine vernetzte Infrastruktur mit Sensorüberwachung des Fahrzeugumfelds sehr vorteilhaft. Die Sensorinformationen können an das Fahrzeug übertragen und im Umgebungsmodell und in der Trajektorienplanung durch das sensorische Erfassen der beteiligten Verkehrsteilnehmer verwendet werden. Es ist dabei notwendig, dass die Sensordaten hochgenau und zuverlässig sind. Dies erfordert eine gute Kalibrierung der beteiligten Sensoren und außerdem eine Erkennung, wann die Kalibrierung nicht mehr korrekt ist und neu durchgeführt werden sollte.
  • Die Kalibrierung von Multisensor-Wahrnehmungssystemen ist bei solchen Infrastruktursystemen eine entscheidende Aufgabe, um die mittels der Infrastruktursensorik erfassten Daten in einem gemeinsamen geometrischen Referenzsystem zuverlässig interpretieren zu können. Die Kalibrierung ermöglicht die Positionierung der von den Sensoren gemessenen Merkmale oder Daten im geometrischen Referenzsystem mit hoher Genauigkeit. Kalibrierungsverfahren liefern dabei typischerweise eine Schätzung der Sensorlage und eine Transformation vom Sensorkoordinatensystem in das reale Koordinatensystem, z.B. entweder in lokale kartesische (x, y, z) oder Weltkoordinaten (Breite, Länge, Höhe).
  • Die Offenlegungsschrift DE 11 2018 007 048 T5 offenbart eine Kalibrationseinrichtung, ein Kalibrationsverfahren und ein Programm und ermöglicht eine stabile Durchführung einer Kalibration. Informationserfassungseinheiten erfassen Peripherieobjektinformationen und Informationsverarbeitungseinheiten erzeugen Punktgruppendaten, die sich auf Merkmalspunkte eines Peripherieobjekts beziehen, auf Basis der Peripherieobjektinformationen. Eine Gewichtseinstellungseinheit stellt Gewichte entsprechend Zuständen des Peripherieobjekts und der Informationserfassungseinheiten zu der Zeit der Erfassung der Peripherieobjektinformationen ein. Die Punktgruppendaten, die Gewichte und ein externer Parameter werden verwendet, um auf Basis von Kosten, die einen Fehler des externen Parameters angeben, einen neuen externen Parameter zu berechnen, bei dem der Fehler minimiert wird.
  • Ein üblicher Ansatz zur Kalibrierung von Sensoren, z. B. Kamera-Radar oder Lidar, wird in zwei Schritten durchgeführt: In einem ersten Schritt wird die reale Position von leicht identifizierbaren Mustern gemessen, die entweder bereits vorhanden sind oder gezielt im Sichtfeld des Sensors positioniert werden. Die bekannte Position der Muster wird dann mit der Sensormessung dieser Muster in Bezug gesetzt. Die Messdaten können z.B. von einem spezialisierten Kalibrieralgorithmus verarbeitet werden, der von Sensortyp und Modell abhängt. Dieser Prozess beinhaltet jedoch durch die Anbringung der Muster und die erforderlichen Testmessungen ein nicht unerhebliches Maß an manueller Arbeit im Feld und erfordert einen qualifizierten Bediener, um das Verfahren durchzuführen.
  • Es kann damit als eine Aufgabe der Erfindung angesehen werden ein effizientes Verfahren zum Kalibrieren eines Infrastruktursensorsystems anzugeben.
  • Offenbarung der Erfindung
  • Gemäß einem ersten Aspekt der Erfindung wird ein Verfahren zum Kalibrieren eines Infrastruktursensorsystems vorgeschlagen, das die folgenden Schritte aufweist:
    • - Erfassen einer Vielzahl von Kamerabildern einer Umgebung eines Infrastruktursystems in der das Infrastruktursensorsystem installiert ist oder installiert werden wird, durch eine fliegende Drohne,
    • - Erzeugen einer georeferenzierten 3D-Punktwolke aus den Kamerabildern und georeferenzierter Bildmetadaten der Kamerabilder mittels eines Bildverarbeitungs-Algorithmus;
    • - Bereitstellen der georeferenzierten 3D-Punktwolke in einer Recheneinheit des Infrastruktursystems;
    • - Erfassen von Umgebungsdaten durch das Infrastruktursensorsystem durch mindestens einen Sensor des Infrastruktursensorsystems;
    • - Anwenden eines, insbesondere iterativen, Anpassungsalgorithmus auf die georeferenzierten 3D-Punktwolkendaten und die durch den mindestens einen Sensor des Infrastruktursensorsystems erfassten Umgebungsdaten und daraus Bestimmung der Sensorpose des mindestens einen Sensors und zugehöriger Sensorparameter.
  • Nach einem zweiten Aspekt der Erfindung wird eine Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems vorgeschlagen, die als flugfähige Drohe umfassend ein Kamerasystem und ein, insbesondere satellitenbasiertes, Lokalisierungssystem, ausgebildet ist. Die Drohne ist ausgebildet, eine Vielzahl von Kamerabildern einer Umgebung eines Infrastruktursystems in der das Infrastruktursensorsystem installiert ist oder installiert werden wird zu erfassen. Diese erfassten Kamerabilder und die zugehörigen Bildmetadaten werden an eine externe Recheneinheit zur weiteren Verarbeitung übermittelt, beispielsweise eine Recheneinheit des Infrastruktursystems und/oder eine Recheneinheit eines Cloud-Dienstes. Alternativ oder zusätzlich wird direkt durch eine Recheneinheit der Drohne eine georeferenzierte 3D-Punktwolke aus den Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder mittels eines geeigneten Bildverarbeitungs-Algorithmus erzeugt und an eine Recheneinheit des Infrastruktursystems zum Kalibrieren des Infrastruktursensorsystems übermittelt.
  • Nach einem dritten Aspekt der Erfindung wird ein Infrastruktursystem, insbesondere zur Fahrunterstützung von zumindest teilautomatisiert geführten Kraftfahrzeugen, vorgeschlagen. Das Infrastruktursystem umfasst ein Infrastruktursensorsystem mit einem oder mehreren Sensoren, die ausgebildet sind, Informationen zu einer Umgebung zu erfassen und Umgebungsdaten zu erzeugen. Das Infrastruktursystem umfasst außerdem eine Recheneinheit, die ausgebildet ist, Kamerabilder und georeferenzierte Bildmetadaten der Kamerabilder von einer Drohne, die nach dem zweiten Aspekt der Erfindung ausgebildet ist, zu empfangen und eine georeferenzierte 3D-Punktwolke aus den Kamerabildern und den georeferenzierten Bildmetadaten der Kamerabilder mittels eines Bildverarbeitungs-Algorithmus zu erzeugen. Alternativ oder zusätzlich kann die Recheneinheit eine aus Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder mittels eines Bildverarbeitungs-Algorithmus erzeugte georeferenzierte 3D-Punktwolke von einer Drohne, die nach dem zweiten Aspekt ausgebildet ist und/oder von einem externen Cloud-Dienst empfangen.
  • Die Recheneinheit ist ausgebildet, einen, insbesondere iterativen, Anpassungsalgorithmus auf die Daten der georeferenzierten 3D-Punktwolke und die durch den mindestens einen Sensor des Infrastruktursensorsystems erfassten Umgebungsdaten anzuwenden und daraus eine Sensorpose des mindestens einen Sensors und zugehöriger Sensorparameter zu bestimmen.
  • Vorrichtungsmerkmale ergeben sich analog aus entsprechenden Verfahrensmerkmalen und umgekehrt. Das heißt also, dass sich technische Funktionalitäten des Verfahrens aus entsprechenden technischen Funktionalitäten der Vorrichtungen und umgekehrt ergeben. Gleiches gilt für Systemmerkmale, welche sich analog aus Verfahrensmerkmalen und/oder Vorrichtungsmerkmalen und umgekehrt ergeben.
  • Die Erfindung beruht auf der Idee, zum Kalibrieren eines Infrastruktursensorsystems die sogenannte UAV-Photogrammetrie einzusetzen, also Luftbildaufnahmen einer Drohne zu verwenden. Eine Drohne in diesem Zusammenhang beschreibt ein unbemanntes Fluggerät („UAV“: unmanned aerial vehicle), das mindestens eine Kamera aufweist und das autonom oder ferngesteuert über einem bestimmten Gebiet fliegen und Luftbildaufnahmen des Gebiets erfassen kann.
  • Gemäß der Erfindung ist vorgesehen, dass eine derartige Drohne eine Vielzahl von überlappenden Kamerabildern einer Umgebung eines Infrastruktursystems in der das Infrastruktursensorsystem installiert ist oder installiert werden wird, erfasst. Die Kamerabilder werden z.B. fortlaufend oder in regelmäßigen zeitlichen oder räumlichen Abständen erfasst. Die Drohne weist weiterhin ein satellitengestütztes Lokalisierungssystem auf, so dass jedes aufgenommene Kamerabild mit Metadaten versehen werden kann, die angeben an welcher globalen Position das jeweilige Bild aufgenommen wurde. Diese Metadaten werden als georeferenzierte Bildmetadaten bezeichnet. Die Bildmetadaten können z.B. in Form von sogenannten Exif-Tags in das jeweilige Kamerabild eingebettet sein. In den Exif-Tagseiner Bilddatei werden technische Informationen zur Aufnahme, unter anderem Kameramodell, Zeitpunkt der Aufnahme und Kameraeinstellungen, gespeichert.
  • Zur Erfassung der Kamerabilder bewegt sich die fliegende Drohne bevorzugt entlang eines zuvor festgelegten Flugpfades über die Umgebung des Infrastruktursystems. Der Flugpfad kann dabei so festgelegt werden, dass die Umgebung besonders genau erfasst werden kann. Dazu kann ein Flugpfad abhängig von den örtlichen Gegebenheiten z.B. so geplant werden, dass Verdeckungen vermieden werden und/oder dass z.B. bestimmte Strukturen im Messbereich des Infrastruktursensorsystem besonders oft durch die Drohne erfasst werden. Bevorzugt ist der Flugpfad durch eine Mehrzahl von Wegpunkten definiert, wobei die Drohne die Wegpunkte in einer definierten Reihenfolge abfliegt.
  • Bevorzugt werden die Kamerabilder mit einem Neigungswinkel von etwa 65° ± 10° erfasst, anstatt z.B. senkrecht nach unten (sogenannte Nadir-Bilder). Dies hat den Vorteil, dass die resultierenden Bilder eine bessere Perspektive von vertikalen Strukturen und Merkmale aufweisen, womit diese später besser rekonstruiert werden können.
  • Mittels eines geeigneten Bildverarbeitungs-Algorithmus kann nun aus der Vielzahl der aufgenommenen Kamerabilder und der zugehörigen georeferenzierten Bildmetadaten eine georeferenzierten 3D-Punktwolke erzeugt werden, die ein hochgenaues, dreidimensionales Abbild der erfassten Umgebung ist. Bevorzugt wird hierbei ein sogenannter Structure-from Motion (SfM) Algorithmus verwendet. Derartige Algorithmen haben den Vorteil, dass sie eine sehr genaue 3D-Punktwolke erzeugen können. Derartige Structure-from-Motion Algorithmen sind dem Fachmann bekannt, so das hier nicht weiter auf Details eingegangen werden soll. Dem Fachmann sind weitere Bildverarbeitungsalgorithmen bekannt, die zur Erzeugung einer 3D-Punktwolke verwendet werden können, beispielsweise ein SLAM-Algorithmus („Simultaneous Localization and Mapping“).
  • Die Ausführung eines Structure-from Motion-Algorithmus kann sehr rechenintensiv sein, so dass es vorteilhat ist, wenn die Drohne die Kamerabilder und georeferenzierten Bildmetadaten der Kamerabilder an eine externe Recheneinheit, z.B. eine Recheneinheit des Infrastruktursystems oder an einen Cloud-Dienst übermittelt, wo die Erzeugung der 3D-Punktwolke mittels eines Structure-from Motion-Algorithmus effizient durchgeführt werden kann. Das Ergebnis kann von der Recheneinheit des Infrastruktursystems oder dem Cloud-Dienst bereitgestellt werden.
  • Die so erzeugte georeferenzierte 3D-Punktwolke wird einer Recheneinheit des betreffenden Infrastruktursystems bereitgestellt, wo sie mit durch mindestens einen Sensor des Infrastruktursensorsystems erfassten Umgebungsdaten verglichen werden kann.
  • Das Übermitteln von erfassten Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder an eine Recheneinheit des Infrastruktursystems oder einen Cloud-Dienst kann nach einer möglichen Ausführung der Erfindung während des Flugs der Drohne mittels einer drahtlosen Kommunikationsverbindung zwischen der Drohne und der Recheneinheit des Infrastruktursystems oder dem Cloud-Dienst erfolgen, insbesondere unter Verwendung eines Mobilfunkstandards, wie z.B. 4G oder 5G. So können vorteilhaft noch während des Flugs der Drohne bereits 3D-Punktwolkendaten für eine Sensorkalibration erzeugt und bereitgestellt werden.
  • Alternativ kann das Übermitteln von erfassten Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder an eine Recheneinheit des Infrastruktursystems und/oder einen Cloud-Dienst nach der Landung der Drohne erfolgen, insbesondere mittels einer Docking-Station zum Aufladen der Drohne oder einem Mobilgerät, dass insbesondere auch zum Steuern der Drohne verwendbar ist, die bzw. das eine Datenverbindung zu der Recheneinheit oder dem Cloud Dienst aufweist (drahtlos oder drahtgebunden) und/oder einer direkten WiFi-Datenverbindung oder einer direkten kabelgebundenen Datenverbindung zwischen der Drohne und der Recheneinheit. So können auch größere Datenmengen effizient übertragen werden.
  • Der oder die Sensoren des Infrastruktursensorsystems sind beispielsweise als Radarsensoren, Lidarsensoren oder Kamerasysteme ausgebildet. Sie erfassen Messdaten, die die Umgebung des Infrastruktursensorsystems abbildet. Radar- und Lidarsensoren erfassen beispielsweise Abstände zu Objekten, erzeugen also räumliche 3D-Informationen. Kamerasysteme erfassen Bilddaten.
  • Erfindungsgemäß wird nun ein, insbesondere iterativer, Anpassungsalgorithmus, auch als Matching-Algorithmus bezeichnet, auf die georeferenzierten 3D-Punktwolkendaten und die durch den mindestens einen Sensor des Infrastruktursensorsystems erfassten Umgebungsdaten angewendet. Damit kann die Sensorpose des mindestens einen Sensors und die zugehörigen Sensorparameter ermittelt werden. Unter der Sensorpose wird hierbei insbesondere eine Ausrichtung des Sensors verstanden, die beispielsweise durch eine Einbauhöhe und Neigungswinkel charakterisiert sein kann. Als zugehörige Sensorparameter können z.B. Umrechnungsparameter bestimmt werden, mit denen eine Koordinatentransformation zwischen dem Sensorkoordinatensystem und dem realen Koordinatensystem, z.B. entweder in lokale kartesische (x, y, z) oder Weltkoordinaten (Breite, Länge, Höhe) durchgeführt werden kann.
  • Die Bestimmung der Sensorposen und der zugehörigen Sensorparameter wird bei der Kalibrierung bevorzugt durch einen iterativen Abgleich zwischen den georeferenzierten 3D-Punktwolken-Daten und den von den Sensoren erfassten räumlichen Signalen erreicht. Je nach Typ des zu kalibrierenden Sensors kann der Matching-Algorithmus unterschiedlich ausgebildet sein. Für Sensoren, die ebenfalls 3D-Punktdaten messen, wie z.B. Radarsensoren oder Lidarsensoren können die Sensordaten durch eine iterative Annäherung an die georeferenzierten 3D-Punktwolken-Daten mittels eines „Iterative Closest Point“ Algorithmus in Übereinstimmung gebracht werden und so eine Sensorpose bestimmt werden. Für Bildsensoren, z.B. 2D-Kamerasysteme kann ein Matching an Zwischenmerkmalen wie z.B. geraden Kanten durchgeführt werden, die sowohl aus der Punktwolke (Schnittflächenverfahren) als auch aus den Bilddaten (Kantendetektion) extrahiert werden können.
  • Das Infrastruktursensorsystem kann eine Mehrzahl von Sensoren aufweisen, wobei das Erfassen von Umgebungsdaten durch die Mehrzahl der Sensoren erfolgt und für jeden der Sensoren ein, insbesondere iterativer, Anpassungsalgorithmus auf die georeferenzierten 3D-Punktwolkendaten und die durch den jeweiligen Sensor erfassten Umgebungsdaten und daraus Bestimmung der Sensorpose des jeweiligen Sensors und zugehöriger Sensorparameter erfolgt.
  • Gegenüber herkömmlichen Kalibrierverfahren bietet die Erfindung die folgenden Vorteile: Zunächst reduziert sich den Bedarf an manueller Arbeit im Feld. Ein Großteil des Prozesses der Datenerfassung durch eine Drohne (UAV) kann automatisiert werden. Im Gegensatz zu einer manuellen Kalibrierung des Infrastruktursensorsystems ist es mit der Erfindung möglich, mehrere Sensoren, auch unterschiedlicher Sensortypen Typen gleichzeitig mit demselben Datensatz zu kalibrieren. Dieser hohe Automatisierungsgrad spart Zeit und Kosten und reduziert menschliche Fehler. So müsste bei herkömmlichen Verfahren ein qualifizierter Bediener einen vollständigen Kalibrierungsvorgang, bei dem die geometrischen Koordinaten mehrerer Kalibriermuster positioniert und gemessen werden wiederholen. Derartige manuelle Kalibrierungsverfahren erfordern z.B. sensorspezifische Kalibrierungsmuster du/oder andere spezielle Messhardware, was mit der vorliegenden Erfindung nicht mehr nötig ist.
  • Die Verwendung einer Drohne (UAV) zur Erzeugung von 3D-Punktwolkendaten bringt außerdem Vorteile im Hinblick auf die Datenqualität und -genauigkeit. So können die erfassten Luftbilder und die daraus erzeugten 3D-Punkwolkentdaten mit einer hohen Präzision georeferenziert werden, entweder über die satellitengestützte Lokalisierung (z.B. über GPS) der Drohne selbst oder über extern gemessene Bodenkontrollpunkte. Manche Drohnen verfügen über die Differential-GPS-Technologie, die eine Genauigkeit im Zentimeterbereich ermöglicht. Es ist auch möglich, mit der Drohne sehr nah am Boden zu fliegen und trotzdem hochwertige Sensordaten zu erfassen. Selbst der Einsatz aktueller Consumer-Level-Drohnen kann sehr hochwertige Ergebnisse liefern. So ist es beispielsweise möglich die Drohne über einem stark, z.B. von Fahrzeugen oder Fußgängern frequentierten Gelände, in der Luft stehen zu lassen und so lange Kamerabilder zu sammeln, dass für Erzeugung der 3D-Punktwolke nur die Bildbereiche verwendet werden können, die nicht durch bewegten Fahrzeuge oder Fußgänger verdeckt sind.
  • Da sie nicht von speziellen, temporär eingesetzten Mustern abhängig ist, kann die UAV-Erfassung jederzeit erfolgen, sofern sich die allgemeine Umgebung voraussichtlich nicht ändert, auch bevor das Infrastruktursensorsystem überhaupt im Messbereich aufgebaut bzw. eingesetzt wird.
  • Figurenliste
  • Unter Bezugnahme auf die beigefügten Figuren werden Ausführungsformen der Erfindung im Detail beschrieben.
    • 1 zeigt ein Flussdiagramm eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens
    • 2 zeigt eine Darstellung einer 3D-Punktwolke, die aus von einer Drohne aufgenommenen Kamerabildern mittels eines Structure-from-Motion-Algorithmus und georeferenzierter Bildmetadaten der Kamerabilder erzeugt wurde.
    • 3 zeigt schematisch ein Infrastruktursystem nach einem Ausführungsbeispiel der Erfindung und eine fliegende Drohne als Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems des Infrastruktursystems gemäß der Erfindung.
  • Bevorzugte Ausführungen der Erfindung
  • In der nachfolgenden Beschreibung der Ausführungsbeispiele der Erfindung werden gleiche Elemente mit gleichen Bezugszeichen bezeichnet, wobei auf eine wiederholte Beschreibung dieser Elemente gegebenenfalls verzichtet wird. Die Figuren stellen den Gegenstand der Erfindung nur schematisch dar.
  • 1 stellt den Ablauf eines Verfahrens zum Kalibrieren eines Infrastruktursensorsystems nach einem möglichen Ausführungsbeispiel der Erfindung als Flussdiagramm dar. Im ersten Schritt 110 wird ein Flugpfad für eine Drohne über das Gebiet bzw. die Umgebung in dem/der das Infrastruktursensorsystem installiert ist, geplant. In einem darauffolgenden Schritt 120 fliegt die Drohne den zuvor geplanten Flugpfad ab und erfasst dabei eine Vielzahl von Kamerabildern der Umgebung. Die Drohne weist einen hochgenauen GPS-Empfänger auf, so dass jedem Kamerabild georeferenzierte Bildmetadaten zugeordnet sind, die insbesondere die globalen Koordinaten umfassen, an denen das jeweilige Kamerabild erfasst wurde. Im nächsten Schritt 130 werden Kamerabilder und georeferenzierte Bildmetadaten der Kamerabilder an eine Recheneinheit (z.B. eine Recheneinheit des Infrastruktursystems oder eines Cloud-Dienstes) übermittelt. Dies geschieht beispielsweise entweder noch während des Flugs der Drohne über eine Mobilfunkverbindung oder nach Rückkehr der Drohne zum Boden über eine Datenverbindung (z.B. WiFi oder Ethernet). In Schritt 140 wird mittels der Recheneinheit eine georeferenzierte 3D-Punktwolke aus den erfassten Kamerabildern und den georeferenzierten Bildmetadaten der Kamerabilder mittels eines Structure-from-Motion-Algorithmus berechnet und die berechnete georeferenzierte 3D-Punktwolke dem Infrastruktursystem bereitgestellt. In Schritt 150 wird ein iterativer Matching Algorithmus auf die georeferenzierten 3D-Punktwolkendaten und auf durch einen Sensor des Infrastruktursensorsystems erfasste Umgebungsdaten angewandt und daraus die Sensorpose des Sensors und zugehörige Sensorparameter bestimmt. Der Schritt 150 kann für alle Sensoren des Infrastruktursensorsystems ausgeführt werden.
  • In 2 ist ein Beispiel einer 3D-Punktwolke 200, die aus von einer Drohne erfassten Kamerabildern und zugehörigen georeferenzierten Bildmetadaten der Kamerabilder mittels eines Structure-from-Motion-Algorithmus berechnet wurde, dargestellt. Die 3D-Punktwolke 200 ist in ein globales Koordinatensystem 210 eingebettet, das heißt zu jedem Punkt der 3D-Punktwolke sind Koordinaten (z.B. lokale kartesische (x, y, z) oder Weltkoordinaten (Breite, Länge, Höhe)) bekannt, die sich eindeutig auf die reale Welt beziehen.
  • In der 3D-Punktwolke 200 sind statische, also unbewegliche, Strukturen 220, 230 erkennbar, die auch von einem Sensor eines Infrastruktursensorsystems, das mit Hilfe der 3D-Punktwolke 200 kalibriert werden soll, erfasst werden können. Handelt es sich bei dem Sensor beispielsweise um einen Radarsensor, so können z.B. durch Time-of-Flight Messungen räumliche Messdaten der Strukturen 220, 230 gewonnen werden, die ebenfalls Koordinaten aufweisen, die jedoch noch auf den Sensor bezogen sind. Ein Matching-Algorithmus sucht nun mögliche Koordinatentransformationen, die die Strukturen 220, 230 in beiden Messdatensätzen möglichst gut aufeinander abbilden. Ist eine solche Transformation gefunden, so können aus den Parametern dieser Transformation beispielsweise die Sensorpose und die zugeordneten Sensorparameter abgeleitet werden.
  • In 3 ist schematisch ein Aufbau für eine Kalibrierung eines Infrastruktursensorsystems gemäß der Erfindung dargestellt. Ein Infrastruktursystem 300, das insbesondere zur Fahrunterstützung von zumindest teilautomatisiert geführten Kraftfahrzeugen ausgebildet ist, umfasst ein ein Infrastruktursensorsystem 310 mit mehreren Sensoren 312a, 312b, 312c, die ausgebildet sind, Informationen zu einer Umgebung 350, insbesondere auch zu statischen Strukturen 330, 320 in der Umgebung 350 zu erfassen und Umgebungsdaten zu erzeugen. Zum Beispiel können die Sensoren 312a, 312b und 312c Informationen zu Abständen, Dimensionen und Bewegungsdaten von Objekten in der Umgebung 350 erfassen, woraus Umgebungsdaten erzeugt werden können. Die Sensoren 312a, 312b, 312c können den gleichen Sensortyp oder verschiedene Sensortypen aufweisen. Zum Beispiel kann der 312a als Radarsensor ausgebildet sein, der Sensor 312b als Lidarsensor und der Sensor 312c als Videokamera. Das Infrastruktursystem 300 weist außerdem eine Recheneinheit 360 auf, die beispielsweise als sogenannte „Road Side Unit“ (RSU) ausgebildet sein kann.
  • Eine Drohne 400 fliegt oberhalb der Umgebung 350. Die Drohne 400 weist ein Kamerasystem 410 und ein satellitenbasiertes Lokalisierungssystem 420 auf. Die Drohne 400 ist ausgebildet, eine Vielzahl von Kamerabildern der Umgebung 350 inklusive der statischen Strukturen 330, 320 in der Umgebung 350 des Infrastruktursystems 300 in der das Infrastruktursensorsystem 310 installiert ist, zu erfassen. Die Drohne 400 weist eine Kommunikationseinheit 430 auf mit der die erfassten Kamerabilder und Bildmetadaten an die Recheneinheit 360 des Infrastruktursystems 300 und/oder an einen Cloud-Dienst übermittelt werden.
  • Die Recheneinheit 360 empfängt die Kamerabilder und die Bildmetadaten von der Drohne 400 mittels einer Kommunikationseinheit 370 und erzeugt eine georeferenzierte 3D-Punktwolke aus den Kamerabildern und den Bildmetadaten mittels eines Structure-from Motion-Algorithmus. Alternativ kann die Recheneinheit 360 eine georeferenzierte 3D-Punktwolke von einem Cloud-Dienst empfangen (nicht dargestellt). Die Recheneinheit 360 wendet einen iterativen Anpassungsalgorithmus (Matching Algorithmus) auf die georeferenzierten 3D-Punktwolkendaten und die jeweiligen durch die Sensoren 312a, 312b, 312c des Infrastruktursensorsystems 310 erfassten Umgebungsdaten an, um daraus eine Sensorpose des jeweiligen Sensors 312a, 312b, 312c und zugehörige Sensorparameter zu bestimmen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 112018007048 T5 [0005]

Claims (11)

  1. Verfahren zum Kalibrieren eines Infrastruktursensorsystems (310) mit den Schritten - Erfassen einer Vielzahl von Kamerabildern einer Umgebung (350) eines Infrastruktursystems (300) in der das Infrastruktursensorsystem (310) installiert ist oder installiert werden wird, durch eine fliegende Drohne (400), - Erzeugen einer georeferenzierten 3D-Punktwolke (200) aus den Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder mittels eines Bildverarbeitungs-Algorithmus; - Bereitstellen der georeferenzierten 3D-Punktwolke (220) in einer Recheneinheit (360) des Infrastruktursystems (300); - Erfassen von Umgebungsdaten durch mindestens einen Sensor (312a, 312b, 312c) des Infrastruktursensorsystems (310); - Anwenden eines, insbesondere iterativen, Anpassungsalgorithmus auf die georeferenzierten 3D-Punktwolkendaten und die durch den mindestens einen Sensor (312a, 312b, 312c) des Infrastruktursensorsystems (310) erfassten Umgebungsdaten und daraus Bestimmung der Sensorpose des mindestens einen Sensors (312a, 312b, 312c) und zugehöriger Sensorparameter.
  2. Verfahren nach Anspruch 1, wobei sich die fliegende Drohne (400) entlang eines zuvor festgelegten Flugpfades über die Umgebung (350) des Infrastruktursystems (300) bewegt.
  3. Verfahren nach Anspruch 2, wobei der Flugpfad durch eine Mehrzahl von Wegpunkten definiert ist, wobei die Drohne (400) die Wegpunkte in einer definierten Reihenfolge abfliegt.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Bildverarbeitungsalgorithmus zum Erzeugen einer georeferenzierten 3D-Punktwolke (200) aus den Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder als Structure-from-Motion-Algorithmus ausgebildet ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erzeugen der georeferenzierten 3D-Punktwolke (220) durch eine Recheneinheit des Infrastruktursystems oder durch eine Recheneinheit eines Cloud-Dienstes erfolgt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Infrastruktursensorsystem (310) eine Mehrzahl von Sensoren (312a, 312b, 312c) aufweist, wobei das Erfassen von Umgebungsdaten durch die Mehrzahl der Sensoren (312a, 312b, 312c) erfolgt und für jeden der Sensoren (312a, 312b, 312c) ein, insbesondere iterativer, Anpassungsalgorithmus auf die georeferenzierten 3D-Punktwolkendaten und die durch den jeweiligen Sensor (312a, 312b, 312c) erfassten Umgebungsdaten und daraus Bestimmung der Sensorpose des jeweiligen Sensors (312a, 312b, 312c) und zugehöriger Sensorparameter erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Kamerabilder mit einem Kameraneigungswinkel von 65° ± 10° erfasst werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Übermittlung von Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder an eine Recheneinheit (360) des Infrastruktursystems und/oder an einen Cloud-Dienst während des Flugs mittels einer drahtlosen Kommunikationsverbindung zwischen der Drohne (400) und der Recheneinheit (360) des Infrastruktursystems (300) und/oder dem Cloud-Dienst erfolgt, insbesondere unter Verwendung eines Mobilfunkstandards.
  9. Verfahren nach einem der Ansprüche 1 bis 7, wobei eine Übermittlung von Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder an eine Recheneinheit (360) des Infrastruktursystems (300) und/oder an einen Cloud-Dienst nach einer Landung der Drohne (400) erfolgt, insbesondere mittels einer Docking-Station und/oder einer direkten Datenverbindung.
  10. Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems (310) nach einem Verfahren nach einem der Ansprüche 1 bis 9, die als flugfähige Drohe (400) umfassend ein Kamerasystem (410) und ein, insbesondere satellitenbasiertes, Lokalisierungssystem (420) ausgebildet ist, wobei die Drohne (400) ausgebildet ist, eine Vielzahl von Kamerabilder einer Umgebung (350) eines Infrastruktursystems (300) in der das Infrastruktursensorsystem (310) installiert ist oder installiert werden wird zu erfassen und die erfassten Kamerabilder und georeferenzierte Bildmetadaten der Kamerabilder und/oder eine aus den Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder erzeugten georeferenzierte 3D-Punktwolke, an eine Recheneinheit (360) des Infrastruktursystems (300) und/oder an einen an eine Recheneinheit eines Cloud-Dienstes zum Kalibrieren des Infrastruktursensorsystems (310) zu übermitteln.
  11. Infrastruktursystem (300), insbesondere zur Fahrunterstützung von zumindest teilautomatisiert geführten Kraftfahrzeugen, umfassend - ein Infrastruktursensorsystem (310) mit einem oder mehreren Sensoren (312a, 312b, 312c), die ausgebildet sind, Informationen zu einer Umgebung (350) des Infrastruktursystems (300) zu erfassen und Umgebungsdaten zu erzeugen, - eine Recheneinheit (360), die ausgebildet ist, - Kamerabilder und georeferenzierte Bildmetadaten der Kamerabilder von einer Drohne (400) nach Anspruch 10 zu empfangen, und eine georeferenzierte 3D-Punktwolke (200) aus den Kamerabildern und der georeferenzierten Bildmetadaten der Kamerabilder mittels eines Bildverarbeitungs-Algorithmus, insbesondere eines Structure-from-Motion-Algorithmus, zu erzeugen und/oder - eine aus den Kamerabildern und georeferenzierten Bildmetadaten der Kamerabilder mittels eines Bildverarbeitungs-Algorithmus, insbesondere eines Structure-from-Motion-Algorithmus, erzeugte georeferenzierte 3D-Punktwolke (200) von einer Drohne (400) nach Anspruch 10 oder von einem externen Cloud-Dienst zu empfangen; - und einen, insbesondere iterativen, Anpassungsalgorithmus auf die Daten der georeferenzierten 3D-Punktwolke und die durch den mindestens einen Sensor (312a, 312b, 312c) des Infrastruktursensorsystems (310) erzeugten Umgebungsdaten anzuwenden, und daraus eine Sensorpose des mindestens einen Sensors (312a, 312b, 312c) und zugehörige Sensorparameter zu bestimmen.
DE102021209538.0A 2021-08-31 2021-08-31 Verfahren und Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems Pending DE102021209538A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021209538.0A DE102021209538A1 (de) 2021-08-31 2021-08-31 Verfahren und Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems
CN202211026577.0A CN115731300A (zh) 2021-08-31 2022-08-25 用于校准基础设施传感器系统的方法和装置以及基础设施系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021209538.0A DE102021209538A1 (de) 2021-08-31 2021-08-31 Verfahren und Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems

Publications (1)

Publication Number Publication Date
DE102021209538A1 true DE102021209538A1 (de) 2023-03-02

Family

ID=85175472

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021209538.0A Pending DE102021209538A1 (de) 2021-08-31 2021-08-31 Verfahren und Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems

Country Status (2)

Country Link
CN (1) CN115731300A (de)
DE (1) DE102021209538A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006028625A1 (de) 2006-04-28 2007-10-31 Daimlerchrysler Ag Verfahren zum Vermessen von Fahrzeugen
DE102016222319A1 (de) 2016-11-14 2018-05-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-referenzierung
DE112018007048T5 (de) 2018-02-09 2020-10-15 Sony Corporation Kalibrationsvorrichtung, kalibrationsverfahren und programm

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006028625A1 (de) 2006-04-28 2007-10-31 Daimlerchrysler Ag Verfahren zum Vermessen von Fahrzeugen
DE102016222319A1 (de) 2016-11-14 2018-05-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. 3d-referenzierung
DE112018007048T5 (de) 2018-02-09 2020-10-15 Sony Corporation Kalibrationsvorrichtung, kalibrationsverfahren und programm

Also Published As

Publication number Publication date
CN115731300A (zh) 2023-03-03

Similar Documents

Publication Publication Date Title
EP3491417B1 (de) Verfahren und system zum erfassen von landmarken in einem verkehrsumfeld einer mobilen einheit
EP1842382B1 (de) Verfahren, Vorrichtung, Computersoftware und entsprechender Datenträger zum Bestimmen einer Objekteigenschaft eines Objekts mit Hilfe von Bildern, die mit Hilfe einer Kamera erfasst werden
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
DE102016112913A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
DE102011100628B4 (de) Verfahren und Vorrichtung zur Bestimmung mindestens eines Kameraparameters
EP3008534B1 (de) Verfahren zum modellieren eines umfelds eines fahrzeugs
DE112014000532T5 (de) Kurvenmodelliervorrichtung, Kurvenmodellierverfahren und Fahrzeugnavigationsvorrichtung
WO2015173092A1 (de) Verfahren und vorrichtung zur kalibrierung eines kamerasystems eines kraftfahrzeugs
DE102016214028A1 (de) Verfahren und System zum Bestimmen einer Position einer mobilen Einheit
EP3824247A1 (de) Verfahren und system zum bestimmen einer position eines fahrzeugs
EP2985624B1 (de) Verfahren und Vorrichtungen zum Bestimmen der Orientierung einer beweglichen Kommunikationseinrichtung
DE102016214470A1 (de) Verfahren und System zum Erfassen eines Verkehrsumfeldes einer mobilen Einheit
DE102020126973A1 (de) Verfahren und system zur lokalisierten fahrspurwahrnehmung
DE102023102645A1 (de) Lokalisierung von fahrzeugen
DE102022112395A1 (de) Von kreuzungsknoten unterstützte hochauflösende kartierung
DE102021110287A1 (de) Verfahren und System zum automatisierten Kalibrieren von Sensoren
DE102019119095B4 (de) Verfahren und Kommunikationssystem zur Unterstützung einer wenigstens teilweise automatischen Fahrzeugsteuerung
DE102021209538A1 (de) Verfahren und Vorrichtung zum Kalibrieren eines Infrastruktursensorsystems
DE102022128415A1 (de) Kameralokalisierung
DE102022201280A1 (de) Verfahren und Vorrichtung zum Betreiben eines Infrastruktursensorsystems
DE102021214763A1 (de) Verfahren und Steuervorrichtung zum Steuern eines automatisierten Fahrzeugs
DE102021117608A1 (de) Fahrzeugbasierte datenerfassung
EP3465076A1 (de) Vorrichtung zur vermessung von objekten
DE102022106248A1 (de) System zum Steuern einer Kamera zur Unterstützung der menschlichen Überprüfung von Sensorinformationen

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0007497000

Ipc: G01C0011000000

R163 Identified publications notified