[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102014209137A1 - Method and device for calibrating a camera system of a motor vehicle - Google Patents

Method and device for calibrating a camera system of a motor vehicle Download PDF

Info

Publication number
DE102014209137A1
DE102014209137A1 DE102014209137.3A DE102014209137A DE102014209137A1 DE 102014209137 A1 DE102014209137 A1 DE 102014209137A1 DE 102014209137 A DE102014209137 A DE 102014209137A DE 102014209137 A1 DE102014209137 A1 DE 102014209137A1
Authority
DE
Germany
Prior art keywords
camera
optical flow
determined
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014209137.3A
Other languages
German (de)
Other versions
DE102014209137B4 (en
Inventor
Marco Jähnisch
Manuel Siebeneicher
Alexander Fietz
Andreas Haja
Daniel Liebehenschel
Christoph Söhnel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102014209137.3A priority Critical patent/DE102014209137B4/en
Priority to PCT/EP2015/059991 priority patent/WO2015173092A1/en
Priority to CN201580025056.5A priority patent/CN106462968B/en
Publication of DE102014209137A1 publication Critical patent/DE102014209137A1/en
Priority to US15/350,406 priority patent/US10424081B2/en
Application granted granted Critical
Publication of DE102014209137B4 publication Critical patent/DE102014209137B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Bei einem Verfahren und einer Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, wobei die Kalibrierparameter die Drehwinkel Nickwinkel, Gierwinkel und Rollwinkel sowie die Höhe der Kamera über der Fahrbahn umfassen, erfolgt die Bestimmung der Drehwinkel aus der Ermittlung des Fluchtpunktes aus einem ersten optischen Fluss zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild und die Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild. Dabei wird zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt, im zweiten Kamerabild werden Korrespondenzen des regelmäßigen Rasters gesucht und der erste optische Fluss wird aus der der Bewegung des Rasters über den Kamerabildern bestimmt.In a method and a device for calibrating a camera system of a motor vehicle, wherein the calibration parameters include the angles of rotation pitch angle, yaw angle and roll angle and the height of the camera above the roadway, the determination of the rotation angle from the determination of the vanishing point from a first optical flow between a first and second consecutive camera images and determining the height of the camera from a second optical flow between a first and a second consecutive camera image. In this case, a regular grid is placed over the first camera image to determine the first optical flow, in the second camera image correspondences of the regular grid are searched and the first optical flow is determined from the movement of the grid on the camera images.

Figure DE102014209137A1_0001
Figure DE102014209137A1_0001

Description

Die Erfindung betrifft ein Verfahren zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs gemäß dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 11.The invention relates to a method for calibrating a camera system of a motor vehicle according to the preamble of claim 1 and to a corresponding device according to the preamble of claim 11.

Heutige Kraftfahrzeuge mit Fahrerassistenzsystemen sind mit einer Vielzahl von Sensoren ausgestattet, wobei viele Fahrerassistenzsysteme auf die Daten von Kameras angewiesen sind. Um ein zuverlässiges Arbeiten der FAS zu gewährleisten, müssen diese Kameras kalibriert werden. Dazu wird, nach Stand der Technik, eine aufwendige statische Kalibrierung im Werk durchgeführt. Für die Einsparung der statischen Kalibrierung wird ein robustes Online-Kalibriersystem benötigt, das nach einer kurzen Fahrstrecke geeignete Kalibrierergebnisse wie die drei Orientierungswinkel der Kamera und deren Höhe über Grund zur Verfügung stellt.Today's motor vehicles with driver assistance systems are equipped with a large number of sensors, with many driver assistance systems relying on the data from cameras. To ensure reliable operation of the FAS, these cameras must be calibrated. For this purpose, according to the prior art, a complex static calibration performed in the factory. To save the static calibration, a robust online calibration system is needed, which after a short driving distance provides suitable calibration results such as the camera's three orientation angles and their height above ground.

In M. Siebeneicher: ”Eine automatische Kalibrierung beliebiger Kameras in Fahrzeugen auf Grundlage von optischem Fluss und Fluchtpunktbestimmung”, Masterarbeit, Freie Universität Berlin 2008 , wird ein Verfahren erläutert, das die Orientierungswinkel der Kamera bestimmt, indem der optische Fluss auf Basis der Bewegung von prägnanten Merkmalspunkten ausgewertet und der Fluchtpunkt des optischen Flusses ermittelt wird. Zur Ermittlung des Fluchtpunktes werden die Bewegungsvektoren der Merkmalspunkte miteinander geschnitten, wobei die Schnittpunkte theoretisch mit dem Fluchtpunkt übereinstimmen sollten, was aber aufgrund von Messungenauigkeiten nur näherungsweise der Fall ist, so dass das Maximum aller Schnittpunkte als Fluchtpunkt genommen wird. Um Messungenauigkeiten zu verringern werden die Schnittpunkte über die Zeit mit einem Partikelfilter verfolgt und die sich bildweise daraus ergebenen Fluchtpunkte über eine RANSAC-Filterung stabilisiert.In M. Siebeneicher: "An automatic calibration of any camera in vehicles based on optical flow and vanishing point determination", Master Thesis, Freie Universität Berlin 2008 , a method is explained which determines the orientation angles of the camera by evaluating the optical flux based on the motion of concise feature points and determining the vanishing point of the optical flow. To determine the vanishing point, the motion vectors of the feature points are intersected with each other, the intersections should theoretically coincide with the vanishing point, but this is only approximately the case due to measurement inaccuracies, so that the maximum of all intersections is taken as a vanishing point. In order to reduce measurement inaccuracies, the intersections are tracked with a particle filter over time and the imagewise resulting vanishing points are stabilized by RANSAC filtering.

Zur Bestimmung des Rollwinkels aus dem Horizont wird der zeitliche Verlauf des Fluchtpunktes ausgewertet. Sobald eine bestimmte Anzahl an Fluchtpunkten in Links- und Rechtskurvenfahrten ermittelt wurden, wird der Horizont mittels Hauptkomponentenanalyse aus einer Teilmenge aller bis dahin berechneten Fluchtpunkte bestimmt. Durch Vergleich der Geschwindigkeitsänderungen und des Gierwinkels wird ermittelt, ob sich das Fahrzeug gleichmäßig geradeaus bewegt und daher der Nick- und Gierwinkel bestimmt werden kann, ober ob eine Kurvenfahrt durchgeführt wird. Die Höhe wird in diesem Verfahren separat bestimmt. Allerdings ist das System sehr rechenaufwändig, insbesondere durch die Merkmalsbestimmung und der aufwändigen Filterung des Fluchtpunktes.To determine the roll angle from the horizon, the time course of the vanishing point is evaluated. Once a certain number of vanishing points have been determined in left and right turns, the horizon is determined by principal component analysis from a subset of all previously calculated vanishing points. By comparing the speed changes and the yaw angle, it is determined whether the vehicle is moving uniformly straight ahead and therefore the pitch and yaw angles can be determined above whether cornering is being performed. The height is determined separately in this procedure. However, the system is very computationally intensive, in particular by the feature determination and the elaborate filtering of the vanishing point.

Das in J. Platonov et al: ”Vollautomatische Kamera-zu-Fahrzeug-Kalibrierung”, ATZ elektronik 2012, S. 120–123 , vorgestellte Verfahren beschreibt eine Technik zur rein bildbasierten Bestimmung der Kameraorientierung ohne eine Bestimmung der Kamerahöhe. Dabei beruht das Verfahren auf der Technik der visuellen Bewegungsschätzung. Ein erstes Verfahren bestimmt die Fahrzeugbewegung zwischen zwei benachbarten Bildern und ein zweite Verfahren betrachtet die Punktkorrespondenzen zwischen sechs Bildern, wobei das zweite Verfahren genauer jedoch auch wesentlich rechenaufwändiger ist. Zur Bestimmung der Orientierungswinkel wird die Kamerabewegung in die Klassen ”Geradlinige Bewegung” und ”Manöver” unterteilt. Der Nick- und Gierwinkel wird während der geradlinigen Bewegung geschätzt, der Rollwinkel während des Manövers.This in J. Platonov et al: "Fully Automatic Camera-to-Vehicle Calibration", ATZ elektronik 2012, pp. 120-123 , presented method describes a technique for purely image-based determination of the camera orientation without a determination of the camera height. The method is based on the technique of visual motion estimation. A first method determines the vehicle motion between two adjacent images, and a second method considers the point correspondences between six images, but more specifically, the second method is significantly more computationally expensive. To determine the orientation angles, the camera movement is subdivided into the "straight-line motion" and "maneuver" classes. The pitch and yaw angle is estimated during the straight-line movement, the roll angle during the maneuver.

In E. Tapia et al: ”A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow”, Fachbereich Mathematik und Informatik, Serie B Informatik, Freie Universität Berlin, Februar 2013 , wird ein Verfahren vorgestellt, dass nur auf Basis von Kamerabildern die Orientierung der Kamera und mit Zuhilfenahme der Fahrzeuggeschwindigkeit die Kamerahöhe bestimmt. Auf eine nicht näher beschriebene Weise wird der optische Fluss bestimmt und gezeigt, dass sich bei einer Geradeausfahrt die Flussvektoren im Fluchtpunkt schneiden. Zur Bestimmung des Horizonts wird die Bodenebene ermittelt, wobei mit Hilfe des Fluchtpunktes und des Horizontes sich die drei Eulerwinkel bestimmen lassen. Zur Bestimmung der Kamerahöhe fährt das Fahrzeug vorwärts, wobei die Kameraorientierung bekannt ist und die Kamera auf die Fahrbahn schaut, so dass sich die Fahrbahn im Kamerabild abbildet. Start- und Endpunkt eines Flussvektors im Bild werden in das Weltkoordinatensystem zurückprojiziert. Mit diesen Informationen unter Berücksichtigung der Fahrzeuggeschwindigkeit sowie der Fahrdauer kann die Kamerahöhe berechnet werden.In E. Tapia et al: "A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow", Department of Mathematics and Computer Science, Series B Computer Science, Freie Universität Berlin, February 2013 , a method is presented, which determines the orientation of the camera only on the basis of camera images and with the help of the vehicle speed the camera height. In a manner not further described, the optical flux is determined and shown to intersect the flow vectors at vanishing point when traveling straight ahead. To determine the horizon, the ground plane is determined, with the aid of the vanishing point and the horizon, the three Euler angles can be determined. To determine the camera height, the vehicle moves forward, with the camera orientation being known and the camera looking at the road so that the roadway images in the camera image. The start and end points of a flow vector in the image are projected back into the world coordinate system. With this information, taking into account the vehicle speed and the driving time, the camera height can be calculated.

Die Druckschrift EP 2 131 598 A2 betrifft ein Stereokamerasystem sowie ein Verfahren zum Ermitteln mindestens eines Kalibrierfehlers eines Stereokamerasystems. Mit Hilfe von mindestens zwei einzelnen Kameras des Stereokamerasystems wird jeweils eine Bildfolge mit Bildern mit Abbildungen eines Erfassungsbereichs vor einem Fahrzeug bei einer Fahrt des Fahrzeugs entlang einer Fahrbahn aufgenommen. Dabei werden den Bildern der Bildfolgen entsprechende Bilddaten erzeugt. Die erzeugten Bilddaten werden verarbeitet, wobei der Verlauf mindestens eines Fahrbahnrandes der Fahrbahn ermittelt wird. Ausgehend von dem ermittelten Verlauf des mindestens einen Fahrbahnrandes der Fahrbahn wird mindestens ein Kalibrierfehler ermittelt.The publication EP 2 131 598 A2 relates to a stereo camera system and a method for determining at least one calibration error of a stereo camera system. With the aid of at least two individual cameras of the stereo camera system, an image sequence with images with images of a detection area in front of a vehicle during a journey of the vehicle along a roadway is respectively recorded. In this case, the images of the image sequences corresponding image data are generated. The generated image data are processed, wherein the course of at least one roadway edge of the roadway is determined. Starting from the determined course of at least one roadway edge of the roadway, at least one calibration error is determined.

Die bekannten Systeme sind zur Bestimmung der Lage alle drei Winkel der Kameraorientierung sowie die Kamerahöhe über Grund rechenintensiv bei oftmals nicht ausreichender Genauigkeit insbesondere bei schlechten Witterungsbedingungen sowie bei kurzer Fahrtstrecke mit wenigen Kurvenfahrten.The known systems are to calculate the position of all three angles of the camera orientation and the camera height above ground computationally intensive often with insufficient accuracy, especially in bad weather conditions and short driving distance with little cornering.

Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs anzugeben, die eine schnellere Kalibrierung des Kamerasystems ermöglichen.The invention is therefore based on the object of specifying a method and a device for calibrating a camera system of a motor vehicle, which allow a faster calibration of the camera system.

Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine Vorrichtung mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by a method having the features of claim 1 and by an apparatus having the features of claim 11. Preferred embodiments of the invention are subject of the dependent claims.

Bei dem erfindungsgemäßen Verfahren zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, wobei die Kalibrierparameter die Drehwinkel Nickwinkel, Gierwinkel und Rollwinkel sowie die Höhe der Kamera über der Fahrbahn umfassen, erfolgt die Bestimmung der Drehwinkel aus der Ermittlung des Fluchtpunktes aus einem ersten optischen Fluss zwischen einem ersten und einem zweiten Kamerabild und die Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild. Dabei wird zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt, im zweiten Kamerabild werden Korrespondenzen des regelmäßigen Rasters gesucht und der erste optische Fluss wird aus der Bewegung des Rasters über den Kamerabildern bestimmt.In the inventive method for calibrating a camera system of a motor vehicle, wherein the calibration parameters include the rotation angle pitch angle, yaw angle and roll angle and the height of the camera above the road, the determination of the rotation angle from the determination of the vanishing point of a first optical flux between a first and a second camera image and the determination of the height of the camera from a second optical flow between a first and a second consecutive camera image. In this case, a regular grid is placed over the first camera image to determine the first optical flow, in the second camera image correspondences of the regular grid are searched and the first optical flow is determined from the movement of the grid on the camera images.

Es wird also der optische Fluss jeweils zwischen zwei Bildern bestimmt, indem ein regelmäßiges Raster über das erste Bild gelegt wird und die Rasterpunkte dieses Raster werden beispielsweise mittels des Lucas-Kanade-Verfahrens im zweiten Bild gesucht.Thus, the optical flux between each two images is determined by a regular grid is placed over the first image and the raster points of this grid are searched for example by means of the Lucas-Kanade method in the second image.

Vorzugsweise sind die Abstände der Rasterpunkte parametrierbar. Auf diese Weise kann eine Skalierbarkeit der Berechnung des optischen Flusses erreicht werden. Je kleiner der Abstand zwischen den Rasterpunkten ist, umso länger dauert die Berechnung, allerdings ergibt sich auf diese Weise eine genauere Fluchtpunktschätzung.Preferably, the distances of the screen dots can be parameterized. In this way, scalability of the optical flow calculation can be achieved. The smaller the distance between the halftone dots, the longer the calculation takes, but this gives a more accurate vanishing point estimate.

Auf Basis des ermittelten ersten optischen Flusses werden die Epipole in beiden Kamerabilder errechnet und die Epipole bilden die Basis der Fluchtpunktschätzung. Die Ermittlung der Epipole kann über eine Berechnung der auf dem optischen Fluss basierenden Fundamentalmatrix erfolgen.On the basis of the determined first optical flow, the epipoles are calculated in both camera images and the epipoles form the basis of the vanishing point estimate. The determination of the epipoles can be done by calculating the optical flow based fundamental matrix.

Weiter bevorzugt wird zur Nickwinkel und Gierwinkelbestimmung aus den beiden Epipolen der beiden Kamerabildern der Fluchtpunkt bestimmt, wenn der Abstand der Epipole innerhalb eines ersten vorgegebenen Intervalls liegt. Die Bestimmung des Nickwinkels und des Gierwinkels erfolgt während einer Geradeausfahrt, so dass die beiden Epipole nahe beieinander liegen. Aus den beiden Epipolen wird beispielsweise der Mittelwert gebildet, der dann als aktueller Fluchtpunkt in die Schätzung von Nick- und Gierwinkel eingeht.More preferably, the vanishing point is determined for the pitch angle and yaw angle determination from the two epipoles of the two camera images, if the distance of the epipole is within a first predetermined interval. The determination of the pitch angle and the yaw angle takes place during a straight ahead, so that the two epipoles are close to each other. From the two epipoles, for example, the mean is formed, which then enters as the current vanishing point in the estimation of pitch and yaw angle.

Vorzugsweise werden die ermittelten Fluchtpunkte über die Zeit gespeichert und es wird aus der Menge der ermittelten Fluchtpunkte ein zeitstabiler Fluchtpunkt zu Bestimmung von Nickwinkel und Gierwinkel ermittelt. Dabei kann ein Speicherintervall vorgegeben werden, das sich mit der aktuellen Zeit mit bewegt. Auf diese Weise können alte Fluchtpunkte verworfen werden. Ferner kann über das Speicherintervall die Anzahl der zur Schätzung des zeitstabilen Fluchtpunktes notwendigen ermittelten Fluchtpunkte festgelegt werden.The determined vanishing points are preferably stored over time and a time-stable vanishing point for determining the pitch angle and yaw angle is determined from the set of vanishing points determined. In this case, a storage interval can be specified, which moves with the current time. In this way, old vanishing points can be discarded. Furthermore, the number of determined vanishing points that are necessary for estimating the time-stable vanishing point can be determined via the storage interval.

Weiter bevorzugt werden die ermittelten Epipole zweier Kamerabilder zur Rollwinkelbestimmung verwendet, wenn der Abstand der Epipole innerhalb eines zweiten vorgegebenen Intervalls liegt, wobei aus der Lage der Epipole im jeweiligen Kamerabild ein Rollwinkel geschätzt wird. Mit anderen Worten, liegen die beiden Epipole ”weit” auseinander, so befindet sich das Fahrzeug in einer Kurvenfahrt und es kann ein aktueller Rollwinkel bestimmt werden. Zur Unterscheidung für welche Drehwinkel die aktuellen Epipole verwendet werden, sind die beiden vorgegebenen Intervalle disjunkt.More preferably, the determined epipoles of two camera images are used for roll angle determination when the distance of the epipole is within a second predetermined interval, wherein a roll angle is estimated from the position of the epipoles in the respective camera image. In other words, if the two epipoles are "far apart", the vehicle is cornering and a current roll angle can be determined. In order to distinguish for which angle of rotation the current epipoles are used, the two predetermined intervals are disjoint.

Vorzugsweise werden die ermittelten Rollwinkel über die Zeit gesammelt und in vorgegebenen Gruppen als Funktion der Gierrate des Kraftfahrzeugs eingeteilt. Dabei ist vorzugsweise die Verfallszeit sowie die Anzahl und Definition der Gruppen parametrierbar.Preferably, the determined roll angles are collected over time and divided into predetermined groups as a function of the yaw rate of the motor vehicle. In this case, preferably the expiry time and the number and definition of the groups can be parameterized.

Weiter bevorzugte wird pro vorgegebener Gruppe gespeicherten Rollwinkel ein mittlerer Gruppenrollwinkel gebildet, wenn die Anzahl der Messungen in jeder Gruppe eine Mindestanzahl erreicht hat. Der zur Kalibrierung verwendete endgültige Rollwinkel kann beispielsweise als Durchschnitt der mittleren Gruppenrollwinkeln über die Gruppen gebildet werden. More preferably, an average group roll angle is formed for each predetermined group of stored roll angles when the number of measurements in each group has reached a minimum number. For example, the final roll angle used for calibration may be formed as an average of the mean group roll angles over the groups.

Vorzugsweise wird zur Bestimmung des zweiten optischen Flusses in einem Ausschnitt eines ersten Bildes der Fahrbahn vor dem Kraftfahrzeug in Draufsicht ein Rechteck platziert, dessen Position im zweiten Bild ermittelt wird, wobei der zweite optischen Fluss durch die Bewegung des Rechtecks in den beiden Bilder gebildet und aus der Rechteckbewegung die Höhe der Kamera berechnet wird. Auf diese Weise wird ein stark vereinfachter zweiter optischer Fluss bestimmt, wobei das Auffinden des Rechtecks im zweiten Bild mittels Blockmatching erfolgen kann, so dass die Bewegung des Rechtecks und damit der zweite optische Fluss bestimmt werden kann. Das Rechteck ist parametrierbar mit den Parametern Höhe und Breite des Rechtecks.Preferably, in order to determine the second optical flow in a section of a first image of the roadway in front of the motor vehicle, a rectangle is placed in plan view whose position is determined in the second image, wherein the second optical flow is formed by the movement of the rectangle in the two images the rectangle movement is calculated the height of the camera. In this way, a greatly simplified second optical flow is determined, wherein the finding of the rectangle in the second image can be done by block matching, so that the movement of the rectangle and thus the second optical flow can be determined. The rectangle can be parameterized with the parameters height and width of the rectangle.

Weiter bevorzugt wird ein zeitliches Histogramm der ermittelten Höhen der Kamera für eine Vielzahl von ersten und zweiten Kamerabildern erstellt wird mit dem Erreichen einer Mindestanzahl von Messungen aus dem Histogramm eine geschätzt Höhe abgeleitet. Durch die Verwendung eines Histogramms wird die Höhenschätzung verbessert, da die ermittelte Bewegung des Rechtecks stark mit Rauschen unterlegt ist.More preferably, a temporal histogram of the detected heights of the camera is created for a plurality of first and second camera images is derived with the achievement of a minimum number of measurements from the histogram of an estimated height. Using a histogram improves the elevation estimation, as the detected motion of the rectangle is heavily noise-locked.

Die erfindungsgemäße Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, welche zur Durchführung des im Vorangegangenen erläuterten Verfahrens eingerichtet und ausgelegt ist, umfasst:

  • – eine Einrichtung zur Bestimmung eines ersten optischen Flusses zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild,
  • – eine Einrichtung zur Bestimmung von Fluchtpunkten aus dem ersten optischen Fluss,
  • – eine Einrichtung zur Bestimmung der Drehwinkel aus ermittelten Fluchtpunkten,
  • – eine Einrichtung zur Bestimmung eines zweiten optischen Flusses zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild, und
  • – eine Einrichtung zur Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss, wobei zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt wird, im zweiten Kamerabild Korrespondenzen des regelmäßigen Rasters gesucht werden und der erste optische Fluss aus der der Bewegung des Raster über den Kamerabilder bestimmt wird.
The device according to the invention for calibrating a camera system of a motor vehicle, which is set up and designed to carry out the method explained above, comprises:
  • A device for determining a first optical flow between a first and a second consecutive camera image,
  • A device for determining vanishing points from the first optical flow,
  • A device for determining the angles of rotation from determined vanishing points,
  • A device for determining a second optical flow between a first and a second consecutive camera image, and
  • - A device for determining the height of the camera from a second optical flux, wherein for determining the first optical flow, a regular grid is placed over the first camera image, in the second camera image correspondences of the regular grid are searched and the first optical flow from the movement of the grid over the camera images is determined.

Weiter bevorzugt errechnet die Einrichtung zur Bestimmung des Fluchtpunktes auf Basis des ermittelten ersten optischen Flusses die Epipole in beiden Kamerabildern und verwendet die Epipole zur Fluchtpunktschätzung.More preferably, the device for determining the vanishing point on the basis of the determined first optical flow calculates the epipoles in both camera images and uses the epipoles for vanishing point estimation.

Vorzugsweise wird zur Bestimmung des zweiten optischen Flusses in einem Ausschnitt eines ersten Bildes der Fahrbahn vor dem Kraftfahrzeug in Draufsicht ein Rechteck platziert, welches im zweiten Bild ermittelt wird, wobei der zweite optischen Fluss durch die Bewegung des Rechtecks in den beiden Bilder gebildet wird und aus der Rechteckbewegung die Höhe der Kamera berechnet wird.Preferably, in order to determine the second optical flow in a section of a first image of the road in front of the motor vehicle, a rectangle is placed in plan view, which is determined in the second image, wherein the second optical flow is formed by the movement of the rectangle in the two images the rectangle movement is calculated the height of the camera.

Weiter bevorzugt erstellt die Einrichtung zur Bestimmung der Kamerahöhe ein zeitliches Histogramm der gemessenen Höhen der Kamera für eine Vielzahl von ersten und zweiten Kamerabildern und leitet mit dem Erreichen einer Mindestanzahl von Messungen aus dem Histogramm eine geschätzte Höhe ab.More preferably, the means for determining the camera height creates a temporal histogram of the measured heights of the camera for a plurality of first and second camera images, and derives an estimated height upon reaching a minimum number of measurements from the histogram.

Vorteilhafterweise ist das erfindungsgemäße Verfahren bzw. die entsprechende Vorrichtung in der Lage nach kurzer Fahrstrecke bei Geradeausfahrt die Gier- und Nickwinkel sowie nach kurzer Fahrtstrecke mit mindestens einer Link- und einer Rechtskurve den Rollwinkel robust zu bestimmen. Ferner wird parallel dazu die Kamerahöhe über Grund bestimmt, so dass eine Kalibrierung der Kamera bei einer signifikant kürzeren Konvergenzzeit erfolgt. Dabei bestehen keine Abhängigkeiten zu vorgegebenen Markierungen, Strukturen oder Formen, mit anderen Worten, das beschriebene Verfahren bzw. die Vorrichtung funktioniert in beliebiger Umgebung. Die Umgebung muss nur ein Mindestmaß an Struktur aufweisen, die von der Kamera erfasst werden kann, sowie mindestens ein Lenkmanöver des Fahrzeuges erlauben.Advantageously, the method according to the invention or the corresponding device is able to determine the yawing and pitching angles after a short driving distance when driving straight ahead, as well as after a short journey with at least one left and one right turn. Furthermore, the camera height above ground is determined in parallel, so that a calibration of the camera takes place at a significantly shorter convergence time. There are no dependencies on predefined markings, structures or shapes, in other words, the described method or device works in any environment. The environment must have only a minimum of structure that can be detected by the camera, and allow at least one steering maneuver of the vehicle.

Darüber hinaus wird keine aufwändige Merkmalsextraktion durchgeführt und der erläuterte Lösungsansatz ist so aufgebaut, dass er sich steuergerätetauglich implementieren lässt.In addition, no elaborate feature extraction is performed and the explained approach is constructed so that it can be implemented suitable for ECUs.

Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigtA preferred embodiment of the invention will be explained below with reference to the drawings. It shows

1 die Koordinatensysteme zur Definition der extrinsischen Kameraparameter, 1 the coordinate systems for the definition of extrinsic camera parameters,

2 den Aufbau des Kalibriesystems in schematischer Darstellung, und 2 the structure of the calibration system in a schematic representation, and

3 eine schematische Darstellung der Höhenschätzung. 3 a schematic representation of the height estimation.

1 zeigt das Weltkoordinatensystem (O, X, Y, Z) mit den Nullpunkt O und den Raumachsen X, Y und Z, in dem sich das Kraftfahrzeug bewegt, und das Koordinatensystem (C, XC, YC, ZC) der Kamera K, die in 1 schematisch dargestellt ist, mit dem Nullpunkt C und den Achsen XC, YC und ZC. Dabei kann das Kamerakoordinatensystem (C, XC, YC, ZC) gegenüber dem Weltkoordinatensystem (O, X, Y, Z) des Fahrzeugs verschoben und um die drei Achsen XC, YC und ZC verdreht sein. Die möglichen Drehwinkel sind in 1 als Nickwinkel θ, Gierwinkel ϕ und Rollwinkel Ψ dargestellt. Zur Kalibrierung der Kamera eines Kraftfahrzeugs müssen, wie bereits erwähnt, die Parameter Höhe der Kamera über der Fahrbahn, Nickwinkel θ, Gierwinkel ϕ und Rollwinkel Ψ bestimmt werden. 1 shows the world coordinate system (O, X, Y, Z) with the zero point O and the spatial axes X, Y and Z, in which the motor vehicle moves, and the coordinate system (C, X C , Y C , Z C ) of the camera K , in the 1 is shown schematically, with the zero point C and the axes X C , Y C and Z C. In this case, the camera coordinate system (C, X C , Y C , Z C ) relative to the world coordinate system (O, X, Y, Z) of the vehicle can be moved and rotated about the three axes X C , Y C and Z C. The possible rotation angles are in 1 shown as pitch angle θ, yaw angle φ and roll angle Ψ. For calibration of the camera of a motor vehicle, as already mentioned, the parameters height of the camera above the roadway, pitch angle θ, yaw angle φ and roll angle Ψ must be determined.

Das Weltkoordinatensystem (O, X, Y, Z) und das Kamerakoordinatensystem (C, XC, YC, ZC) können sich in Position und Orientierung voneinander unterscheiden. Der Unterschied in der Orientierung wird durch eine Rotation um die jeweilige Achse angegeben, wobei die Kamera K um drei Achsen XC, YC, ZC rotieren und jede Rotation durch eine entsprechende Rotationsmatrix RNick, RGier und RRoll in üblicher Weise beschrieben werden kann. Die vollständige Rotationsmatrix R ist eine Hintereinanderausführung der einzelnen Rotationsmatrizen und wird wie folgt gebildet: R = RRollRNickRGie und entspricht einer Rotation um die Y-Achse, gefolgt von einer Rotation um die X-Achse und abschließend um die Z-Achse.The world coordinate system (O, X, Y, Z) and the camera coordinate system (C, X C , Y C , Z C ) may differ in position and orientation from each other. The difference in orientation is indicated by a rotation about the respective axis, the camera K rotating about three axes X C , Y C , Z C and describing each rotation through a corresponding rotation matrix R Nick , R Gier and R Roll in the usual way can be. The complete rotation matrix R is a series of individual rotation matrices and is formed as follows: R = R Roll R Nick R Gie and corresponds to a rotation about the Y-axis, followed by a rotation about the X-axis and finally about the Z-axis.

Zusammen mit dem Translationsvektor C = (Cx, Cy, Cz)T, der den Nullpunkt des Kamerakoordinatensystems im Weltkoordinatensystem beschreibt und den Unterschied der Positionen der beiden Koordinatensysteme angibt, kann die einheitliche Transformationsmatrix gebildet werden, die das Weltkoordinatensystem in das Kamerakoordinatensystem überführt.Together with the translation vector C = (C x , C y , C z ) T , which describes the zero point of the camera coordinate system in the world coordinate system and indicates the difference of the positions of the two coordinate systems, the uniform transformation matrix can be formed, which converts the world coordinate system into the camera coordinate system ,

Mittels des Fluchtpunktes lassen sich Gierwinkel θ und Nickwinkel ϕ aus der vollständigen Rotationsmatrix R bei einer geradlinigen Bewegung bestimmen, da der Rollwinkel Ψ bei einer geradlinigen Bewegung Null ist. Für eine Bestimmung des Rollwinkels Ψ reicht ein Fluchtpunkt nicht aus, allerdings kann der Rollwinkel Ψ aus dem Verlauf des Fluchtpunktes während einer Kurvenfahrt bestimmt werden, da der Fluchtpunkt seine Position proportional zum Rollwinkel Ψ verändert. Details der theoretischen Grundlagen können beispielsweise der oben genannten Masterarbeit von M. Siebeneicher entnommen werden.By means of the vanishing point, yaw angle θ and pitch angle φ can be determined from the complete rotation matrix R during a rectilinear movement, since the roll angle Ψ is zero for a rectilinear movement. For a determination of the roll angle ein a vanishing point is not sufficient, but the roll angle Ψ from the course of the vanishing point can be determined during cornering, as the vanishing point changes its position proportional to the roll angle Ψ. Details of the theoretical fundamentals can be found, for example, in the aforementioned master thesis by M. Siebeneicher.

Eine Bestimmung der Orientierungs- oder Drehwinkel setzt daher eine möglichst genaue Bestimmung der verwendeten Fluchtpunkte und deren Bewegung voraus, deren Bestimmung wiederum von einer optimale Bestimmung des optischen Flusses abhängt.A determination of the orientation or rotation angle therefore requires the most accurate determination of the vanishing points used and their movement, the determination of which in turn depends on an optimal determination of the optical flow.

2 ist eine schematische Darstellung des Kalibriersystems KP zur Bestimmung der oben genannten Kalibrierparameter der Kamera eines Kraftfahrzeugs, wobei zu Beginn eine kurze Übersicht über die Komponenten des Kalibriersystem KP erfolgt und nachfolgend die einzelnen Komponenten im Detail erläutert werden. 2 is a schematic representation of the calibration system KP for determining the above-mentioned calibration parameters of the camera of a motor vehicle, wherein at the beginning a brief overview of the components of the calibration KP takes place and subsequently the individual components are explained in detail.

Eingangsgrößen des Kalibriersystems KP sind die aufgenommenen Kamerabilder B1 und B2 sowie die Egodaten ED des Fahrzeugs. Dabei werden unter Egodaten des Fahrzeugs allgemeine Fahrzeugdaten wie beispielsweise Tachometerwerte, Lenkeinschlagswinkel, Odometriedaten und Positionsdaten, sowie Daten über die Beschleunigung den Gierwinkel und Nickraten sein. Die Aufzählung ist nicht als vollständig zu betrachten. Dabei können die Egodaten unterstützend für das Kalibriersystem sein, um beispielsweise Fahrzustände zu identifizieren, die für den Kalibriervorgang besonders günstig sind.Input variables of the calibration system KP are the recorded camera images B1 and B2 as well as the ego data ED of the vehicle. Here, under ego data of the vehicle, general vehicle data such as, for example, tachometer values, steering angles, odometry data and position data, as well as acceleration data, will be the yaw angle and pitch rates. The list is not to be considered as complete. In this case, the ego data can be supportive for the calibration system in order to identify, for example, driving conditions that are particularly favorable for the calibration process.

Die Kalibrierung der Fahrzeugkamera mit Hilfe des Kalibriersystems KP basiert auf der Bestimmung des optischen Flusses innerhalb der Bilder der Kamera. Dazu werden mit Hilfe von Merkmalen der Kamerabilder B1, B2 im ersten optischen Flussmodul O1 des Kalibriersystem KP Bewegungsvektoren über das Bild bestimmt, wobei die Bewegungsvektoren basierend auf einem gleichmäßig über dem ersten Bild angeordneten Raster bestimmt werden.The calibration of the vehicle camera with the aid of the calibration system KP is based on the determination of the optical flow within the images of the camera. For this purpose, motion vectors are determined via the image with the aid of features of the camera images B1, B2 in the first optical flow module O1 of the calibration system KP, the motion vectors being determined based on a grid arranged uniformly over the first image.

Basierend auf den im ersten optischen Flussmodul O1 ermittelten Bewegungsvektoren erfolgt im Fluchtpunktmodul FP eine Schätzung des Fluchtpunktes anhand geometrischer Eigenschaften. Die Fluchtpunktschätzung des Fluchtpunktmoduls FP wird in einem nachfolgenden Winkelbestimmungsmodul WB zur Bestimmung der drei Drehwinkel eingesetzt, wobei das Winkelbestimmungsmodul WB die untereinander verbundenen Module Gierwinkelbestimmung GW, Rollwinkelbestimmung RW und Nickwinkelbestimmung NW aufweist.Based on the motion vectors determined in the first optical flux module O1, an estimate of the vanishing point based on geometrical properties takes place in the vanishing point module FP. The Vanishing point estimation of the vanishing point module FP is used in a subsequent angle determination module WB for determining the three angles of rotation, wherein the angle determination module WB has the interconnected modules yaw angle determination GW, roll angle determination RW and pitch angle determination NW.

Separat erfolgt in einem zweiten optischen Flussmodul die Bestimmung von Bewegungsvektoren eines stark vereinfachten optischen Flusses in einer Draufsicht eines Bildausschnitts der Fahrbahn vor dem Fahrzeug. Aus den ermittelten Bewegungsvektoren der Fahrbahnmerkmale sowie Egodaten und dem ermittelten Nickwinkel θ kann die Höhe der Kamera über der Fahrbahn in dem Höhenschätzungsmodul HS geschätzt werden.Separately, in a second optical flux module, the determination of motion vectors of a greatly simplified optical flow in a plan view of an image section of the road ahead of the vehicle takes place. The height of the camera above the roadway in the height estimation module HS can be estimated from the determined motion vectors of the roadway characteristics as well as ego data and the determined pitch angle θ.

Im Folgenden werden die Details der einzelnen Komponenten näher erläutert:The following explains the details of the individual components:

ERSTER OPTISCHER FLUSS:FIRST OPTICAL RIVER:

Die Bestimmung des ersten optischen Flusses O1 erfolgt jeweils zwischen zwei Bildern B1, B2 der Kamera. Dabei wird kein dichtes Flussfeld bestimmt, sondern es wird ein regelmäßiges Raster über das erste Bild B1 gelegt. Mittels beispielsweise des bekannten Lucas-Kanade-Verfahrens werden Korrespondenzen zu dem Raster im zweiten Bild B2 gesucht. Dabei können die Abstände der Rasterpunkte parametriert werden, wodurch die Berechnung des optischen Flusses sehr skalierbar ist. Mit anderen Worten, umso kleiner der Abstand der Rasterpunkte, umso großer ist zwar die Laufzeit der Berechnung, allerdings erhöht sich die Genauigkeit der darauf aufbauenden Fluchtpunktschätzung.The determination of the first optical flux O1 takes place in each case between two images B1, B2 of the camera. In this case, no dense flux field is determined, but a regular grid is placed over the first image B1. By means of, for example, the known Lucas-Kanade method, correspondences to the raster in the second image B2 are searched for. The distances of the grid points can be parameterized, whereby the calculation of the optical flow is very scalable. In other words, the smaller the pitch of the halftone dots, the greater the running time of the calculation, but the accuracy of the vanishing-point estimation based thereon increases.

Ein weiter Vorteil des Rasteransatzes gegenüber einer merkmalsbasierten Flussbestimmung liegt darin, dass auffällige Merkmale meist an den Konturen sich bewegender Objekte gefunden werden und diese fremdbewegten Objekte dann den Fluchtpunkt verzerren.A further advantage of the grid approach over a feature-based flow determination is that conspicuous features are mostly found on the contours of moving objects, and these strangers moved objects then distort the vanishing point.

FLUCHTPUNKTSCHÄTZUNG:Vanishing Point ESTIMATE:

Auf Basis des optischen Flusses wird die Fundamentalmatrix der Epipolargeometrie berechnet. Diese liefert jeweils den jeweiligen Epipol in beiden betrachteten Bildern B1, B2. Bei einer Geradeausfahrt müssen sich die beiden Epipole sehr nah beieinander befinden, wobei der Abstand parametrierbar ist. Es wird der Mittelwert der beiden Epipole gebildet, der den aktuellen Fluchtpunkt bildet und an die Nick- und Gierwinkelschätzung weitergegeben wird.Based on the optical flow, the fundamental matrix of the epipolar geometry is calculated. This provides the respective epipole in both images B1, B2 considered. When traveling straight ahead, the two epipoles must be very close to each other, whereby the distance can be parameterized. It is the mean of the two epipoles formed that forms the current vanishing point and is passed to the pitch and yaw angle estimation.

Dabei gelten folgende Bedingungen für den Abstand ”sehr nah beieinander” der beiden Epipole für die Nick- und Gierwinkelbestimmung:
minimaler X-Abstand der Pixel relativ zur Bildbreite = 0,
maximaler X-Abstand der Pixel relativ zur Bildbreite = ca. 0,02,
minimaler Y-Abstand der Pixel relativ zur Bildhöhe = 0,
maximaler Y-Abstand der Pixel relativ zur Bildhöhe = ca. 0,01.
The following conditions apply to the distance "very close to each other" of the two epipoles for the pitch and yaw angle determination:
minimum X-distance of the pixels relative to the image width = 0,
maximum X-distance of the pixels relative to the image width = approx. 0.02,
minimum Y-distance of the pixels relative to the image height = 0,
maximum Y-distance of the pixels relative to the image height = approx. 0.01.

Ist der Abstand der Epipole größer als die oben genannten maximalen Abstände, so ist die Bestimmung der Mittelwerte von Nick- und Gierwinkel wesentlich schwieriger bis unmöglich, da mehr und stärkere Ausreißer berücksichtigt werden müssen.If the distance of the epipoles is greater than the abovementioned maximum distances, the determination of the mean values of pitch and yaw angles is much more difficult to impossible, since more and stronger outliers must be taken into account.

Befindet sich das Fahrzeug in einer Kurvenfahrt, dann müssen sich die beiden Epipole der Bilder B1, B2 weiter auseinander befinden. Ist diese Bedingung erfüllt, dann werden die beiden Epipole an die Rollwinkelschätzung RW weitergegeben.If the vehicle is cornering, then the two epipoles of the images B1, B2 must be further apart. If this condition is fulfilled, then the two epipoles are passed on to the roll angle estimation RW.

Für die Rollwinkelbestimmung müssen die Abstände der Epipole die folgenden Bedingungen erfüllen:
minimaler X-Abstand der Pixel relativ zur Bildbreite = ca. 0,02
maximaler X-Abstand der Pixel relativ zur Bildbreite = ca. 0,1
minimaler Y-Abstand der Pixel relativ zur Bildhöhe = 0,01
maximaler Y-Abstand der Pixel relativ zur Bildhöhe = ca. 0,05
For roll angle determination, the distances of the epipoles must meet the following conditions:
minimum X-distance of the pixels relative to the image width = approx. 0.02
maximum X-distance of the pixels relative to the image width = approx. 0.1
minimum Y-distance of pixels relative to image height = 0.01
maximum Y-distance of the pixels relative to the image height = approx. 0.05

Dieses Vorgehen ist im Vergleich zu bekannten Verfahren mit wesentlich weniger Laufzeit und in weniger Schritten durchführbar.This procedure can be carried out in comparison to known methods with much less running time and in fewer steps.

WINKELBESTIMMUNG: ANGLE DETERMINATION:

BESTIMMUNG VON NICKWINKEL UND GIERWINKEL.DETERMINATION OF NICKWINKEL AND YELLOW ANGLE.

Die in der Fluchtpunktschätzung bestimmten Fluchtpunkte werden über die Zeit gesammelt, wobei alte Fluchtpunkte verworfen werden. Dabei ist die Anzahl und Verfallszeit parametrierbar. Liegen genügend Fluchtpunkte vor, wird ein zeitstabiler Fluchtpunkt mittels beispielsweise dem bekannten RANSAC-Algorithmus aus der Menge hochdynamischer Fluchtpunkte geschätzt. Dieser zeitstabile Fluchtpunkt wird zur Bestimmung des Nickwinkels und des Gierwinkels Ψ in den entsprechenden Modulen NW, GW verwendet.The vanishing points determined in the vanishing point estimate are collected over time, discarding old vanishing points. The number and expiry time can be parameterized. If there are enough vanishing points, a time-stable vanishing point is estimated from the set of highly dynamic vanishing points using, for example, the well-known RANSAC algorithm. This time-stable vanishing point is used to determine the pitch angle and the yaw angle Ψ in the corresponding modules NW, GW.

ROLLWINKELSCHÄTZUNGROLL ANGLE ESTIMATE

Die in der Kurvenfahrt gesammelten Epipole werden direkt genutzt, um über ihre Lage im Bild einen möglichen Rollwinkel zu bestimmen. Diese hochdynamischen Rollwinkel werden über die Zeit gesammelt und in Gruppen eingeteilt, wobei die Verfallszeit, Anzahl und Gruppen parametrierbar sind. Vorzugsweise werden vier Gruppen verwendet, nämlich:

  • – hohe Gierrate nach links,
  • – mittlere Gierrate nach links,
  • – hohe Gierrate nach rechts, und
  • – mittlere Gierrate nach rechts.
The epipoles collected during cornering are used directly to determine a possible roll angle via their position in the image. These highly dynamic roll angles are collected over time and divided into groups, whereby the decay time, number and groups can be parameterized. Preferably, four groups are used, namely:
  • High yaw rate to the left,
  • - mean yaw rate to the left,
  • - high yaw rate to the right, and
  • - mean yaw rate to the right.

Dabei haben sich die unten angegebenen Bereiche der Gierrate α zur Definition der vier oben genannten Gruppen bewährt: Bereich für langsame Kurvenfahrten links: 0°/s <= α < 8°/s (mittlere Gierrate links) Bereich für schnelle Kurvenfahrten links: 8°/s <= α < 45°/s (hohe Gierrate links) Bereich für langsame Kurvenfahrten rechts 0°/s >= α > –8°/s (mittlere Gierrate rechts) Bereich für schnelle Kurvenfahrten rechts: –8°/s >= α > –45°/s (hohe Gierrrate rechts) The ranges of the yaw rate α given below for the definition of the four groups mentioned above have proven to be successful: Range for slow cornering left: 0 ° / s <= α <8 ° / s (mean yaw rate left) Area for fast cornering left: 8 ° / s <= α <45 ° / s (high yaw rate left) Slow cornering area on the right 0 ° / s> = α> -8 ° / s (average yaw rate right) Right turn corner area: -8 ° / s> = α> -45 ° / s (high yaw rate on the right)

In jeder Gruppe muss sich eine Mindestanzahl an Messungen befinden. Ist dies der Fall, wird für jede Gruppe der Mittelwert berechnet und anschließend über diese vier Mittelwerte noch einmal der Durchschnitt gebildet. Dieser Durchschnitt wird zur Bestimmung des Rollwinkel RW verwendet.There must be a minimum number of measurements in each group. If this is the case, the mean value is calculated for each group and then the average is again formed over these four mean values. This average is used to determine the roll angle RW.

HÖHENSCHÄTZUNGHEIGHT ESTIMATE

In der Standardimplementierung wird ein sehr vereinfachter optischer Fluss bestimmt. Im ersten Schritt wird eine Draufsicht aus einem Bildausschnitt direkt vor dem Fahrzeug berechnet, wobei der Bildausschnitt parametrierbar ist. Innerhalb dieses Ausschnittes wird im ersten Bild ein Rechteck platziert, welches mittels Blockmatching im zweiten Bild wieder gefunden werden muss unter Berücksichtigung der Parameter Höhe und Breite des Rechteckes. Die Bewegung des Rechteckes im Bild bildet den optischen Fluss.In the standard implementation, a very simplified optical flow is determined. In the first step, a plan view is calculated from an image section directly in front of the vehicle, wherein the image section can be parameterized. Within this section, a rectangle is placed in the first image, which must be found again by means of block matching in the second image, taking into account the parameters height and width of the rectangle. The movement of the rectangle in the picture forms the optical flow.

Für das als Template-Box bezeichnete Rechteck gelten in der Standardimplementierung die folgenden Randbedingungen:
Template-Box-Breite relativ zur TopView-Breite = ca. 0,9
Template-Box-Breite relativ zur Template-Box-Breite = ca. 0,4
For the rectangle designated as a template box, the following boundary conditions apply in the standard implementation:
Template box width relative to TopView width = approx. 0.9
Template box width relative to template box width = approximately 0.4

Die Template-Box wird im TopView-Bild der ersten Frames so positioniert, dass die obere Kante der Template-Box mittig am oberen Bildrand liegt, d. h. links und rechts bleiben ca. 5% Rand im Vergleich zur Top-View-Breite.The template box is positioned in the TopView image of the first frame in such a way that the upper edge of the template box is in the middle of the upper edge of the image. H. left and right are about 5% edge compared to the top view width.

HÖHENBESTIMMUNGHEIGHT DETERMINATION

Die im ersten Schritt ermittelte Bewegung des Rechteckes im Bild wird direkt in eine reale Bewegung des Fahrzeuges umgerechnet, wobei der Wert jedoch stark von Rauschen unterlegt ist. Daher wird über die Zeit ein Histogramm aufgebaut mit den Paramatern niedrigster und höchster Wert der Histogramms sowie Anzahl der Bins. Auch hier können die Messungen mit ihrem Alter verfallen. Ist eine Mindestanzahl an Messungen im Histogramm vorhanden, so werden die N benachbarten Bins gesucht, die die meisten Messungen enthalten. Anschließend wird der Median über diese Bins gebildet. Das Ergebnis ist dann die geschätzte Höhe.The movement of the rectangle in the image determined in the first step is converted directly into a real movement of the vehicle, whereby the value is strongly underlaid by noise. Therefore, a histogram is constructed over time with the lowest and highest values of the histogram as well as the number of bins. Again, the measurements can expire with their age. If there is a minimum number of measurements in the histogram, then the N adjacent bins containing most of the measurements are searched. Subsequently, the median is formed over these bins. The result is then the estimated height.

Das prinzipielle Vorgehen zur Bestimmung der Höhe wird anhand der 3 erläutert, wobei der 3 ein einfaches Lochkameramodell zugrunde liegt und die Höhenbestimmung hier anhand der Bewegung des mittleren Pixels diskutiert wird. Bewegt sich das Fahrzeug (nicht dargestellt) geradlinig bei einer bekannten aktuellen Geschwindigkeit v und ist der Nickwinkel der Kamera bekannt, so kann mit Hilfe des optischen Flusses die Kamerahöhe h relativ zur Fahrbahn F bestimmt werden. Der optische Fluss liefert die Geschwindigkeit vP, mit der sich der Pixel in der Bildmitte der Kamera bewegt. 3 zeigt die Geometrie zur Bestimmung der Kamerahöhe h und stellt zwei unterschiedliche Zeitpunkte t und t + 1 dar, zu denen der projizierte Bildmittelpunkt in der schematisch zu den Zeitpunkten t und t + 1 dargestellten Kamerabildebene k(t) und K(t + 1) betrachtet wird, wobei die Kamera die Brennweite f besitzt. Bekannt sind die Werte für den zurückgelegten Weg v, den Nickwinkel θ der Kamera, die Brennweite f der Kamera sowie die Geschwindigkeit vP des Mittenpixel im Bild. Aus der offensichtlichen Beziehung

Figure DE102014209137A1_0002
kann durch die Anwendung einfacher Trigonometrie aus den bekannten Größen die Höhe h zu
Figure DE102014209137A1_0003
bestimmt werden. The basic procedure for determining the height is based on the 3 explained, wherein the 3 a simple hole camera model is the basis and the height determination is discussed here based on the movement of the middle pixel. If the vehicle (not shown) moves rectilinearly at a known current speed v and the camera's pitch angle is known, the camera height h relative to the roadway F can be determined with the aid of the optical flow. The optical flow provides the velocity v P at which the pixel moves in the center of the camera. 3 1 shows the geometry for determining the camera height h and represents two different times t and t + 1, for which the projected image center in the camera deflection plane k (t) and K (t + 1) shown schematically at times t and t + 1 is considered with the camera having the focal length f. The values for the distance traveled v, the pitch angle θ of the camera, the focal length f of the camera and the velocity v P of the center pixel in the image are known. From the obvious relationship
Figure DE102014209137A1_0002
By using simple trigonometry, the height h can be obtained from the known quantities
Figure DE102014209137A1_0003
be determined.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

  • OO
    Nullpunkt WeltsystemZero point world system
    XX
    X-AchseX axis
    YY
    Y-AchseY-axis
    ZZ
    Z-AchseZ-axis
    CC
    Nullpunkt Kamerasystem = TranslationsvektorZero point camera system = translation vector
    CX C X
    X-Komponente TranslationsvektorX component translation vector
    CY C Y
    Y-Komponente TranslationsvektorY component translation vector
    CZ C z
    Z-Komponente TranslationsvektorZ component translation vector
    XC X C
    X-Achse KameraX-axis camera
    YC Y C
    Y-Achse KameraY-axis camera
    ZC Z C
    Z-Achse KameraZ-axis camera
    θθ
    Nickwinkelpitch angle
    ϕφ
    Gierwinkelyaw
    ΨΨ
    Rollwinkelroll angle
    KPKP
    Bestimmung KalibrierparameterDetermination of calibration parameters
    EDED
    Ego-DatenEgo data
    B2B2
    Kamerabild 1Camera picture 1
    B1B1
    Kamerabild 2Camera picture 2
    O1O1
    Optischer Fluss 1Optical flow 1
    O2O2
    Optischer Fluss 2Optical flow 2
    FPFP
    FluchtpunktschätzungVanishing Point Estimate
    WBWB
    Winkelbestimmungangle determination
    GWGW
    Gierwinkelbestimmung Yaw angle determination
    RWRW
    RollwinkelbestimmungRoll angle determination
    NWnorthwest
    NickwinkelbestimmungNick angle determination
    Hshs
    Höhenschätzungheight estimate
    FF
    Fahrbahnroadway
    hH
    Höhe der Kamera über der FahrbahnHeight of the camera above the roadway
    vv
    Fahrzeuggeschwindigkeitvehicle speed
    vP v p
    Pixelgeschwindigkeitpixel speed
    ff
    Brennweitefocal length
    K(t)K (t)
    Bildebene der Kamera zum Zeitpunkt tImage plane of the camera at time t
    K(t + 1)K (t + 1)
    Bildebene der Kamera zum Zeitpunkt t + 1Image plane of the camera at time t + 1
    v'v '
    Hilfsgrößeauxiliary variable
    f'f '
    Hilfsgrößeauxiliary variable

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • EP 2131598 A2 [0007] EP 2131598 A2 [0007]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • M. Siebeneicher: ”Eine automatische Kalibrierung beliebiger Kameras in Fahrzeugen auf Grundlage von optischem Fluss und Fluchtpunktbestimmung”, Masterarbeit, Freie Universität Berlin 2008 [0003] M. Siebeneicher: "An automatic calibration of any camera in vehicles based on optical flow and vanishing point determination", Master Thesis, Freie Universität Berlin 2008 [0003]
  • J. Platonov et al: ”Vollautomatische Kamera-zu-Fahrzeug-Kalibrierung”, ATZ elektronik 2012, S. 120–123 [0005] J. Platonov et al: "Fully Automatic Camera-to-Vehicle Calibration", ATZ elektronik 2012, pp. 120-123 [0005]
  • E. Tapia et al: ”A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow”, Fachbereich Mathematik und Informatik, Serie B Informatik, Freie Universität Berlin, Februar 2013 [0006] E. Tapia et al: "A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow", Department of Mathematics and Computer Science, Series B Computer Science, Freie Universität Berlin, February 2013 [0006]

Claims (14)

Verfahren zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, wobei die Kalibrierparameter die Drehwinkel Nickwinkel, Gierwinkel und Rollwinkel sowie die Höhe der Kamera über der Fahrbahn umfassen, wobei die Bestimmung der Drehwinkel aus der Ermittlung des Fluchtpunktes aus einem ersten optischen Fluss zwischen einem ersten und einem zweiten Kamerabild abgeleitet werden und die Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss zwischen einem ersten und einem zweiten Kamerabild angeleitet wird, dadurch gekennzeichnet, dass zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt wird, im zweiten Kamerabild Korrespondenzen des regelmäßigen Rasters gesucht werden und der erste optische Fluss aus der Bewegung des Rasters über den Kamerabildern bestimmt wird.A method for calibrating a camera system of a motor vehicle, wherein the calibration parameters include the rotation angle pitch angle, yaw angle and roll angle and the height of the camera over the road, wherein the determination of the rotation angle from the determination of the vanishing point of a first optical flow between a first and a second camera image deriving the determination of the height of the camera from a second optical flow between a first and a second camera image is guided, characterized in that for determining the first optical flow, a regular grid is placed over the first camera image, in the second camera image correspondences of the regular Rasters are searched and the first optical flux from the movement of the grid is determined on the camera images. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Abstände der Rasterpunkte parametrierbar sind.A method according to claim 1, characterized in that the distances of the screen dots are parameterized. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass auf Basis des ermittelten ersten optischen Flusses die Epipole in beiden Kamerabildern errechnet und die Epipole zur Fluchtpunktschätzung verwendet werden.Method according to one of the preceding claims, characterized in that on the basis of the determined first optical flow, the epipoles are calculated in both camera images and the epipoles are used for vanishing point estimation. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass zur Nickwinkel und Gierwinkelbestimmung aus den beiden Epipolen der beiden Kamerabildern der Fluchtpunkt bestimmt wird, wenn der Abstand der Epipole innerhalb eines ersten vorgegebene Intervalls liegt.A method according to claim 3, characterized in that the vanishing angle and yaw angle determination from the two epipholes of the two camera images of the vanishing point is determined when the distance of the epipole is within a first predetermined interval. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die ermittelten Fluchtpunkte für ein vorgegebenes Zeitintervall gesammelt werden und aus der Menge der ermittelten Fluchtpunkte ein zeitstabiler Fluchtpunkt zu Bestimmung von Nickwinkel und Gierwinkel ermittelt wird.A method according to claim 4, characterized in that the determined vanishing points are collected for a predetermined time interval and from the set of vanishing vanishing points a time-stable vanishing point for determining pitch angle and yaw angle is determined. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die beiden Epipole zweier Kamerabilder zur Rollwinkelbestimmung verwendet werden, wenn der Abstand der Epipole innerhalb eines zweiten vorgegebenen Intervalls liegt, wobei aus der Lage der Epipole im jeweiligen Kamerabild ein Rollwinkel geschätzt wird.A method according to claim 3, characterized in that the two epipoles of two camera images are used for roll angle determination when the distance of the epipole is within a second predetermined interval, wherein from the position of the epipoles in the respective camera image, a roll angle is estimated. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die ermittelten Rollwinkel über die Zeit gesammelt und in vorgegebenen Gruppen als Funktion der Gierrate des Kraftfahrzeugs eingeteilt werden.A method according to claim 6, characterized in that the determined roll angles are collected over time and divided into predetermined groups as a function of the yaw rate of the motor vehicle. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass pro Gruppe der gespeicherten Rollwinkel eine mittlerer Gruppenrollwinkel gebildet wird, wenn die Anzahl der Messungen in jeder Gruppe eine Mindestanzahl erreicht, wobei der endgültige Rollwinkel aus den mittleren Gruppenrollwinkel der Gruppen gebildet wird.A method according to claim 7, characterized in that , for each group of stored roll angles, an average group roll angle is formed when the number of measurements in each group reaches a minimum number, the final roll angle being formed from the mean group roll angles of the groups. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung des zweiten optischen Flusses in einem Ausschnitt eines ersten Bildes der Fahrbahn vor dem Kraftfahrzeug Draufsicht ein Rechteck plaziert wird, welches im zweiten Bild ermittelt wird, wobei der zweite optischen Fluss durch die Bewegung des Rechtecks in den beiden Bilder gebildet wird und aus der Rechteckbewegung die Höhe der Kamera berechnet wird.Method according to one of the preceding claims, characterized in that for determining the second optical flow in a section of a first image of the road in front of the motor vehicle top view a rectangle is placed, which is determined in the second image, wherein the second optical flow through the movement of the Rectangles is formed in the two images and from the rectangle movement the height of the camera is calculated. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass ein zeitliches Histogramm der gemessenen Höhen der Kamera für eine Vielzahl von ersten und zweiten Kamerabildern erstellt wird und mit dem Erreichen einer Mindestanzahl von Messungen aus dem Histogramm eine Höhenschätzung abgeleitet wird.A method according to claim 9, characterized in that a temporal histogram of the measured heights of the camera for a plurality of first and second camera images is created and with the achievement of a minimum number of measurements from the histogram, an altitude estimate is derived. Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, welche zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche eingerichtet und ausgelegt ist, mit einer Einrichtung zur Bestimmung eines ersten optischen Flusses zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabildern, einer Einrichtung zur Bestimmung von Fluchtpunkten aus dem ersten optischen Fluss, einer Einrichtung zur Bestimmung der Drehwinkel aus den ermittelten Fluchtpunkten, einer Einrichtung zur Bestimmung eines zweiten optischen Flusses zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabilder, und einer Einrichtung zur Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss, dadurch gekennzeichnet, dass zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt wird, im zweiten Kamerabild Korrespondenzen des regelmäßigen Rasters gesucht werden und der erste optische Fluss aus der Bewegung des Rasters über den Kamerabildern bestimmt wird.Device for calibrating a camera system of a motor vehicle, which is set up and designed to carry out the method according to one of the preceding claims, having a device for determining a first optical flow between a first and a second consecutive camera images, a device for determining vanishing points from the first optical flux, means for determining the angles of rotation from the determined vanishing points, means for determining a second optical flow between a first and a second consecutive camera images, and means for determining the height of the camera from a second optical flow, characterized in that for determining the first optical flow, a regular grid is placed over the first camera image, in the second camera image correspondences of the regular grid are searched and the first optical flow from the movement of the Ras is determined over the camera images. Vorrichtung nach Anspruch 11, dadurch gekennzeichnet, dass die Einrichtung zur Bestimmung des Fluchtpunktes auf Basis des ermittelten ersten optischen Flusses die Epipole in beiden Kamerabildern errechnet und die Epipole zur Fluchtpunktschätzung verwendet. Apparatus according to claim 11, characterized in that the means for determining the vanishing point on the basis of the determined first optical flow calculates the epipoles in both camera images and uses the epipoles for vanishing point estimation. Vorrichtung nach Anspruch 11 oder 12, dadurch gekennzeichnet, dass zur Bestimmung des zweiten optischen Flusses in einem Ausschnitt eines ersten Bildes der Fahrbahn vor dem Kraftfahrzeug in Draufsicht ein Rechteck platziert wird, welches im zweiten Bild ermittelt wird, wobei der zweite optischen Fluss durch die Bewegung des Rechtecks in den beiden Bilder gebildet und aus der Rechteckbewegung die Höhe der Kamera berechnet wird.Apparatus according to claim 11 or 12, characterized in that for determining the second optical flow in a section of a first image of the roadway in front of the motor vehicle in plan a rectangle is placed, which is determined in the second image, wherein the second optical flow through the movement of the rectangle formed in the two images and from the movement of the rectangle the height of the camera is calculated. Vorrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Einrichtung zur Bestimmung der Kamerahöhe ein zeitliches Histogramm der ermittelten Höhen der Kamera für eine Vielzahl von ersten und zweiten Kamerabildern erstellt und mit dem Erreichen eines Mindestanzahl von Messungen aus dem Histogramm eine Höhenschätzung ableitet.Apparatus according to claim 13, characterized in that the means for determining the camera height creates a temporal histogram of the determined heights of the camera for a plurality of first and second camera images and derives a height estimate with the achievement of a minimum number of measurements from the histogram.
DE102014209137.3A 2014-05-14 2014-05-14 Method and device for calibrating a camera system of a motor vehicle Active DE102014209137B4 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102014209137.3A DE102014209137B4 (en) 2014-05-14 2014-05-14 Method and device for calibrating a camera system of a motor vehicle
PCT/EP2015/059991 WO2015173092A1 (en) 2014-05-14 2015-05-06 Method and apparatus for calibrating a camera system in a motor vehicle
CN201580025056.5A CN106462968B (en) 2014-05-14 2015-05-06 Method and device for calibrating a camera system of a motor vehicle
US15/350,406 US10424081B2 (en) 2014-05-14 2016-11-14 Method and apparatus for calibrating a camera system of a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014209137.3A DE102014209137B4 (en) 2014-05-14 2014-05-14 Method and device for calibrating a camera system of a motor vehicle

Publications (2)

Publication Number Publication Date
DE102014209137A1 true DE102014209137A1 (en) 2015-11-19
DE102014209137B4 DE102014209137B4 (en) 2023-02-02

Family

ID=53180729

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014209137.3A Active DE102014209137B4 (en) 2014-05-14 2014-05-14 Method and device for calibrating a camera system of a motor vehicle

Country Status (4)

Country Link
US (1) US10424081B2 (en)
CN (1) CN106462968B (en)
DE (1) DE102014209137B4 (en)
WO (1) WO2015173092A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3296923A1 (en) 2016-09-20 2018-03-21 STMicroelectronics Srl A method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle
CN107845290A (en) * 2016-09-21 2018-03-27 意法半导体股份有限公司 Junction alarm method, processing system, junction alarm system and vehicle

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3007150A1 (en) * 2014-10-07 2016-04-13 Autoliv Development AB Lane change detection
ITUB20151802A1 (en) * 2015-07-01 2017-01-01 Magneti Marelli Spa On-board vehicle system and improved method for detecting objects in a vehicle's surroundings.
US10694175B2 (en) * 2015-12-28 2020-06-23 Intel Corporation Real-time automatic vehicle camera calibration
US10339390B2 (en) * 2016-02-23 2019-07-02 Semiconductor Components Industries, Llc Methods and apparatus for an imaging system
US10057562B2 (en) 2016-04-06 2018-08-21 Facebook, Inc. Generating intermediate views using optical flow
JP6384521B2 (en) * 2016-06-10 2018-09-05 トヨタ自動車株式会社 Vehicle driving support device
US10229534B2 (en) * 2017-01-10 2019-03-12 Ditto Technologies, Inc. Modeling of a user's face
EP3435333B1 (en) * 2017-07-26 2020-01-29 Aptiv Technologies Limited Method of determining the roll angle of a vehicle mounted camera
US20200082561A1 (en) * 2018-09-10 2020-03-12 Mapbox, Inc. Mapping objects detected in images to geographic positions
US11282225B2 (en) 2018-09-10 2022-03-22 Mapbox, Inc. Calibration for vision in navigation systems
US11508055B2 (en) * 2018-11-20 2022-11-22 Bnsf Railway Company Systems and methods for calibrating image capturing modules
US10984521B2 (en) 2018-11-20 2021-04-20 Bnsf Railway Company Systems and methods for determining defects in physical objects
US11423527B2 (en) 2018-11-20 2022-08-23 Bnsf Railway Company System and method for minimizing lost vehicle axel motion and filtering erroneous electrical signals
US11010641B2 (en) 2019-03-14 2021-05-18 Mapbox, Inc. Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device
CN110718068B (en) * 2019-09-27 2020-12-08 华中科技大学 Road monitoring camera installation angle estimation method
US11270466B2 (en) * 2020-03-12 2022-03-08 Bnsf Railway Company Systems and methods for calibrating image capturing modules
CN114347064B (en) * 2022-01-31 2022-09-20 深圳市云鼠科技开发有限公司 Robot collision detection method and device based on optical flow, computer equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
DE102004001572A1 (en) * 2004-01-12 2005-08-04 Daimlerchrysler Ag Dynamic calibration system for multiple cameras used to monitor moving objects to avoid image disparity
US20050237385A1 (en) * 2003-05-29 2005-10-27 Olympus Corporation Stereo camera supporting apparatus, stereo camera supporting method, calibration detection apparatus, calibration correction apparatus, and stereo camera system
DE102008008619A1 (en) * 2008-02-12 2008-07-31 Daimler Ag Method for calibrating stereo camera system, involves rectifying iteration of pair of images of stereo camera system and the pair of images is checked two times with different rectification parameters on pitch angle
EP2131598A2 (en) 2008-06-05 2009-12-09 Hella KGaA Hueck & Co. Stereo camera system and method of determining at least one calibration error in a stereo camera system

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4933864A (en) * 1988-10-04 1990-06-12 Transitions Research Corporation Mobile robot navigation employing ceiling light fixtures
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
DE4332612C2 (en) * 1992-09-25 1996-02-22 Yazaki Corp Exterior view monitoring method for motor vehicles
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP3986360B2 (en) 2002-05-14 2007-10-03 松下電器産業株式会社 Camera calibration device
DE10305993B4 (en) 2003-02-12 2006-01-05 Deutsches Zentrum für Luft- und Raumfahrt e.V. Surveying procedure for flight and vehicle guidance
DE102005013920B4 (en) * 2004-03-26 2007-12-13 Mitsubishi Jidosha Kogyo K.K. Front view monitoring apparatus
DE102004048400A1 (en) 2004-10-01 2006-04-06 Robert Bosch Gmbh Method for detecting an optical structure
DE102005001429A1 (en) 2005-01-12 2006-07-20 Robert Bosch Gmbh Method for image-position correction of a monitor image
KR101188588B1 (en) * 2008-03-27 2012-10-08 주식회사 만도 Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method
US8373763B2 (en) * 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
US8872920B2 (en) * 2009-03-26 2014-10-28 Aisin Seiki Kabushiki Kaisha Camera calibration apparatus
US8494225B2 (en) * 2010-02-19 2013-07-23 Julian L. Center Navigation method and aparatus
WO2012014430A1 (en) 2010-07-27 2012-02-02 パナソニック株式会社 Mobile body detection device and mobile body detection method
WO2012083415A1 (en) * 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
WO2012139636A1 (en) * 2011-04-13 2012-10-18 Connaught Electronics Limited Online vehicle camera calibration based on road surface texture tracking and geometric properties
WO2012145818A1 (en) * 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
KR101249791B1 (en) * 2011-05-23 2013-04-03 아진산업(주) Image generating method for around view of vehicle
EP2618305B1 (en) * 2012-01-20 2014-04-30 ESG Elektroniksystem- und Logistik-GmbH Method and device for online calibration of vehicle cameras
EP2662828B1 (en) * 2012-05-11 2020-05-06 Veoneer Sweden AB A vision system and method for a motor vehicle
US8988524B2 (en) * 2013-03-11 2015-03-24 The United States Of America As Represented By The Secretary Of The Army Apparatus and method for estimating and using a predicted vehicle speed in an indirect vision driving task
FR3014553A1 (en) * 2013-12-11 2015-06-12 Parrot METHOD FOR ANGULAR CALIBRATION OF THE POSITION OF AN ON-BOARD VIDEO CAMERA IN A MOTOR VEHICLE

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US20050237385A1 (en) * 2003-05-29 2005-10-27 Olympus Corporation Stereo camera supporting apparatus, stereo camera supporting method, calibration detection apparatus, calibration correction apparatus, and stereo camera system
DE102004001572A1 (en) * 2004-01-12 2005-08-04 Daimlerchrysler Ag Dynamic calibration system for multiple cameras used to monitor moving objects to avoid image disparity
DE102008008619A1 (en) * 2008-02-12 2008-07-31 Daimler Ag Method for calibrating stereo camera system, involves rectifying iteration of pair of images of stereo camera system and the pair of images is checked two times with different rectification parameters on pitch angle
EP2131598A2 (en) 2008-06-05 2009-12-09 Hella KGaA Hueck & Co. Stereo camera system and method of determining at least one calibration error in a stereo camera system

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
E. Tapia et al: "A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow", Fachbereich Mathematik und Informatik, Serie B Informatik, Freie Universität Berlin, Februar 2013
J. Platonov et al: "Vollautomatische Kamera-zu-Fahrzeug-Kalibrierung", ATZ elektronik 2012, S. 120-123
M. Siebeneicher: "Eine automatische Kalibrierung beliebiger Kameras in Fahrzeugen auf Grundlage von optischem Fluss und Fluchtpunktbestimmung", Masterarbeit, Freie Universität Berlin 2008
MARITA, T. [et al.]: Camera Calibration Method for Far Range Stereovision Sensors Used in Vehicles. In: Intelligent Vehicles Symposium, IEEE, 2006, S.356-363. DOI: 10.1109/IVS.2006.1689654, In: IEEE *
TAPIA, E.; ROJAS, R.: A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow. In: Serie B des Fachbereichs Mathematik und Informatik der FU Berlin, Februar 2013. *
ZHANG, Z. [et al.]: A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry. In: Artificial Intelligence, 1995, Vol. 78, S. 87 - 119. *
ZHANG, Z. [et al.]: A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry. In: Artificial Intelligence, 1995, Vol. 78, S. 87 – 119.
ZHAOXUE, C.; PENGFEI, S.: Efficient method for camera calibration in traffic scenes. In: Electronics Letters, 2004, Vol. 40, No. 6, S. 368-369. DOI: 10.1049/el:20040245, In: IEEE *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3296923A1 (en) 2016-09-20 2018-03-21 STMicroelectronics Srl A method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle
CN107845290A (en) * 2016-09-21 2018-03-27 意法半导体股份有限公司 Junction alarm method, processing system, junction alarm system and vehicle
EP3299994A1 (en) 2016-09-21 2018-03-28 STMicroelectronics Srl A method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle

Also Published As

Publication number Publication date
CN106462968B (en) 2019-12-13
CN106462968A (en) 2017-02-22
US20170061623A1 (en) 2017-03-02
WO2015173092A1 (en) 2015-11-19
US10424081B2 (en) 2019-09-24
DE102014209137B4 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
DE102014209137A1 (en) Method and device for calibrating a camera system of a motor vehicle
DE102018116111B4 (en) A unified deep convolutional neural network for free space estimation, object recognition estimation, and object pose estimation
EP2618305B1 (en) Method and device for online calibration of vehicle cameras
DE112018005656T5 (en) Onboard environment detection device
DE102014222617B4 (en) Vehicle detection method and vehicle detection system
DE112013004103B4 (en) Method and apparatus for generating a disparity card
DE102009005861A1 (en) Vehicle environment recognition system
DE102015107677A1 (en) All-Round Vision Camera System (VPM) Online Calibration
DE112018000107T5 (en) Vehicle camera calibration apparatus and method
DE102017109445A1 (en) Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction
DE102018123393A1 (en) Detection of parking areas
EP2562681B1 (en) Object tracking method for a camera-based driver assistance system
DE102017211395A1 (en) Method of supporting a coupling process and support system
DE102018123861A1 (en) Target estimator
DE102012023060A1 (en) Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram
DE102014114221A1 (en) Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle
EP2736017A2 (en) Method for determining the movement of a motor vehicle
DE102013002889A1 (en) Method for modeling road edge of road for vehicle, involves determining road curvature using two curvature corrected inspection of search area in image, where inspection is corrected according to two different road curvature hypotheses
DE102015104065A1 (en) A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle
WO2014009406A1 (en) Method and device for calculating a change in an image scale of an object
DE102017115587A1 (en) Method for determining a spatial uncertainty in images of a surrounding area of a motor vehicle, driver assistance system and motor vehicle
DE102019218479A1 (en) Method and device for classifying objects on a roadway in the surroundings of a vehicle
WO2002050770A1 (en) Method and device for compensating for the maladjustment of an image producing device
EP2192550A1 (en) Method for determining the change in position of a camera system and device for recording and processing images
DE102014219428A1 (en) Self-calibration of a stereo camera system in the car

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final