DE102014209137A1 - Method and device for calibrating a camera system of a motor vehicle - Google Patents
Method and device for calibrating a camera system of a motor vehicle Download PDFInfo
- Publication number
- DE102014209137A1 DE102014209137A1 DE102014209137.3A DE102014209137A DE102014209137A1 DE 102014209137 A1 DE102014209137 A1 DE 102014209137A1 DE 102014209137 A DE102014209137 A DE 102014209137A DE 102014209137 A1 DE102014209137 A1 DE 102014209137A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- optical flow
- determined
- image
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000003287 optical effect Effects 0.000 claims abstract description 64
- 230000033001 locomotion Effects 0.000 claims abstract description 33
- 238000005259 measurement Methods 0.000 claims description 12
- 230000004907 flux Effects 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 6
- 238000013519 translation Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000009012 visual motion Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Bei einem Verfahren und einer Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, wobei die Kalibrierparameter die Drehwinkel Nickwinkel, Gierwinkel und Rollwinkel sowie die Höhe der Kamera über der Fahrbahn umfassen, erfolgt die Bestimmung der Drehwinkel aus der Ermittlung des Fluchtpunktes aus einem ersten optischen Fluss zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild und die Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild. Dabei wird zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt, im zweiten Kamerabild werden Korrespondenzen des regelmäßigen Rasters gesucht und der erste optische Fluss wird aus der der Bewegung des Rasters über den Kamerabildern bestimmt.In a method and a device for calibrating a camera system of a motor vehicle, wherein the calibration parameters include the angles of rotation pitch angle, yaw angle and roll angle and the height of the camera above the roadway, the determination of the rotation angle from the determination of the vanishing point from a first optical flow between a first and second consecutive camera images and determining the height of the camera from a second optical flow between a first and a second consecutive camera image. In this case, a regular grid is placed over the first camera image to determine the first optical flow, in the second camera image correspondences of the regular grid are searched and the first optical flow is determined from the movement of the grid on the camera images.
Description
Die Erfindung betrifft ein Verfahren zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs gemäß dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 11.The invention relates to a method for calibrating a camera system of a motor vehicle according to the preamble of
Heutige Kraftfahrzeuge mit Fahrerassistenzsystemen sind mit einer Vielzahl von Sensoren ausgestattet, wobei viele Fahrerassistenzsysteme auf die Daten von Kameras angewiesen sind. Um ein zuverlässiges Arbeiten der FAS zu gewährleisten, müssen diese Kameras kalibriert werden. Dazu wird, nach Stand der Technik, eine aufwendige statische Kalibrierung im Werk durchgeführt. Für die Einsparung der statischen Kalibrierung wird ein robustes Online-Kalibriersystem benötigt, das nach einer kurzen Fahrstrecke geeignete Kalibrierergebnisse wie die drei Orientierungswinkel der Kamera und deren Höhe über Grund zur Verfügung stellt.Today's motor vehicles with driver assistance systems are equipped with a large number of sensors, with many driver assistance systems relying on the data from cameras. To ensure reliable operation of the FAS, these cameras must be calibrated. For this purpose, according to the prior art, a complex static calibration performed in the factory. To save the static calibration, a robust online calibration system is needed, which after a short driving distance provides suitable calibration results such as the camera's three orientation angles and their height above ground.
In
Zur Bestimmung des Rollwinkels aus dem Horizont wird der zeitliche Verlauf des Fluchtpunktes ausgewertet. Sobald eine bestimmte Anzahl an Fluchtpunkten in Links- und Rechtskurvenfahrten ermittelt wurden, wird der Horizont mittels Hauptkomponentenanalyse aus einer Teilmenge aller bis dahin berechneten Fluchtpunkte bestimmt. Durch Vergleich der Geschwindigkeitsänderungen und des Gierwinkels wird ermittelt, ob sich das Fahrzeug gleichmäßig geradeaus bewegt und daher der Nick- und Gierwinkel bestimmt werden kann, ober ob eine Kurvenfahrt durchgeführt wird. Die Höhe wird in diesem Verfahren separat bestimmt. Allerdings ist das System sehr rechenaufwändig, insbesondere durch die Merkmalsbestimmung und der aufwändigen Filterung des Fluchtpunktes.To determine the roll angle from the horizon, the time course of the vanishing point is evaluated. Once a certain number of vanishing points have been determined in left and right turns, the horizon is determined by principal component analysis from a subset of all previously calculated vanishing points. By comparing the speed changes and the yaw angle, it is determined whether the vehicle is moving uniformly straight ahead and therefore the pitch and yaw angles can be determined above whether cornering is being performed. The height is determined separately in this procedure. However, the system is very computationally intensive, in particular by the feature determination and the elaborate filtering of the vanishing point.
Das in
In
Die Druckschrift
Die bekannten Systeme sind zur Bestimmung der Lage alle drei Winkel der Kameraorientierung sowie die Kamerahöhe über Grund rechenintensiv bei oftmals nicht ausreichender Genauigkeit insbesondere bei schlechten Witterungsbedingungen sowie bei kurzer Fahrtstrecke mit wenigen Kurvenfahrten.The known systems are to calculate the position of all three angles of the camera orientation and the camera height above ground computationally intensive often with insufficient accuracy, especially in bad weather conditions and short driving distance with little cornering.
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs anzugeben, die eine schnellere Kalibrierung des Kamerasystems ermöglichen.The invention is therefore based on the object of specifying a method and a device for calibrating a camera system of a motor vehicle, which allow a faster calibration of the camera system.
Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine Vorrichtung mit den Merkmalen des Anspruchs 11 gelöst. Bevorzugte Ausführungsformen der Erfindung sind Gegenstand der Unteransprüche.This object is achieved by a method having the features of
Bei dem erfindungsgemäßen Verfahren zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, wobei die Kalibrierparameter die Drehwinkel Nickwinkel, Gierwinkel und Rollwinkel sowie die Höhe der Kamera über der Fahrbahn umfassen, erfolgt die Bestimmung der Drehwinkel aus der Ermittlung des Fluchtpunktes aus einem ersten optischen Fluss zwischen einem ersten und einem zweiten Kamerabild und die Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild. Dabei wird zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt, im zweiten Kamerabild werden Korrespondenzen des regelmäßigen Rasters gesucht und der erste optische Fluss wird aus der Bewegung des Rasters über den Kamerabildern bestimmt.In the inventive method for calibrating a camera system of a motor vehicle, wherein the calibration parameters include the rotation angle pitch angle, yaw angle and roll angle and the height of the camera above the road, the determination of the rotation angle from the determination of the vanishing point of a first optical flux between a first and a second camera image and the determination of the height of the camera from a second optical flow between a first and a second consecutive camera image. In this case, a regular grid is placed over the first camera image to determine the first optical flow, in the second camera image correspondences of the regular grid are searched and the first optical flow is determined from the movement of the grid on the camera images.
Es wird also der optische Fluss jeweils zwischen zwei Bildern bestimmt, indem ein regelmäßiges Raster über das erste Bild gelegt wird und die Rasterpunkte dieses Raster werden beispielsweise mittels des Lucas-Kanade-Verfahrens im zweiten Bild gesucht.Thus, the optical flux between each two images is determined by a regular grid is placed over the first image and the raster points of this grid are searched for example by means of the Lucas-Kanade method in the second image.
Vorzugsweise sind die Abstände der Rasterpunkte parametrierbar. Auf diese Weise kann eine Skalierbarkeit der Berechnung des optischen Flusses erreicht werden. Je kleiner der Abstand zwischen den Rasterpunkten ist, umso länger dauert die Berechnung, allerdings ergibt sich auf diese Weise eine genauere Fluchtpunktschätzung.Preferably, the distances of the screen dots can be parameterized. In this way, scalability of the optical flow calculation can be achieved. The smaller the distance between the halftone dots, the longer the calculation takes, but this gives a more accurate vanishing point estimate.
Auf Basis des ermittelten ersten optischen Flusses werden die Epipole in beiden Kamerabilder errechnet und die Epipole bilden die Basis der Fluchtpunktschätzung. Die Ermittlung der Epipole kann über eine Berechnung der auf dem optischen Fluss basierenden Fundamentalmatrix erfolgen.On the basis of the determined first optical flow, the epipoles are calculated in both camera images and the epipoles form the basis of the vanishing point estimate. The determination of the epipoles can be done by calculating the optical flow based fundamental matrix.
Weiter bevorzugt wird zur Nickwinkel und Gierwinkelbestimmung aus den beiden Epipolen der beiden Kamerabildern der Fluchtpunkt bestimmt, wenn der Abstand der Epipole innerhalb eines ersten vorgegebenen Intervalls liegt. Die Bestimmung des Nickwinkels und des Gierwinkels erfolgt während einer Geradeausfahrt, so dass die beiden Epipole nahe beieinander liegen. Aus den beiden Epipolen wird beispielsweise der Mittelwert gebildet, der dann als aktueller Fluchtpunkt in die Schätzung von Nick- und Gierwinkel eingeht.More preferably, the vanishing point is determined for the pitch angle and yaw angle determination from the two epipoles of the two camera images, if the distance of the epipole is within a first predetermined interval. The determination of the pitch angle and the yaw angle takes place during a straight ahead, so that the two epipoles are close to each other. From the two epipoles, for example, the mean is formed, which then enters as the current vanishing point in the estimation of pitch and yaw angle.
Vorzugsweise werden die ermittelten Fluchtpunkte über die Zeit gespeichert und es wird aus der Menge der ermittelten Fluchtpunkte ein zeitstabiler Fluchtpunkt zu Bestimmung von Nickwinkel und Gierwinkel ermittelt. Dabei kann ein Speicherintervall vorgegeben werden, das sich mit der aktuellen Zeit mit bewegt. Auf diese Weise können alte Fluchtpunkte verworfen werden. Ferner kann über das Speicherintervall die Anzahl der zur Schätzung des zeitstabilen Fluchtpunktes notwendigen ermittelten Fluchtpunkte festgelegt werden.The determined vanishing points are preferably stored over time and a time-stable vanishing point for determining the pitch angle and yaw angle is determined from the set of vanishing points determined. In this case, a storage interval can be specified, which moves with the current time. In this way, old vanishing points can be discarded. Furthermore, the number of determined vanishing points that are necessary for estimating the time-stable vanishing point can be determined via the storage interval.
Weiter bevorzugt werden die ermittelten Epipole zweier Kamerabilder zur Rollwinkelbestimmung verwendet, wenn der Abstand der Epipole innerhalb eines zweiten vorgegebenen Intervalls liegt, wobei aus der Lage der Epipole im jeweiligen Kamerabild ein Rollwinkel geschätzt wird. Mit anderen Worten, liegen die beiden Epipole ”weit” auseinander, so befindet sich das Fahrzeug in einer Kurvenfahrt und es kann ein aktueller Rollwinkel bestimmt werden. Zur Unterscheidung für welche Drehwinkel die aktuellen Epipole verwendet werden, sind die beiden vorgegebenen Intervalle disjunkt.More preferably, the determined epipoles of two camera images are used for roll angle determination when the distance of the epipole is within a second predetermined interval, wherein a roll angle is estimated from the position of the epipoles in the respective camera image. In other words, if the two epipoles are "far apart", the vehicle is cornering and a current roll angle can be determined. In order to distinguish for which angle of rotation the current epipoles are used, the two predetermined intervals are disjoint.
Vorzugsweise werden die ermittelten Rollwinkel über die Zeit gesammelt und in vorgegebenen Gruppen als Funktion der Gierrate des Kraftfahrzeugs eingeteilt. Dabei ist vorzugsweise die Verfallszeit sowie die Anzahl und Definition der Gruppen parametrierbar.Preferably, the determined roll angles are collected over time and divided into predetermined groups as a function of the yaw rate of the motor vehicle. In this case, preferably the expiry time and the number and definition of the groups can be parameterized.
Weiter bevorzugte wird pro vorgegebener Gruppe gespeicherten Rollwinkel ein mittlerer Gruppenrollwinkel gebildet, wenn die Anzahl der Messungen in jeder Gruppe eine Mindestanzahl erreicht hat. Der zur Kalibrierung verwendete endgültige Rollwinkel kann beispielsweise als Durchschnitt der mittleren Gruppenrollwinkeln über die Gruppen gebildet werden. More preferably, an average group roll angle is formed for each predetermined group of stored roll angles when the number of measurements in each group has reached a minimum number. For example, the final roll angle used for calibration may be formed as an average of the mean group roll angles over the groups.
Vorzugsweise wird zur Bestimmung des zweiten optischen Flusses in einem Ausschnitt eines ersten Bildes der Fahrbahn vor dem Kraftfahrzeug in Draufsicht ein Rechteck platziert, dessen Position im zweiten Bild ermittelt wird, wobei der zweite optischen Fluss durch die Bewegung des Rechtecks in den beiden Bilder gebildet und aus der Rechteckbewegung die Höhe der Kamera berechnet wird. Auf diese Weise wird ein stark vereinfachter zweiter optischer Fluss bestimmt, wobei das Auffinden des Rechtecks im zweiten Bild mittels Blockmatching erfolgen kann, so dass die Bewegung des Rechtecks und damit der zweite optische Fluss bestimmt werden kann. Das Rechteck ist parametrierbar mit den Parametern Höhe und Breite des Rechtecks.Preferably, in order to determine the second optical flow in a section of a first image of the roadway in front of the motor vehicle, a rectangle is placed in plan view whose position is determined in the second image, wherein the second optical flow is formed by the movement of the rectangle in the two images the rectangle movement is calculated the height of the camera. In this way, a greatly simplified second optical flow is determined, wherein the finding of the rectangle in the second image can be done by block matching, so that the movement of the rectangle and thus the second optical flow can be determined. The rectangle can be parameterized with the parameters height and width of the rectangle.
Weiter bevorzugt wird ein zeitliches Histogramm der ermittelten Höhen der Kamera für eine Vielzahl von ersten und zweiten Kamerabildern erstellt wird mit dem Erreichen einer Mindestanzahl von Messungen aus dem Histogramm eine geschätzt Höhe abgeleitet. Durch die Verwendung eines Histogramms wird die Höhenschätzung verbessert, da die ermittelte Bewegung des Rechtecks stark mit Rauschen unterlegt ist.More preferably, a temporal histogram of the detected heights of the camera is created for a plurality of first and second camera images is derived with the achievement of a minimum number of measurements from the histogram of an estimated height. Using a histogram improves the elevation estimation, as the detected motion of the rectangle is heavily noise-locked.
Die erfindungsgemäße Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs, welche zur Durchführung des im Vorangegangenen erläuterten Verfahrens eingerichtet und ausgelegt ist, umfasst:
- – eine Einrichtung zur Bestimmung eines ersten optischen Flusses zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild,
- – eine Einrichtung zur Bestimmung von Fluchtpunkten aus dem ersten optischen Fluss,
- – eine Einrichtung zur Bestimmung der Drehwinkel aus ermittelten Fluchtpunkten,
- – eine Einrichtung zur Bestimmung eines zweiten optischen Flusses zwischen einem ersten und einem zweiten aufeinanderfolgenden Kamerabild, und
- – eine Einrichtung zur Bestimmung der Höhe der Kamera aus einem zweiten optischen Fluss, wobei zur Bestimmung des ersten optischen Flusses ein regelmäßiges Raster über das erste Kamerabild gelegt wird, im zweiten Kamerabild Korrespondenzen des regelmäßigen Rasters gesucht werden und der erste optische Fluss aus der der Bewegung des Raster über den Kamerabilder bestimmt wird.
- A device for determining a first optical flow between a first and a second consecutive camera image,
- A device for determining vanishing points from the first optical flow,
- A device for determining the angles of rotation from determined vanishing points,
- A device for determining a second optical flow between a first and a second consecutive camera image, and
- - A device for determining the height of the camera from a second optical flux, wherein for determining the first optical flow, a regular grid is placed over the first camera image, in the second camera image correspondences of the regular grid are searched and the first optical flow from the movement of the grid over the camera images is determined.
Weiter bevorzugt errechnet die Einrichtung zur Bestimmung des Fluchtpunktes auf Basis des ermittelten ersten optischen Flusses die Epipole in beiden Kamerabildern und verwendet die Epipole zur Fluchtpunktschätzung.More preferably, the device for determining the vanishing point on the basis of the determined first optical flow calculates the epipoles in both camera images and uses the epipoles for vanishing point estimation.
Vorzugsweise wird zur Bestimmung des zweiten optischen Flusses in einem Ausschnitt eines ersten Bildes der Fahrbahn vor dem Kraftfahrzeug in Draufsicht ein Rechteck platziert, welches im zweiten Bild ermittelt wird, wobei der zweite optischen Fluss durch die Bewegung des Rechtecks in den beiden Bilder gebildet wird und aus der Rechteckbewegung die Höhe der Kamera berechnet wird.Preferably, in order to determine the second optical flow in a section of a first image of the road in front of the motor vehicle, a rectangle is placed in plan view, which is determined in the second image, wherein the second optical flow is formed by the movement of the rectangle in the two images the rectangle movement is calculated the height of the camera.
Weiter bevorzugt erstellt die Einrichtung zur Bestimmung der Kamerahöhe ein zeitliches Histogramm der gemessenen Höhen der Kamera für eine Vielzahl von ersten und zweiten Kamerabildern und leitet mit dem Erreichen einer Mindestanzahl von Messungen aus dem Histogramm eine geschätzte Höhe ab.More preferably, the means for determining the camera height creates a temporal histogram of the measured heights of the camera for a plurality of first and second camera images, and derives an estimated height upon reaching a minimum number of measurements from the histogram.
Vorteilhafterweise ist das erfindungsgemäße Verfahren bzw. die entsprechende Vorrichtung in der Lage nach kurzer Fahrstrecke bei Geradeausfahrt die Gier- und Nickwinkel sowie nach kurzer Fahrtstrecke mit mindestens einer Link- und einer Rechtskurve den Rollwinkel robust zu bestimmen. Ferner wird parallel dazu die Kamerahöhe über Grund bestimmt, so dass eine Kalibrierung der Kamera bei einer signifikant kürzeren Konvergenzzeit erfolgt. Dabei bestehen keine Abhängigkeiten zu vorgegebenen Markierungen, Strukturen oder Formen, mit anderen Worten, das beschriebene Verfahren bzw. die Vorrichtung funktioniert in beliebiger Umgebung. Die Umgebung muss nur ein Mindestmaß an Struktur aufweisen, die von der Kamera erfasst werden kann, sowie mindestens ein Lenkmanöver des Fahrzeuges erlauben.Advantageously, the method according to the invention or the corresponding device is able to determine the yawing and pitching angles after a short driving distance when driving straight ahead, as well as after a short journey with at least one left and one right turn. Furthermore, the camera height above ground is determined in parallel, so that a calibration of the camera takes place at a significantly shorter convergence time. There are no dependencies on predefined markings, structures or shapes, in other words, the described method or device works in any environment. The environment must have only a minimum of structure that can be detected by the camera, and allow at least one steering maneuver of the vehicle.
Darüber hinaus wird keine aufwändige Merkmalsextraktion durchgeführt und der erläuterte Lösungsansatz ist so aufgebaut, dass er sich steuergerätetauglich implementieren lässt.In addition, no elaborate feature extraction is performed and the explained approach is constructed so that it can be implemented suitable for ECUs.
Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnungen erläutert. Dabei zeigtA preferred embodiment of the invention will be explained below with reference to the drawings. It shows
Das Weltkoordinatensystem (O, X, Y, Z) und das Kamerakoordinatensystem (C, XC, YC, ZC) können sich in Position und Orientierung voneinander unterscheiden. Der Unterschied in der Orientierung wird durch eine Rotation um die jeweilige Achse angegeben, wobei die Kamera K um drei Achsen XC, YC, ZC rotieren und jede Rotation durch eine entsprechende Rotationsmatrix RNick, RGier und RRoll in üblicher Weise beschrieben werden kann. Die vollständige Rotationsmatrix R ist eine Hintereinanderausführung der einzelnen Rotationsmatrizen und wird wie folgt gebildet:
Zusammen mit dem Translationsvektor C = (Cx, Cy, Cz)T, der den Nullpunkt des Kamerakoordinatensystems im Weltkoordinatensystem beschreibt und den Unterschied der Positionen der beiden Koordinatensysteme angibt, kann die einheitliche Transformationsmatrix gebildet werden, die das Weltkoordinatensystem in das Kamerakoordinatensystem überführt.Together with the translation vector C = (C x , C y , C z ) T , which describes the zero point of the camera coordinate system in the world coordinate system and indicates the difference of the positions of the two coordinate systems, the uniform transformation matrix can be formed, which converts the world coordinate system into the camera coordinate system ,
Mittels des Fluchtpunktes lassen sich Gierwinkel θ und Nickwinkel ϕ aus der vollständigen Rotationsmatrix R bei einer geradlinigen Bewegung bestimmen, da der Rollwinkel Ψ bei einer geradlinigen Bewegung Null ist. Für eine Bestimmung des Rollwinkels Ψ reicht ein Fluchtpunkt nicht aus, allerdings kann der Rollwinkel Ψ aus dem Verlauf des Fluchtpunktes während einer Kurvenfahrt bestimmt werden, da der Fluchtpunkt seine Position proportional zum Rollwinkel Ψ verändert. Details der theoretischen Grundlagen können beispielsweise der oben genannten Masterarbeit von M. Siebeneicher entnommen werden.By means of the vanishing point, yaw angle θ and pitch angle φ can be determined from the complete rotation matrix R during a rectilinear movement, since the roll angle Ψ is zero for a rectilinear movement. For a determination of the roll angle ein a vanishing point is not sufficient, but the roll angle Ψ from the course of the vanishing point can be determined during cornering, as the vanishing point changes its position proportional to the roll angle Ψ. Details of the theoretical fundamentals can be found, for example, in the aforementioned master thesis by M. Siebeneicher.
Eine Bestimmung der Orientierungs- oder Drehwinkel setzt daher eine möglichst genaue Bestimmung der verwendeten Fluchtpunkte und deren Bewegung voraus, deren Bestimmung wiederum von einer optimale Bestimmung des optischen Flusses abhängt.A determination of the orientation or rotation angle therefore requires the most accurate determination of the vanishing points used and their movement, the determination of which in turn depends on an optimal determination of the optical flow.
Eingangsgrößen des Kalibriersystems KP sind die aufgenommenen Kamerabilder B1 und B2 sowie die Egodaten ED des Fahrzeugs. Dabei werden unter Egodaten des Fahrzeugs allgemeine Fahrzeugdaten wie beispielsweise Tachometerwerte, Lenkeinschlagswinkel, Odometriedaten und Positionsdaten, sowie Daten über die Beschleunigung den Gierwinkel und Nickraten sein. Die Aufzählung ist nicht als vollständig zu betrachten. Dabei können die Egodaten unterstützend für das Kalibriersystem sein, um beispielsweise Fahrzustände zu identifizieren, die für den Kalibriervorgang besonders günstig sind.Input variables of the calibration system KP are the recorded camera images B1 and B2 as well as the ego data ED of the vehicle. Here, under ego data of the vehicle, general vehicle data such as, for example, tachometer values, steering angles, odometry data and position data, as well as acceleration data, will be the yaw angle and pitch rates. The list is not to be considered as complete. In this case, the ego data can be supportive for the calibration system in order to identify, for example, driving conditions that are particularly favorable for the calibration process.
Die Kalibrierung der Fahrzeugkamera mit Hilfe des Kalibriersystems KP basiert auf der Bestimmung des optischen Flusses innerhalb der Bilder der Kamera. Dazu werden mit Hilfe von Merkmalen der Kamerabilder B1, B2 im ersten optischen Flussmodul O1 des Kalibriersystem KP Bewegungsvektoren über das Bild bestimmt, wobei die Bewegungsvektoren basierend auf einem gleichmäßig über dem ersten Bild angeordneten Raster bestimmt werden.The calibration of the vehicle camera with the aid of the calibration system KP is based on the determination of the optical flow within the images of the camera. For this purpose, motion vectors are determined via the image with the aid of features of the camera images B1, B2 in the first optical flow module O1 of the calibration system KP, the motion vectors being determined based on a grid arranged uniformly over the first image.
Basierend auf den im ersten optischen Flussmodul O1 ermittelten Bewegungsvektoren erfolgt im Fluchtpunktmodul FP eine Schätzung des Fluchtpunktes anhand geometrischer Eigenschaften. Die Fluchtpunktschätzung des Fluchtpunktmoduls FP wird in einem nachfolgenden Winkelbestimmungsmodul WB zur Bestimmung der drei Drehwinkel eingesetzt, wobei das Winkelbestimmungsmodul WB die untereinander verbundenen Module Gierwinkelbestimmung GW, Rollwinkelbestimmung RW und Nickwinkelbestimmung NW aufweist.Based on the motion vectors determined in the first optical flux module O1, an estimate of the vanishing point based on geometrical properties takes place in the vanishing point module FP. The Vanishing point estimation of the vanishing point module FP is used in a subsequent angle determination module WB for determining the three angles of rotation, wherein the angle determination module WB has the interconnected modules yaw angle determination GW, roll angle determination RW and pitch angle determination NW.
Separat erfolgt in einem zweiten optischen Flussmodul die Bestimmung von Bewegungsvektoren eines stark vereinfachten optischen Flusses in einer Draufsicht eines Bildausschnitts der Fahrbahn vor dem Fahrzeug. Aus den ermittelten Bewegungsvektoren der Fahrbahnmerkmale sowie Egodaten und dem ermittelten Nickwinkel θ kann die Höhe der Kamera über der Fahrbahn in dem Höhenschätzungsmodul HS geschätzt werden.Separately, in a second optical flux module, the determination of motion vectors of a greatly simplified optical flow in a plan view of an image section of the road ahead of the vehicle takes place. The height of the camera above the roadway in the height estimation module HS can be estimated from the determined motion vectors of the roadway characteristics as well as ego data and the determined pitch angle θ.
Im Folgenden werden die Details der einzelnen Komponenten näher erläutert:The following explains the details of the individual components:
ERSTER OPTISCHER FLUSS:FIRST OPTICAL RIVER:
Die Bestimmung des ersten optischen Flusses O1 erfolgt jeweils zwischen zwei Bildern B1, B2 der Kamera. Dabei wird kein dichtes Flussfeld bestimmt, sondern es wird ein regelmäßiges Raster über das erste Bild B1 gelegt. Mittels beispielsweise des bekannten Lucas-Kanade-Verfahrens werden Korrespondenzen zu dem Raster im zweiten Bild B2 gesucht. Dabei können die Abstände der Rasterpunkte parametriert werden, wodurch die Berechnung des optischen Flusses sehr skalierbar ist. Mit anderen Worten, umso kleiner der Abstand der Rasterpunkte, umso großer ist zwar die Laufzeit der Berechnung, allerdings erhöht sich die Genauigkeit der darauf aufbauenden Fluchtpunktschätzung.The determination of the first optical flux O1 takes place in each case between two images B1, B2 of the camera. In this case, no dense flux field is determined, but a regular grid is placed over the first image B1. By means of, for example, the known Lucas-Kanade method, correspondences to the raster in the second image B2 are searched for. The distances of the grid points can be parameterized, whereby the calculation of the optical flow is very scalable. In other words, the smaller the pitch of the halftone dots, the greater the running time of the calculation, but the accuracy of the vanishing-point estimation based thereon increases.
Ein weiter Vorteil des Rasteransatzes gegenüber einer merkmalsbasierten Flussbestimmung liegt darin, dass auffällige Merkmale meist an den Konturen sich bewegender Objekte gefunden werden und diese fremdbewegten Objekte dann den Fluchtpunkt verzerren.A further advantage of the grid approach over a feature-based flow determination is that conspicuous features are mostly found on the contours of moving objects, and these strangers moved objects then distort the vanishing point.
FLUCHTPUNKTSCHÄTZUNG:Vanishing Point ESTIMATE:
Auf Basis des optischen Flusses wird die Fundamentalmatrix der Epipolargeometrie berechnet. Diese liefert jeweils den jeweiligen Epipol in beiden betrachteten Bildern B1, B2. Bei einer Geradeausfahrt müssen sich die beiden Epipole sehr nah beieinander befinden, wobei der Abstand parametrierbar ist. Es wird der Mittelwert der beiden Epipole gebildet, der den aktuellen Fluchtpunkt bildet und an die Nick- und Gierwinkelschätzung weitergegeben wird.Based on the optical flow, the fundamental matrix of the epipolar geometry is calculated. This provides the respective epipole in both images B1, B2 considered. When traveling straight ahead, the two epipoles must be very close to each other, whereby the distance can be parameterized. It is the mean of the two epipoles formed that forms the current vanishing point and is passed to the pitch and yaw angle estimation.
Dabei gelten folgende Bedingungen für den Abstand ”sehr nah beieinander” der beiden Epipole für die Nick- und Gierwinkelbestimmung:
minimaler X-Abstand der Pixel relativ zur Bildbreite = 0,
maximaler X-Abstand der Pixel relativ zur Bildbreite = ca. 0,02,
minimaler Y-Abstand der Pixel relativ zur Bildhöhe = 0,
maximaler Y-Abstand der Pixel relativ zur Bildhöhe = ca. 0,01.The following conditions apply to the distance "very close to each other" of the two epipoles for the pitch and yaw angle determination:
minimum X-distance of the pixels relative to the image width = 0,
maximum X-distance of the pixels relative to the image width = approx. 0.02,
minimum Y-distance of the pixels relative to the image height = 0,
maximum Y-distance of the pixels relative to the image height = approx. 0.01.
Ist der Abstand der Epipole größer als die oben genannten maximalen Abstände, so ist die Bestimmung der Mittelwerte von Nick- und Gierwinkel wesentlich schwieriger bis unmöglich, da mehr und stärkere Ausreißer berücksichtigt werden müssen.If the distance of the epipoles is greater than the abovementioned maximum distances, the determination of the mean values of pitch and yaw angles is much more difficult to impossible, since more and stronger outliers must be taken into account.
Befindet sich das Fahrzeug in einer Kurvenfahrt, dann müssen sich die beiden Epipole der Bilder B1, B2 weiter auseinander befinden. Ist diese Bedingung erfüllt, dann werden die beiden Epipole an die Rollwinkelschätzung RW weitergegeben.If the vehicle is cornering, then the two epipoles of the images B1, B2 must be further apart. If this condition is fulfilled, then the two epipoles are passed on to the roll angle estimation RW.
Für die Rollwinkelbestimmung müssen die Abstände der Epipole die folgenden Bedingungen erfüllen:
minimaler X-Abstand der Pixel relativ zur Bildbreite = ca. 0,02
maximaler X-Abstand der Pixel relativ zur Bildbreite = ca. 0,1
minimaler Y-Abstand der Pixel relativ zur Bildhöhe = 0,01
maximaler Y-Abstand der Pixel relativ zur Bildhöhe = ca. 0,05For roll angle determination, the distances of the epipoles must meet the following conditions:
minimum X-distance of the pixels relative to the image width = approx. 0.02
maximum X-distance of the pixels relative to the image width = approx. 0.1
minimum Y-distance of pixels relative to image height = 0.01
maximum Y-distance of the pixels relative to the image height = approx. 0.05
Dieses Vorgehen ist im Vergleich zu bekannten Verfahren mit wesentlich weniger Laufzeit und in weniger Schritten durchführbar.This procedure can be carried out in comparison to known methods with much less running time and in fewer steps.
WINKELBESTIMMUNG: ANGLE DETERMINATION:
BESTIMMUNG VON NICKWINKEL UND GIERWINKEL.DETERMINATION OF NICKWINKEL AND YELLOW ANGLE.
Die in der Fluchtpunktschätzung bestimmten Fluchtpunkte werden über die Zeit gesammelt, wobei alte Fluchtpunkte verworfen werden. Dabei ist die Anzahl und Verfallszeit parametrierbar. Liegen genügend Fluchtpunkte vor, wird ein zeitstabiler Fluchtpunkt mittels beispielsweise dem bekannten RANSAC-Algorithmus aus der Menge hochdynamischer Fluchtpunkte geschätzt. Dieser zeitstabile Fluchtpunkt wird zur Bestimmung des Nickwinkels und des Gierwinkels Ψ in den entsprechenden Modulen NW, GW verwendet.The vanishing points determined in the vanishing point estimate are collected over time, discarding old vanishing points. The number and expiry time can be parameterized. If there are enough vanishing points, a time-stable vanishing point is estimated from the set of highly dynamic vanishing points using, for example, the well-known RANSAC algorithm. This time-stable vanishing point is used to determine the pitch angle and the yaw angle Ψ in the corresponding modules NW, GW.
ROLLWINKELSCHÄTZUNGROLL ANGLE ESTIMATE
Die in der Kurvenfahrt gesammelten Epipole werden direkt genutzt, um über ihre Lage im Bild einen möglichen Rollwinkel zu bestimmen. Diese hochdynamischen Rollwinkel werden über die Zeit gesammelt und in Gruppen eingeteilt, wobei die Verfallszeit, Anzahl und Gruppen parametrierbar sind. Vorzugsweise werden vier Gruppen verwendet, nämlich:
- – hohe Gierrate nach links,
- – mittlere Gierrate nach links,
- – hohe Gierrate nach rechts, und
- – mittlere Gierrate nach rechts.
- High yaw rate to the left,
- - mean yaw rate to the left,
- - high yaw rate to the right, and
- - mean yaw rate to the right.
Dabei haben sich die unten angegebenen Bereiche der Gierrate α zur Definition der vier oben genannten Gruppen bewährt:
In jeder Gruppe muss sich eine Mindestanzahl an Messungen befinden. Ist dies der Fall, wird für jede Gruppe der Mittelwert berechnet und anschließend über diese vier Mittelwerte noch einmal der Durchschnitt gebildet. Dieser Durchschnitt wird zur Bestimmung des Rollwinkel RW verwendet.There must be a minimum number of measurements in each group. If this is the case, the mean value is calculated for each group and then the average is again formed over these four mean values. This average is used to determine the roll angle RW.
HÖHENSCHÄTZUNGHEIGHT ESTIMATE
In der Standardimplementierung wird ein sehr vereinfachter optischer Fluss bestimmt. Im ersten Schritt wird eine Draufsicht aus einem Bildausschnitt direkt vor dem Fahrzeug berechnet, wobei der Bildausschnitt parametrierbar ist. Innerhalb dieses Ausschnittes wird im ersten Bild ein Rechteck platziert, welches mittels Blockmatching im zweiten Bild wieder gefunden werden muss unter Berücksichtigung der Parameter Höhe und Breite des Rechteckes. Die Bewegung des Rechteckes im Bild bildet den optischen Fluss.In the standard implementation, a very simplified optical flow is determined. In the first step, a plan view is calculated from an image section directly in front of the vehicle, wherein the image section can be parameterized. Within this section, a rectangle is placed in the first image, which must be found again by means of block matching in the second image, taking into account the parameters height and width of the rectangle. The movement of the rectangle in the picture forms the optical flow.
Für das als Template-Box bezeichnete Rechteck gelten in der Standardimplementierung die folgenden Randbedingungen:
Template-Box-Breite relativ zur TopView-Breite = ca. 0,9
Template-Box-Breite relativ zur Template-Box-Breite = ca. 0,4For the rectangle designated as a template box, the following boundary conditions apply in the standard implementation:
Template box width relative to TopView width = approx. 0.9
Template box width relative to template box width = approximately 0.4
Die Template-Box wird im TopView-Bild der ersten Frames so positioniert, dass die obere Kante der Template-Box mittig am oberen Bildrand liegt, d. h. links und rechts bleiben ca. 5% Rand im Vergleich zur Top-View-Breite.The template box is positioned in the TopView image of the first frame in such a way that the upper edge of the template box is in the middle of the upper edge of the image. H. left and right are about 5% edge compared to the top view width.
HÖHENBESTIMMUNGHEIGHT DETERMINATION
Die im ersten Schritt ermittelte Bewegung des Rechteckes im Bild wird direkt in eine reale Bewegung des Fahrzeuges umgerechnet, wobei der Wert jedoch stark von Rauschen unterlegt ist. Daher wird über die Zeit ein Histogramm aufgebaut mit den Paramatern niedrigster und höchster Wert der Histogramms sowie Anzahl der Bins. Auch hier können die Messungen mit ihrem Alter verfallen. Ist eine Mindestanzahl an Messungen im Histogramm vorhanden, so werden die N benachbarten Bins gesucht, die die meisten Messungen enthalten. Anschließend wird der Median über diese Bins gebildet. Das Ergebnis ist dann die geschätzte Höhe.The movement of the rectangle in the image determined in the first step is converted directly into a real movement of the vehicle, whereby the value is strongly underlaid by noise. Therefore, a histogram is constructed over time with the lowest and highest values of the histogram as well as the number of bins. Again, the measurements can expire with their age. If there is a minimum number of measurements in the histogram, then the N adjacent bins containing most of the measurements are searched. Subsequently, the median is formed over these bins. The result is then the estimated height.
Das prinzipielle Vorgehen zur Bestimmung der Höhe wird anhand der
BezugszeichenlisteLIST OF REFERENCE NUMBERS
-
- OO
- Nullpunkt WeltsystemZero point world system
- XX
- X-AchseX axis
- YY
- Y-AchseY-axis
- ZZ
- Z-AchseZ-axis
- CC
- Nullpunkt Kamerasystem = TranslationsvektorZero point camera system = translation vector
- CX C X
- X-Komponente TranslationsvektorX component translation vector
- CY C Y
- Y-Komponente TranslationsvektorY component translation vector
- CZ C z
- Z-Komponente TranslationsvektorZ component translation vector
- XC X C
- X-Achse KameraX-axis camera
- YC Y C
- Y-Achse KameraY-axis camera
- ZC Z C
- Z-Achse KameraZ-axis camera
- θθ
- Nickwinkelpitch angle
- ϕφ
- Gierwinkelyaw
- ΨΨ
- Rollwinkelroll angle
- KPKP
- Bestimmung KalibrierparameterDetermination of calibration parameters
- EDED
- Ego-DatenEgo data
- B2B2
-
Kamerabild 1
Camera picture 1 - B1B1
- Kamerabild 2Camera picture 2
- O1O1
-
Optischer Fluss 1
Optical flow 1 - O2O2
- Optischer Fluss 2Optical flow 2
- FPFP
- FluchtpunktschätzungVanishing Point Estimate
- WBWB
- Winkelbestimmungangle determination
- GWGW
- Gierwinkelbestimmung Yaw angle determination
- RWRW
- RollwinkelbestimmungRoll angle determination
- NWnorthwest
- NickwinkelbestimmungNick angle determination
- Hshs
- Höhenschätzungheight estimate
- FF
- Fahrbahnroadway
- hH
- Höhe der Kamera über der FahrbahnHeight of the camera above the roadway
- vv
- Fahrzeuggeschwindigkeitvehicle speed
- vP v p
- Pixelgeschwindigkeitpixel speed
- ff
- Brennweitefocal length
- K(t)K (t)
- Bildebene der Kamera zum Zeitpunkt tImage plane of the camera at time t
- K(t + 1)K (t + 1)
-
Bildebene der Kamera zum Zeitpunkt t + 1Image plane of the camera at
time t + 1 - v'v '
- Hilfsgrößeauxiliary variable
- f'f '
- Hilfsgrößeauxiliary variable
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- EP 2131598 A2 [0007] EP 2131598 A2 [0007]
Zitierte Nicht-PatentliteraturCited non-patent literature
- M. Siebeneicher: ”Eine automatische Kalibrierung beliebiger Kameras in Fahrzeugen auf Grundlage von optischem Fluss und Fluchtpunktbestimmung”, Masterarbeit, Freie Universität Berlin 2008 [0003] M. Siebeneicher: "An automatic calibration of any camera in vehicles based on optical flow and vanishing point determination", Master Thesis, Freie Universität Berlin 2008 [0003]
- J. Platonov et al: ”Vollautomatische Kamera-zu-Fahrzeug-Kalibrierung”, ATZ elektronik 2012, S. 120–123 [0005] J. Platonov et al: "Fully Automatic Camera-to-Vehicle Calibration", ATZ elektronik 2012, pp. 120-123 [0005]
- E. Tapia et al: ”A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow”, Fachbereich Mathematik und Informatik, Serie B Informatik, Freie Universität Berlin, Februar 2013 [0006] E. Tapia et al: "A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow", Department of Mathematics and Computer Science, Series B Computer Science, Freie Universität Berlin, February 2013 [0006]
Claims (14)
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014209137.3A DE102014209137B4 (en) | 2014-05-14 | 2014-05-14 | Method and device for calibrating a camera system of a motor vehicle |
PCT/EP2015/059991 WO2015173092A1 (en) | 2014-05-14 | 2015-05-06 | Method and apparatus for calibrating a camera system in a motor vehicle |
CN201580025056.5A CN106462968B (en) | 2014-05-14 | 2015-05-06 | Method and device for calibrating a camera system of a motor vehicle |
US15/350,406 US10424081B2 (en) | 2014-05-14 | 2016-11-14 | Method and apparatus for calibrating a camera system of a motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014209137.3A DE102014209137B4 (en) | 2014-05-14 | 2014-05-14 | Method and device for calibrating a camera system of a motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102014209137A1 true DE102014209137A1 (en) | 2015-11-19 |
DE102014209137B4 DE102014209137B4 (en) | 2023-02-02 |
Family
ID=53180729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014209137.3A Active DE102014209137B4 (en) | 2014-05-14 | 2014-05-14 | Method and device for calibrating a camera system of a motor vehicle |
Country Status (4)
Country | Link |
---|---|
US (1) | US10424081B2 (en) |
CN (1) | CN106462968B (en) |
DE (1) | DE102014209137B4 (en) |
WO (1) | WO2015173092A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3296923A1 (en) | 2016-09-20 | 2018-03-21 | STMicroelectronics Srl | A method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle |
CN107845290A (en) * | 2016-09-21 | 2018-03-27 | 意法半导体股份有限公司 | Junction alarm method, processing system, junction alarm system and vehicle |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3007150A1 (en) * | 2014-10-07 | 2016-04-13 | Autoliv Development AB | Lane change detection |
ITUB20151802A1 (en) * | 2015-07-01 | 2017-01-01 | Magneti Marelli Spa | On-board vehicle system and improved method for detecting objects in a vehicle's surroundings. |
US10694175B2 (en) * | 2015-12-28 | 2020-06-23 | Intel Corporation | Real-time automatic vehicle camera calibration |
US10339390B2 (en) * | 2016-02-23 | 2019-07-02 | Semiconductor Components Industries, Llc | Methods and apparatus for an imaging system |
US10057562B2 (en) | 2016-04-06 | 2018-08-21 | Facebook, Inc. | Generating intermediate views using optical flow |
JP6384521B2 (en) * | 2016-06-10 | 2018-09-05 | トヨタ自動車株式会社 | Vehicle driving support device |
US10229534B2 (en) * | 2017-01-10 | 2019-03-12 | Ditto Technologies, Inc. | Modeling of a user's face |
EP3435333B1 (en) * | 2017-07-26 | 2020-01-29 | Aptiv Technologies Limited | Method of determining the roll angle of a vehicle mounted camera |
US20200082561A1 (en) * | 2018-09-10 | 2020-03-12 | Mapbox, Inc. | Mapping objects detected in images to geographic positions |
US11282225B2 (en) | 2018-09-10 | 2022-03-22 | Mapbox, Inc. | Calibration for vision in navigation systems |
US11508055B2 (en) * | 2018-11-20 | 2022-11-22 | Bnsf Railway Company | Systems and methods for calibrating image capturing modules |
US10984521B2 (en) | 2018-11-20 | 2021-04-20 | Bnsf Railway Company | Systems and methods for determining defects in physical objects |
US11423527B2 (en) | 2018-11-20 | 2022-08-23 | Bnsf Railway Company | System and method for minimizing lost vehicle axel motion and filtering erroneous electrical signals |
US11010641B2 (en) | 2019-03-14 | 2021-05-18 | Mapbox, Inc. | Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device |
CN110718068B (en) * | 2019-09-27 | 2020-12-08 | 华中科技大学 | Road monitoring camera installation angle estimation method |
US11270466B2 (en) * | 2020-03-12 | 2022-03-08 | Bnsf Railway Company | Systems and methods for calibrating image capturing modules |
CN114347064B (en) * | 2022-01-31 | 2022-09-20 | 深圳市云鼠科技开发有限公司 | Robot collision detection method and device based on optical flow, computer equipment and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6535114B1 (en) * | 2000-03-22 | 2003-03-18 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for environment recognition |
DE102004001572A1 (en) * | 2004-01-12 | 2005-08-04 | Daimlerchrysler Ag | Dynamic calibration system for multiple cameras used to monitor moving objects to avoid image disparity |
US20050237385A1 (en) * | 2003-05-29 | 2005-10-27 | Olympus Corporation | Stereo camera supporting apparatus, stereo camera supporting method, calibration detection apparatus, calibration correction apparatus, and stereo camera system |
DE102008008619A1 (en) * | 2008-02-12 | 2008-07-31 | Daimler Ag | Method for calibrating stereo camera system, involves rectifying iteration of pair of images of stereo camera system and the pair of images is checked two times with different rectification parameters on pitch angle |
EP2131598A2 (en) | 2008-06-05 | 2009-12-09 | Hella KGaA Hueck & Co. | Stereo camera system and method of determining at least one calibration error in a stereo camera system |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4933864A (en) * | 1988-10-04 | 1990-06-12 | Transitions Research Corporation | Mobile robot navigation employing ceiling light fixtures |
US5051906A (en) * | 1989-06-07 | 1991-09-24 | Transitions Research Corporation | Mobile robot navigation employing retroreflective ceiling features |
DE4332612C2 (en) * | 1992-09-25 | 1996-02-22 | Yazaki Corp | Exterior view monitoring method for motor vehicles |
US7266220B2 (en) * | 2002-05-09 | 2007-09-04 | Matsushita Electric Industrial Co., Ltd. | Monitoring device, monitoring method and program for monitoring |
JP3986360B2 (en) | 2002-05-14 | 2007-10-03 | 松下電器産業株式会社 | Camera calibration device |
DE10305993B4 (en) | 2003-02-12 | 2006-01-05 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Surveying procedure for flight and vehicle guidance |
DE102005013920B4 (en) * | 2004-03-26 | 2007-12-13 | Mitsubishi Jidosha Kogyo K.K. | Front view monitoring apparatus |
DE102004048400A1 (en) | 2004-10-01 | 2006-04-06 | Robert Bosch Gmbh | Method for detecting an optical structure |
DE102005001429A1 (en) | 2005-01-12 | 2006-07-20 | Robert Bosch Gmbh | Method for image-position correction of a monitor image |
KR101188588B1 (en) * | 2008-03-27 | 2012-10-08 | 주식회사 만도 | Monocular Motion Stereo-Based Free Parking Space Detection Apparatus and Method |
US8373763B2 (en) * | 2008-05-22 | 2013-02-12 | GM Global Technology Operations LLC | Self calibration of extrinsic camera parameters for a vehicle camera |
US8872920B2 (en) * | 2009-03-26 | 2014-10-28 | Aisin Seiki Kabushiki Kaisha | Camera calibration apparatus |
US8494225B2 (en) * | 2010-02-19 | 2013-07-23 | Julian L. Center | Navigation method and aparatus |
WO2012014430A1 (en) | 2010-07-27 | 2012-02-02 | パナソニック株式会社 | Mobile body detection device and mobile body detection method |
WO2012083415A1 (en) * | 2010-11-15 | 2012-06-28 | Tandemlaunch Technologies Inc. | System and method for interacting with and analyzing media on a display using eye gaze tracking |
WO2012139636A1 (en) * | 2011-04-13 | 2012-10-18 | Connaught Electronics Limited | Online vehicle camera calibration based on road surface texture tracking and geometric properties |
WO2012145818A1 (en) * | 2011-04-25 | 2012-11-01 | Magna International Inc. | Method and system for dynamically calibrating vehicular cameras |
KR101249791B1 (en) * | 2011-05-23 | 2013-04-03 | 아진산업(주) | Image generating method for around view of vehicle |
EP2618305B1 (en) * | 2012-01-20 | 2014-04-30 | ESG Elektroniksystem- und Logistik-GmbH | Method and device for online calibration of vehicle cameras |
EP2662828B1 (en) * | 2012-05-11 | 2020-05-06 | Veoneer Sweden AB | A vision system and method for a motor vehicle |
US8988524B2 (en) * | 2013-03-11 | 2015-03-24 | The United States Of America As Represented By The Secretary Of The Army | Apparatus and method for estimating and using a predicted vehicle speed in an indirect vision driving task |
FR3014553A1 (en) * | 2013-12-11 | 2015-06-12 | Parrot | METHOD FOR ANGULAR CALIBRATION OF THE POSITION OF AN ON-BOARD VIDEO CAMERA IN A MOTOR VEHICLE |
-
2014
- 2014-05-14 DE DE102014209137.3A patent/DE102014209137B4/en active Active
-
2015
- 2015-05-06 WO PCT/EP2015/059991 patent/WO2015173092A1/en active Application Filing
- 2015-05-06 CN CN201580025056.5A patent/CN106462968B/en active Active
-
2016
- 2016-11-14 US US15/350,406 patent/US10424081B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6535114B1 (en) * | 2000-03-22 | 2003-03-18 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for environment recognition |
US20050237385A1 (en) * | 2003-05-29 | 2005-10-27 | Olympus Corporation | Stereo camera supporting apparatus, stereo camera supporting method, calibration detection apparatus, calibration correction apparatus, and stereo camera system |
DE102004001572A1 (en) * | 2004-01-12 | 2005-08-04 | Daimlerchrysler Ag | Dynamic calibration system for multiple cameras used to monitor moving objects to avoid image disparity |
DE102008008619A1 (en) * | 2008-02-12 | 2008-07-31 | Daimler Ag | Method for calibrating stereo camera system, involves rectifying iteration of pair of images of stereo camera system and the pair of images is checked two times with different rectification parameters on pitch angle |
EP2131598A2 (en) | 2008-06-05 | 2009-12-09 | Hella KGaA Hueck & Co. | Stereo camera system and method of determining at least one calibration error in a stereo camera system |
Non-Patent Citations (8)
Title |
---|
E. Tapia et al: "A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow", Fachbereich Mathematik und Informatik, Serie B Informatik, Freie Universität Berlin, Februar 2013 |
J. Platonov et al: "Vollautomatische Kamera-zu-Fahrzeug-Kalibrierung", ATZ elektronik 2012, S. 120-123 |
M. Siebeneicher: "Eine automatische Kalibrierung beliebiger Kameras in Fahrzeugen auf Grundlage von optischem Fluss und Fluchtpunktbestimmung", Masterarbeit, Freie Universität Berlin 2008 |
MARITA, T. [et al.]: Camera Calibration Method for Far Range Stereovision Sensors Used in Vehicles. In: Intelligent Vehicles Symposium, IEEE, 2006, S.356-363. DOI: 10.1109/IVS.2006.1689654, In: IEEE * |
TAPIA, E.; ROJAS, R.: A Note on Calibration of Video Cameras for Autonomous Vehicles with Optical Flow. In: Serie B des Fachbereichs Mathematik und Informatik der FU Berlin, Februar 2013. * |
ZHANG, Z. [et al.]: A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry. In: Artificial Intelligence, 1995, Vol. 78, S. 87 - 119. * |
ZHANG, Z. [et al.]: A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry. In: Artificial Intelligence, 1995, Vol. 78, S. 87 – 119. |
ZHAOXUE, C.; PENGFEI, S.: Efficient method for camera calibration in traffic scenes. In: Electronics Letters, 2004, Vol. 40, No. 6, S. 368-369. DOI: 10.1049/el:20040245, In: IEEE * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3296923A1 (en) | 2016-09-20 | 2018-03-21 | STMicroelectronics Srl | A method of detecting an overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle |
CN107845290A (en) * | 2016-09-21 | 2018-03-27 | 意法半导体股份有限公司 | Junction alarm method, processing system, junction alarm system and vehicle |
EP3299994A1 (en) | 2016-09-21 | 2018-03-28 | STMicroelectronics Srl | A method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle |
Also Published As
Publication number | Publication date |
---|---|
CN106462968B (en) | 2019-12-13 |
CN106462968A (en) | 2017-02-22 |
US20170061623A1 (en) | 2017-03-02 |
WO2015173092A1 (en) | 2015-11-19 |
US10424081B2 (en) | 2019-09-24 |
DE102014209137B4 (en) | 2023-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014209137A1 (en) | Method and device for calibrating a camera system of a motor vehicle | |
DE102018116111B4 (en) | A unified deep convolutional neural network for free space estimation, object recognition estimation, and object pose estimation | |
EP2618305B1 (en) | Method and device for online calibration of vehicle cameras | |
DE112018005656T5 (en) | Onboard environment detection device | |
DE102014222617B4 (en) | Vehicle detection method and vehicle detection system | |
DE112013004103B4 (en) | Method and apparatus for generating a disparity card | |
DE102009005861A1 (en) | Vehicle environment recognition system | |
DE102015107677A1 (en) | All-Round Vision Camera System (VPM) Online Calibration | |
DE112018000107T5 (en) | Vehicle camera calibration apparatus and method | |
DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
DE102018123393A1 (en) | Detection of parking areas | |
EP2562681B1 (en) | Object tracking method for a camera-based driver assistance system | |
DE102017211395A1 (en) | Method of supporting a coupling process and support system | |
DE102018123861A1 (en) | Target estimator | |
DE102012023060A1 (en) | Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram | |
DE102014114221A1 (en) | Method for detecting an object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
EP2736017A2 (en) | Method for determining the movement of a motor vehicle | |
DE102013002889A1 (en) | Method for modeling road edge of road for vehicle, involves determining road curvature using two curvature corrected inspection of search area in image, where inspection is corrected according to two different road curvature hypotheses | |
DE102015104065A1 (en) | A method for determining a position of an object in a three-dimensional world coordinate system, computer program product, camera system and motor vehicle | |
WO2014009406A1 (en) | Method and device for calculating a change in an image scale of an object | |
DE102017115587A1 (en) | Method for determining a spatial uncertainty in images of a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
DE102019218479A1 (en) | Method and device for classifying objects on a roadway in the surroundings of a vehicle | |
WO2002050770A1 (en) | Method and device for compensating for the maladjustment of an image producing device | |
EP2192550A1 (en) | Method for determining the change in position of a camera system and device for recording and processing images | |
DE102014219428A1 (en) | Self-calibration of a stereo camera system in the car |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |