[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102009033854A1 - Method for observation of stereo camera arrangement in vehicle or robot, involves recording image data pixels by two cameras, where image data pixels are processed stereoscopically with corresponding pixels of image pair by processing unit - Google Patents

Method for observation of stereo camera arrangement in vehicle or robot, involves recording image data pixels by two cameras, where image data pixels are processed stereoscopically with corresponding pixels of image pair by processing unit Download PDF

Info

Publication number
DE102009033854A1
DE102009033854A1 DE102009033854A DE102009033854A DE102009033854A1 DE 102009033854 A1 DE102009033854 A1 DE 102009033854A1 DE 102009033854 A DE102009033854 A DE 102009033854A DE 102009033854 A DE102009033854 A DE 102009033854A DE 102009033854 A1 DE102009033854 A1 DE 102009033854A1
Authority
DE
Germany
Prior art keywords
image data
pixels
stereo camera
determined
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009033854A
Other languages
German (de)
Inventor
Uwe Dr.-Ing. Franke
Stefan Dipl.-Inform. Hahn
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102009033854A priority Critical patent/DE102009033854A1/en
Publication of DE102009033854A1 publication Critical patent/DE102009033854A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The method involves recording image data pixels (BP1,BP2) by two cameras (1.1,1.2). The image data pixels are processed stereoscopically with corresponding pixels of an image pair by a processing unit (1.3). An actual movement of the stereo camera arrangement is compared with a movement determined from the image data according to disparity values or optical data flow.

Description

Die Erfindung betrifft ein Verfahren zur Überwachung einer Stereokameraanordnung, wobei mittels zwei Kameras als Bilddaten Bildpunkte erfasst werden, welche mittels einer Verarbeitungseinheit stereoskopisch zu miteinander korrespondierenden Bildpunkten eines Bildpaares verarbeitet werden, wobei bei der Erfassung und/oder der Verarbeitung miteinander korrespondierender Bildpunkte auftretende Fehler ermittelt werden.The The invention relates to a method for monitoring a Stereo camera arrangement, using two cameras as image data Pixels are detected, which by means of a processing unit stereoscopic processed to mutually corresponding pixels of a pair of images being involved in detection and / or processing with each other Corresponding pixels occurring errors are determined.

Aus der DE 103 02 671 A1 sind ein Verfahren und eine Vorrichtung zur Einstellung wenigstens eines Parameters eines Bildsensors einer Stereokamera in einem Kraftfahrzeug bekannt. Die Stereokamera besteht aus zwei Bildsensoren, die im Wesentlichen dieselbe Szene aufnehmen. Beim Auftreten eines Fehlers bei einem der Bildsensoren wird wenigstens ein Parameter dieses Bildsensors in Abhängigkeit wenigstens eines Messwerts des fehlerfreien Bildsensors des Bildsensorsystems eingestellt. In einem Ausführungsbeispiel ist der Parameter wenigstens ein Belichtungsparameter des Bildsensors. Im Fehlerfall eines Bildsensors der Stereokamera wird der wenigstens eine Belichtungsparameter in Abhängigkeit wenigstens eines Messwerts des zweiten Bildsensors eingestellt, wobei der Messwert ein Maß für die Belichtung wenigstens eines Teils des Bilds des zweiten Bildsensors ist.From the DE 103 02 671 A1 For example, a method and a device for adjusting at least one parameter of an image sensor of a stereo camera in a motor vehicle are known. The stereo camera consists of two image sensors that record essentially the same scene. When an error occurs in one of the image sensors, at least one parameter of this image sensor is set as a function of at least one measured value of the error-free image sensor of the image sensor system. In one embodiment, the parameter is at least one exposure parameter of the image sensor. If an image sensor of the stereo camera fails, the at least one exposure parameter is set as a function of at least one measured value of the second image sensor, wherein the measured value is a measure of the exposure of at least part of the image of the second image sensor.

Weiterhin offenbart die DE 101 49 115 A1 eine Objekterfassungsvorrichtung für Fahrer-Assistenzsysteme in Kraftfahrzeugen mit mindestens zwei Sensorsystemen, die Daten über den Ort und/oder Bewegungszustand von Objekten in der Umgebung des Fahrzeugs messen und deren Detektionsbereiche einander überlappen. Die Objekterfassungsvorrichtung umfasst eine Fehlererkennungseinrichtung, die die von den Sensorsystemen gemessenen Daten auf ihre Widerspruchsfreiheit prüft und bei Erkennung eines Widerspruchs ein Fehlersignal ausgibt.Furthermore, the disclosure DE 101 49 115 A1 an object detection device for driver assistance systems in motor vehicles having at least two sensor systems which measure data about the location and / or movement state of objects in the surroundings of the vehicle and whose detection areas overlap one another. The object detection device comprises an error detection device, which checks the data measured by the sensor systems for their consistency and outputs an error signal upon detection of a contradiction.

Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Überwachung einer Stereokameraanordnung anzugeben. Der Erfindung liegt weiterhin die Aufgabe zugrunde, eine Verwendung eines Verfahrens zur Überwachung einer Stereokameraanordnung anzugeben.Of the Invention is based on the object, a relation to the Prior art improved method of monitoring indicate a stereo camera arrangement. The invention is still The task is based on a use of a method of monitoring indicate a stereo camera arrangement.

Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß durch die im Anspruch 1 angegebenen Merkmale und hinsichtlich der Verwendung durch die im Anspruch 6 angegebenen Merkmale gelöst.Regarding of the method according to the invention by the features specified in claim 1 and in terms of use by solved specified in claim 6 features.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.advantageous Embodiments of the invention are the subject of the dependent claims.

Bei dem Verfahren zur Überwachung einer Stereokameraanordnung werden mittels zwei Kameras als Bilddaten Bildpunkte erfasst, welche mittels einer Verarbeitungseinheit stereoskopisch zu miteinander korrespondierenden Bildpunkten eines Bildpaares verarbeitet werden, wobei bei der Erfassung und/oder der Verarbeitung miteinander korrespondierender Bildpunkte auftretende Fehler ermittelt werden.at the method for monitoring a stereo camera arrangement be captured by two cameras as image data pixels, which by means of a processing unit stereoscopically to each other corresponding pixels of a picture pair are processed, wherein in the detection and / or the processing with each other corresponding Pixels occurring errors are determined.

Erfindungsgemäß wird in einer Plausibilitätsüberprüfung eine reale Bewegung der Stereokameraanordnung mit einer aus den Bilddaten anhand von Disparitätswerten und/oder optischen Flussdaten ermittelten Bewegung verglichen, wobei Abweichungen zwischen der realen Bewegung und der ermittelten Bewegung erfasst und überwacht werden.According to the invention in a plausibility check a real movement of the stereo camera assembly with one of the image data based on disparity values and / or optical flow data compared to determined movement, with deviations between the real movement and the movement detected and monitored become.

Die Stereokamera ist dabei insbesondere Bestandteil eines Fahrzeugs. Bei einer Abweichung zwischen der realen Bewegung, welche insbesondere aus fahrzeugspezifischen Messwerten, wie der Fahrzeuggeschwindigkeit, einer Gierrate, einem Gierwinkel und/oder Beschleunigungswerten ermittelt wird und der aus den Bilddaten ermittelten Bewegung kann in vorteilhafter Weise auf einen Fehler der Stereokameraanordnung geschlossen werden. Als weiterer besonderer Vorteil ist es mit dem erfindungsgemäßen Verfahren möglich, neben Fehlern wie einem Ausfall einer oder beider Kameras, einer Beeinträchtigung eines Bildsignals der Kameras durch teilweise oder vollständige Verdeckung auch Synchronisationsfehler, bei welchen einzelne Bilder der Kameras ”einfrieren” oder bei welchen eine asynchrone Erfassung der Kameras vorliegt, in besonders einfacher Art und Weise zu erfassen. Dabei ist es weiterhin vorteilhaft, dass keine zusätzlichen Testeinheiten und/oder Testmuster zur Ermittlung der Fehler erforderlich sind.The Stereo camera is in particular part of a vehicle. At a deviation between the real movement, which in particular from vehicle-specific measured values, such as vehicle speed, a yaw rate, a yaw angle and / or acceleration values is determined and can be determined from the image data movement advantageously to a fault of the stereo camera arrangement getting closed. Another special advantage is the method according to the invention is possible besides errors like a failure of one or both cameras, one Impairment of an image signal of the cameras by partially or complete occlusion also sync error, in which single pictures of the cameras "freeze" or in which there is an asynchronous detection of the cameras, in particular easier way to capture. It is also advantageous that no additional test units and / or test patterns to determine the errors are required.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.embodiments The invention will be described below with reference to a drawing explained.

Dabei zeigt:there shows:

1 schematisch einen Verfahrensablauf zur Überwachung einer Stereokameraanordnung. 1 schematically a process flow for monitoring a stereo camera assembly.

Die einzige 1 zeigt einen möglichen Verfahrensablauf zur Überwachung einer Stereokameraanordnung 1. Die Stereokameraanordnung 1 ist dabei beispielsweise in einem nicht näher dargestellten Fahrzeug angeordnet. Weiterhin ist auch eine Verwendung der Stereokameraanordnung 1 und des Verfahrens zur Überwachung der Stereokameraanordnung 1 in anderen denkbaren mobilen und immobilen Anwendungen möglich. Die Stereokameraanordnung 1 und das Verfahren zu dessen Steuerung eignen sich dabei insbesondere zu einer Steuerung eines Roboters, beispielsweise bei der Herstellung eines Fahrzeugs.The only 1 shows a possible procedure for monitoring a stereo camera arrangement 1 , The stereo camera arrangement 1 is arranged for example in a vehicle, not shown. Furthermore, there is also a use of the stereo camera arrangement 1 and the method for monitoring the stereo camera arrangement 1 possible in other conceivable mobile and immobile applications. The stereo camera arrangement 1 and the method for its control are particularly suitable for a control a robot, for example in the manufacture of a vehicle.

Die Stereokameraanordnung 1 umfasst zwei, insbesondere horizontal nebeneinander angeordnete Kameras 1.1, 1.2 zur Erfassung von Bilddaten, d. h. von Bildern B1, B2 einer Umgebung des Fahrzeugs. Die Bilder B1, B2 werden anschließend einer Verarbeitungseinheit 1.3 zur stereoskopischen Bildverarbeitung zugeführt.The stereo camera arrangement 1 comprises two, in particular horizontally arranged side by side cameras 1.1 . 1.2 for capturing image data, ie images B1, B2 of an environment of the vehicle. The images B1, B2 then become a processing unit 1.3 fed to stereoscopic image processing.

Bei dieser stereoskopischen Bildverarbeitung werden Korrespondenzen von Bildpunkten BP1, BP2 (auch Pixel genannt) in den stereoskopisch aufgenommenen Bildern B1, B2 bestimmt. Hierbei werden die Bilder B1, B2 in einem Stereoalgorithmus derart verarbeitet, dass Koordinaten eines Bildpunkts BP1 des einen Bilds B1 mit Koordinaten eines als potentiell korrespondierend betrachteten Bildpunkts BP2 des anderen Bilds B2 verglichen werden. Aus einem Abstand der Bildpunkte BP1 und BP2 zueinander, der so genannten Disparität, und einem bekannten Abstand der horizontal nebeneinander angeordneten Kameras 1.1, 1.2, der so genannten Basisbreite, wird der Abstand eines Objekts, welches die Bildpunkte BP1 und BP2 aufweist, zu den Kameras 1.1, 1.2 bestimmt. Nach diesem Algorithmus werden Disparitäten für alle Bildpunkte BP1, BP2 der Bilder B1, B2 erzeugt und ein Disparitätsbild D oder eine Disparitätskarte erzeugt, welche eine dreidimensionale Repräsentation des Objekts in seinem Kontext darstellen. Auf diese Weise wird die Entfernung und räumliche Lage des Objekts im Verhältnis zu den Kameras 1.1, 1.2 ermittelt.In this stereoscopic image processing, correspondences of pixels BP1, BP2 (also called pixels) in the stereoscopically recorded images B1, B2 are determined. In this case, the images B1, B2 are processed in a stereo algorithm in such a way that coordinates of a pixel BP1 of the one image B1 are compared with coordinates of a pixel BP2 of the other image B2 regarded as potentially corresponding. From a distance of the pixels BP1 and BP2 from each other, the so-called disparity, and a known distance of horizontally adjacent cameras 1.1 . 1.2 , the so-called base width, the distance of an object having the pixels BP1 and BP2 to the cameras 1.1 . 1.2 certainly. According to this algorithm, disparities are generated for all the pixels BP1, BP2 of the images B1, B2, and a disparity image D or a disparity map is generated which represents a three-dimensional representation of the object in its context. In this way, the distance and spatial position of the object relative to the cameras 1.1 . 1.2 determined.

Die Ermittlung des Disparitätsbilds D erfolgt beispielsweise anhand eines so genannten, aus ” H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814 ” bekannten Semi-Global-Matching-Algorithmus, wobei die Bilder B1, B2 abgetastet und Kosten entsprechend der Ähnlichkeit der Bildpunkte BP1, BP2 horizontal, vertikal und diagonal akkumuliert werden. Die Kostenberechnung basiert dabei auf einer Berechnung der Transinformation, auf die einzelnen Bildpunkte BP1, BP2 der Bilder B1, B2 bezogen.The determination of the disparity image D takes place for example on the basis of a so-called "off" H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05) - Volume 2, pp. 807-814 "Known semi-global matching algorithm, wherein the images B1, B2 sampled and costs corresponding to the similarity of the pixels BP1, BP2 are accumulated horizontally, vertically and diagonally. The cost calculation is based on a calculation of the transinformation related to the individual pixels BP1, BP2 of the images B1, B2.

Zusätzlich werden vorzugsweise Sprünge in Disparitäten benachbarter Bildpunkte BP1, BP2, wie sie beispielsweise an Grauwertkanten auftreten, je nach ihrer Größe mit einem kleinen Strafterm P1 oder einem großen Strafterm P2 belegt. Diese so genannte Glattheitsbeschränkung, auch als smoothness constraint bekannt, wird wiederum beispielsweise durch den aus ” H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814 ” bekannten Semi-Global-Matching-Algorithmus realisiert.In addition, jumps in disparities of adjacent pixels BP1, BP2, as occur, for example, on gray value edges, are preferably assigned a small penalty P1 or a large penalty P2, depending on their size. This so-called smoothness constraint, also known as smoothness constraint, in turn, for example, by the " H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05) - Volume 2, pp. 807-814 Realized "known semi-global matching algorithm.

Aus dem Disparitätsbild D sind weiterhin auch in einfacher Weise Fehler der Stereokameraanordnung 1, wie ein Ausfall einer oder beider Kameras 1.1, 1.2, eine Beeinträchtigung der Bildsignale der Kameras 1.1, 1.2 durch teilweise oder vollständige Verdeckung, z. B. hervorgerufen durch Verschmutzung, Witterungseinflüsse oder einen Scheibenwischer, detektierbar. Im Fehlerfall nimmt eine Qualität der dreidimensionalen Repräsentation der Umgebung des Fahrzeugs insbesondere in einem Nahbereich stark ab.Furthermore, errors of the stereo camera arrangement are easily eliminated from the disparity image D 1 like a failure of one or both cameras 1.1 . 1.2 , an impairment of the image signals of the cameras 1.1 . 1.2 by partial or complete occlusion, e.g. B. caused by pollution, weather or a windshield wiper, detectable. In the event of a fault, a quality of the three-dimensional representation of the surroundings of the vehicle decreases sharply, especially in a close range.

Um jedoch auch Synchronisationsfehler, bei welchen einzelne Bilder B1, B2 der Kameras 1.1, 1.2 ”einfrieren” oder bei welchen eine asynchrone Erfassung der Kameras 1.1, 1.2 vorliegt, Hardwarefehler, Kalibrierfehler und Störungen eines optischen Kanals einschließlich Verschmutzungen und Niederschlägen, wie Regen oder Schneefall, zu erfassen, werden zwei zeitlich aufeinander folgende Bildpaare mittels der Verarbeitungseinheit 1.3 analysiert. Bei den Bildpaaren muss es sich dabei nicht um unmittelbar nacheinander aufgenommene Bildpaare handeln.However sync errors, in which individual images B1, B2 of the cameras 1.1 . 1.2 "Freeze" or in which an asynchronous detection of the cameras 1.1 . 1.2 To detect hardware faults, calibration errors and optical channel faults, including soiling and rain, such as rain or snowfall, are two consecutive image pairs by the processing unit 1.3 analyzed. The pairs of images do not have to be pairs of images recorded one after the other.

Während dieser Analyse der Bildpaare mittels der Verarbeitungseinheit 1.3 wird eine Bewegung der erfassten Bildpunkte BP1, BP2 zwischen einem ersten Zeitpunkt und einem zweiten Zeitpunkt ermittelt. Diese Bewegung wird vorzugsweise durch Berechnung von Flussdaten, d. h. eines so genannten SceneFlows, welcher eine Abstandsänderung der Bildpunkte BP1, BP2 zu den Kameras 1.1, 1.2 darstellt, ermittelt. Die Berechnung des SceneFlows wird insbesondere anhand des aus ” A. Wedel et al.: Efficient Dense Scene Flow from Sparse or Dense Stereo Data; 10th European Conference an Computer Vision; Marseille ” bekannten Verfahrens ausgeführt.During this analysis of the image pairs by means of the processing unit 1.3 a movement of the captured pixels BP1, BP2 between a first time and a second time is determined. This movement is preferably carried out by calculating flow data, ie a so-called SceneFlow, which is a change in the distance of the pixels BP1, BP2 to the cameras 1.1 . 1.2 represents determined. The calculation of the SceneFlow is determined in particular by A. Wedel et al .: Efficient Dense Scene Flow from Sparse or Dense Stereo Data; 10th European Conference on Computer Vision; Marseilles Executed "known method.

Dabei wird zu jedem Bildpunkt BP1, BP2 durch Berechnung des SceneFlows die Abstandsänderung zu den Kameras 1.1, 1.2 ermittelt. So ist es beispielsweise im fehlerfreien Fall so, dass die Mehrzahl der Bildpunkte BP1, BP2 statisch ist, während sich nur wenige Bildpunkte BP1, BP2 bewegen. Dabei wird eine Eigenbewegung des Fahrzeugs bei der Auswertung kompensiert, wobei die Eigenbewegung insbesondere aus den Bilddaten der Kameras 1.1, 1.2 geschätzt wird.At the same time, the distance change to the cameras is calculated for each pixel BP1, BP2 by calculating the SceneFlow 1.1 . 1.2 determined. For example, in the error-free case, the plurality of pixels BP1, BP2 are static while only a few pixels BP1, BP2 are moving. In this case, a self-motion of the vehicle is compensated in the evaluation, wherein the proper motion in particular from the image data of the cameras 1.1 . 1.2 is appreciated.

In einem Fehlerfall, in welchem beispielsweise aufgrund eines Synchronisationsfehlers das Bild B1 der Kamera 1.1 ”eingefroren” ist, d. h. dass ein zeitlich später erfasstes einem zeitlich zuvor erfassten Bild gleicht, wird bei der Berechnung des SceneFlows eine große Abstandsänderung eines großen Teils der Bildpunkte BP1, BP2 erfasst, wobei die Abstandsänderung insbesondere mit einer hohen Änderungsgeschwindigkeit erfolgt. Dies deutet auf einen Sensorfehler hin, da ein derartiger Geschwindigkeitssprung zwischen den beiden Auswerteschritten, d. h. zwischen den Bildern B1, B2 den beiden nacheinander erfassten Bildpaaren, praktisch unmöglich ist. Zur Analyse und Auswertung der SceneFlow Resultate und daraus folgend zur sicheren Detektion des Fehlers eignet sich beispielsweise die so genannte Medianauswertung der Geschwindigkeit der Weltpunkte in Fahrrichtung des Fahrzeugs, d. h. die Medianauswertung der Änderungsgeschwindigkeit der Bildpunkte BP1, BP2 in Fahrtrichtung des Fahrzeugs.In an error case, in which, for example due to a synchronization error, the image B1 of the camera 1.1 Is "frozen", ie that a time recorded later resembles a previously acquired image, is in the calculation of the SceneFlows a large change in distance of a large Part of the pixels BP1, BP2 detected, wherein the change in distance takes place in particular with a high rate of change. This indicates a sensor error, since such a speed jump between the two evaluation steps, ie between the images B1, B2 the two successive captured image pairs, is virtually impossible. For example, the so-called median evaluation of the speed of the world points in the direction of travel of the vehicle, ie the median evaluation of the rate of change of the pixels BP1, BP2 in the direction of travel of the vehicle, is suitable for analyzing and evaluating the SceneFlow results and consequentially for reliable detection of the error.

Zur Ermittlung des Fehlers anhand der Berechnung des SceneFlows sind deshalb ein Abstandsänderungsgrenzwert A und ein Geschwindigkeitsgrenzwert G für die Abstandsänderung vorgegeben, wobei der Fehler insbesondere bei einer Überschreitung des Abstandsänderungsgrenzwerts A und eines Geschwindigkeitsgrenzwerts G detektiert wird. Mit anderen Worten, wenn sich ein Bildpunkt BP1, BP2 zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt derart bewegt, dass der Abstandsänderungsgrenzwert A und der Geschwindigkeitsgrenzwert G bei der Bewegung überschritten werden, liegt ein Fehler vor und wird detektiert.to Determine the error based on the calculation of the SceneFlow Therefore, a distance change limit A and a speed limit G predetermined for the change in distance, the Error especially when the distance change limit value is exceeded A and a speed limit G is detected. With others Words, when a pixel BP1, BP2 between the first time and the second time point such that the distance change limit value A and the speed limit G exceeded during the movement be, there is an error and is detected.

Wie bereits erläutert, ist die Eigenbewegung des Fahrzeugs anhand einer Vielzahl von bekannten Verfahren aus den Stereosequenzen ermittelbar. Besonders bevorzugt wird zur Ermittlung der Eigenbewegung des Fahrzeugs ein aus ” H. Badino: A Robust Approach for Ego-Motion Estimation Using a Mobile Stereo Platform; International Workshop an Complex Motion; Günzburg 2004, Germany ” bekanntes Verfahren verwendet.As already explained, the self-motion of the vehicle can be determined from the stereo sequences by means of a multiplicity of known methods. Particularly preferred for determining the intrinsic motion of the vehicle is a " H. Badino: A Robust Approach for Ego-Motion Estimation Using a Mobile Stereo Platform; International Workshop on Complex Motion; Günzburg 2004, Germany "Known method used.

Bei dem dargestellten Fehler, bei welchem die Mehrzahl der Bildpunkte BP1, BP2 bewegt erscheint, ist jedoch eine fehlerfreie Schätzung der Eigenbewegung nicht möglich. Aus diesem Grund wird die aus den Bilddaten, d. h. aus den Disparitäten und/oder dem SceneFlow ermittelte Eigenbewegung zusätzlich mit einer sensorisch ermittelten Eigenbewegung der Sensoranordnung 1, d. h. des Fahrzeugs verglichen und gegebenenfalls berichtigt, wobei die sensorisch ermittelte Eigenbewegung aus mittels einer Inertialsensorik erfassten Kenngrößen ermittelt wird.However, in the illustrated error in which the plurality of pixels BP1, BP2 appear to be moved, an error-free estimation of the proper motion is not possible. For this reason, the proper motion determined from the image data, ie from the disparities and / or the scene flow, is additionally associated with a sensor-determined proper motion of the sensor arrangement 1 , ie the vehicle compared and optionally corrected, wherein the sensed self-motion is determined by means of an inertial sensor detected characteristics.

Bei der Inertialsensorik handelt es sich insbesondere um Bewegungssensoren, beispielsweise um einen Geschwindigkeitssensor, einen Gierratensensor, einen Lenkwinkelsensor, einen Quer- und/oder Längsbeschleunigungssensor. Aus diesem Vergleich resultiert ein sehr einfacher Test der gesamten Stereokameraanordnung 1. Ist die bildbasierte Eigenbewegungsschätzung Bestandteil der Bildanalyse, z. B. weil die ermittelten Größen genauer als die der Inertialsensorik sind, kann der Test der Stereokameraanordnung 1 mit sehr geringem Aufwand ausgeführt werden, da keine wesentliche zusätzliche Rechenleistung erforderlich ist.The inertial sensors are, in particular, motion sensors, for example a speed sensor, a yaw rate sensor, a steering angle sensor, a transverse and / or longitudinal acceleration sensor. This comparison results in a very simple test of the entire stereo camera arrangement 1 , Is the image-based self-motion estimation part of the image analysis, z. B. because the determined quantities are more accurate than the inertial sensors, the test of the stereo camera assembly 1 be carried out with very little effort, since no significant additional processing power is required.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
StereokamerasystemStereo Camera System
1.11.1
Kameracamera
1.21.2
Kameracamera
1.31.3
Verarbeitungseinheitprocessing unit
AA
Abstandsgrenzwertdistance limit
B1, B2B1, B2
Bildimage
BP1, BP2BP1, BP2
Bildpunktpixel
DD
Disparitätsbilddisparity
GG
Geschwindigkeitsgrenzwertspeed limit
P1, P2P1, P2
Straftermcriminal term

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - DE 10302671 A1 [0002] - DE 10302671 A1 [0002]
  • - DE 10149115 A1 [0003] - DE 10149115 A1 [0003]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • - H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814 [0016] H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05) - Volume 2, pp. 807-814 [0016]
  • - H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) – Volume 2, pp. 807–814 [0017] H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05) - Volume 2, pp. 807-814 [0017]
  • - A. Wedel et al.: Efficient Dense Scene Flow from Sparse or Dense Stereo Data; 10th European Conference an Computer Vision; Marseille [0020] - Wedel et al .: Efficient Dense Scene Flow from Sparse or Dense Stereo Data; 10th European Conference on Computer Vision; Marseille [0020]
  • - H. Badino: A Robust Approach for Ego-Motion Estimation Using a Mobile Stereo Platform; International Workshop an Complex Motion; Günzburg 2004, Germany [0024] - H. Badino: A Robust Approach for Ego-Motion Estimation Using a Mobile Stereo Platform; International Workshop on Complex Motion; Günzburg 2004, Germany [0024]

Claims (6)

Verfahren zur Überwachung einer Stereokameraanordnung (1), wobei mittels zwei Kameras (1.1, 1.2) als Bilddaten Bildpunkte (BP1, BP2) erfasst werden, welche mittels einer Verarbeitungseinheit (1.3) stereoskopisch zu miteinander korrespondierenden Bildpunkten (BP1, BP2) eines Bildpaares verarbeitet werden, wobei bei der Erfassung und/oder der Verarbeitung miteinander korrespondierender Bildpunkte (BP1, BP2) auftretende Fehler ermittelt werden, dadurch gekennzeichnet, dass in einer Plausibilitätsüberprüfung eine reale Bewegung der Stereokameraanordnung (1) mit einer aus den Bilddaten anhand von Disparitätswerten und/oder optischen Flussdaten ermittelten Bewegung verglichen wird, wobei Abweichungen zwischen der realen Bewegung und der ermittelten Bewegung erfasst und überwacht werden.Method for monitoring a stereo camera arrangement ( 1 ), whereby by means of two cameras ( 1.1 . 1.2 ) as image data pixels (BP1, BP2) are detected, which by means of a processing unit ( 1.3 ) are processed stereoscopically to each other corresponding pixels (BP1, BP2) of a pair of images, which are detected in the detection and / or processing mutually corresponding pixels (BP1, BP2) occurring errors, characterized in that in a plausibility check a real movement of the stereo camera assembly ( 1 ) is compared with a movement determined from the image data on the basis of disparity values and / or optical flow data, wherein deviations between the real movement and the determined movement are detected and monitored. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zumindest zwei zeitlich aufeinander folgende Bildpaare derart analysiert werden, dass eine Abstandsänderung von anhand von zeitlich aufeinanderfolgend erfassten Bildpunkten (BP1, BP2) ermittelten Punktabständen zu den Kameras (1.1, 1.2) bestimmt wird und diese Abstandsänderung auf eine Überschreitung eines vorgegebenen Abstandsänderungsgrenzwerts (A) und/oder eines vorgegebenen Geschwindigkeitsgrenzwerts (G), mit welchem die Abstandsänderung erfolgt, überwacht wird.A method according to claim 1, characterized in that at least two temporally successive image pairs are analyzed such that a change in distance of basis of temporally successive detected pixels (BP1, BP2) determined point distances to the cameras ( 1.1 . 1.2 ) and this change in distance is monitored for an exceeding of a predetermined distance change limit value (A) and / or a predetermined speed limit value (G) with which the change in distance takes place. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine aus den Bilddaten ermittelte Eigenbewegung der Stereokameraanordnung (1) geschätzt wird.A method according to claim 1 or 2, characterized in that a determined from the image data proper motion of the stereo camera arrangement ( 1 ) is estimated. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die aus den Bilddaten ermittelte Eigenbewegung der Stereokameraanordnung (1) bei der Ermittlung der Punktabstände und der Abstandsänderung kompensiert wird.A method according to claim 3, characterized in that the determined from the image data proper motion of the stereo camera arrangement ( 1 ) is compensated in the determination of the point distances and the change in distance. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass die aus den Bilddaten ermittelte Eigenbewegung mit einer aus mittels zumindest eines Bewegungssensors ermittelten Eigenbewegung verglichen und gegebenenfalls berichtigt wird.Method according to claim 3 or 4, characterized that determined from the image data own motion with a compared determined by at least one motion sensor own motion and corrected as appropriate. Verwendung eines Verfahrens nach einem der Ansprüche 1 bis 5 in einem Fahrzeug oder einem Roboter.Use of a method according to one of the claims 1 to 5 in a vehicle or a robot.
DE102009033854A 2009-07-16 2009-07-16 Method for observation of stereo camera arrangement in vehicle or robot, involves recording image data pixels by two cameras, where image data pixels are processed stereoscopically with corresponding pixels of image pair by processing unit Withdrawn DE102009033854A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009033854A DE102009033854A1 (en) 2009-07-16 2009-07-16 Method for observation of stereo camera arrangement in vehicle or robot, involves recording image data pixels by two cameras, where image data pixels are processed stereoscopically with corresponding pixels of image pair by processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009033854A DE102009033854A1 (en) 2009-07-16 2009-07-16 Method for observation of stereo camera arrangement in vehicle or robot, involves recording image data pixels by two cameras, where image data pixels are processed stereoscopically with corresponding pixels of image pair by processing unit

Publications (1)

Publication Number Publication Date
DE102009033854A1 true DE102009033854A1 (en) 2011-01-20

Family

ID=43382879

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009033854A Withdrawn DE102009033854A1 (en) 2009-07-16 2009-07-16 Method for observation of stereo camera arrangement in vehicle or robot, involves recording image data pixels by two cameras, where image data pixels are processed stereoscopically with corresponding pixels of image pair by processing unit

Country Status (1)

Country Link
DE (1) DE102009033854A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011108995A1 (en) 2011-08-01 2012-04-19 Daimler Ag Method for monitoring of stereo camera arrangement used for detecting environment of e.g. vehicle during manufacturing vehicle, involves determining confidence measure indicating efficiency and/or reliability of arrangement
DE102019000621A1 (en) 2019-01-29 2019-06-06 Daimler Ag Method for operating a multi-camera system of a motor vehicle having at least two cameras

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10149115A1 (en) 2001-10-05 2003-04-17 Bosch Gmbh Robert Object detection device for motor vehicle driver assistance systems checks data measured by sensor systems for freedom from conflict and outputs fault signal on detecting a conflict
DE10302671A1 (en) 2003-01-24 2004-08-26 Robert Bosch Gmbh Method and device for adjusting an image sensor system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10149115A1 (en) 2001-10-05 2003-04-17 Bosch Gmbh Robert Object detection device for motor vehicle driver assistance systems checks data measured by sensor systems for freedom from conflict and outputs fault signal on detecting a conflict
DE10302671A1 (en) 2003-01-24 2004-08-26 Robert Bosch Gmbh Method and device for adjusting an image sensor system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A. Wedel et al.: Efficient Dense Scene Flow from Sparse or Dense Stereo Data; 10th European Conference an Computer Vision; Marseille
H. Badino: A Robust Approach for Ego-Motion Estimation Using a Mobile Stereo Platform; International Workshop an Complex Motion; Günzburg 2004, Germany
H. Hirschmüller: Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information; 2005 IEEE Computer Society Conference an Computer Vision and Pattern Recognition (CVPR'05) - Volume 2, pp. 807-814

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011108995A1 (en) 2011-08-01 2012-04-19 Daimler Ag Method for monitoring of stereo camera arrangement used for detecting environment of e.g. vehicle during manufacturing vehicle, involves determining confidence measure indicating efficiency and/or reliability of arrangement
DE102019000621A1 (en) 2019-01-29 2019-06-06 Daimler Ag Method for operating a multi-camera system of a motor vehicle having at least two cameras

Similar Documents

Publication Publication Date Title
EP2569953B1 (en) Optical self-diagnosis of a stereoscopic camera system
DE102015104453B4 (en) Stereo image processing device for a vehicle
EP2753533B1 (en) Determination of the position of structural elements of a vehicle
DE102013206707A1 (en) Method for checking an environment detection system of a vehicle
DE112014003818T5 (en) Object estimator and object estimation method
DE102010006521A1 (en) Method for determining change of bending angle of vehicle locomotive set, involves scanning environment besides one or multiple vehicles by man with sensor
DE102012223481A1 (en) Apparatus and method for tracking the position of a peripheral vehicle
WO2014005804A1 (en) Method and arrangement for testing a vehicle underbody of a motor vehicle
DE102015122172A1 (en) Headlamp based projection of patterns to measure spatial characteristics of a vehicle environment
DE102013202915A1 (en) Method for measuring parking space for parking assistance system of motor vehicle, involves determining free parking area within parking space depending on positions of two corners and detection of obstacles within two blind ranges
DE102018204451A1 (en) Method and device for auto-calibration of a vehicle camera system
DE102012023060A1 (en) Method for detecting moving object in surrounding region of motor vehicle e.g.passenger car, involves determining vector values within the respective interval values, such movable object is detected based on histogram
DE102011082477A1 (en) Method and system for creating a digital image of a vehicle environment
EP3729213A1 (en) Behaviour model of an environment sensor
DE102009022277A1 (en) Device for detecting objects for vehicle, and for operating driver assistance system of vehicle, has two image recording units with optical axes running in different angles in horizontal manner
DE102013012778A1 (en) Method for detecting a moving pedestrian on the basis of characteristic features and optical flow vectors of an image, camera system and motor vehicle
DE102016223094A1 (en) Method and system for detecting a raised object located within a parking lot
DE102009033854A1 (en) Method for observation of stereo camera arrangement in vehicle or robot, involves recording image data pixels by two cameras, where image data pixels are processed stereoscopically with corresponding pixels of image pair by processing unit
DE102011118171A1 (en) Method for continuous estimation of driving surface plane of motor vehicle, involves determining current three-dimensional points of surrounding of motor vehicle from current image of image sequence of image capture device
DE102011013776A1 (en) Method for acquisition and/or tracking of objects e.g. static objects, in e.g. front side of vehicle, involves disregarding objects having optical flow distance smaller than distance value determined by sensor from detection range of sensor
DE102017217063A1 (en) A recognition system, method of operation and training method for generating a 3D model with reference data
DE102011108995A1 (en) Method for monitoring of stereo camera arrangement used for detecting environment of e.g. vehicle during manufacturing vehicle, involves determining confidence measure indicating efficiency and/or reliability of arrangement
DE102005036782A1 (en) Operation method for image evaluation system, involves determination of image shift vector from image difference of object feature images whereby camera movement vector and image shift vector are fed to computer unit as input data
DE102012025463A1 (en) Method for determining e.g. pitch angle change of passenger car to determine proper motion of car in six different degrees of freedom, involves determining parameter based on pair of image features and associated image features of images
DE102010006522A1 (en) Method for analyzis of corresponding pixels in two graphic data sets, involves determining signature information for each pixel of graphic data set, where correspondence hypothesis provided for determination of corresponding pixels

Legal Events

Date Code Title Description
R005 Application deemed withdrawn due to failure to request examination