[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102018132649A1 - Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product - Google Patents

Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product Download PDF

Info

Publication number
DE102018132649A1
DE102018132649A1 DE102018132649.1A DE102018132649A DE102018132649A1 DE 102018132649 A1 DE102018132649 A1 DE 102018132649A1 DE 102018132649 A DE102018132649 A DE 102018132649A DE 102018132649 A1 DE102018132649 A1 DE 102018132649A1
Authority
DE
Germany
Prior art keywords
motor vehicle
camera
images
camera system
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018132649.1A
Other languages
German (de)
Inventor
Sergio Valero
Ganesh Sistu
Senthil Kumar Yogamani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102018132649.1A priority Critical patent/DE102018132649A1/en
Publication of DE102018132649A1 publication Critical patent/DE102018132649A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B29/00Combinations of cameras, projectors or photographic printing apparatus with non-photographic non-optical apparatus, e.g. clocks or weapons; Cameras having the shape of other objects
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B43/00Testing correct operation of photographic apparatus or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ermöglichen einer verbesserten Kalibration eines Erfassungsbereichs eines Kamerasystems (12) eines Kraftfahrzeugs (1) während eines bestimmungsgemäßen Betriebs des Kraftfahrzeugs (1), wobei das Kamerasystem (12) zumindest eine erste Kamera (FV) und eine zweite Kamera (ML) umfasst, welche einen gemeinsamen Überlappungsbereich (21) aufweisen, mit den Schritten:- Bereitstellen eines ersten und eines zweiten Bildes (5), wobei das erste Bild (5) mittels der ersten Kamera (FV) und das zweite Bild (5) mittels der zweiten Kamera (ML) aufgenommen wird,- Bestimmen eines Höhenwertes für einen in dem Überlappungsbereich (21) dargestellten Umgebungsbereich des Kraftfahrzeugs (1) durch Auswerten des ersten und des zweiten Bildes (5) in deren Überlappungsbereich (21) unter Berücksichtigung eines Modells (17) des Kraftfahrzeugs (1), wobei das Modell zumindest einen Soll-Wert für die Relativposition der ersten und der zweiten Kamera (FV, ML) relativ zueinander bereitstellt,- Bestimmen zumindest eines Kalibrationswerts mittels eines künstlichen neuronalen Netzes (19) unter Nutzung des Höhenwertes als Eingangsgröße, und- Kalibrieren eines Erfassungsbereichs (20) des Kamerasystems (12) basierend auf dem Kalibrationswert.The invention relates to a method for enabling an improved calibration of a detection area of a camera system (12) of a motor vehicle (1) during intended operation of the motor vehicle (1), the camera system (12) comprising at least a first camera (FV) and a second camera ( ML), which have a common overlap area (21), with the steps: - providing a first and a second image (5), the first image (5) using the first camera (FV) and the second image (5) is recorded by means of the second camera (ML), - determining a height value for a surrounding area of the motor vehicle (1) shown in the overlap area (21) by evaluating the first and the second image (5) in their overlap area (21) taking into account a model (17) of the motor vehicle (1), the model having at least one target value for the relative position of the first and the second camera (FV, ML) relative to one another b - determining at least one calibration value by means of an artificial neural network (19) using the height value as an input variable, and - calibrating a detection range (20) of the camera system (12) based on the calibration value.

Description

Die Erfindung betrifft ein Verfahren zum Kalibrieren eines Kamerasystems eines Kraftfahrzeugs während eines bestimmungsgemäßen Betriebs des Kraftfahrzeugs. Die Erfindung betrifft außerdem eine Steuereinheit zur Durchführung eines solchen Verfahrens sowie ein Fahrerassistenzsystem für ein Kraftfahrzeug. Weiterhin gehört zur Erfindung ein Computerprogrammprodukt zur Implementierung des oben genannten Verfahrens sowie ein computerlesbares Speichermedium, auf dem ein solches Computerprogrammprodukt gespeichert ist.The invention relates to a method for calibrating a camera system of a motor vehicle during intended operation of the motor vehicle. The invention also relates to a control unit for performing such a method and a driver assistance system for a motor vehicle. The invention also includes a computer program product for implementing the above-mentioned method and a computer-readable storage medium on which such a computer program product is stored.

Zur Information eines Fahrers über eine Umgebung eines Kraftfahrzeugs oder zum Bereitstellen von Fahrerassistenzfunktionen durch das Kraftfahrzeug, kann das Kraftfahrzeug mit einem Kamerasystem ausgestattet sein. Ein solches Kamerasystem umfasst üblicherweise zumindest zwei Kameras, in vielen Fällen sind es vier Kameras. Im Falle vierer Kameras können diese beispielsweise links und rechts am Kraftfahrzeug, insbesondere an den Spiegeln, an der Front und am Heck angeordnet sein. Idealerweise wird durch die Kameras des Kamerasystems ein Erfassungsbereich um einen Großteil des Kraftfahrzeugs herum, insbesondere um das ganze Kraftfahrzeug herum bereitgestellt. Anhand von Bildern des Kamerasystems können Objekte in der Umgebung erkannt werden, ein Fahrbahnverlauf einer Fahrbahn bestimmt werden oder beliebige andere Informationen des Umgebungsbereichs erfasst werden. Um eine Erkennung zu ermöglichen, muss jedoch das Kamerasystem, insbesondere die einzelnen Kameras des Kamerasystems, kalibriert werden.The motor vehicle can be equipped with a camera system to inform a driver about the surroundings of a motor vehicle or to provide driver assistance functions by the motor vehicle. Such a camera system usually comprises at least two cameras, in many cases there are four cameras. In the case of four cameras, these can be arranged, for example, on the left and right of the motor vehicle, in particular on the mirrors, on the front and on the rear. Ideally, the cameras of the camera system provide a detection area around a large part of the motor vehicle, in particular around the entire motor vehicle. With the help of images from the camera system, objects in the surroundings can be recognized, a course of the carriageway of a carriageway can be determined or any other information in the surrounding area can be acquired. To enable detection, however, the camera system, in particular the individual cameras of the camera system, must be calibrated.

Bei dem Kalibrieren des Kamerasystems kann bestimmt werden, welchen Erfassungsbereich das Kamerasystem beziehungsweise dessen einzelne Kameras haben. Dieser Erfassungsbereich kann maßgeblich von der Einbauposition beziehungsweise Pose der jeweiligen Kameras abhängen. Zudem kann eine Erfassungscharakteristik der jeweiligen Kamera großen Einfluss auf den Erfassungsbereich haben. Die Erfassungscharakteristik kann insbesondere durch die verwendet Linse, beispielsweise eine so genannte Fischaugenlinse oder auf Englisch „fish eye“, beeinflusst sein.When calibrating the camera system, it can be determined which detection area the camera system or its individual cameras have. This detection range can largely depend on the installation position or pose of the respective cameras. In addition, a detection characteristic of the respective camera can have a great influence on the detection area. The detection characteristic can be influenced in particular by the lens used, for example a so-called fish eye lens or "fish eye" in English.

Das Kalibrieren einer Kamera mit einer Fischaugenlinse ist beispielsweise aus der CN 106 960 456 bekannt.The calibration of a camera with a fisheye lens is from, for example CN 106 960 456 known.

Eine Kalibration des Erfassungsbereichs des Kamerasystems kann beispielsweise werkseitig, beispielsweise durch einen Hersteller des Kraftfahrzeugs oder des Kamerasystems, durchgeführt werden. Bei einer solchen Kalibration kann der Erfassungsbereich einer jeweiligen Kamera mit einer Relativposition in der Umgebung des Kraftfahrzeugs bezogen auf das Kraftfahrzeug in Bezug gesetzt werden. Beispielsweise wird einzelnen Bildbereichen und/oder sogar einzelnen Pixeln des Kamerasystems eine Koordinate in einem am Kraftfahrzeug ausgerichteten Koordinatensystem zugewiesen. Auf diese Weise kann anhand der Bilder des Kamerasystems beziehungsweise der jeweiligen Kameras die Position eines Objekts, einer Fahrbahn oder einer beliebigen anderen Information relativ zu dem Kraftfahrzeug, insbesondere bezogen auf das Koordinatensystem des Kraftfahrzeugs, bestimmt werden.The detection range of the camera system can be calibrated at the factory, for example by a manufacturer of the motor vehicle or the camera system. With such a calibration, the detection range of a respective camera can be related to a relative position in the surroundings of the motor vehicle in relation to the motor vehicle. For example, individual image areas and / or even individual pixels of the camera system are assigned a coordinate in a coordinate system aligned with the motor vehicle. In this way, the position of an object, a roadway or any other information relative to the motor vehicle, in particular based on the coordinate system of the motor vehicle, can be determined on the basis of the images of the camera system or the respective cameras.

Es ist offensichtlich, dass die korrekte und genaue Erfassung von Objekten oder Fahrbahnen in der Umgebung des Kraftfahrzeugs stark von einer korrekten Kalibration des Kamerasystems beziehungsweise dessen Erfassungsbereich abhängt. Durch eine Verschiebung des Erfassungsbereichs können falsche Relativpositionen für Objekte oder Fahrbahnen in der Umgebung des Kraftfahrzeugs bestimmt werden. Bei Nutzung des Kamerasystems zur Information des Fahrers oder zur Bereitstellung der Fahrerassistenzfunktion, kann dies zu einer erhöhten Kollisionsgefahr für das Kraftfahrzeug führen. Dies gilt insbesondere für Fahrerassistenzfunktionen, die eine autonome oder teilautonome Fahrt des Kraftfahrzeugs ermöglichen, beispielsweise Einparksysteme. Um Kollisionen aufgrund fehlerhafter Erfassung von Objekten oder Fahrbahnen einzudämmen, ist es möglich, einen Sicherheitsabstand, den das Kraftfahrzeug während einer solchen autonomen oder teilautonomen Fahrt einhält, zu vergrößern. Dadurch wiederum wird jedoch das Manövrieren erschwert.It is obvious that the correct and precise detection of objects or lanes in the surroundings of the motor vehicle depends heavily on a correct calibration of the camera system or its detection area. By shifting the detection area, incorrect relative positions for objects or lanes in the surroundings of the motor vehicle can be determined. When using the camera system to inform the driver or to provide the driver assistance function, this can lead to an increased risk of collision for the motor vehicle. This applies in particular to driver assistance functions that enable the motor vehicle to drive autonomously or partially autonomously, for example parking systems. In order to curb collisions due to incorrect detection of objects or lanes, it is possible to increase the safety distance that the motor vehicle maintains during such an autonomous or partially autonomous journey. This in turn makes maneuvering more difficult.

Es ist Aufgabe der vorliegenden Erfindung, ein verbessertes Kalibrieren eines Erfassungsbereichs eines Kamerasystems zu ermöglichen.The object of the present invention is to enable improved calibration of a detection area of a camera system.

Diese Aufgabe wird erfindungsgemäß gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhaft Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.This object is achieved according to the invention by the subject matter of the independent claims. Advantageous embodiments with appropriate developments are the subject of the dependent claims.

Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Kalibrieren eines Kamerasystems eines Kraftfahrzeugs während eines bestimmungsgemäßen Betriebs des Kraftfahrzeugs, wobei das Kamerasystem zumindest eine erste Kamera und eine von der ersten Kamera verschiedene zweite Kamera umfasst und wobei die erste und die zweite Kamera einen gemeinsamen Überlappungsbereich, der Teil eines jeweiligen Erfassungsbereichs sowohl der ersten als auch der zweiten Kamera ist, aufweisen. Das Verfahren sieht die folgenden Schritte vor:

  • - Bereitstellen eines ersten und eines zweiten Bildes, wobei das erste Bild mittels der ersten Kamera und das zweite Bild mittels der zweiten Kamera aufgenommen wird,
  • - Bestimmen eines Höhenwertes für einen in dem Überlappungsbereich dargestellten Umgebungsbereich des Kraftfahrzeugs durch Auswerten des ersten und des zweiten Bildes in deren Überlappungsbereich unter Berücksichtigung eines Modells des Kraftfahrzeugs, wobei das Modell zumindest einen Soll-Wert für die Relativposition der ersten und der zweiten Kamera relativ zueinander bereitstellt,
  • - Bestimmen zumindest eines Kalibrationswerts mittels eines künstlichen neuronalen Netzes unter Nutzung des Höhenwertes als Eingangsgröße, und
  • - Kalibrieren eines Erfassungsbereichs des Kamerasystems basierend auf dem Kalibrationswert.
A first aspect of the invention relates to a method for calibrating a camera system of a motor vehicle during an intended operation of the motor vehicle, the camera system comprising at least a first camera and a second camera different from the first camera, and wherein the first and second cameras have a common overlap area, which is part of a respective detection area of both the first and the second camera. The process involves the following steps:
  • Provision of a first and a second image, the first image being recorded by means of the first camera and the second image being recorded by means of the second camera,
  • - Determining a height value for a surrounding area of the motor vehicle shown in the overlap area by evaluating the first and the second image in their overlap area, taking into account a model of the motor vehicle, the model providing at least one target value for the relative position of the first and second cameras relative to one another ,
  • - Determining at least one calibration value by means of an artificial neural network using the height value as an input variable, and
  • - Calibrate a detection area of the camera system based on the calibration value.

Bei dem Kalibrationswert kann es sich beispielsweise um eine Angabe handeln, in wie weit der Erfassungsbereich des Kamerasystems gegenüber einem Normalzustand verschoben, erweitert oder eingeschränkt ist. Selbstverständlich beschränkt sich das vorliegende Verfahren nicht auf einen einzelnen Kalibrationswert. Es können selbstverständlich auch mehrere Kalibrationswerte bestimmt und nachfolgend für das Kalibrieren des Erfassungsbereichs herangezogen werden. Im Rahmen der vorliegenden Anmeldung ist zumeist von einem Kalibrationswert im Singular die Rede. Diese Formulierung soll jedoch ausdrücklich auch die Verwendung mehrerer Kalibrationswerte einschließen.The calibration value can be, for example, an indication of the extent to which the detection range of the camera system has been shifted, expanded or restricted compared to a normal state. Of course, the present method is not limited to a single calibration value. Of course, several calibration values can also be determined and subsequently used for calibrating the detection area. In the context of the present application, a calibration value in the singular is usually mentioned. However, this wording should explicitly include the use of multiple calibration values.

Eine Kalibrierung des Kamerasystems während des bestimmungsgemäßen Betriebs des Kraftfahrzeugs kann auch als so genannte Online-Kalibrierung bezeichnet werden. Der bestimmungsgemäße Betrieb des Kraftfahrzeugs kann beispielsweise ein alltäglicher Gebrauch des Kraftfahrzeugs durch einen Endnutzer sein. Beispielsweise umfasst der bestimmungsgemäße Betrieb des Kraftfahrzeugs Fahrten des Kraftfahrzeugs, Einparkmanöver und/oder beliebige andere Fahrmanöver des Kraftfahrzeugs, insbesondere beim Endkunden. Insbesondere nicht umfasst von einem Kalibrieren des Kamerasystems während des bestimmungsgemäßen Betriebs des Kraftfahrzeugs sind Kalibrierungen, die in einer Werkstatt oder produktionsseitig, beispielsweise während einer Herstellung des Kraftfahrzeugs, durchgeführt werden. Eine Kalibrierung während dem bestimmungsgemäßen Betrieb des Kraftfahrzeugs kann sich durch regelmäßige Wiederholung während jeglicher Nutzung des Kraftfahrzeugs auszeichnen.A calibration of the camera system during the intended operation of the motor vehicle can also be referred to as a so-called online calibration. The intended operation of the motor vehicle can, for example, be an everyday use of the motor vehicle by an end user. For example, the intended operation of the motor vehicle includes trips of the motor vehicle, parking maneuvers and / or any other driving maneuvers of the motor vehicle, in particular at the end customer. In particular, calibration of the camera system during the intended operation of the motor vehicle does not include calibrations that are carried out in a workshop or on the production side, for example during manufacture of the motor vehicle. A calibration during the intended operation of the motor vehicle can be characterized by regular repetition during any use of the motor vehicle.

Die erste Kamera und die zweite Kamera weisen einen jeweiligen Erfassungsbereich auf. Die jeweiligen Erfassungsbereiche der ersten und der zweiten Kamera überlappen sich, wenn die erste Kamera und die zweite Kamera bestimmungsgemäß an dem Kraftfahrzeug angeordnet sind. Dabei wird der Überlappungsbereich sowohl von der ersten Kamera als auch von der zweiten Kamera erfasst. Der Überlappungsbereich stellt somit die Schnittmenge der jeweiligen Erfassungsbereiche der ersten und der zweiten Kamera dar.The first camera and the second camera each have a detection area. The respective detection areas of the first and the second camera overlap when the first camera and the second camera are arranged as intended on the motor vehicle. The overlap area is captured by both the first camera and the second camera. The overlap area thus represents the intersection of the respective detection areas of the first and the second camera.

Bei dem Bestimmen des Höhenwertes werden das erste und das zweite Bild insbesondere jeweils in ihrem Überlappungsbereich ausgewertet. Unter Ausnutzung von Stereoskopie kann das Bestimmen des Höhenwertes erfolgen. Für die Nutzung der Stereoskopie wird hierbei das Modell des Kraftfahrzeugs herangezogen. Durch das Modell des Kraftfahrzeugs wird der Soll-Wert für die Relativposition der ersten und der zweiten Kamera relativ zueinander bereitgestellt. Der Soll-Wert kann beispielsweise spezifisch für einen vorbestimmten Zustand des Kraftfahrzeugs sein. In diesem vorbestimmten Zustand können sich die erste und die zweite Kamera in einer Relativposition zueinander befinden, welche dem Soll-Wert entspricht. Der vorbestimmte Zustand kann beispielsweise wie folgt definiert sein: Das Kraftfahrzeug steht auf einer ebenen Grundfläche, wobei außer der Erdbeschleunigung keine zusätzliche Beschleunigung auf das Kraftfahrzeug wirkt. Insbesondere ist die Erdbeschleunigung in diesem vorbestimmten Zustand parallel zu einer Fahrzeughochachse des Kraftfahrzeugs beziehungsweise senkrecht zu der ebenen Grundfläche.When determining the height value, the first and the second image are evaluated in each case in particular in their overlap area. The height value can be determined using stereoscopy. The model of the motor vehicle is used for the use of stereoscopy. The target value for the relative position of the first and the second camera relative to one another is provided by the model of the motor vehicle. The target value can, for example, be specific for a predetermined state of the motor vehicle. In this predetermined state, the first and the second camera can be in a relative position to one another which corresponds to the target value. The predetermined state can be defined, for example, as follows: the motor vehicle stands on a flat base surface, with no additional acceleration acting on the motor vehicle apart from gravitational acceleration. In particular, the gravitational acceleration in this predetermined state is parallel to a vertical axis of the vehicle or perpendicular to the flat base.

Das Modell kann alternativ oder zusätzlich einen Absolutwert für die Position der ersten und/oder der zweiten Kamera bezogen auf ein am Kraftfahrzeug ausgerichtetes Koordinatensystem umfassen. In diesem Fall kann der Soll-Wert für die Relativposition der ersten und der zweiten Kamera zueinander implizit anhand der entsprechenden Absolutpositionen bereitgestellt sein. Der Höhenwert kann eine Höhe des Umgebungsbereichs, der in dem Überlappungsbereich durch die erste und die zweite Kamera dargestellt wird, repräsentieren. Beispielsweise repräsentiert der Höhenwert eine Höhe einer ebenen oder gekrümmten Untergrundfläche, auf der sich das Kraftfahrzeug befindet. Der Höhenwert kann beispielsweise bezogen sein auf ein Bezugssystem der ersten Kamera, ein Bezugssystem der zweiten Kamera oder ein Bezugssystem des Kraftfahrzeugs, insbesondere das am Kraftfahrzeug ausgerichtete Koordinatensystem. Insbesondere ist der Höhenwert an der Fahrzeughochachse des Kraftfahrzeugs ausgerichtet. Mit anderen Worten kann der Höhenwert die Höhe des dargestellten Umgebungsbereichs bezogen auf die Fahrzeughochachse des Kraftfahrzeugs angeben.As an alternative or in addition, the model can comprise an absolute value for the position of the first and / or the second camera in relation to a coordinate system aligned with the motor vehicle. In this case, the target value for the relative position of the first and the second camera can be provided implicitly on the basis of the corresponding absolute positions. The height value can represent a height of the surrounding area, which is represented in the overlap area by the first and the second camera. For example, the height value represents a height of a flat or curved surface on which the motor vehicle is located. The height value can be related, for example, to a reference system of the first camera, a reference system of the second camera or a reference system of the motor vehicle, in particular the coordinate system aligned with the motor vehicle. In particular, the height value is aligned with the vertical axis of the motor vehicle. In other words, the height value can indicate the height of the surrounding area shown in relation to the vertical axis of the motor vehicle.

Das künstliche neuronale Netz kann darauf angelernt werden, mittels des Höhenwerts als Eingangsgröße den zumindest einen Kalibrationswert zu bestimmen. Insbesondere wird für das Bestimmen des zumindest einen Kalibrationswerts ein entsprechend angelerntes künstliches neuronales Netz verwendet. Bei dem künstlichen neuronalen Netz kann es sich beispielsweise um ein faltendes neuronales Netz, auch mit dem englischen Fachbegriff „convolutional neuronal network“ (kurz: CNN) bezeichnet, oder ein rekurrentes neuronales Netz, auch mit dem englischen Fachbegriff „recurrent neuronal network“ (kurz: RNN) bezeichnet, handeln. Durch den Kalibrationswert kann beispielsweise, explizit oder implizit, der Erfassungsbereich der ersten und/oder der zweiten Kamera festgelegt werden. Anschließend erfolgt das Kalibrieren des Kamerasystems basierend auf dem Kalibrationswert. Beispielsweise wird hierbei ein Bezugsystem der Kamera, insbesondere bezogen auf den Erfassungsbereich der Kamera, anhand des Kalibrationswerts kalibriert.The artificial neural network can be taught to determine the at least one calibration value using the height value as an input variable. In particular, a correspondingly trained artificial neural network is used to determine the at least one calibration value used. The artificial neural network can, for example, be a folding neural network, also known as the “convolutional neuronal network” (CNN), or a recurrent neural network, also known as “recurrent neuronal network” (short) : RNN), act. The detection value of the first and / or the second camera can be determined, for example, explicitly or implicitly by the calibration value. The camera system is then calibrated based on the calibration value. For example, a reference system of the camera, in particular based on the detection range of the camera, is calibrated on the basis of the calibration value.

Die Erfindung beruht auf der Erkenntnis, dass abhängig von dem Höhenwert in dem Überlappungsbereich der Erfassungsbereich des Kamerasystems kalibriert werden kann. Beispielsweise kann anhand des Höhenwertes erkannt werden, dass sich das Kraftfahrzeug auf einer unebenen Fahrbahn, insbesondere einer Kuppel, befindet und/oder sich mit einem Teil seiner Räder auf einem erhöhten Untergrund, beispielsweise einem Bordstein, befindet. Durch derartige Gegebenheiten kann der Erfassungsbereich des Kamerasystems verschoben werden. Alternativ oder zusätzlich kann der Erfassungsbereich des Kamerasystems durch eine Beladung verschoben werden. Eine Verschiebung des Erfassungsbereichs, beispielsweise aufgrund einer der genannten Gegebenheiten, kann anhand des Höhenwertes erkannt werden. Das künstliche neuronale Netz ist darauf angelernt, solche Höhenwerte als Eingangsgröße zum Bestimmen des zumindest einen entsprechenden Kalibrationswerts zu nutzen. Mittels diesem Kalibrationswert kann dann der Erfassungsbereich kalibriert werden beziehungsweise ermittelt werden, wo sich der Erfassungsbereich erstreckt.The invention is based on the knowledge that, depending on the height value in the overlap area, the detection area of the camera system can be calibrated. For example, the height value can be used to recognize that the motor vehicle is on an uneven roadway, in particular a dome, and / or that some of its wheels are on an elevated surface, for example a curb. Such conditions can shift the detection range of the camera system. Alternatively or additionally, the detection range of the camera system can be shifted by loading. A shift in the detection range, for example on the basis of one of the conditions mentioned, can be detected on the basis of the height value. The artificial neural network is trained to use such height values as an input variable for determining the at least one corresponding calibration value. Using this calibration value, the detection area can then be calibrated or it can be determined where the detection area extends.

Selbstverständlich kann das Kamerasystem auch mehr als zwei Kameras umfassen. Beispielsweise umfasst das Kamerasystem vier Kameras. In diesem Fall können mehrere der Kameras untereinander einen jeweiligen gemeinsamen Überlappungsbereich aufweisen. Beispielsweise befinden sich die vier Kameras an vier unterschiedlichen Seiten des Kraftfahrzeugs. In diesem Fall kann jede der Kameras mit denjenigen der Kameras, welche an einer benachbarten Seite angeordnet sind, einen jeweiligen Überlappungsbereich aufweisen. Somit kann im Beispiel mit vier Kameras jede der vier Kameras zwei Überlappungsbereiche aufweisen, wobei insgesamt vier Überlappungsbereiche vorhanden sind. Insbesondere wird dann ein jeweiliger Höhenwert für jeden der Überlappungsbereiche bestimmt. Der zumindest einen Kalibrationswert kann dann unter Nutzung der mehreren Höhenwerte als Eingangsgröße bestimmt werden.Of course, the camera system can also include more than two cameras. For example, the camera system comprises four cameras. In this case, several of the cameras can have a respective common overlap area with one another. For example, the four cameras are located on four different sides of the motor vehicle. In this case, each of the cameras can have a respective overlap area with those of the cameras which are arranged on an adjacent side. Thus, in the example with four cameras, each of the four cameras can have two overlap areas, a total of four overlap areas being present. In particular, a respective height value is then determined for each of the overlap areas. The at least one calibration value can then be determined using the plurality of height values as an input variable.

Im Rahmen der vorliegenden Anmeldung ist häufig von einem Höhenwert für den in dem Überlappungsbereich dargestellten Umgebungsbereich die Rede. Selbstverständlich können für den Überlappungsbereich beziehungsweise für den in dem Überlappungsbereich dargestellten Umgebungsbereich mehrere Höhenwerte bestimmt werden. In diesem Fall werden pro Überlappungsbereich mehrere Höhenwerte für das Bestimmen des zumindest einen Kalibrationswerts herangezogen.Within the scope of the present application, there is often talk of a height value for the surrounding area shown in the overlap area. Of course, several height values can be determined for the overlap area or for the surrounding area shown in the overlap area. In this case, several height values are used per overlap area for determining the at least one calibration value.

Gemäß einer Weiterbildung ist vorgesehen, dass anhand des Höhenwertes ein Gefälle und/oder eine Unebenheit einer Untergrundfläche, auf der sich das Kraftfahrzeug befindet, für das Kalibrieren des Erfassungsbereichs berücksichtigt werden. Wie oben bereits geschrieben kann sich aufgrund eines solchen Gefälles beziehungsweise einer solchen Unebenheit der Erfassungsbereich verschieben. Beispielsweise ist der Erfassungsbereich umso größer, je höher der Höhenwert ist. Dies beruht darauf, dass die erste und die zweite Kamera dann aufgrund der Geometrie „weiter sehen können“.According to a further development, it is provided that a slope and / or an unevenness of a subsurface on which the motor vehicle is located are taken into account for the calibration of the detection range on the basis of the height value. As already described above, the detection area can shift due to such a slope or such unevenness. For example, the higher the height value, the larger the detection area. This is due to the fact that the first and second cameras can then “see further” due to the geometry.

Gemäß einer Weiterbildung ist vorgesehen, dass anhand des Höhenwertes eine angulare Abweichung zwischen einer Fahrzeughochachse und einer Flächennormalen der Untergrundfläche, auf der sich das Kraftfahrzeug befindet, für das Kalibrieren des Erfassungsbereichs berücksichtigt wird. Eine solche angulare Abweichung zwischen der Fahrzeughochachse und der Flächennormalen kann beispielsweise aus einer Beladung des Kraftfahrzeugs resultieren. Ist beispielsweise der Heckstauraum des Kraftfahrzeugs schwer beladen, so kann sich das Kraftfahrzeug dementsprechend nach hinten neigen. Dies kann beispielsweise durch jeweilige Höhenwerte sowohl in einem Bereich vor dem Kraftfahrzeug als auch in einem Bereich hinter dem Kraftfahrzeug erkannt werden. Durch eine dementsprechende Neigung beziehungsweise angulare Abweichung des Kraftfahrzeugs kann der Erfassungsbereich einzelner Kameras sich verringern und/oder erweitern. Insgesamt kann sich dadurch der Erfassungsbereich des Kamerasystems verändern. Im oben genannten Beispiel mit dem schwer beladenen Heckstauraum kann sich der Erfassungsbereich einer nach vorne gerichteten Kamera erweitern und/oder der Erfassungsbereich einer nach hinten gerichteten Kamera des Kraftfahrzeugs verringern.According to a further development, it is provided that an angular deviation between a vertical vehicle axis and a surface normal of the surface on which the motor vehicle is located is taken into account for the calibration of the detection range on the basis of the height value. Such an angular deviation between the vertical vehicle axis and the surface normal can result, for example, from a load on the motor vehicle. If, for example, the rear storage space of the motor vehicle is heavily loaded, the motor vehicle can accordingly tilt backwards. This can be recognized, for example, by respective height values both in an area in front of the motor vehicle and in an area behind the motor vehicle. The detection range of individual cameras can be reduced and / or expanded by a corresponding inclination or angular deviation of the motor vehicle. Overall, the detection range of the camera system can change as a result. In the above-mentioned example with the heavily loaded rear storage space, the detection area of a forward-facing camera can expand and / or the detection area of a rear-facing camera of the motor vehicle can be reduced.

Gemäß einer Weiterbildung ist vorgesehen, dass anhand des Höhenwertes ein Einfluss einer Beladung des Kraftfahrzeugs und/oder ein Einfluss eines am Kraftfahrzeug angehängten Anhängers auf den Erfassungsbereich berücksichtigt werden. Beispielsweise kann ein solcher am Kraftfahrzeug angehängter Anhänger eine oben beschriebene angulare Abweichung zwischen Fahrzeughochachse und der Flächennormalen der Untergrundfläche hervorrufen. Mit anderen Worten kann durch die Beladung des Kraftfahrzeugs und/oder einen am Kraftfahrzeug angehängten Anhänger der Erfassungsbereich einzelner Kameras und/oder des gesamten Kamerasystems verschoben werden. Dies wird auf diese Weise berücksichtigt.According to a development, it is provided that an influence of a loading of the motor vehicle and / or an influence of a trailer attached to the motor vehicle on the detection range is taken into account on the basis of the height value. For example, such a trailer attached to the motor vehicle can have an angular deviation, as described above, between the vertical axis of the vehicle and the surface normal of the subsurface cause. In other words, the detection area of individual cameras and / or the entire camera system can be shifted by loading the motor vehicle and / or a trailer attached to the motor vehicle. This is taken into account in this way.

Durch das Modell des Kraftfahrzeugs kann eine mechanische Verformbarkeit des Kraftfahrzeugs, insbesondere einer Karosserie des Kraftfahrzeugs, berücksichtigt werden. Eine solche mechanische Verformbarkeit kann beispielsweise durch die Beladung des Kraftfahrzeugs und/oder einen am Kraftfahrzeug angehängten Anhänger hervorgerufen werden. Die mechanische Verformbarkeit des Kraftfahrzeugs kann auf einer endlichen Steifigkeit eines Rahmens des Kraftfahrzeugs basieren. Alternativ oder zusätzlich kann eine derartige mechanische Verformung des Kraftfahrzeugs aus einer Beschleunigung des Kraftfahrzeugs resultieren. Hierauf wird an späterer Stelle noch genauer eingegangen. Durch die mechanische Verformbarkeit kann sich der Erfassungsbereich einzelner Kameras, insbesondere der ersten oder der zweiten Kamera, des Kamerasystems verschieben. Dies kann insbesondere auf einer auf der mechanischen Verformung basierenden Positionsveränderung der jeweiligen Kamera(s) beruhen.A mechanical deformability of the motor vehicle, in particular a body of the motor vehicle, can be taken into account by the model of the motor vehicle. Such mechanical deformability can be caused, for example, by loading the motor vehicle and / or a trailer attached to the motor vehicle. The mechanical deformability of the motor vehicle can be based on a finite rigidity of a frame of the motor vehicle. Alternatively or additionally, such a mechanical deformation of the motor vehicle can result from an acceleration of the motor vehicle. This will be discussed in more detail later. The detection range of individual cameras, in particular the first or the second camera, of the camera system can shift due to the mechanical deformability. This can be based in particular on a change in position of the respective camera (s) based on the mechanical deformation.

Gemäß einer Weiterbildung wird ein Ist-Wert für die Position der ersten Kamera und/oder der zweiten Kamera relativ zu einem Bezugssystem des Kraftfahrzeugs und/oder relativ zueinander unter Berücksichtigung der mechanischen Verformbarkeit als der Kalibrationswert bestimmt. Beispielsweise wird der Ist-Wert oder ein jeweiliger Ist-Wert für die Position der ersten Kamera und/oder der zweiten Kamera relativ zu dem Bezugssystem des Kraftfahrzeugs, insbesondere dem am Kraftfahrzeug ausgerichteten Koordinatensystem, bestimmt. Alternativ oder zusätzlich kann der Ist-Wert für die Position der ersten Kamera und der zweiten Kamera relativ zueinander bestimmt werden. Auf diese Weise kann die mechanische Verformbarkeit auf besonders vorteilhafte Weise berücksichtigt werden.According to a further development, an actual value for the position of the first camera and / or the second camera relative to a reference system of the motor vehicle and / or relative to one another is determined taking into account the mechanical deformability as the calibration value. For example, the actual value or a respective actual value for the position of the first camera and / or the second camera relative to the reference system of the motor vehicle, in particular the coordinate system aligned with the motor vehicle, is determined. Alternatively or additionally, the actual value for the position of the first camera and the second camera can be determined relative to one another. In this way, the mechanical deformability can be taken into account in a particularly advantageous manner.

Gemäß einer Weiterbildung kann zusätzlich zu der Position der jeweiligen Kamera, also insbesondere der ersten und/oder der zweiten Kamera, ein entsprechender Ist-Wert für die Orientierung als der Kalibrationswert bestimmt werden. In derartigen Ausführungsbeispielen ist insbesondere vorgesehen, dass das Modell des Kraftfahrzeugs zusätzlich zumindest einen Soll-Wert für die Orientierung der ersten Kamera und/oder der zweiten Kamera bereitstellt. Auf diese Weise kann eine Verschiebung des Erfassungsbereichs des Kamerasystems beziehungsweise der einzelnen Kameras des Kamerasystems durch eine Verschiebung der Orientierung, insbesondere aufgrund der mechanischen Verformbarkeit, berücksichtigt werden.According to a development, in addition to the position of the respective camera, that is to say in particular the first and / or the second camera, a corresponding actual value for the orientation can be determined as the calibration value. In such exemplary embodiments, it is provided in particular that the model of the motor vehicle additionally provides at least one target value for the orientation of the first camera and / or the second camera. In this way, a shift in the detection range of the camera system or the individual cameras in the camera system can be taken into account by a shift in the orientation, in particular due to the mechanical deformability.

Der oben genannte Ist-Wert für die Position und/oder der oben genannte Ist-Wert für die Orientierung können insbesondere durch das künstliche neuronale Netz unter Berücksichtigung des Höhenwertes sowie des Modells des Kraftfahrzeugs bestimmt werden. Insbesondere wird der Ist-Wert für die Position und/oder die Orientierung der jeweiligen Kamera durch das künstliche neuronale Netz anhand des Höhenwertes unter Berücksichtigung der mechanischen Verformbarkeit des Kraftfahrzeugs bestimmt. Dementsprechend kann das künstliche neuronale Netz darauf angelernt werden beziehungsweise sein, anhand des Überlappungsbereichs in den jeweiligen Bildern der ersten und der zweiten Kamera unter Berücksichtigung des Modells des Kraftfahrzeugs eine veränderte Pose (Position und Orientierung) der ersten Kamera und/oder der zweiten Kamera relativ zu dem jeweiligen Soll-Wert zu bestimmen.The above-mentioned actual value for the position and / or the above-mentioned actual value for the orientation can be determined in particular by the artificial neural network, taking into account the height value and the model of the motor vehicle. In particular, the actual value for the position and / or the orientation of the respective camera is determined by the artificial neural network on the basis of the height value, taking into account the mechanical deformability of the motor vehicle. Accordingly, the artificial neural network can be trained on it, or a change in the pose (position and orientation) of the first camera and / or the second camera relative to the overlapping area in the respective images of the first and second cameras, taking into account the model of the motor vehicle to determine the respective target value.

Gemäß einer Weiterbildung ist vorgesehen, dass der Kalibrationswert, insbesondere der Ist-Wert für die Position, zunächst in willkürlichen Längeneinheiten bestimmt wird und erst in einem späteren Verfahrensschritt in auf das Kraftfahrzeug bezogene Längeneinheiten umgerechnet wird. Mit anderen Worten kann der Kalibrationswert, insbesondere der Ist-Wert für die Position, durch das künstliche neuronale Netz in relativen oder willkürlichen Längeneinheiten bestimmt werden. Erst in dem späteren Verfahrensschritt, insbesondere nach Ausgabe der Kalibrationswerts durch das künstliche neuronale Netz, kann das Umrechnen in die auf das Kraftfahrzeug bezogenen Längeneinheiten erfolgen. Bei den auf das Kraftfahrzeug bezogenen Längeneinheiten kann es sich um absolute Längeneinheiten handeln. Auf diese Weise kann das künstliche neuronale Netz besonders universal auf eine Vielzahl von unterschiedlichen Kraftfahrzeugen angelernt werden, da die absoluten beziehungsweise auf das Kraftfahrzeug bezogenen Längeneinheiten erst später, insbesondere in einem dem künstlichen neuronalen Netzwerk nachfolgenden Verfahrensschritt, berechnet werden.According to a further development, it is provided that the calibration value, in particular the actual value for the position, is initially determined in arbitrary length units and is only converted into length units related to the motor vehicle in a later method step. In other words, the calibration value, in particular the actual value for the position, can be determined by the artificial neural network in relative or arbitrary length units. Only in the later process step, in particular after the calibration value has been output by the artificial neural network, can the conversion into the length units relating to the motor vehicle be carried out. The length units related to the motor vehicle can be absolute length units. In this way, the artificial neural network can be taught in particularly universally on a large number of different motor vehicles, since the absolute length units or those relating to the motor vehicle are only calculated later, in particular in a method step following the artificial neural network.

Gemäß einer Weiterbildung ist vorgesehen, dass Bewegungsdaten des Kraftfahrzeugs als weitere Eingangsgröße für das künstliche neuronale Netz für das Bestimmen des Kalibrationswerts genutzt werden, wobei mittels der Bewegungsdaten der Einfluss einer Beschleunigung des Kraftfahrzeugs entlang einer beliebigen Raumrichtung auf den Erfassungsbereich berücksichtigt wird. Beispielsweise kann es sich bei der Beschleunigung um eine Beschleunigung entlang einer Fahrzeuglängsachse des Kraftfahrzeugs handeln. Eine solche Beschleunigung entlang der Fahrzeuglängsachse kann durch Gas geben oder Abbremsen hervorgerufen werden. Alternativ oder zusätzlich kann es sich bei der Beschleunigung um eine Beschleunigung entlang einer Fahrzeugquerachse des Kraftfahrzeugs handeln. Eine solche Beschleunigung entlang der Fahrzeugquerachse des Kraftfahrzeugs kann beispielsweise durch Lenken des Kraftfahrzeugs hervorgerufen werden. Alternativ oder zusätzlich kann es sich bei der Beschleunigung um eine Beschleunigung entlang der Fahrzeughochachse handeln. Eine solche Beschleunigung entlang der Fahrzeughochachse kann beispielsweise durch eine Fahrt des Kraftfahrzeugs über unebenen Untergrund hervorgerufen werden. Besonders vorteilhafterweise wird der Einfluss der Beschleunigung des Kraftfahrzeugs entlang aller drei genannten Achsen für das Kalibrieren des Erfassungsbereichs berücksichtigt. Die Bewegungsdaten des Kraftfahrzeugs können beispielsweise durch Odometrie oder entsprechende Sensoren, insbesondere Beschleunigungssensoren des Kraftfahrzeugs, erfasst werden. Auf diese Weise kann der Erfassungsbereich noch genauer kalibriert werden.According to a further development, it is provided that motion data of the motor vehicle are used as a further input variable for the artificial neural network for determining the calibration value, the influence of an acceleration of the motor vehicle on the detection area along any spatial direction being taken into account by means of the motion data. For example, the acceleration can be an acceleration along a longitudinal axis of the motor vehicle. Such an acceleration along the longitudinal axis of the vehicle can be accelerated or braked. Alternatively or additionally, the acceleration can be an acceleration along a vehicle transverse axis of the motor vehicle. Such acceleration along the The vehicle's transverse axis can be caused, for example, by steering the motor vehicle. Alternatively or additionally, the acceleration can be an acceleration along the vertical axis of the vehicle. Such acceleration along the vertical axis of the vehicle can be caused, for example, by the motor vehicle traveling over an uneven surface. The influence of the acceleration of the motor vehicle along all three axes mentioned is particularly advantageously taken into account for the calibration of the detection range. The movement data of the motor vehicle can be recorded, for example, by odometry or corresponding sensors, in particular acceleration sensors of the motor vehicle. In this way, the detection area can be calibrated even more precisely.

Gemäß einer Weiterbildung ist vorgesehen, dass basierend auf einem ersten Bildpaar und einem zweiten Bildpaar eine weitere Eingangsgröße für das künstliche neuronale Netz gebildet wird, wobei das erste Bildpaar zwei mittels der ersten Kamera des Kamerasystems zu unterschiedlichen Zeitpunkten aufgenommene Bilder und das zweite Bildpaar zwei mittels der zweiten Kamera des Kamerasystems zu unterschiedlichen Zeitpunkten aufgenommene Bilder umfasst. Das erste Bild kann Teil des ersten Bildpaars sein, dies ist jedoch rein optional. Das zweite Bild kann Teil des zweiten Bildpaars sein, dies ist jedoch rein optional. Die Bilder des ersten Bildpaars können zu jeweils unterschiedlichen Zeitpunkten aufgenommen werden. Dementsprechend können die Bilder des ersten Bildpaars dem Umgebungsbereich des Kraftfahrzeugs zu unterschiedlichen Zeitpunkten repräsentieren. Die Bilder des zweiten Bildpaars können zu jeweils unterschiedlichen Zeitpunkten aufgenommen werden. Dementsprechend können die Bilder des zweiten Bildpaars den Umgebungsbereich zu unterschiedlichen Zeitpunkten repräsentieren.According to a further development, a further input variable for the artificial neural network is formed based on a first pair of images and a second pair of images, the first pair of images being two images taken at different times by the first camera of the camera system and the second pair of images being two using the second camera of the camera system includes images taken at different times. The first image can be part of the first image pair, but this is purely optional. The second image can be part of the second image pair, but this is purely optional. The images of the first pair of images can be taken at different times. Accordingly, the images of the first pair of images can represent the surrounding area of the motor vehicle at different times. The images of the second pair of images can be taken at different times. Accordingly, the images of the second pair of images can represent the surrounding area at different times.

Die Bilder des ersten sowie des zweiten Bildpaars können bildpaarübergreifend jeweils paarweise zum selben Zeitpunkt aufgenommen werden. Dies ist jedoch rein optional. In diesem Beispiel kann vorgesehen sein, dass ein jeweiliges Bild des ersten Bildpaars sowie ein jeweiliges Bild des zweiten Bildpaars jeweils zum selben Zeitpunkt aufgenommen werden. Zusammengefasst wird aus dem ersten Bildpaar und dem zweiten Bildpaar eine weitere Eingangsgröße für das künstliche neuronale Netz gebildet. Die weitere Eingangsgröße kann beispielsweise einen optischen Fluss oder eine Veränderung zwischen den Bildern eines jeweiligen der Bildpaare betreffen. Alternativ kann die weitere Eingangsgröße eine Bewegung eines in den Bildern repräsentierten Objekts und/oder eine Verschiebung eines solchen Objekts in den jeweiligen Bildern eines der Bildpaare betreffen. Insbesondere handelt es sich bei den Bildern des ersten Bildpaars und/oder des zweiten Bildpaars um Einzelbilder einer Videosequenz. Solche Einzelbilder werden auch als Frames bezeichnet. Die weitere Eingangsgröße kann anhand des optischen Flusses, der Veränderung, der Bewegung eines Objekts oder einer sonstigen Veränderung aufeinanderfolgender Frames gebildet werden. Auf diese Weise können insbesondere die oben genannten Bewegungsdaten bereitgestellt werden. Mit anderen Worten können die Bewegungsdaten des Kraftfahrzeugs aus dem ersten Bildpaar und/oder dem zweiten Bildpaar extrahiert werden. Auf diese Weise kann der Erfassungsbereich noch genauer kalibriert werden.The images of the first and the second pair of images can be taken in pairs across the pairs at the same time. However, this is purely optional. In this example it can be provided that a respective image of the first pair of images and a respective image of the second pair of images are each taken at the same time. In summary, a further input variable for the artificial neural network is formed from the first pair of images and the second pair of images. The further input variable can relate, for example, to an optical flow or a change between the images of a respective one of the image pairs. Alternatively, the further input variable can relate to a movement of an object represented in the images and / or a displacement of such an object in the respective images of one of the image pairs. In particular, the images of the first image pair and / or the second image pair are individual images of a video sequence. Such single images are also called frames. The further input variable can be formed on the basis of the optical flow, the change, the movement of an object or another change in successive frames. In this way, the above-mentioned movement data in particular can be provided. In other words, the movement data of the motor vehicle can be extracted from the first pair of images and / or the second pair of images. In this way, the detection area can be calibrated even more precisely.

Gemäß einer Weiterbildung ist vorgesehen, dass das erste und das zweite Bildpaar jeweils durch einen unterschiedlichen Eingangsteil des künstlichen neuronalen Netzes ausgewertet werden, wobei durch jeden Eingangsteil eine parallele Verarbeitung beider Bilder des jeweiligen Bildpaares, insbesondere durch einen jeweiligen unterschiedlichen Encoder des entsprechenden Eingangsteils, erfolgt. Mit anderen Worten weist das künstliche neuronale Netz zwei unterschiedliche Eingangsteile auf, durch welche jeweils ein unterschiedliches der Bildpaare ausgewertet wird. Insbesondere wird jedes der Bildpaare ausschließlich durch einen der beiden Eingangsteile des künstlichen neuronalen Netzes ausgewertet. Jeder der Eingangsteile kann einen jeweiligen unterschiedlichen Encoder, insbesondere CNN-Encoder, umfassen. Vorteilhafterweise erfolgt dann die Auswertung des ersten und des zweiten Bildpaars zumindest teilweise durch den jeweiligen Encoder des entsprechenden Eingangsteils. Alternativ oder zusätzlich kann vorgesehen sein, dass die beiden Bilder des ersten Bildpaars sowie die beiden Bilder des zweiten Bildpaars jeweils durch unterschiedliche Eingangsteile des künstlichen neuronalen Netzes, insbesondere durch jeweilige unterschiedliche Encoder des künstlichen neuronalen Netzes, ausgewertet werden. Beispielsweise ist vorgesehen, dass die Bilder des ersten Bildpaars durch jeweils unterschiedliche Eingangsteile beziehungsweise jeweils unterschiedliche Encoder ausgewertet werden. Beispielsweise ist vorgesehen, dass die Bilder des zweiten Bildpaars jeweils durch unterschiedliche Eingangsteile beziehungsweise jeweils unterschiedliche Encoder ausgewertet werden. In Summe können für das erste und das zweite Bildpaar somit bis zu vier unterschiedliche Eingangsteile beziehungsweise unterschiedliche Encoder, insbesondere CNN-Encoder, vorgesehen sein. Auf diese Weise kann ein Auswerten des ersten und des zweiten Bildpaars besonders effizient erfolgen.According to a development, it is provided that the first and the second pair of images are each evaluated by a different input part of the artificial neural network, with each input part processing both images of the respective image pair in parallel, in particular by a different encoder of the corresponding input part. In other words, the artificial neural network has two different input parts, each of which evaluates a different one of the image pairs. In particular, each of the image pairs is evaluated exclusively by one of the two input parts of the artificial neural network. Each of the input parts can comprise a respective different encoder, in particular a CNN encoder. Advantageously, the first and second image pairs are then evaluated at least partially by the respective encoder of the corresponding input part. Alternatively or additionally, it can be provided that the two images of the first pair of images and the two images of the second pair of images are each evaluated by different input parts of the artificial neural network, in particular by different encoders of the artificial neural network. For example, it is provided that the images of the first pair of images are evaluated by different input parts or different encoders. For example, it is provided that the images of the second pair of images are each evaluated by different input parts or different encoders. In total, up to four different input parts or different encoders, in particular CNN encoders, can thus be provided for the first and the second pair of images. In this way, the first and second image pairs can be evaluated particularly efficiently.

Gemäß einer Weiterbildung ist vorgesehen, dass aus dem ersten Bildpaar und dem zweiten Bildpaar jeweilige Bewegungsdaten extrahiert werden und das künstliche neuronale Netz darauf angelernt wird, das Bestimmen des Kalibrationswerts zumindest teilweise basierend auf den Bewegungsdaten durchzuführen. Mit anderen Worten werden, wie bereits oben beschrieben, aus dem ersten und dem zweiten Bildpaar die Bewegungsdaten als weitere Eingangsgröße für das künstliche neuronale Netz extrahiert. Auf diese Weise kann das künstliche neuronale Netz lernen, den Einfluss der Bewegungsdaten, insbesondere der Beschleunigung, auf dem Erfassungsbereich des Kamerasystems zu erkennen. Basierend darauf wird nachfolgend der Kalibrationswert zumindest teilweise basierend auf den Bewegungsdaten bestimmt.According to a further development, it is provided that respective movement data are extracted from the first image pair and the second image pair and the artificial neural network is taught thereon, the determination of the calibration value based at least in part on the movement data perform. In other words, as already described above, the movement data are extracted from the first and the second pair of images as a further input variable for the artificial neural network. In this way, the artificial neural network can learn to recognize the influence of the movement data, in particular the acceleration, on the detection area of the camera system. Based on this, the calibration value is subsequently determined based at least in part on the movement data.

Ein zweiter Aspekt der Erfindung betrifft eine Steuereinheit für ein Kraftfahrzeug, die dazu eingerichtet ist, ein Verfahren zum Kalibrieren eines Kamerasystems eines Kraftfahrzeugs durchzuführen, wie es im Rahmen dieser Anmeldung beschrieben ist. Dementsprechend gelten Weiterbildungen des entsprechenden Verfahrens analog auch für die Steuereinheit und umgekehrt.A second aspect of the invention relates to a control unit for a motor vehicle, which is set up to carry out a method for calibrating a camera system of a motor vehicle, as described in the context of this application. Accordingly, further developments of the corresponding method apply analogously to the control unit and vice versa.

Ein weiterer Aspekt der Erfindung betrifft ein Fahrerassistenzsystem für ein Kraftfahrzeugs, mit

  • - einem Kamerasystem, wobei das Kamerasystem zumindest eine erste Kamera und eine von der ersten Kamera verschiedene zweite Kamera umfasst und wobei die erste und die zweite Kamera einen gemeinsamen Überlappungsbereich, der Teil eines jeweiligen Erfassungsbereichs sowohl der ersten als auch der zweiten Kamera ist, aufweisen, und
  • - der oben genannten Steuereinheit.
Another aspect of the invention relates to a driver assistance system for a motor vehicle, with
  • a camera system, the camera system comprising at least a first camera and a second camera different from the first camera, and the first and second cameras having a common overlap area which is part of a respective detection area of both the first and the second camera, and
  • - the control unit mentioned above.

Insbesondere ist das Fahrerassistenzsystem, vorteilhafterweise die Steuereinheit, dazu eingerichtet, das hier beschriebene Verfahren durchzuführen. Dementsprechend gelten Merkmale und Vorteile, die in Bezug auf das Verfahren offenbart sind, auch für das F ah rerassistenzsystem.In particular, the driver assistance system, advantageously the control unit, is set up to carry out the method described here. Accordingly, features and advantages that are disclosed in relation to the method also apply to the driver assistance system.

Außerdem Teil der Erfindung ist ein Kraftfahrzeug, welches das oben genannte Fahrerassistenzsystem umfasst. Bei dem Kraftfahrzeug handelt es sich insbesondere um einen Kraftwagen, beispielsweise einen Lastkraftwagen oder einen Personenkraftwagen. Beispielsweise kann das Kraftfahrzeug einen elektrischen Antrieb und/oder einen Verbrennungsmotor aufweisen. Das Kamerasystem, insbesondere die erste und die zweite Kamera, des Fahrerassistenzsystems sind an dem Kraftfahrzeug angeordnet. Merkmale und Vorteile, die in Bezug auf das Verfahren offenbart sind, gelten auch für das F ah rerassistenzsystem.In addition, part of the invention is a motor vehicle which comprises the above-mentioned driver assistance system. The motor vehicle is in particular a motor vehicle, for example a truck or a passenger car. For example, the motor vehicle can have an electric drive and / or an internal combustion engine. The camera system, in particular the first and the second camera, of the driver assistance system are arranged on the motor vehicle. Features and advantages that are disclosed in relation to the method also apply to the driver assistance system.

Außerdem gehört zur Erfindung ein Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Kalibrieren des Erfassungsbereichs des Kamerasystems durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinheit abgearbeitet wird.The invention also includes a computer program product with program code means which are stored in a computer-readable medium in order to carry out the method for calibrating the detection range of the camera system when the computer program product is processed on a processor of an electronic control unit.

Das Computerprogrammprodukt kann auf einem computerlesbaren Medium gespeichert sein. Somit beansprucht diese Erfindung auch ein solches computerlesbares Medium, insbesondere in Form einer computerlesbaren Diskette, CD, DVD, Speicherkarte, USB-Speichereinheit, oder ähnlichen, in dem Programmcodemittel gespeichert sind, um das Verfahren zum Kalibrieren des Erfassungsbereichs des Kamerasystems durchzuführen, wenn die Programmcodemittel in einen Speicher einer elektronischen Steuereinheit geladen und auf einem Prozessor der elektronischen Steuereinheit abgearbeitet werden. Bei dem lesbaren Medium kann es sich einen flüchtigen (volatilen) oder einen nichtflüchtigen Speicher handeln. Ein solcher flüchtiger Speicher kann insbesondere durch einen Arbeitsspeicher eines Mikroprozessors gebildet sein.The computer program product can be stored on a computer-readable medium. Thus, this invention also claims such a computer-readable medium, in particular in the form of a computer-readable floppy disk, CD, DVD, memory card, USB memory unit, or the like, in which program code means are stored in order to carry out the method for calibrating the detection range of the camera system when the program code means loaded into a memory of an electronic control unit and processed on a processor of the electronic control unit. The readable medium can be volatile (non-volatile) or non-volatile. Such a volatile memory can in particular be formed by a working memory of a microprocessor.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention result from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description and the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the combination indicated in each case but also in other combinations without departing from the scope of the invention . Embodiments of the invention are thus also to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, but can be derived from the explanations explained and can be generated by separate combinations of features. Embodiments and combinations of features are also to be regarded as disclosed, which therefore do not have all the features of an originally formulated independent claim. Furthermore, versions and combinations of features, in particular those explained above, are to be regarded as disclosed, which go beyond or differ from the combinations of features set out in the references of the claims.

Dabei zeigen:

  • 1 ein Kraftfahrzeug mit einem Kamerasystems, wobei ein Erfassungsbereich des Kamerasystems aufgrund einer Anhängelast gegenüber einem Normalzustand verschoben ist;
  • 2 äußerst schematisch die Verschiebung von Kamerapositionen eines Kamerasystems im Falle unterschiedlicher Fahrmanöver aus einer Vogelperspektive;
  • 3 weitere mögliche Verschiebungen von Kamerapositionen aus einer perspektivischen Seitenansicht;
  • 4 eine beispielhafte Architektur für ein Fahrerassistenzsystem zum Kalibrieren eines Erfassungsbereichs eines Kamerasystems;
  • 5 einen Auszug aus der Architektur; und
  • 6 die Überlappungsbereiche unterschiedlicher Kameras eines Kamerasystems in einer schematischen Vogelperspektive.
Show:
  • 1 a motor vehicle with a camera system, a detection range of the camera system being shifted from a normal state due to a trailer load;
  • 2nd extremely schematically the shift of camera positions of a camera system in the case of different driving maneuvers from a bird's eye view;
  • 3rd further possible shifts of camera positions from a perspective side view;
  • 4th an exemplary architecture for a driver assistance system for calibrating a detection range of a camera system;
  • 5 an excerpt from the architecture; and
  • 6 the overlapping areas of different cameras of a camera system in a schematic bird's eye view.

1 zeigt ein Kraftfahrzeug 1 mit einem Kamerasystems, wobei das Kamerasystem im vorliegenden Ausführungsbeispiel vier Kameras umfasst. Konkret weist das Kraftfahrzeug beziehungsweise das Kamerasystem eine Frontkamera FV, eine rückwärts gerichtete Kamera RV sowie zwei seitlich ausgerichtet Kameras ML und MR auf, wobei in der 1 nur eine an der linken Seite des Kraftfahrzeugs 1 angeordnete Seitenkamera ML dargestellt ist. Eine an der rechten Fahrzeugseite des Kraftfahrzeugs 1 angeordnete Seitenkamera MR ist in 1 nicht dargestellt. Die Frontkamera FV weist einen Erfassungsbereich 92 auf. Die rückwärts gerichtete Kamera RV weist einen Erfassungsbereich 94 auf. 1 shows a motor vehicle 1 with a camera system, the camera system comprising four cameras in the present exemplary embodiment. Specifically, the motor vehicle or the camera system has a front camera FV , a rear-facing camera RV as well as two side-aligned cameras ML and MR on, being in the 1 only one on the left side of the motor vehicle 1 arranged side camera ML is shown. One on the right side of the vehicle 1 arranged side camera MR is in 1 not shown. The front camera FV has a detection area 92 on. The rear-facing camera RV has a detection area 94 on.

An dem Kraftfahrzeug 1 ist gemäß 1 ein Anhänger 98 angehängt. Durch eine vom Anhänger 98 auf das Kraftfahrzeug 1 übertragende Stützlast sinkt das Kraftfahrzeug 1 im Bereich seiner Anhängerkupplung entsprechend einem Pfeil 97 nach unten ab. Gegenüber dem Absinken gemäß der Pfeilrichtung des Pfeils 97 betätigt sich eine Hinterachse des Kraftfahrzeugs 1 als Drehachse. Durch diese Drehachse erfolgt ein Anheben des Kraftfahrzeugs 1 in dessen vorderem Bereich entsprechend einem Pfeil 96. Somit wird der Erfassungsbereich 92 der Frontkamera FV nach oben ausgelenkt, insbesondere entsprechend einem Pfeil 93. Zudem wird der Erfassungsbereich 94 der rückwärts gerichteten Kamera RV nach unten ausgelenkt, insbesondere entsprechend einem Pfeil 95. Durch die Auslenkung der jeweiligen Erfassungsbereiche 92, 94 verschiebt sich der jeweilige Erfassungsbereich der entsprechenden Kamera FV, RV. Durch eine Auslenkung nach oben, wie hier im Falle der Frontkamera FV, vergrößert sich der entsprechende Erfassungsbereich 92. Durch eine Auslenkung nach unten, wie im vorliegenden Fall bei der rückwärts gerichteten Kamera RV, verkleinert sich der entsprechende Erfassungsbereich 94 dementsprechend.On the motor vehicle 1 is according to 1 a follower 98 attached. By one from the trailer 98 on the motor vehicle 1 transmitted vehicle load decreases the motor vehicle 1 in the area of its trailer coupling according to an arrow 97 downwards. Opposite the descent according to the direction of the arrow 97 operates a rear axle of the motor vehicle 1 as the axis of rotation. The motor vehicle is lifted by this axis of rotation 1 in the front area according to an arrow 96 . Thus the detection area 92 the front camera FV deflected upwards, in particular according to an arrow 93 . In addition, the detection area 94 the rear-facing camera RV deflected downwards, in particular according to an arrow 95 . By deflecting the respective detection areas 92 , 94 the respective detection range of the corresponding camera shifts FV , RV . By an upward deflection, as here in the case of the front camera FV , the corresponding detection area increases 92 . By a downward deflection, as in the present case with the rear-facing camera RV , the corresponding detection area is reduced 94 accordingly.

2 zeigt äußerst schematisch die Kameras ML, FV, MR, RV eines Kamerasystems 12 aus einer äußerst schematischen Vogelperspektive. Zur besseren Übersicht sind drei Achsen eingezeichnet, wobei eine z-Achse einer Fahrzeughochachse des Kraftfahrzeugs 1 entspricht, eine y-Achse einer Fahrzeuglängsachse des Kraftfahrzeugs 1 entspricht und eine x-Achse einer Fahrzeugquerachse des Kraftfahrzeugs 1 entspricht. In einer beispielhaften Situation C1 befindet sich das Kraftfahrzeug beispielhaft in einer gleichförmigen Bewegung oder im Stand auf einem ebenen Untergrund. Die Positionen aller vier Kameras ML, FV, MR, RV entsprechen hierbei einem Normalzustand beziehungsweise einem Soll-Wert. In einer beispielhaften Situation C2 wird eine Vorderachse des Kraftfahrzeugs 1 gebremst. Aufgrund einer nicht vollständigen Steifigkeit einer Karosserie des Kraftfahrzeugs 1 sowie aufgrund der aus dem Abbremsen resultierenden Beschleunigung, wird das Kraftfahrzeug in seinem vorderen Teil zusammengestaucht. Dies wird daran deutlich, dass sich die Position der Frontkamera FV gegenüber ihrem Normalzustand beziehungsweise ihrem Soll-Wert verschiebt. In einer weiteren beispielhaften Situation C3 wird das Kraftfahrzeug 1 beschleunigt. Im vorliegenden Beispiel wird die Beschleunigung über eine entsprechende Kraftabgabe über die Hinterachse des Kraftfahrzeugs 1 und/oder durch ein Nachschieben des Anhängers 98 (beispielsweise bergab) hervorgerufen. Daraus resultiert eine Stauchung der Karosserie des Kraftfahrzeugs 1 im rückwärtigen Bereich. Aus diesem Grund verschiebt sich die Position der rückwärts gerichteten Kamera RV gegenüber ihrem Normalzustand beziehungsweise ihrem Soll-Wert. 2nd shows the cameras very schematically ML , FV , MR , RV of a camera system 12 from an extremely schematic bird's eye view. For a better overview, three axes are shown, with a z-axis of a vehicle vertical axis of the motor vehicle 1 corresponds to a y-axis of a vehicle longitudinal axis of the motor vehicle 1 corresponds and an x-axis of a vehicle transverse axis of the motor vehicle 1 corresponds. In an exemplary situation C1 the motor vehicle is, for example, in a uniform movement or when standing on a flat surface. The positions of all four cameras ML , FV , MR , RV correspond to a normal state or a target value. In an exemplary situation C2 becomes a front axle of the motor vehicle 1 slowed down. Due to an incomplete stiffness of a body of the motor vehicle 1 and due to the acceleration resulting from braking, the motor vehicle is compressed in its front part. This is evident from the fact that the position of the front camera FV shifted from their normal state or their target value. In another exemplary situation C3 becomes the motor vehicle 1 accelerates. In the present example, the acceleration is via a corresponding power output via the rear axle of the motor vehicle 1 and / or by pushing the trailer 98 (e.g. downhill). This results in a compression of the body of the motor vehicle 1 in the rear area. For this reason, the position of the rear-facing camera shifts RV compared to their normal state or their target value.

Weitere beispielhafte Situationen sind in 3 dargestellt. In 3 sind die Kameras FV, MR, RV, ML in einer seitlichen Perspektivansicht äußerst schematisch dargestellt. Eine Blickrichtung auf die Kameras in 3 entspricht somit zumindest teilweise der Fahrzeugquerachse beziehungsweise der x-Achse. In der Situation C4 befindet sich das Kraftfahrzeug 1 auf einem ebenen Untergrund. Dies ist durch eine Repräsentation 80 des Kraftfahrzeugs 1 dargestellt. Die vier Kameras RV, MR, FV, ML befinden sich in ihrem Normalzustand beziehungsweise ihre Position entspricht dem Soll-Wert. In der beispielhaften Situation C5 befindet sich das Kraftfahrzeug 1 mit seiner Vorderachse auf einer Unebenheit, insbesondere einem Hügel oder einer Erhebung. Dies ist mittels der Repräsentation 81 dargestellt. In der Situation C5 erfolgt beispielsweise im Wesentlichen eine Rotation des Kraftfahrzeugs um dessen Fahrzeugquerachse beziehungsweise um die x-Achse. Die Positionen der einzelnen Kameras verschieben sich jeweils gegenüber ihrem Normalzustand beziehungsweise ihrem jeweiligen Soll-Wert. Dasselbe gilt analog für die Situation C6, in welcher sich das Kraftfahrzeug auf einer geneigten Grundfläche befindet. Die Neigung der Grundfläche verläuft teilweise entlang der Fahrzeuglängsachse (siehe Repräsentation 82, welche das Kraftfahrzeug 1 von hinten darstellt). Insbesondere erfolgt hierbei eine Rotation des Kraftfahrzeugs bezüglich seiner y-Achse.Other exemplary situations are in 3rd shown. In 3rd are the cameras FV , MR , RV , ML shown extremely schematically in a side perspective view. A view of the cameras in 3rd thus corresponds at least partially to the vehicle transverse axis or the x-axis. In the situation C4 is the motor vehicle 1 on a flat surface. This is through representation 80 of the motor vehicle 1 shown. The four cameras RV , MR , FV , ML are in their normal state or their position corresponds to the target value. In the exemplary situation C5 is the motor vehicle 1 with its front axle on a bump, especially on a hill or an elevation. This is through representation 81 shown. In the situation C5 for example, there is essentially a rotation of the motor vehicle about its transverse vehicle axis or about the x axis. The positions of the individual cameras shift relative to their normal state or their respective target value. The same applies analogously to the situation C6 , in which the motor vehicle is on an inclined base. The inclination of the base area runs partly along the longitudinal axis of the vehicle (see representation 82 which the motor vehicle 1 from behind). In particular, the motor vehicle rotates with respect to its y-axis.

Es wurden nun mehrere beispielhafte Zustände gezeigt, in welchen sich ein Erfassungsbereich eines Kamerasystems 12 eines Kraftfahrzeugs 1 verschieben kann. Im Falle einer solchen Verschiebung ist es möglich, dass für Fremdobjekte, welche mittels des Kamerasystems erfasst werden sollen, falsche Positionen und/oder falsche Abmessungen ermittelt werden. Wird eine Fahrerassistenzfunktion, beispielsweise ein Notbremsassistent, ein Einparkassistent oder ein Spurhalteassistent, basierend auf einer Umfelderfassung durch das Kamerasystem gesteuert, so kann dies zu fehlerhaftem beziehungsweise falschen Verhalten der Fahrerassistenzfunktion führen. Aus diesem Grund ist vorliegend vorgesehen, den Erfassungsbereich des Kamerasystems 12 zu kalibrieren.Several exemplary states have now been shown, in which there is a detection range of a camera system 12 a motor vehicle 1 can move. In the case of such a shift, it is possible that for foreign objects, which wrong positions and / or wrong dimensions are to be determined by means of the camera system. If a driver assistance function, for example an emergency brake assistant, a parking assistant or a lane departure warning system, is controlled by the camera system based on an environment detection, this can lead to incorrect or incorrect behavior of the driver assistance function. For this reason, the detection area of the camera system is provided in the present case 12 to calibrate.

4 zeigt eine beispielhafte Architektur eines Fahrerassistenzsystems 2, welches dazu eingerichtet ist, den Erfassungsbereich eines Kamerasystems 12 im Rahmen einer sogenannte „online-calibration“, also im laufenden Betrieb des Kraftfahrzeugs 1, zu kalibrieren. Einem künstlichen neuronalen Netz 19 werden jeweilige Bildpaare 4 aus jeder der Kameras VF, ML, RV, MR bereitgestellt. Jedes der Bildpaare 4 umfasst zwei Bilder 5, welche zu unterschiedlichen Zeiten mit der jeweiligen Kamera VF, ML, RV, MR aufgenommen wurden. Beispielsweise handelt es sich bei den Bildern 5 eines jeweiligen Bildpaars 4 um zwei unterschiedliche Einzelbilder (Frames) eines Videosignals. Die jeweiligen Bildpaare 4 der unterschiedlichen Kameras VF, ML, RV, MR werden einem jeweiligen Eingangsteil 18 des künstlichen neuronalen Netzes 19 zugeführt. Mit anderen Worten weist das künstliche neuronale Netz 19 zur Verarbeitung der Bilder 5 so viele Eingangsteile 18 auf, wie das Kamerasystem 12 unterschiedliche Kameras VF, ML, RV, MR aufweist. Jeder Eingangsteil 18 weist wiederum zwei Encoder 3 auf. Es ist ein jeweiliger Encoder 3 für jedes Bild 5 eines jeweiligen Bildpaares 4 vorgesehen. Eine solche Architektur wird auch mit dem englischen Fachbegriff „multi stream convolutional neural network“ oder „two stream convolutional neural network“ bezeichnet. Auf diese Weise ist jeder Kamera VF, ML, RV, MR ein jeweiliger Eingangsteil 18 des künstlichen neuronalen Netzes 19 zugeordnet. Jeder Eingangsteil 18 weist wiederum jeweils zwei Encoder, insbesondere so genannte CNN-Encoder, also Encoder eines künstlichen neuronalen Netzes, auf. Die beiden Bilder 5 eines jeweiligen Bildpaars 4 werden jeweils durch einen unterschiedlichen der beiden Encoder 3 des entsprechenden Eingangsteils 18 ausgewertet. Mit anderen Worten werden beide Einzelbilder 5 durch die jeweiligen Encoder 3 separat ausgewertet. Beispielsweise können die Encoder 3 jeweils eine oder mehrere gefaltete Lagen, auch convolutional layer genannt, und/oder Zusammenfassungslagen, auch pooling layer genannt, aufweisen. Auf diese Weise werden die Bilder 5 durch den jeweiligen Encoder 3 vorverarbeitet. 4th shows an exemplary architecture of a driver assistance system 2nd , which is set up to cover the detection area of a camera system 12 as part of a so-called "online calibration", that is, while the motor vehicle is in operation 1 to calibrate. An artificial neural network 19th become respective image pairs 4th from each of the cameras VF , ML , RV , MR provided. Each of the pairs of images 4th includes two pictures 5 which at different times with the respective camera VF , ML , RV , MR were recorded. For example, the pictures 5 of a respective image pair 4th by two different frames of a video signal. The respective image pairs 4th of the different cameras VF , ML , RV , MR become a respective input part 18th of the artificial neural network 19th fed. In other words, the artificial neural network 19th to process the images 5 so many input parts 18th on how the camera system 12 different cameras VF , ML , RV , MR having. Any input part 18th again has two encoders 3rd on. It is a respective encoder 3rd for each picture 5 of a respective pair of images 4th intended. Such an architecture is also referred to with the English technical term "multi stream convolutional neural network" or "two stream convolutional neural network". This way every camera is VF , ML , RV , MR a respective input part 18th of the artificial neural network 19th assigned. Any input part 18th each has two encoders, in particular so-called CNN encoders, that is, encoders of an artificial neural network. The two pictures 5 of a respective image pair 4th are each a different one of the two encoders 3rd of the corresponding input section 18th evaluated. In other words, both are single frames 5 through the respective encoder 3rd evaluated separately. For example, the encoders 3rd each have one or more folded layers, also called convolutional layers, and / or summary layers, also called pooling layers. This way the pictures 5 by the respective encoder 3rd preprocessed.

Anschließend werden die vorverarbeiteten Bilder aus den beiden Encodern 3 durch eine Verknüpfungslage 6 des künstlichen neuronalen Netzes zusammengefasst. Jeder Eingangsteil 18 weist somit eine jeweilige Verknüpfungslage 6 auf. In der Verknüpfungslage 6 eines der Eingangsteile 18 werden die Bilder 5 des durch den entsprechenden Eingangsteil 18 verarbeiteten Bildpaares 4 miteinander verknüpft. Insbesondere umfasst die Verknüpfungslage 6 eine oder mehrere vollverknüpfte Lagen, auch fully-connected layer genannt. In manchen Ausführungsformen besteht die Verknüpfungslage 6 ausschließlich aus einem oder mehreren fully-connected layers. Die Eingangsteile 18 sind insbesondere im Wesentlichen dazu ausgebildet, Bewegungsdaten aus dem jeweiligen Bildpaar 4 zu extrahieren. Beispielsweise sind die Eingangsteile 18 dazu angelernt, die Bewegungsdaten aus den Bildern 5, die ja zu unterschiedlichen Zeiten aufgenommen wurden, zu extrahieren. Hierzu kann beispielsweise ein optischer Fluss, eine Verschiebung von Merkmalen, oder eine beliebige andere Veränderung zwischen den Bildern 5 eines Bildpaars 4 ausgewertet werden. Durch entsprechende Verknüpfungslage 6 können jeweilige Werte für Roll-Winkel, Nickwinkel und/oder Gierwinkel des Kraftfahrzeugs 1 ausgegeben werden. Alternativ oder zusätzlich können jeweilige translatorische Koordinaten für das Kraftfahrzeug 1 bestimmt und ausgegeben werden. Insbesondere werden die translatorischen Koordinaten in willkürlichen Einheiten ausgegeben. Auf diese Weise kann das künstliche neuronale Netz 19 besonders allgemeintauglich angelernt werden, wobei die Umrechnung der translatorischen Koordinaten in fahrzeugspezifische Längeneinheiten erst in einem späteren Verarbeitungsschritt, insbesondere nach Ausgabe durch das künstliche neuronale Netz 19, erfolgt. In diesem Fall kann zusätzlich eine hierfür notwendige Skala für die spätere Umrechnung durch die Verknüpfungslage 6 ausgegeben werden.Then the preprocessed images from the two encoders 3rd through a link position 6 of the artificial neural network. Any input part 18th thus shows a respective link position 6 on. In the link position 6 one of the entrance parts 18th will the pictures 5 through the corresponding input section 18th processed image pair 4th linked together. In particular, the link position includes 6 one or more fully linked layers, also called fully-connected layers. In some embodiments, the linkage exists 6 exclusively from one or more fully-connected layers. The input parts 18th are in particular essentially designed to generate movement data from the respective image pair 4th to extract. For example, the input parts 18th learned the movement data from the pictures 5 that were recorded at different times. For this purpose, for example, an optical flow, a shift in features, or any other change between the images 5 of a pair of images 4th be evaluated. By appropriate linkage 6 can have respective values for roll angle, pitch angle and / or yaw angle of the motor vehicle 1 be issued. Alternatively or additionally, respective translatory coordinates for the motor vehicle can be used 1 determined and issued. In particular, the translational coordinates are output in arbitrary units. In this way, the artificial neural network 19th are taught in a particularly general manner, the conversion of the translational coordinates into vehicle-specific length units only in a later processing step, in particular after output by the artificial neural network 19th , he follows. In this case, a scale that is necessary for this can be used for the subsequent conversion using the link position 6 be issued.

In einer Höheneinheit 7 werden Höhenwerte für jeweilige Überlappungsbereiche 21 der Kameras ML, VR, MR, LV bestimmt. In 6 sind die Überlappungsbereiche 21 dargestellt. Jede der Kameras ML, LV, MR, RV weist einen jeweiligen Erfassungsbereich 20 auf. In den Überlappungsbereichen 21 überlappen sich die Erfassungsbereiche 20 zweier der Kameras. Auf diese Weise können die Überlappungsbereiche 21 stereoskopisch durch zwei unterschiedliche der Kameras ML, RV, MR, LV erfasst werden. Mit Hilfe von stereoskopischer Auswertung können jeweilige Höhenwerte für die Überlappungsbereiche 21 bestimmt werden. Dies ist aus dem Stand der Technik grundsätzlich bekannt. Insbesondere können einer Untergrundfläche, auf der sich das Kraftfahrzeug 1 befindet, jeweilige Höhenwerte für jeden der Überlappungsbereiche 21 zugeordnet werden. Zur Veranschaulichung sei nochmals auf 1 verwiesen. Aufgrund der Verschiebung gemäß dem Pfeil 96 würde sich im vorderen Bereich des Kraftfahrzeugs 1 ein gegenüber einem Normalzustand erhöhter Höhenwert ergeben und aufgrund der Verschiebung entlang dem Pfeil 97 würde sich im hinteren Bereich des Kraftfahrzeugs ein gegenüber einem Normalzustand verringerter Höhenwert ergeben. Dies wird hierbei zum Kalibrieren des Kamerasystems 12 des Kraftfahrzeugs 1 genutzt.In one height unit 7 become height values for respective overlap areas 21st of the cameras ML , VR , MR , LV certainly. In 6 are the overlap areas 21st shown. Each of the cameras ML , LV , MR , RV has a respective detection area 20th on. In the overlap areas 21st the detection areas overlap 20th two of the cameras. In this way, the overlap areas 21st stereoscopically by two different cameras ML , RV , MR , LV be recorded. With the help of stereoscopic evaluation, respective height values for the overlap areas can be obtained 21st be determined. This is basically known from the prior art. In particular, a sub-surface on which the motor vehicle is located 1 , respective height values for each of the overlap areas 21st be assigned. To illustrate, let's go back to 1 referred. Because of the shift according to the arrow 96 would be in the front of the vehicle 1 result in a higher altitude value than in a normal state and due to the shift along the arrow 97 would result in a lower height value compared to a normal state in the rear area of the motor vehicle. This will be used to calibrate the camera system 12 of the motor vehicle 1 utilized.

Das Bestimmen der Höhenwerte durch die Höheneinheit 7 kann basierend auf einem Modell 17 des Kraftfahrzeugs erfolgen. Dabei wird durch das Modell 17 eine jeweilige Relativposition der einzelnen Kameras FV, ML, RV, MR relativ zueinander bereitgestellt. Mit anderen Worten kann das Modell 17 angegeben, in welcher Position am Kraftfahrzeug 1 eine jeweilige der Kameras FV, ML, RV, MR angeordnet ist. Dies ist notwendig, um die Höhenwerte mittels Stereoskopie korrekt bestimmen zu können. Das Auswerten der stereoskopischen Bilder der unterschiedlichen Kameras FV, ML, RV, MR kann dabei stets mit dem Soll-Wert für die jeweilige Kamerapose/Kameraposition erfolgen. Alternativ kann bei wiederholter Ausführung des vorliegenden Verfahrens mit einem vorbestimmten Ist-Wert für die entsprechende Position der entsprechende Höhenwert bestimmt werden. Für jeden der Überlappungsbereiche 21 wird vorteilhafterweise ein jeweiliger Höhenwert bestimmt. Noch vorteilhafter ist es, wenn für jeden der Überlappungsbereiche 21 mehrere jeweilige Höhenwerte bestimmt werden, welche insbesondere mehrere über den entsprechenden Überlappungsbereiche 21 verteilte Umgebungsbereiche betreffen.The determination of the height values by the height unit 7 can be based on a model 17th of the motor vehicle. This is done by the model 17th a respective relative position of the individual cameras FV , ML , RV , MR provided relative to each other. In other words, the model 17th indicated in which position on the motor vehicle 1 a respective one of the cameras FV , ML , RV , MR is arranged. This is necessary in order to be able to correctly determine the height values using stereoscopy. The evaluation of the stereoscopic images of the different cameras FV , ML , RV , MR can always be done with the target value for the respective camera pose / camera position. Alternatively, when the present method is carried out repeatedly, the corresponding height value can be determined with a predetermined actual value for the corresponding position. For each of the overlap areas 21st a respective height value is advantageously determined. It is even more advantageous if for each of the overlap areas 21st a plurality of respective height values are determined, which in particular a plurality of values over the corresponding overlap areas 21st affect distributed areas.

Die Größe und Lage der Überlappungsbereiche 21 kann in Abhängigkeit von dem darin erfassten Umgebungsbereich, insbesondere der Grundfläche, auf der sich das Kraftfahrzeug 1 befindet, variieren. Für jeden der Erfassungsbereiche 20 stellt der zu einem Überlappungsbereich 21 beitragende Teil nur einen kleinen Bereich am Rand des entsprechenden Erfassungsbereichs 20 dar. Zum Bestimmen der Höhenwerte können einzelne Bildbereiche, welche in den Bildern zweier unterschiedlicher Kameras FV, ML, RV, MR dargestellt sind, mittels des Modells 17 unter Ausnutzung von Triangulation ausgewertet werden. Hierfür können Strahlengänge einzelner auf die Kamera treffenden Lichtstrahlen ausgewertet werden. Insbesondere können solche Lichtstrahlen zunächst in Plücker-Koordinaten überführt werden. Alternativ oder zusätzlich können die Kameras FV, ML, RV, MR in ein festes, am Kraftfahrzeug 1 ausgerichtetes Koordinatensystem projiziert werden. Durch die Triangulation werden dann die Höhenwerte bestimmt. Durch die beschriebene Vorgehensweise kann Problemen mit starken Abweichungen in der Darstellung aufgrund von Fischaugen-Linsen der einzelnen Kameras FV, ML, RV, MR entgegengewirkt werden.The size and location of the overlap areas 21st can depend on the surrounding area recorded therein, in particular the base area on which the motor vehicle is located 1 varies. For each of the detection areas 20th represents the overlap area 21st contributing part only a small area at the edge of the corresponding detection area 20th To determine the height values, individual image areas can be used, which are in the images of two different cameras FV , ML RV MR are represented by means of the model 17th be evaluated using triangulation. For this purpose, beam paths of individual light beams striking the camera can be evaluated. In particular, such light beams can first be converted into Plücker coordinates. Alternatively or additionally, the cameras FV , ML , RV , MR in a fixed, on the motor vehicle 1 aligned coordinate system are projected. The triangulation then determines the altitude values. The described procedure can cause problems with large deviations in the display due to fisheye lenses of the individual cameras FV , ML , RV , MR be counteracted.

Die Ausgaben der Verknüpfungslagen 6 sowie die Höhenwerte aus der Höheneinheit 7 werden einem Ausgabeteil 8 des künstlichen neuronalen Netzes zugeführt. Der Ausgabeteil 8 kann beispielsweise als rekurrentes neuronales Netz (RNN) ausgeführt sein. Ein solches rekurrentes neuronales Netz wird auch mit dem englischen Fachbegriff recurrent neural network bezeichnet. Der Ausgabeteil 8 ist darauf angelernt, basierend auf den Höhenwerten einerseits und den Ausgaben der Verknüpfungslagen 6 andererseits eine Pose 9 des Kraftfahrzeugs 1 und/oder jeweilige Angaben für die Pose der einzelnen Kameras FV, ML, RV, MR zu bestimmen. Die Ausgaben der Verknüpfungslagen 6 können insbesondere die Bewegungsdaten umfassen oder aus diesen gebildet sein. Zusätzlich kann das Modell 17 des Kraftfahrzeugs 1 durch den Ausgabeteil 8 zum Bestimmen der Pose 9 beziehungsweise der Posen 10 herangezogen werden. Durch das Modell 17 können die Sollwerte für Position und/oder Pose der einzelnen Kameras FV, ML, RV, MR bereitgestellt werden. Durch das Modell 17 kann weiterhin die mechanische Verformbarkeit der Karosserie des Kraftfahrzeugs 1 berücksichtigt werden. Die Posen 10 der einzelnen Kameras FV, ML, RV, MR umfassen einen Ist-Wert für die jeweilige Pose der entsprechenden Kamera. Diese Ist-Werte für die Pose können somit basierend auf dem jeweiligen Soll-Wert unter Berücksichtigung der Höhenwerte und/oder der Bewegungsdaten bestimmt werden. Vorteilhafter Weise ist der Ausgabeteil 8 somit dazu angelernt, anhand des Modells 17 beziehungsweise anhand der Soll-Werte für die Pose einer jeweiligen Kamera FV, ML, RV, MR und unter Berücksichtigung der Bewegungsdaten sowie der Höhenwerte den tatsächlich vorliegenden Ist-Wert für die Position/Pose 10 der entsprechenden Kamera FV, ML, RV, MR zu bestimmen. Die Positionen/Posen 10 der Kameras FV, ML, RV, MR können als „camera extrinsics“ bezeichnet werden.The output of the link layers 6 as well as the altitude values from the altitude unit 7 become an output part 8th of the artificial neural network. The output part 8th can for example be designed as a recurrent neural network (RNN). Such a recurrent neural network is also referred to with the English technical term recurrent neural network. The output part 8th is trained on this, based on the height values on the one hand and the output of the link positions 6 on the other hand a pose 9 of the motor vehicle 1 and / or respective information for the pose of the individual cameras FV , ML , RV , MR to determine. The output of the link layers 6 can in particular include or be formed from the movement data. In addition, the model 17th of the motor vehicle 1 through the output part 8th to determine the pose 9 or the poses 10th be used. Through the model 17th can setpoints for position and / or pose of the individual cameras FV , ML , RV , MR to be provided. Through the model 17th can continue the mechanical deformability of the body of the motor vehicle 1 be taken into account. The poses 10th of the individual cameras FV , ML , RV , MR include an actual value for the respective pose of the corresponding camera. These actual values for the pose can thus be determined based on the respective target value taking into account the height values and / or the movement data. The output part is advantageous 8th thus learned to do so based on the model 17th or based on the target values for the pose of a particular camera FV , ML , RV , MR and taking into account the movement data and the height values, the actual value for the position / pose 10th the corresponding camera FV , ML , RV , MR to determine. The positions / poses 10th of the cameras FV , ML , RV , MR can be called "camera extrinsics".

Das künstliche neuronale Netz 19 wird als Ganzes angelernt. Insbesondere erfolgt das Anlernen auf Basis eines entsprechenden Lernalgorithmus, insbesondere einem sogenannten „deep-learning“-Algorithmus. Dabei lernt das künstliche neuronale Netz 19 genau diejenigen Merkmale aus den Bildpaaren 4 zu extrahieren, welche für die Bewegungsinformationen beziehungsweise die Odometrie sowie zur Bestimmung der Pose 9 des Kraftfahrzeugs 1 von Bedeutung sind. Die Ausgabeeinheit 8 beziehungsweise das rekurrente neuronale Netz lernt selbsttätig strukturelle Informationen aus dem Modell 17 des Kraftfahrzeugs 1, die Bewegungsinformationen sowie die Höhenwerte zu fusionieren und/oder daraus die Positionen/Posen 10 der einzelnen Kameras FV, ML, RV, MR sowie die Pose 9 des Kraftfahrzeugs 1 zu bestimmen.The artificial neural network 19th is taught as a whole. In particular, teaching takes place on the basis of a corresponding learning algorithm, in particular a so-called “deep learning” algorithm. The artificial neural network learns 19th exactly those features from the image pairs 4th extract which for the movement information or odometry as well as for determining the pose 9 of the motor vehicle 1 are important. The output unit 8th or the recurrent neural network automatically learns structural information from the model 17th of the motor vehicle 1 to merge the movement information as well as the altitude values and / or the positions / poses 10th of the individual cameras FV , ML , RV , MR as well as the pose 9 of the motor vehicle 1 to determine.

Basierend auf den Positionen/Posen 10 der Kameras FV, ML, RV, MR sowie der Pose 9 des Kraftfahrzeugs 1 kann somit der Erfassungsbereich des Kamerasystems 12 kalibriert werden. Beispielweise kann der Erfassungsbereich des Kamerasystems 12 mittels geometrischer Berechnungen oder einer Zuordnungstabelle aus den Positionen/Posen 10 der Kameras FV, ML, RV, MR sowie der Pose 9 des Kraftfahrzeugs 1 abgeleitet werden. Die Positionen/Posen 10 der Kameras FV, ML, RV, MR sowie die Pose 9 des Kraftfahrzeugs 1 im vorliegenden Beispiel dabei aus den Höhenwerten in der Überlappungsbereichen 21 sowie den Bewegungsdaten abgeleitet.Based on the positions / poses 10th of the cameras FV , ML , RV , MR as well as the pose 9 of the motor vehicle 1 can thus cover the detection range of the camera system 12 be calibrated. For example, the detection area of the Camera system 12 using geometric calculations or an assignment table from the positions / poses 10th of the cameras FV , ML , RV , MR as well as the pose 9 of the motor vehicle 1 be derived. The positions / poses 10th of the cameras FV , ML , RV , MR as well as the pose 9 of the motor vehicle 1 in the present example from the height values in the overlap areas 21st as well as the movement data derived.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • CN 106960456 [0004]CN 106960456 [0004]

Claims (15)

Verfahren zum Kalibrieren eines Kamerasystems (12) eines Kraftfahrzeugs (1) während eines bestimmungsgemäßen Betriebs des Kraftfahrzeugs (1), wobei das Kamerasystem (12) zumindest eine erste Kamera (FV) und eine von der ersten Kamera (FV) verschiedene zweite Kamera (ML) umfasst und wobei die erste und die zweite Kamera (ML) einen gemeinsamen Überlappungsbereich (21), der Teil eines jeweiligen Erfassungsbereichs (20) sowohl der ersten als auch der zweiten Kamera (FV, ML) ist, aufweisen, mit den Schritten: - Bereitstellen eines ersten und eines zweiten Bildes (5), wobei das erste Bild (5) mittels der ersten Kamera (FV) und das zweite Bild (5) mittels der zweiten Kamera (ML) aufgenommen wird, - Bestimmen eines Höhenwertes für einen in dem Überlappungsbereich (21) dargestellten Umgebungsbereich des Kraftfahrzeugs (1) durch Auswerten des ersten und des zweiten Bildes (5) in deren Überlappungsbereich (21) unter Berücksichtigung eines Modells (17) des Kraftfahrzeugs (1), wobei das Modell zumindest einen Soll-Wert für die Relativposition der ersten und der zweiten Kamera (FV, ML) relativ zueinander bereitstellt, - Bestimmen zumindest eines Kalibrationswerts mittels eines künstlichen neuronalen Netzes (19) unter Nutzung des Höhenwertes als Eingangsgröße, und - Kalibrieren eines Erfassungsbereichs (20) des Kamerasystems (12) basierend auf dem Kalibrationswert.Method for calibrating a camera system (12) of a motor vehicle (1) during intended operation of the motor vehicle (1), the camera system (12) having at least a first camera (FV) and a second camera (ML ) and wherein the first and the second camera (ML) have a common overlap area (21), which is part of a respective detection area (20) of both the first and the second camera (FV, ML), with the steps: Provision of a first and a second image (5), the first image (5) being recorded by means of the first camera (FV) and the second image (5) being recorded by means of the second camera (ML), - Determining a height value for a surrounding area of the motor vehicle (1) shown in the overlap area (21) by evaluating the first and the second image (5) in their overlap area (21) taking into account a model (17) of the motor vehicle (1), wherein the model provides at least one target value for the relative position of the first and the second camera (FV, ML) relative to one another, - Determining at least one calibration value by means of an artificial neural network (19) using the height value as an input variable, and - Calibrating a detection area (20) of the camera system (12) based on the calibration value. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass anhand des Höhenwertes ein Gefälle und/oder eine Unebenheit einer Untergrundfläche, auf der sich das Kraftfahrzeug (1) befindet, für das Kalibrieren des Erfassungsbereichs (20) berücksichtigt wird.Procedure according to Claim 1 , characterized in that a slope and / or an unevenness of a subsurface on which the motor vehicle (1) is located is taken into account for the calibration of the detection area (20) on the basis of the height value. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass anhand des Höhenwertes eine angulare Abweichung zwischen einer Fahrzeughochachse und einer Flächennormalen einer Untergrundfläche, auf der sich das Kraftfahrzeug (1) befindet, für das Kalibrieren des Erfassungsbereichs (20) berücksichtigt wird.Procedure according to Claim 1 or 2nd , characterized in that an angular deviation between a vertical vehicle axis and a surface normal of a surface on which the motor vehicle (1) is located is taken into account for the calibration of the detection area (20) on the basis of the height value. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand des Höhenwertes ein Einfluss einer Beladung des Kraftfahrzeugs (1) und/oder ein Einfluss eines am Kraftfahrzeug (1) angehängten Anhängers auf den Erfassungsbereich (20) berücksichtigt wird.Method according to one of the preceding claims, characterized in that an influence of a loading of the motor vehicle (1) and / or an influence of a trailer attached to the motor vehicle (1) on the detection area (20) is taken into account on the basis of the height value. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch das Modell (17) des Kraftfahrzeugs (1) eine mechanische Verformbarkeit des Kraftfahrzeugs (1), insbesondere einer Karosserie des Kraftfahrzeugs (1), berücksichtigt wird.Method according to one of the preceding claims, characterized in that the model (17) of the motor vehicle (1) takes into account a mechanical deformability of the motor vehicle (1), in particular a body of the motor vehicle (1). Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass ein Ist-Wert für die Position der ersten Kamera (FV) und/oder der zweiten Kamera (ML) relativ zu einem Bezugssystem des Kraftfahrzeugs (1) und/oder relativ zueinander unter Berücksichtigung der mechanischen Verformbarkeit als der Kalibrationswert bestimmt wird.Procedure according to Claim 5 , characterized in that an actual value for the position of the first camera (FV) and / or the second camera (ML) relative to a reference system of the motor vehicle (1) and / or relative to one another taking into account the mechanical deformability as the calibration value becomes. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass zusätzlich zu der Position der jeweiligen Kamera (FV, RV, ML, MR) ein entsprechender Ist-Wert für die Orientierung als der Kalibrationswert bestimmt wird.Procedure according to Claim 6 , characterized in that in addition to the position of the respective camera (FV, RV, ML, MR), a corresponding actual value for the orientation is determined as the calibration value. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Kalibrationswert zunächst in willkürlichen Längeneinheiten bestimmt wird und erst in einem späteren Verfahrensschritt in auf das Kraftfahrzeug (1) bezogene Längeneinheiten umgerechnet wird.Method according to one of the preceding claims, characterized in that the calibration value is first determined in arbitrary length units and is only converted into length units related to the motor vehicle (1) in a later method step. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Bewegungsdaten des Kraftfahrzeugs (1) als weitere Eingangsgröße für das künstliche neuronale Netz (19) für das Bestimmen des Kalibrationswerts genutzt werden, wobei mittels der Bewegungsdaten der Einfluss einer Beschleunigung des Kraftfahrzeugs (1) entlang einer beliebigen Raumrichtung auf den Erfassungsbereich (20) berücksichtigt wird.Method according to one of the preceding claims, characterized in that movement data of the motor vehicle (1) are used as a further input variable for the artificial neural network (19) for determining the calibration value, the influence of an acceleration of the motor vehicle (1) along using the movement data any spatial direction on the detection area (20) is taken into account. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass basierend auf einem ersten Bildpaar (4) und einem zweiten Bildpaar (4) eine weitere Eingangsgröße für das künstliche neuronale Netz (19) gebildet wird, wobei das erste Bildpaar (4) zwei mittels der ersten Kamera (FV) des Kamerasystems (12) zu unterschiedlichen Zeitpunkten aufgenommene Bilder (5) und das zweite Bildpaar (4) zwei mittels der zweiten Kamera (ML) des Kamerasystems (12) zu unterschiedlichen Zeitpunkten aufgenommene Bilder (5) umfasst.Method according to one of the preceding claims, characterized in that a further input variable for the artificial neural network (19) is formed on the basis of a first pair of images (4) and a second pair of images (4), the first pair of images (4) being two by means of the first camera (FV) of the camera system (12) comprises images (5) taken at different times and the second pair (4) comprises two images (5) taken by means of the second camera (ML) of the camera system (12) at different times. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass das erste und das zweite Bildpaar (4) jeweils durch einen unterschiedlichen Eingangsteil (18) des künstlichen neuronalen Netzes (19) ausgewertet werden, wobei durch jeden Eingangsteil (18) eine parallele Verarbeitung beider Bilder (5) des jeweiligen Bildpaares (4), insbesondere einen jeweiligen unterschiedlichen Enkoder (3) des entsprechenden Eingangsteils (18), erfolgt.Procedure according to Claim 10 , characterized in that the first and the second pair of images (4) are each evaluated by a different input part (18) of the artificial neural network (19), with each input part (18) processing both images (5) of the respective image pair in parallel (4), in particular a respective different encoder (3) of the corresponding input part (18). Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass aus dem ersten Bildpaar (4) und dem zweiten Bildpaar (4) jeweilige Bewegungsdaten extrahiert werden und das künstliche neuronale Netz (19) darauf angelernt wird, das Bestimmen des Kalibrationswerts zumindest teilweise basierend auf den Bewegungsdaten durchzuführen.Procedure according to Claim 10 or 11 , characterized in that the first pair of images (4) and the second pair of images (4) are used to extract movement data and the artificial one neural network (19) is learned to carry out the determination of the calibration value based at least in part on the movement data. Steuereinheit für ein Kraftfahrzeug (1), die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Control unit for a motor vehicle (1), which is set up to carry out a method according to one of the preceding claims. Fahrerassistenzsystem für ein Kraftfahrzeugs (1), mit - einem Kamerasystem (12), wobei das Kamerasystem (12) zumindest eine erste Kamera (FV) und eine von der ersten Kamera (FV) verschiedene zweite Kamera (ML) umfasst und wobei die erste und die zweite Kamera (FV, ML) einen gemeinsamen Überlappungsbereich (21), der Teil eines jeweiligen Erfassungsbereichs (20) sowohl der ersten als auch der zweiten Kamera (FV, ML) ist, aufweisen, und - einer Steuereinheit nach Anspruch 13.Driver assistance system for a motor vehicle (1), with - a camera system (12), the camera system (12) comprising at least a first camera (FV) and a second camera (ML) different from the first camera (FV), and wherein the first and the second camera (FV, ML) has a common overlap area (21) which is part of a respective detection area (20) of both the first and the second camera (FV, ML), and - a control unit Claim 13 . Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Kalibrieren eines Kamerasystems eines Kraftfahrzeugs (1) nach einem der vorhergehenden Ansprüche 1 bis 12 durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinheit abgearbeitet wird.Computer program product with program code means, which are stored in a computer-readable medium, for the method for calibrating a camera system of a motor vehicle (1) according to one of the preceding Claims 1 to 12 to be carried out when the computer program product is processed on a processor of an electronic control unit.
DE102018132649.1A 2018-12-18 2018-12-18 Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product Pending DE102018132649A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018132649.1A DE102018132649A1 (en) 2018-12-18 2018-12-18 Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018132649.1A DE102018132649A1 (en) 2018-12-18 2018-12-18 Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product

Publications (1)

Publication Number Publication Date
DE102018132649A1 true DE102018132649A1 (en) 2020-06-18

Family

ID=70858633

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018132649.1A Pending DE102018132649A1 (en) 2018-12-18 2018-12-18 Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product

Country Status (1)

Country Link
DE (1) DE102018132649A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012001858A1 (en) * 2012-02-01 2012-09-27 Daimler Ag Method for calibrating wafer level camera of stereo camera assembly, for vehicle for environmental detection, involves identifying corresponding pixels within data sets detected by image capture units during correspondence analysis
DE102013224502A1 (en) * 2012-12-07 2014-06-12 Continental Teves Ag & Co. Ohg Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods
DE102015107677A1 (en) * 2014-05-16 2015-11-19 Gm Global Technology Operations, Llc All-Round Vision Camera System (VPM) Online Calibration
CN106960456A (en) 2017-03-28 2017-07-18 长沙全度影像科技有限公司 A kind of method that fisheye camera calibration algorithm is evaluated
DE102017205093A1 (en) * 2017-03-27 2018-09-27 Conti Temic Microelectronic Gmbh Method and system for predicting sensor signals of a vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012001858A1 (en) * 2012-02-01 2012-09-27 Daimler Ag Method for calibrating wafer level camera of stereo camera assembly, for vehicle for environmental detection, involves identifying corresponding pixels within data sets detected by image capture units during correspondence analysis
DE102013224502A1 (en) * 2012-12-07 2014-06-12 Continental Teves Ag & Co. Ohg Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods
DE102015107677A1 (en) * 2014-05-16 2015-11-19 Gm Global Technology Operations, Llc All-Round Vision Camera System (VPM) Online Calibration
DE102017205093A1 (en) * 2017-03-27 2018-09-27 Conti Temic Microelectronic Gmbh Method and system for predicting sensor signals of a vehicle
CN106960456A (en) 2017-03-28 2017-07-18 长沙全度影像科技有限公司 A kind of method that fisheye camera calibration algorithm is evaluated

Similar Documents

Publication Publication Date Title
DE102006056408B4 (en) Method for determining a position, device and computer program product
EP2166510B1 (en) Method for calculating the position and orientation of a camera in a vehicle
DE102014204383B4 (en) Driver assistance system for object recognition and method
EP3475921B1 (en) Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle
DE102017109445A1 (en) Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction
DE102008026876A1 (en) Stereo camera system and method for determining at least one calibration error of a stereo camera system
EP2715666A1 (en) Method for determining a pitching movement in a camera installed in a vehicle, and method for controlling a light emission from at least one headlamp on a vehicle
DE102010049216A1 (en) Method for operating camera i.e. stereo camera, arranged at car, involves detecting distance of object via image evaluation, and calibrating camera when distance determined by sensing unit deviates from distance determined by evaluation
DE102019111041A1 (en) Method and device for determining an estimated value of the side slip angle of a vehicle
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE102015006571A1 (en) Device and method for determining a torsion of a body and / or a chassis
DE102020202305A1 (en) Method for recognizing the surroundings of a vehicle and method for training a fusion algorithm for a vehicle system
DE102018132649A1 (en) Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product
DE102017003629A1 (en) Device and method for calibrating optical sensors of a vehicle
DE102017104357A1 (en) METHOD, DEVICE AND COMPUTER READABLE STORAGE MEDIUM WITH MOTOR PLANT INSTRUCTIONS FOR A MOTOR VEHICLE
WO2020212102A1 (en) Method and device for creating an elevation profile for an area to be driven in by a vehicle
WO2023099066A1 (en) Simulation for validating an automating driving function for a vehicle
WO2023036619A1 (en) Method and driver assistance system for assisting a driver in driving along a recorded trajectory
DE102020003465A1 (en) Method for the detection of objects in monocular RGB images
DE102015112443A1 (en) Method for determining a movement of a motor vehicle by means of fusion of odometry data, driver assistance system and motor vehicle
DE102018117199A1 (en) Method for determining at least one relative orientation angle of a team using an inertial measuring unit, computer program product, electronic computing device and driver assistance system
DE102021133091A1 (en) Method for determining an alignment of a camera unit of a detection device, detection device and vehicle
DE102018130246A1 (en) Method for operating a parking assistance system in which a steering lock is set on at least a second parking move, computer program product, electronic computing device and parking assistance system
DE102021004535A1 (en) Method for calibrating an odometry device of a motor vehicle, control device for carrying out such a method, calibration device with such a control device and motor vehicle with such a calibration device
WO2024120876A1 (en) Method and device for controlling the automated lateral control of a vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified