DE102018132649A1 - Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product - Google Patents
Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product Download PDFInfo
- Publication number
- DE102018132649A1 DE102018132649A1 DE102018132649.1A DE102018132649A DE102018132649A1 DE 102018132649 A1 DE102018132649 A1 DE 102018132649A1 DE 102018132649 A DE102018132649 A DE 102018132649A DE 102018132649 A1 DE102018132649 A1 DE 102018132649A1
- Authority
- DE
- Germany
- Prior art keywords
- motor vehicle
- camera
- images
- camera system
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 79
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000004590 computer program Methods 0.000 title claims description 8
- 230000033001 locomotion Effects 0.000 claims description 25
- 230000001133 acceleration Effects 0.000 claims description 20
- 238000011161 development Methods 0.000 description 12
- 230000018109 developmental process Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 7
- 230000000306 recurrent effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B29/00—Combinations of cameras, projectors or photographic printing apparatus with non-photographic non-optical apparatus, e.g. clocks or weapons; Cameras having the shape of other objects
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B43/00—Testing correct operation of photographic apparatus or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/40—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
- B60R2300/402—Image calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Ermöglichen einer verbesserten Kalibration eines Erfassungsbereichs eines Kamerasystems (12) eines Kraftfahrzeugs (1) während eines bestimmungsgemäßen Betriebs des Kraftfahrzeugs (1), wobei das Kamerasystem (12) zumindest eine erste Kamera (FV) und eine zweite Kamera (ML) umfasst, welche einen gemeinsamen Überlappungsbereich (21) aufweisen, mit den Schritten:- Bereitstellen eines ersten und eines zweiten Bildes (5), wobei das erste Bild (5) mittels der ersten Kamera (FV) und das zweite Bild (5) mittels der zweiten Kamera (ML) aufgenommen wird,- Bestimmen eines Höhenwertes für einen in dem Überlappungsbereich (21) dargestellten Umgebungsbereich des Kraftfahrzeugs (1) durch Auswerten des ersten und des zweiten Bildes (5) in deren Überlappungsbereich (21) unter Berücksichtigung eines Modells (17) des Kraftfahrzeugs (1), wobei das Modell zumindest einen Soll-Wert für die Relativposition der ersten und der zweiten Kamera (FV, ML) relativ zueinander bereitstellt,- Bestimmen zumindest eines Kalibrationswerts mittels eines künstlichen neuronalen Netzes (19) unter Nutzung des Höhenwertes als Eingangsgröße, und- Kalibrieren eines Erfassungsbereichs (20) des Kamerasystems (12) basierend auf dem Kalibrationswert.The invention relates to a method for enabling an improved calibration of a detection area of a camera system (12) of a motor vehicle (1) during intended operation of the motor vehicle (1), the camera system (12) comprising at least a first camera (FV) and a second camera ( ML), which have a common overlap area (21), with the steps: - providing a first and a second image (5), the first image (5) using the first camera (FV) and the second image (5) is recorded by means of the second camera (ML), - determining a height value for a surrounding area of the motor vehicle (1) shown in the overlap area (21) by evaluating the first and the second image (5) in their overlap area (21) taking into account a model (17) of the motor vehicle (1), the model having at least one target value for the relative position of the first and the second camera (FV, ML) relative to one another b - determining at least one calibration value by means of an artificial neural network (19) using the height value as an input variable, and - calibrating a detection range (20) of the camera system (12) based on the calibration value.
Description
Die Erfindung betrifft ein Verfahren zum Kalibrieren eines Kamerasystems eines Kraftfahrzeugs während eines bestimmungsgemäßen Betriebs des Kraftfahrzeugs. Die Erfindung betrifft außerdem eine Steuereinheit zur Durchführung eines solchen Verfahrens sowie ein Fahrerassistenzsystem für ein Kraftfahrzeug. Weiterhin gehört zur Erfindung ein Computerprogrammprodukt zur Implementierung des oben genannten Verfahrens sowie ein computerlesbares Speichermedium, auf dem ein solches Computerprogrammprodukt gespeichert ist.The invention relates to a method for calibrating a camera system of a motor vehicle during intended operation of the motor vehicle. The invention also relates to a control unit for performing such a method and a driver assistance system for a motor vehicle. The invention also includes a computer program product for implementing the above-mentioned method and a computer-readable storage medium on which such a computer program product is stored.
Zur Information eines Fahrers über eine Umgebung eines Kraftfahrzeugs oder zum Bereitstellen von Fahrerassistenzfunktionen durch das Kraftfahrzeug, kann das Kraftfahrzeug mit einem Kamerasystem ausgestattet sein. Ein solches Kamerasystem umfasst üblicherweise zumindest zwei Kameras, in vielen Fällen sind es vier Kameras. Im Falle vierer Kameras können diese beispielsweise links und rechts am Kraftfahrzeug, insbesondere an den Spiegeln, an der Front und am Heck angeordnet sein. Idealerweise wird durch die Kameras des Kamerasystems ein Erfassungsbereich um einen Großteil des Kraftfahrzeugs herum, insbesondere um das ganze Kraftfahrzeug herum bereitgestellt. Anhand von Bildern des Kamerasystems können Objekte in der Umgebung erkannt werden, ein Fahrbahnverlauf einer Fahrbahn bestimmt werden oder beliebige andere Informationen des Umgebungsbereichs erfasst werden. Um eine Erkennung zu ermöglichen, muss jedoch das Kamerasystem, insbesondere die einzelnen Kameras des Kamerasystems, kalibriert werden.The motor vehicle can be equipped with a camera system to inform a driver about the surroundings of a motor vehicle or to provide driver assistance functions by the motor vehicle. Such a camera system usually comprises at least two cameras, in many cases there are four cameras. In the case of four cameras, these can be arranged, for example, on the left and right of the motor vehicle, in particular on the mirrors, on the front and on the rear. Ideally, the cameras of the camera system provide a detection area around a large part of the motor vehicle, in particular around the entire motor vehicle. With the help of images from the camera system, objects in the surroundings can be recognized, a course of the carriageway of a carriageway can be determined or any other information in the surrounding area can be acquired. To enable detection, however, the camera system, in particular the individual cameras of the camera system, must be calibrated.
Bei dem Kalibrieren des Kamerasystems kann bestimmt werden, welchen Erfassungsbereich das Kamerasystem beziehungsweise dessen einzelne Kameras haben. Dieser Erfassungsbereich kann maßgeblich von der Einbauposition beziehungsweise Pose der jeweiligen Kameras abhängen. Zudem kann eine Erfassungscharakteristik der jeweiligen Kamera großen Einfluss auf den Erfassungsbereich haben. Die Erfassungscharakteristik kann insbesondere durch die verwendet Linse, beispielsweise eine so genannte Fischaugenlinse oder auf Englisch „fish eye“, beeinflusst sein.When calibrating the camera system, it can be determined which detection area the camera system or its individual cameras have. This detection range can largely depend on the installation position or pose of the respective cameras. In addition, a detection characteristic of the respective camera can have a great influence on the detection area. The detection characteristic can be influenced in particular by the lens used, for example a so-called fish eye lens or "fish eye" in English.
Das Kalibrieren einer Kamera mit einer Fischaugenlinse ist beispielsweise aus der
Eine Kalibration des Erfassungsbereichs des Kamerasystems kann beispielsweise werkseitig, beispielsweise durch einen Hersteller des Kraftfahrzeugs oder des Kamerasystems, durchgeführt werden. Bei einer solchen Kalibration kann der Erfassungsbereich einer jeweiligen Kamera mit einer Relativposition in der Umgebung des Kraftfahrzeugs bezogen auf das Kraftfahrzeug in Bezug gesetzt werden. Beispielsweise wird einzelnen Bildbereichen und/oder sogar einzelnen Pixeln des Kamerasystems eine Koordinate in einem am Kraftfahrzeug ausgerichteten Koordinatensystem zugewiesen. Auf diese Weise kann anhand der Bilder des Kamerasystems beziehungsweise der jeweiligen Kameras die Position eines Objekts, einer Fahrbahn oder einer beliebigen anderen Information relativ zu dem Kraftfahrzeug, insbesondere bezogen auf das Koordinatensystem des Kraftfahrzeugs, bestimmt werden.The detection range of the camera system can be calibrated at the factory, for example by a manufacturer of the motor vehicle or the camera system. With such a calibration, the detection range of a respective camera can be related to a relative position in the surroundings of the motor vehicle in relation to the motor vehicle. For example, individual image areas and / or even individual pixels of the camera system are assigned a coordinate in a coordinate system aligned with the motor vehicle. In this way, the position of an object, a roadway or any other information relative to the motor vehicle, in particular based on the coordinate system of the motor vehicle, can be determined on the basis of the images of the camera system or the respective cameras.
Es ist offensichtlich, dass die korrekte und genaue Erfassung von Objekten oder Fahrbahnen in der Umgebung des Kraftfahrzeugs stark von einer korrekten Kalibration des Kamerasystems beziehungsweise dessen Erfassungsbereich abhängt. Durch eine Verschiebung des Erfassungsbereichs können falsche Relativpositionen für Objekte oder Fahrbahnen in der Umgebung des Kraftfahrzeugs bestimmt werden. Bei Nutzung des Kamerasystems zur Information des Fahrers oder zur Bereitstellung der Fahrerassistenzfunktion, kann dies zu einer erhöhten Kollisionsgefahr für das Kraftfahrzeug führen. Dies gilt insbesondere für Fahrerassistenzfunktionen, die eine autonome oder teilautonome Fahrt des Kraftfahrzeugs ermöglichen, beispielsweise Einparksysteme. Um Kollisionen aufgrund fehlerhafter Erfassung von Objekten oder Fahrbahnen einzudämmen, ist es möglich, einen Sicherheitsabstand, den das Kraftfahrzeug während einer solchen autonomen oder teilautonomen Fahrt einhält, zu vergrößern. Dadurch wiederum wird jedoch das Manövrieren erschwert.It is obvious that the correct and precise detection of objects or lanes in the surroundings of the motor vehicle depends heavily on a correct calibration of the camera system or its detection area. By shifting the detection area, incorrect relative positions for objects or lanes in the surroundings of the motor vehicle can be determined. When using the camera system to inform the driver or to provide the driver assistance function, this can lead to an increased risk of collision for the motor vehicle. This applies in particular to driver assistance functions that enable the motor vehicle to drive autonomously or partially autonomously, for example parking systems. In order to curb collisions due to incorrect detection of objects or lanes, it is possible to increase the safety distance that the motor vehicle maintains during such an autonomous or partially autonomous journey. This in turn makes maneuvering more difficult.
Es ist Aufgabe der vorliegenden Erfindung, ein verbessertes Kalibrieren eines Erfassungsbereichs eines Kamerasystems zu ermöglichen.The object of the present invention is to enable improved calibration of a detection area of a camera system.
Diese Aufgabe wird erfindungsgemäß gelöst durch die Gegenstände der unabhängigen Patentansprüche. Vorteilhaft Ausführungsformen mit zweckmäßigen Weiterbildungen sind Gegenstand der Unteransprüche.This object is achieved according to the invention by the subject matter of the independent claims. Advantageous embodiments with appropriate developments are the subject of the dependent claims.
Ein erster Aspekt der Erfindung betrifft ein Verfahren zum Kalibrieren eines Kamerasystems eines Kraftfahrzeugs während eines bestimmungsgemäßen Betriebs des Kraftfahrzeugs, wobei das Kamerasystem zumindest eine erste Kamera und eine von der ersten Kamera verschiedene zweite Kamera umfasst und wobei die erste und die zweite Kamera einen gemeinsamen Überlappungsbereich, der Teil eines jeweiligen Erfassungsbereichs sowohl der ersten als auch der zweiten Kamera ist, aufweisen. Das Verfahren sieht die folgenden Schritte vor:
- - Bereitstellen eines ersten und eines zweiten Bildes, wobei das erste Bild mittels der ersten Kamera und das zweite Bild mittels der zweiten Kamera aufgenommen wird,
- - Bestimmen eines Höhenwertes für einen in dem Überlappungsbereich dargestellten Umgebungsbereich des Kraftfahrzeugs durch Auswerten des ersten und des zweiten Bildes in deren Überlappungsbereich unter Berücksichtigung eines Modells des Kraftfahrzeugs, wobei das Modell zumindest einen Soll-Wert für die Relativposition der ersten und der zweiten Kamera relativ zueinander bereitstellt,
- - Bestimmen zumindest eines Kalibrationswerts mittels eines künstlichen neuronalen Netzes unter Nutzung des Höhenwertes als Eingangsgröße, und
- - Kalibrieren eines Erfassungsbereichs des Kamerasystems basierend auf dem Kalibrationswert.
- Provision of a first and a second image, the first image being recorded by means of the first camera and the second image being recorded by means of the second camera,
- - Determining a height value for a surrounding area of the motor vehicle shown in the overlap area by evaluating the first and the second image in their overlap area, taking into account a model of the motor vehicle, the model providing at least one target value for the relative position of the first and second cameras relative to one another ,
- - Determining at least one calibration value by means of an artificial neural network using the height value as an input variable, and
- - Calibrate a detection area of the camera system based on the calibration value.
Bei dem Kalibrationswert kann es sich beispielsweise um eine Angabe handeln, in wie weit der Erfassungsbereich des Kamerasystems gegenüber einem Normalzustand verschoben, erweitert oder eingeschränkt ist. Selbstverständlich beschränkt sich das vorliegende Verfahren nicht auf einen einzelnen Kalibrationswert. Es können selbstverständlich auch mehrere Kalibrationswerte bestimmt und nachfolgend für das Kalibrieren des Erfassungsbereichs herangezogen werden. Im Rahmen der vorliegenden Anmeldung ist zumeist von einem Kalibrationswert im Singular die Rede. Diese Formulierung soll jedoch ausdrücklich auch die Verwendung mehrerer Kalibrationswerte einschließen.The calibration value can be, for example, an indication of the extent to which the detection range of the camera system has been shifted, expanded or restricted compared to a normal state. Of course, the present method is not limited to a single calibration value. Of course, several calibration values can also be determined and subsequently used for calibrating the detection area. In the context of the present application, a calibration value in the singular is usually mentioned. However, this wording should explicitly include the use of multiple calibration values.
Eine Kalibrierung des Kamerasystems während des bestimmungsgemäßen Betriebs des Kraftfahrzeugs kann auch als so genannte Online-Kalibrierung bezeichnet werden. Der bestimmungsgemäße Betrieb des Kraftfahrzeugs kann beispielsweise ein alltäglicher Gebrauch des Kraftfahrzeugs durch einen Endnutzer sein. Beispielsweise umfasst der bestimmungsgemäße Betrieb des Kraftfahrzeugs Fahrten des Kraftfahrzeugs, Einparkmanöver und/oder beliebige andere Fahrmanöver des Kraftfahrzeugs, insbesondere beim Endkunden. Insbesondere nicht umfasst von einem Kalibrieren des Kamerasystems während des bestimmungsgemäßen Betriebs des Kraftfahrzeugs sind Kalibrierungen, die in einer Werkstatt oder produktionsseitig, beispielsweise während einer Herstellung des Kraftfahrzeugs, durchgeführt werden. Eine Kalibrierung während dem bestimmungsgemäßen Betrieb des Kraftfahrzeugs kann sich durch regelmäßige Wiederholung während jeglicher Nutzung des Kraftfahrzeugs auszeichnen.A calibration of the camera system during the intended operation of the motor vehicle can also be referred to as a so-called online calibration. The intended operation of the motor vehicle can, for example, be an everyday use of the motor vehicle by an end user. For example, the intended operation of the motor vehicle includes trips of the motor vehicle, parking maneuvers and / or any other driving maneuvers of the motor vehicle, in particular at the end customer. In particular, calibration of the camera system during the intended operation of the motor vehicle does not include calibrations that are carried out in a workshop or on the production side, for example during manufacture of the motor vehicle. A calibration during the intended operation of the motor vehicle can be characterized by regular repetition during any use of the motor vehicle.
Die erste Kamera und die zweite Kamera weisen einen jeweiligen Erfassungsbereich auf. Die jeweiligen Erfassungsbereiche der ersten und der zweiten Kamera überlappen sich, wenn die erste Kamera und die zweite Kamera bestimmungsgemäß an dem Kraftfahrzeug angeordnet sind. Dabei wird der Überlappungsbereich sowohl von der ersten Kamera als auch von der zweiten Kamera erfasst. Der Überlappungsbereich stellt somit die Schnittmenge der jeweiligen Erfassungsbereiche der ersten und der zweiten Kamera dar.The first camera and the second camera each have a detection area. The respective detection areas of the first and the second camera overlap when the first camera and the second camera are arranged as intended on the motor vehicle. The overlap area is captured by both the first camera and the second camera. The overlap area thus represents the intersection of the respective detection areas of the first and the second camera.
Bei dem Bestimmen des Höhenwertes werden das erste und das zweite Bild insbesondere jeweils in ihrem Überlappungsbereich ausgewertet. Unter Ausnutzung von Stereoskopie kann das Bestimmen des Höhenwertes erfolgen. Für die Nutzung der Stereoskopie wird hierbei das Modell des Kraftfahrzeugs herangezogen. Durch das Modell des Kraftfahrzeugs wird der Soll-Wert für die Relativposition der ersten und der zweiten Kamera relativ zueinander bereitgestellt. Der Soll-Wert kann beispielsweise spezifisch für einen vorbestimmten Zustand des Kraftfahrzeugs sein. In diesem vorbestimmten Zustand können sich die erste und die zweite Kamera in einer Relativposition zueinander befinden, welche dem Soll-Wert entspricht. Der vorbestimmte Zustand kann beispielsweise wie folgt definiert sein: Das Kraftfahrzeug steht auf einer ebenen Grundfläche, wobei außer der Erdbeschleunigung keine zusätzliche Beschleunigung auf das Kraftfahrzeug wirkt. Insbesondere ist die Erdbeschleunigung in diesem vorbestimmten Zustand parallel zu einer Fahrzeughochachse des Kraftfahrzeugs beziehungsweise senkrecht zu der ebenen Grundfläche.When determining the height value, the first and the second image are evaluated in each case in particular in their overlap area. The height value can be determined using stereoscopy. The model of the motor vehicle is used for the use of stereoscopy. The target value for the relative position of the first and the second camera relative to one another is provided by the model of the motor vehicle. The target value can, for example, be specific for a predetermined state of the motor vehicle. In this predetermined state, the first and the second camera can be in a relative position to one another which corresponds to the target value. The predetermined state can be defined, for example, as follows: the motor vehicle stands on a flat base surface, with no additional acceleration acting on the motor vehicle apart from gravitational acceleration. In particular, the gravitational acceleration in this predetermined state is parallel to a vertical axis of the vehicle or perpendicular to the flat base.
Das Modell kann alternativ oder zusätzlich einen Absolutwert für die Position der ersten und/oder der zweiten Kamera bezogen auf ein am Kraftfahrzeug ausgerichtetes Koordinatensystem umfassen. In diesem Fall kann der Soll-Wert für die Relativposition der ersten und der zweiten Kamera zueinander implizit anhand der entsprechenden Absolutpositionen bereitgestellt sein. Der Höhenwert kann eine Höhe des Umgebungsbereichs, der in dem Überlappungsbereich durch die erste und die zweite Kamera dargestellt wird, repräsentieren. Beispielsweise repräsentiert der Höhenwert eine Höhe einer ebenen oder gekrümmten Untergrundfläche, auf der sich das Kraftfahrzeug befindet. Der Höhenwert kann beispielsweise bezogen sein auf ein Bezugssystem der ersten Kamera, ein Bezugssystem der zweiten Kamera oder ein Bezugssystem des Kraftfahrzeugs, insbesondere das am Kraftfahrzeug ausgerichtete Koordinatensystem. Insbesondere ist der Höhenwert an der Fahrzeughochachse des Kraftfahrzeugs ausgerichtet. Mit anderen Worten kann der Höhenwert die Höhe des dargestellten Umgebungsbereichs bezogen auf die Fahrzeughochachse des Kraftfahrzeugs angeben.As an alternative or in addition, the model can comprise an absolute value for the position of the first and / or the second camera in relation to a coordinate system aligned with the motor vehicle. In this case, the target value for the relative position of the first and the second camera can be provided implicitly on the basis of the corresponding absolute positions. The height value can represent a height of the surrounding area, which is represented in the overlap area by the first and the second camera. For example, the height value represents a height of a flat or curved surface on which the motor vehicle is located. The height value can be related, for example, to a reference system of the first camera, a reference system of the second camera or a reference system of the motor vehicle, in particular the coordinate system aligned with the motor vehicle. In particular, the height value is aligned with the vertical axis of the motor vehicle. In other words, the height value can indicate the height of the surrounding area shown in relation to the vertical axis of the motor vehicle.
Das künstliche neuronale Netz kann darauf angelernt werden, mittels des Höhenwerts als Eingangsgröße den zumindest einen Kalibrationswert zu bestimmen. Insbesondere wird für das Bestimmen des zumindest einen Kalibrationswerts ein entsprechend angelerntes künstliches neuronales Netz verwendet. Bei dem künstlichen neuronalen Netz kann es sich beispielsweise um ein faltendes neuronales Netz, auch mit dem englischen Fachbegriff „convolutional neuronal network“ (kurz: CNN) bezeichnet, oder ein rekurrentes neuronales Netz, auch mit dem englischen Fachbegriff „recurrent neuronal network“ (kurz: RNN) bezeichnet, handeln. Durch den Kalibrationswert kann beispielsweise, explizit oder implizit, der Erfassungsbereich der ersten und/oder der zweiten Kamera festgelegt werden. Anschließend erfolgt das Kalibrieren des Kamerasystems basierend auf dem Kalibrationswert. Beispielsweise wird hierbei ein Bezugsystem der Kamera, insbesondere bezogen auf den Erfassungsbereich der Kamera, anhand des Kalibrationswerts kalibriert.The artificial neural network can be taught to determine the at least one calibration value using the height value as an input variable. In particular, a correspondingly trained artificial neural network is used to determine the at least one calibration value used. The artificial neural network can, for example, be a folding neural network, also known as the “convolutional neuronal network” (CNN), or a recurrent neural network, also known as “recurrent neuronal network” (short) : RNN), act. The detection value of the first and / or the second camera can be determined, for example, explicitly or implicitly by the calibration value. The camera system is then calibrated based on the calibration value. For example, a reference system of the camera, in particular based on the detection range of the camera, is calibrated on the basis of the calibration value.
Die Erfindung beruht auf der Erkenntnis, dass abhängig von dem Höhenwert in dem Überlappungsbereich der Erfassungsbereich des Kamerasystems kalibriert werden kann. Beispielsweise kann anhand des Höhenwertes erkannt werden, dass sich das Kraftfahrzeug auf einer unebenen Fahrbahn, insbesondere einer Kuppel, befindet und/oder sich mit einem Teil seiner Räder auf einem erhöhten Untergrund, beispielsweise einem Bordstein, befindet. Durch derartige Gegebenheiten kann der Erfassungsbereich des Kamerasystems verschoben werden. Alternativ oder zusätzlich kann der Erfassungsbereich des Kamerasystems durch eine Beladung verschoben werden. Eine Verschiebung des Erfassungsbereichs, beispielsweise aufgrund einer der genannten Gegebenheiten, kann anhand des Höhenwertes erkannt werden. Das künstliche neuronale Netz ist darauf angelernt, solche Höhenwerte als Eingangsgröße zum Bestimmen des zumindest einen entsprechenden Kalibrationswerts zu nutzen. Mittels diesem Kalibrationswert kann dann der Erfassungsbereich kalibriert werden beziehungsweise ermittelt werden, wo sich der Erfassungsbereich erstreckt.The invention is based on the knowledge that, depending on the height value in the overlap area, the detection area of the camera system can be calibrated. For example, the height value can be used to recognize that the motor vehicle is on an uneven roadway, in particular a dome, and / or that some of its wheels are on an elevated surface, for example a curb. Such conditions can shift the detection range of the camera system. Alternatively or additionally, the detection range of the camera system can be shifted by loading. A shift in the detection range, for example on the basis of one of the conditions mentioned, can be detected on the basis of the height value. The artificial neural network is trained to use such height values as an input variable for determining the at least one corresponding calibration value. Using this calibration value, the detection area can then be calibrated or it can be determined where the detection area extends.
Selbstverständlich kann das Kamerasystem auch mehr als zwei Kameras umfassen. Beispielsweise umfasst das Kamerasystem vier Kameras. In diesem Fall können mehrere der Kameras untereinander einen jeweiligen gemeinsamen Überlappungsbereich aufweisen. Beispielsweise befinden sich die vier Kameras an vier unterschiedlichen Seiten des Kraftfahrzeugs. In diesem Fall kann jede der Kameras mit denjenigen der Kameras, welche an einer benachbarten Seite angeordnet sind, einen jeweiligen Überlappungsbereich aufweisen. Somit kann im Beispiel mit vier Kameras jede der vier Kameras zwei Überlappungsbereiche aufweisen, wobei insgesamt vier Überlappungsbereiche vorhanden sind. Insbesondere wird dann ein jeweiliger Höhenwert für jeden der Überlappungsbereiche bestimmt. Der zumindest einen Kalibrationswert kann dann unter Nutzung der mehreren Höhenwerte als Eingangsgröße bestimmt werden.Of course, the camera system can also include more than two cameras. For example, the camera system comprises four cameras. In this case, several of the cameras can have a respective common overlap area with one another. For example, the four cameras are located on four different sides of the motor vehicle. In this case, each of the cameras can have a respective overlap area with those of the cameras which are arranged on an adjacent side. Thus, in the example with four cameras, each of the four cameras can have two overlap areas, a total of four overlap areas being present. In particular, a respective height value is then determined for each of the overlap areas. The at least one calibration value can then be determined using the plurality of height values as an input variable.
Im Rahmen der vorliegenden Anmeldung ist häufig von einem Höhenwert für den in dem Überlappungsbereich dargestellten Umgebungsbereich die Rede. Selbstverständlich können für den Überlappungsbereich beziehungsweise für den in dem Überlappungsbereich dargestellten Umgebungsbereich mehrere Höhenwerte bestimmt werden. In diesem Fall werden pro Überlappungsbereich mehrere Höhenwerte für das Bestimmen des zumindest einen Kalibrationswerts herangezogen.Within the scope of the present application, there is often talk of a height value for the surrounding area shown in the overlap area. Of course, several height values can be determined for the overlap area or for the surrounding area shown in the overlap area. In this case, several height values are used per overlap area for determining the at least one calibration value.
Gemäß einer Weiterbildung ist vorgesehen, dass anhand des Höhenwertes ein Gefälle und/oder eine Unebenheit einer Untergrundfläche, auf der sich das Kraftfahrzeug befindet, für das Kalibrieren des Erfassungsbereichs berücksichtigt werden. Wie oben bereits geschrieben kann sich aufgrund eines solchen Gefälles beziehungsweise einer solchen Unebenheit der Erfassungsbereich verschieben. Beispielsweise ist der Erfassungsbereich umso größer, je höher der Höhenwert ist. Dies beruht darauf, dass die erste und die zweite Kamera dann aufgrund der Geometrie „weiter sehen können“.According to a further development, it is provided that a slope and / or an unevenness of a subsurface on which the motor vehicle is located are taken into account for the calibration of the detection range on the basis of the height value. As already described above, the detection area can shift due to such a slope or such unevenness. For example, the higher the height value, the larger the detection area. This is due to the fact that the first and second cameras can then “see further” due to the geometry.
Gemäß einer Weiterbildung ist vorgesehen, dass anhand des Höhenwertes eine angulare Abweichung zwischen einer Fahrzeughochachse und einer Flächennormalen der Untergrundfläche, auf der sich das Kraftfahrzeug befindet, für das Kalibrieren des Erfassungsbereichs berücksichtigt wird. Eine solche angulare Abweichung zwischen der Fahrzeughochachse und der Flächennormalen kann beispielsweise aus einer Beladung des Kraftfahrzeugs resultieren. Ist beispielsweise der Heckstauraum des Kraftfahrzeugs schwer beladen, so kann sich das Kraftfahrzeug dementsprechend nach hinten neigen. Dies kann beispielsweise durch jeweilige Höhenwerte sowohl in einem Bereich vor dem Kraftfahrzeug als auch in einem Bereich hinter dem Kraftfahrzeug erkannt werden. Durch eine dementsprechende Neigung beziehungsweise angulare Abweichung des Kraftfahrzeugs kann der Erfassungsbereich einzelner Kameras sich verringern und/oder erweitern. Insgesamt kann sich dadurch der Erfassungsbereich des Kamerasystems verändern. Im oben genannten Beispiel mit dem schwer beladenen Heckstauraum kann sich der Erfassungsbereich einer nach vorne gerichteten Kamera erweitern und/oder der Erfassungsbereich einer nach hinten gerichteten Kamera des Kraftfahrzeugs verringern.According to a further development, it is provided that an angular deviation between a vertical vehicle axis and a surface normal of the surface on which the motor vehicle is located is taken into account for the calibration of the detection range on the basis of the height value. Such an angular deviation between the vertical vehicle axis and the surface normal can result, for example, from a load on the motor vehicle. If, for example, the rear storage space of the motor vehicle is heavily loaded, the motor vehicle can accordingly tilt backwards. This can be recognized, for example, by respective height values both in an area in front of the motor vehicle and in an area behind the motor vehicle. The detection range of individual cameras can be reduced and / or expanded by a corresponding inclination or angular deviation of the motor vehicle. Overall, the detection range of the camera system can change as a result. In the above-mentioned example with the heavily loaded rear storage space, the detection area of a forward-facing camera can expand and / or the detection area of a rear-facing camera of the motor vehicle can be reduced.
Gemäß einer Weiterbildung ist vorgesehen, dass anhand des Höhenwertes ein Einfluss einer Beladung des Kraftfahrzeugs und/oder ein Einfluss eines am Kraftfahrzeug angehängten Anhängers auf den Erfassungsbereich berücksichtigt werden. Beispielsweise kann ein solcher am Kraftfahrzeug angehängter Anhänger eine oben beschriebene angulare Abweichung zwischen Fahrzeughochachse und der Flächennormalen der Untergrundfläche hervorrufen. Mit anderen Worten kann durch die Beladung des Kraftfahrzeugs und/oder einen am Kraftfahrzeug angehängten Anhänger der Erfassungsbereich einzelner Kameras und/oder des gesamten Kamerasystems verschoben werden. Dies wird auf diese Weise berücksichtigt.According to a development, it is provided that an influence of a loading of the motor vehicle and / or an influence of a trailer attached to the motor vehicle on the detection range is taken into account on the basis of the height value. For example, such a trailer attached to the motor vehicle can have an angular deviation, as described above, between the vertical axis of the vehicle and the surface normal of the subsurface cause. In other words, the detection area of individual cameras and / or the entire camera system can be shifted by loading the motor vehicle and / or a trailer attached to the motor vehicle. This is taken into account in this way.
Durch das Modell des Kraftfahrzeugs kann eine mechanische Verformbarkeit des Kraftfahrzeugs, insbesondere einer Karosserie des Kraftfahrzeugs, berücksichtigt werden. Eine solche mechanische Verformbarkeit kann beispielsweise durch die Beladung des Kraftfahrzeugs und/oder einen am Kraftfahrzeug angehängten Anhänger hervorgerufen werden. Die mechanische Verformbarkeit des Kraftfahrzeugs kann auf einer endlichen Steifigkeit eines Rahmens des Kraftfahrzeugs basieren. Alternativ oder zusätzlich kann eine derartige mechanische Verformung des Kraftfahrzeugs aus einer Beschleunigung des Kraftfahrzeugs resultieren. Hierauf wird an späterer Stelle noch genauer eingegangen. Durch die mechanische Verformbarkeit kann sich der Erfassungsbereich einzelner Kameras, insbesondere der ersten oder der zweiten Kamera, des Kamerasystems verschieben. Dies kann insbesondere auf einer auf der mechanischen Verformung basierenden Positionsveränderung der jeweiligen Kamera(s) beruhen.A mechanical deformability of the motor vehicle, in particular a body of the motor vehicle, can be taken into account by the model of the motor vehicle. Such mechanical deformability can be caused, for example, by loading the motor vehicle and / or a trailer attached to the motor vehicle. The mechanical deformability of the motor vehicle can be based on a finite rigidity of a frame of the motor vehicle. Alternatively or additionally, such a mechanical deformation of the motor vehicle can result from an acceleration of the motor vehicle. This will be discussed in more detail later. The detection range of individual cameras, in particular the first or the second camera, of the camera system can shift due to the mechanical deformability. This can be based in particular on a change in position of the respective camera (s) based on the mechanical deformation.
Gemäß einer Weiterbildung wird ein Ist-Wert für die Position der ersten Kamera und/oder der zweiten Kamera relativ zu einem Bezugssystem des Kraftfahrzeugs und/oder relativ zueinander unter Berücksichtigung der mechanischen Verformbarkeit als der Kalibrationswert bestimmt. Beispielsweise wird der Ist-Wert oder ein jeweiliger Ist-Wert für die Position der ersten Kamera und/oder der zweiten Kamera relativ zu dem Bezugssystem des Kraftfahrzeugs, insbesondere dem am Kraftfahrzeug ausgerichteten Koordinatensystem, bestimmt. Alternativ oder zusätzlich kann der Ist-Wert für die Position der ersten Kamera und der zweiten Kamera relativ zueinander bestimmt werden. Auf diese Weise kann die mechanische Verformbarkeit auf besonders vorteilhafte Weise berücksichtigt werden.According to a further development, an actual value for the position of the first camera and / or the second camera relative to a reference system of the motor vehicle and / or relative to one another is determined taking into account the mechanical deformability as the calibration value. For example, the actual value or a respective actual value for the position of the first camera and / or the second camera relative to the reference system of the motor vehicle, in particular the coordinate system aligned with the motor vehicle, is determined. Alternatively or additionally, the actual value for the position of the first camera and the second camera can be determined relative to one another. In this way, the mechanical deformability can be taken into account in a particularly advantageous manner.
Gemäß einer Weiterbildung kann zusätzlich zu der Position der jeweiligen Kamera, also insbesondere der ersten und/oder der zweiten Kamera, ein entsprechender Ist-Wert für die Orientierung als der Kalibrationswert bestimmt werden. In derartigen Ausführungsbeispielen ist insbesondere vorgesehen, dass das Modell des Kraftfahrzeugs zusätzlich zumindest einen Soll-Wert für die Orientierung der ersten Kamera und/oder der zweiten Kamera bereitstellt. Auf diese Weise kann eine Verschiebung des Erfassungsbereichs des Kamerasystems beziehungsweise der einzelnen Kameras des Kamerasystems durch eine Verschiebung der Orientierung, insbesondere aufgrund der mechanischen Verformbarkeit, berücksichtigt werden.According to a development, in addition to the position of the respective camera, that is to say in particular the first and / or the second camera, a corresponding actual value for the orientation can be determined as the calibration value. In such exemplary embodiments, it is provided in particular that the model of the motor vehicle additionally provides at least one target value for the orientation of the first camera and / or the second camera. In this way, a shift in the detection range of the camera system or the individual cameras in the camera system can be taken into account by a shift in the orientation, in particular due to the mechanical deformability.
Der oben genannte Ist-Wert für die Position und/oder der oben genannte Ist-Wert für die Orientierung können insbesondere durch das künstliche neuronale Netz unter Berücksichtigung des Höhenwertes sowie des Modells des Kraftfahrzeugs bestimmt werden. Insbesondere wird der Ist-Wert für die Position und/oder die Orientierung der jeweiligen Kamera durch das künstliche neuronale Netz anhand des Höhenwertes unter Berücksichtigung der mechanischen Verformbarkeit des Kraftfahrzeugs bestimmt. Dementsprechend kann das künstliche neuronale Netz darauf angelernt werden beziehungsweise sein, anhand des Überlappungsbereichs in den jeweiligen Bildern der ersten und der zweiten Kamera unter Berücksichtigung des Modells des Kraftfahrzeugs eine veränderte Pose (Position und Orientierung) der ersten Kamera und/oder der zweiten Kamera relativ zu dem jeweiligen Soll-Wert zu bestimmen.The above-mentioned actual value for the position and / or the above-mentioned actual value for the orientation can be determined in particular by the artificial neural network, taking into account the height value and the model of the motor vehicle. In particular, the actual value for the position and / or the orientation of the respective camera is determined by the artificial neural network on the basis of the height value, taking into account the mechanical deformability of the motor vehicle. Accordingly, the artificial neural network can be trained on it, or a change in the pose (position and orientation) of the first camera and / or the second camera relative to the overlapping area in the respective images of the first and second cameras, taking into account the model of the motor vehicle to determine the respective target value.
Gemäß einer Weiterbildung ist vorgesehen, dass der Kalibrationswert, insbesondere der Ist-Wert für die Position, zunächst in willkürlichen Längeneinheiten bestimmt wird und erst in einem späteren Verfahrensschritt in auf das Kraftfahrzeug bezogene Längeneinheiten umgerechnet wird. Mit anderen Worten kann der Kalibrationswert, insbesondere der Ist-Wert für die Position, durch das künstliche neuronale Netz in relativen oder willkürlichen Längeneinheiten bestimmt werden. Erst in dem späteren Verfahrensschritt, insbesondere nach Ausgabe der Kalibrationswerts durch das künstliche neuronale Netz, kann das Umrechnen in die auf das Kraftfahrzeug bezogenen Längeneinheiten erfolgen. Bei den auf das Kraftfahrzeug bezogenen Längeneinheiten kann es sich um absolute Längeneinheiten handeln. Auf diese Weise kann das künstliche neuronale Netz besonders universal auf eine Vielzahl von unterschiedlichen Kraftfahrzeugen angelernt werden, da die absoluten beziehungsweise auf das Kraftfahrzeug bezogenen Längeneinheiten erst später, insbesondere in einem dem künstlichen neuronalen Netzwerk nachfolgenden Verfahrensschritt, berechnet werden.According to a further development, it is provided that the calibration value, in particular the actual value for the position, is initially determined in arbitrary length units and is only converted into length units related to the motor vehicle in a later method step. In other words, the calibration value, in particular the actual value for the position, can be determined by the artificial neural network in relative or arbitrary length units. Only in the later process step, in particular after the calibration value has been output by the artificial neural network, can the conversion into the length units relating to the motor vehicle be carried out. The length units related to the motor vehicle can be absolute length units. In this way, the artificial neural network can be taught in particularly universally on a large number of different motor vehicles, since the absolute length units or those relating to the motor vehicle are only calculated later, in particular in a method step following the artificial neural network.
Gemäß einer Weiterbildung ist vorgesehen, dass Bewegungsdaten des Kraftfahrzeugs als weitere Eingangsgröße für das künstliche neuronale Netz für das Bestimmen des Kalibrationswerts genutzt werden, wobei mittels der Bewegungsdaten der Einfluss einer Beschleunigung des Kraftfahrzeugs entlang einer beliebigen Raumrichtung auf den Erfassungsbereich berücksichtigt wird. Beispielsweise kann es sich bei der Beschleunigung um eine Beschleunigung entlang einer Fahrzeuglängsachse des Kraftfahrzeugs handeln. Eine solche Beschleunigung entlang der Fahrzeuglängsachse kann durch Gas geben oder Abbremsen hervorgerufen werden. Alternativ oder zusätzlich kann es sich bei der Beschleunigung um eine Beschleunigung entlang einer Fahrzeugquerachse des Kraftfahrzeugs handeln. Eine solche Beschleunigung entlang der Fahrzeugquerachse des Kraftfahrzeugs kann beispielsweise durch Lenken des Kraftfahrzeugs hervorgerufen werden. Alternativ oder zusätzlich kann es sich bei der Beschleunigung um eine Beschleunigung entlang der Fahrzeughochachse handeln. Eine solche Beschleunigung entlang der Fahrzeughochachse kann beispielsweise durch eine Fahrt des Kraftfahrzeugs über unebenen Untergrund hervorgerufen werden. Besonders vorteilhafterweise wird der Einfluss der Beschleunigung des Kraftfahrzeugs entlang aller drei genannten Achsen für das Kalibrieren des Erfassungsbereichs berücksichtigt. Die Bewegungsdaten des Kraftfahrzeugs können beispielsweise durch Odometrie oder entsprechende Sensoren, insbesondere Beschleunigungssensoren des Kraftfahrzeugs, erfasst werden. Auf diese Weise kann der Erfassungsbereich noch genauer kalibriert werden.According to a further development, it is provided that motion data of the motor vehicle are used as a further input variable for the artificial neural network for determining the calibration value, the influence of an acceleration of the motor vehicle on the detection area along any spatial direction being taken into account by means of the motion data. For example, the acceleration can be an acceleration along a longitudinal axis of the motor vehicle. Such an acceleration along the longitudinal axis of the vehicle can be accelerated or braked. Alternatively or additionally, the acceleration can be an acceleration along a vehicle transverse axis of the motor vehicle. Such acceleration along the The vehicle's transverse axis can be caused, for example, by steering the motor vehicle. Alternatively or additionally, the acceleration can be an acceleration along the vertical axis of the vehicle. Such acceleration along the vertical axis of the vehicle can be caused, for example, by the motor vehicle traveling over an uneven surface. The influence of the acceleration of the motor vehicle along all three axes mentioned is particularly advantageously taken into account for the calibration of the detection range. The movement data of the motor vehicle can be recorded, for example, by odometry or corresponding sensors, in particular acceleration sensors of the motor vehicle. In this way, the detection area can be calibrated even more precisely.
Gemäß einer Weiterbildung ist vorgesehen, dass basierend auf einem ersten Bildpaar und einem zweiten Bildpaar eine weitere Eingangsgröße für das künstliche neuronale Netz gebildet wird, wobei das erste Bildpaar zwei mittels der ersten Kamera des Kamerasystems zu unterschiedlichen Zeitpunkten aufgenommene Bilder und das zweite Bildpaar zwei mittels der zweiten Kamera des Kamerasystems zu unterschiedlichen Zeitpunkten aufgenommene Bilder umfasst. Das erste Bild kann Teil des ersten Bildpaars sein, dies ist jedoch rein optional. Das zweite Bild kann Teil des zweiten Bildpaars sein, dies ist jedoch rein optional. Die Bilder des ersten Bildpaars können zu jeweils unterschiedlichen Zeitpunkten aufgenommen werden. Dementsprechend können die Bilder des ersten Bildpaars dem Umgebungsbereich des Kraftfahrzeugs zu unterschiedlichen Zeitpunkten repräsentieren. Die Bilder des zweiten Bildpaars können zu jeweils unterschiedlichen Zeitpunkten aufgenommen werden. Dementsprechend können die Bilder des zweiten Bildpaars den Umgebungsbereich zu unterschiedlichen Zeitpunkten repräsentieren.According to a further development, a further input variable for the artificial neural network is formed based on a first pair of images and a second pair of images, the first pair of images being two images taken at different times by the first camera of the camera system and the second pair of images being two using the second camera of the camera system includes images taken at different times. The first image can be part of the first image pair, but this is purely optional. The second image can be part of the second image pair, but this is purely optional. The images of the first pair of images can be taken at different times. Accordingly, the images of the first pair of images can represent the surrounding area of the motor vehicle at different times. The images of the second pair of images can be taken at different times. Accordingly, the images of the second pair of images can represent the surrounding area at different times.
Die Bilder des ersten sowie des zweiten Bildpaars können bildpaarübergreifend jeweils paarweise zum selben Zeitpunkt aufgenommen werden. Dies ist jedoch rein optional. In diesem Beispiel kann vorgesehen sein, dass ein jeweiliges Bild des ersten Bildpaars sowie ein jeweiliges Bild des zweiten Bildpaars jeweils zum selben Zeitpunkt aufgenommen werden. Zusammengefasst wird aus dem ersten Bildpaar und dem zweiten Bildpaar eine weitere Eingangsgröße für das künstliche neuronale Netz gebildet. Die weitere Eingangsgröße kann beispielsweise einen optischen Fluss oder eine Veränderung zwischen den Bildern eines jeweiligen der Bildpaare betreffen. Alternativ kann die weitere Eingangsgröße eine Bewegung eines in den Bildern repräsentierten Objekts und/oder eine Verschiebung eines solchen Objekts in den jeweiligen Bildern eines der Bildpaare betreffen. Insbesondere handelt es sich bei den Bildern des ersten Bildpaars und/oder des zweiten Bildpaars um Einzelbilder einer Videosequenz. Solche Einzelbilder werden auch als Frames bezeichnet. Die weitere Eingangsgröße kann anhand des optischen Flusses, der Veränderung, der Bewegung eines Objekts oder einer sonstigen Veränderung aufeinanderfolgender Frames gebildet werden. Auf diese Weise können insbesondere die oben genannten Bewegungsdaten bereitgestellt werden. Mit anderen Worten können die Bewegungsdaten des Kraftfahrzeugs aus dem ersten Bildpaar und/oder dem zweiten Bildpaar extrahiert werden. Auf diese Weise kann der Erfassungsbereich noch genauer kalibriert werden.The images of the first and the second pair of images can be taken in pairs across the pairs at the same time. However, this is purely optional. In this example it can be provided that a respective image of the first pair of images and a respective image of the second pair of images are each taken at the same time. In summary, a further input variable for the artificial neural network is formed from the first pair of images and the second pair of images. The further input variable can relate, for example, to an optical flow or a change between the images of a respective one of the image pairs. Alternatively, the further input variable can relate to a movement of an object represented in the images and / or a displacement of such an object in the respective images of one of the image pairs. In particular, the images of the first image pair and / or the second image pair are individual images of a video sequence. Such single images are also called frames. The further input variable can be formed on the basis of the optical flow, the change, the movement of an object or another change in successive frames. In this way, the above-mentioned movement data in particular can be provided. In other words, the movement data of the motor vehicle can be extracted from the first pair of images and / or the second pair of images. In this way, the detection area can be calibrated even more precisely.
Gemäß einer Weiterbildung ist vorgesehen, dass das erste und das zweite Bildpaar jeweils durch einen unterschiedlichen Eingangsteil des künstlichen neuronalen Netzes ausgewertet werden, wobei durch jeden Eingangsteil eine parallele Verarbeitung beider Bilder des jeweiligen Bildpaares, insbesondere durch einen jeweiligen unterschiedlichen Encoder des entsprechenden Eingangsteils, erfolgt. Mit anderen Worten weist das künstliche neuronale Netz zwei unterschiedliche Eingangsteile auf, durch welche jeweils ein unterschiedliches der Bildpaare ausgewertet wird. Insbesondere wird jedes der Bildpaare ausschließlich durch einen der beiden Eingangsteile des künstlichen neuronalen Netzes ausgewertet. Jeder der Eingangsteile kann einen jeweiligen unterschiedlichen Encoder, insbesondere CNN-Encoder, umfassen. Vorteilhafterweise erfolgt dann die Auswertung des ersten und des zweiten Bildpaars zumindest teilweise durch den jeweiligen Encoder des entsprechenden Eingangsteils. Alternativ oder zusätzlich kann vorgesehen sein, dass die beiden Bilder des ersten Bildpaars sowie die beiden Bilder des zweiten Bildpaars jeweils durch unterschiedliche Eingangsteile des künstlichen neuronalen Netzes, insbesondere durch jeweilige unterschiedliche Encoder des künstlichen neuronalen Netzes, ausgewertet werden. Beispielsweise ist vorgesehen, dass die Bilder des ersten Bildpaars durch jeweils unterschiedliche Eingangsteile beziehungsweise jeweils unterschiedliche Encoder ausgewertet werden. Beispielsweise ist vorgesehen, dass die Bilder des zweiten Bildpaars jeweils durch unterschiedliche Eingangsteile beziehungsweise jeweils unterschiedliche Encoder ausgewertet werden. In Summe können für das erste und das zweite Bildpaar somit bis zu vier unterschiedliche Eingangsteile beziehungsweise unterschiedliche Encoder, insbesondere CNN-Encoder, vorgesehen sein. Auf diese Weise kann ein Auswerten des ersten und des zweiten Bildpaars besonders effizient erfolgen.According to a development, it is provided that the first and the second pair of images are each evaluated by a different input part of the artificial neural network, with each input part processing both images of the respective image pair in parallel, in particular by a different encoder of the corresponding input part. In other words, the artificial neural network has two different input parts, each of which evaluates a different one of the image pairs. In particular, each of the image pairs is evaluated exclusively by one of the two input parts of the artificial neural network. Each of the input parts can comprise a respective different encoder, in particular a CNN encoder. Advantageously, the first and second image pairs are then evaluated at least partially by the respective encoder of the corresponding input part. Alternatively or additionally, it can be provided that the two images of the first pair of images and the two images of the second pair of images are each evaluated by different input parts of the artificial neural network, in particular by different encoders of the artificial neural network. For example, it is provided that the images of the first pair of images are evaluated by different input parts or different encoders. For example, it is provided that the images of the second pair of images are each evaluated by different input parts or different encoders. In total, up to four different input parts or different encoders, in particular CNN encoders, can thus be provided for the first and the second pair of images. In this way, the first and second image pairs can be evaluated particularly efficiently.
Gemäß einer Weiterbildung ist vorgesehen, dass aus dem ersten Bildpaar und dem zweiten Bildpaar jeweilige Bewegungsdaten extrahiert werden und das künstliche neuronale Netz darauf angelernt wird, das Bestimmen des Kalibrationswerts zumindest teilweise basierend auf den Bewegungsdaten durchzuführen. Mit anderen Worten werden, wie bereits oben beschrieben, aus dem ersten und dem zweiten Bildpaar die Bewegungsdaten als weitere Eingangsgröße für das künstliche neuronale Netz extrahiert. Auf diese Weise kann das künstliche neuronale Netz lernen, den Einfluss der Bewegungsdaten, insbesondere der Beschleunigung, auf dem Erfassungsbereich des Kamerasystems zu erkennen. Basierend darauf wird nachfolgend der Kalibrationswert zumindest teilweise basierend auf den Bewegungsdaten bestimmt.According to a further development, it is provided that respective movement data are extracted from the first image pair and the second image pair and the artificial neural network is taught thereon, the determination of the calibration value based at least in part on the movement data perform. In other words, as already described above, the movement data are extracted from the first and the second pair of images as a further input variable for the artificial neural network. In this way, the artificial neural network can learn to recognize the influence of the movement data, in particular the acceleration, on the detection area of the camera system. Based on this, the calibration value is subsequently determined based at least in part on the movement data.
Ein zweiter Aspekt der Erfindung betrifft eine Steuereinheit für ein Kraftfahrzeug, die dazu eingerichtet ist, ein Verfahren zum Kalibrieren eines Kamerasystems eines Kraftfahrzeugs durchzuführen, wie es im Rahmen dieser Anmeldung beschrieben ist. Dementsprechend gelten Weiterbildungen des entsprechenden Verfahrens analog auch für die Steuereinheit und umgekehrt.A second aspect of the invention relates to a control unit for a motor vehicle, which is set up to carry out a method for calibrating a camera system of a motor vehicle, as described in the context of this application. Accordingly, further developments of the corresponding method apply analogously to the control unit and vice versa.
Ein weiterer Aspekt der Erfindung betrifft ein Fahrerassistenzsystem für ein Kraftfahrzeugs, mit
- - einem Kamerasystem, wobei das Kamerasystem zumindest eine erste Kamera und eine von der ersten Kamera verschiedene zweite Kamera umfasst und wobei die erste und die zweite Kamera einen gemeinsamen Überlappungsbereich, der Teil eines jeweiligen Erfassungsbereichs sowohl der ersten als auch der zweiten Kamera ist, aufweisen, und
- - der oben genannten Steuereinheit.
- a camera system, the camera system comprising at least a first camera and a second camera different from the first camera, and the first and second cameras having a common overlap area which is part of a respective detection area of both the first and the second camera, and
- - the control unit mentioned above.
Insbesondere ist das Fahrerassistenzsystem, vorteilhafterweise die Steuereinheit, dazu eingerichtet, das hier beschriebene Verfahren durchzuführen. Dementsprechend gelten Merkmale und Vorteile, die in Bezug auf das Verfahren offenbart sind, auch für das F ah rerassistenzsystem.In particular, the driver assistance system, advantageously the control unit, is set up to carry out the method described here. Accordingly, features and advantages that are disclosed in relation to the method also apply to the driver assistance system.
Außerdem Teil der Erfindung ist ein Kraftfahrzeug, welches das oben genannte Fahrerassistenzsystem umfasst. Bei dem Kraftfahrzeug handelt es sich insbesondere um einen Kraftwagen, beispielsweise einen Lastkraftwagen oder einen Personenkraftwagen. Beispielsweise kann das Kraftfahrzeug einen elektrischen Antrieb und/oder einen Verbrennungsmotor aufweisen. Das Kamerasystem, insbesondere die erste und die zweite Kamera, des Fahrerassistenzsystems sind an dem Kraftfahrzeug angeordnet. Merkmale und Vorteile, die in Bezug auf das Verfahren offenbart sind, gelten auch für das F ah rerassistenzsystem.In addition, part of the invention is a motor vehicle which comprises the above-mentioned driver assistance system. The motor vehicle is in particular a motor vehicle, for example a truck or a passenger car. For example, the motor vehicle can have an electric drive and / or an internal combustion engine. The camera system, in particular the first and the second camera, of the driver assistance system are arranged on the motor vehicle. Features and advantages that are disclosed in relation to the method also apply to the driver assistance system.
Außerdem gehört zur Erfindung ein Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Kalibrieren des Erfassungsbereichs des Kamerasystems durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinheit abgearbeitet wird.The invention also includes a computer program product with program code means which are stored in a computer-readable medium in order to carry out the method for calibrating the detection range of the camera system when the computer program product is processed on a processor of an electronic control unit.
Das Computerprogrammprodukt kann auf einem computerlesbaren Medium gespeichert sein. Somit beansprucht diese Erfindung auch ein solches computerlesbares Medium, insbesondere in Form einer computerlesbaren Diskette, CD, DVD, Speicherkarte, USB-Speichereinheit, oder ähnlichen, in dem Programmcodemittel gespeichert sind, um das Verfahren zum Kalibrieren des Erfassungsbereichs des Kamerasystems durchzuführen, wenn die Programmcodemittel in einen Speicher einer elektronischen Steuereinheit geladen und auf einem Prozessor der elektronischen Steuereinheit abgearbeitet werden. Bei dem lesbaren Medium kann es sich einen flüchtigen (volatilen) oder einen nichtflüchtigen Speicher handeln. Ein solcher flüchtiger Speicher kann insbesondere durch einen Arbeitsspeicher eines Mikroprozessors gebildet sein.The computer program product can be stored on a computer-readable medium. Thus, this invention also claims such a computer-readable medium, in particular in the form of a computer-readable floppy disk, CD, DVD, memory card, USB memory unit, or the like, in which program code means are stored in order to carry out the method for calibrating the detection range of the camera system when the program code means loaded into a memory of an electronic control unit and processed on a processor of the electronic control unit. The readable medium can be volatile (non-volatile) or non-volatile. Such a volatile memory can in particular be formed by a working memory of a microprocessor.
Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention result from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description and the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the combination indicated in each case but also in other combinations without departing from the scope of the invention . Embodiments of the invention are thus also to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, but can be derived from the explanations explained and can be generated by separate combinations of features. Embodiments and combinations of features are also to be regarded as disclosed, which therefore do not have all the features of an originally formulated independent claim. Furthermore, versions and combinations of features, in particular those explained above, are to be regarded as disclosed, which go beyond or differ from the combinations of features set out in the references of the claims.
Dabei zeigen:
-
1 ein Kraftfahrzeug mit einem Kamerasystems, wobei ein Erfassungsbereich des Kamerasystems aufgrund einer Anhängelast gegenüber einem Normalzustand verschoben ist; -
2 äußerst schematisch die Verschiebung von Kamerapositionen eines Kamerasystems im Falle unterschiedlicher Fahrmanöver aus einer Vogelperspektive; -
3 weitere mögliche Verschiebungen von Kamerapositionen aus einer perspektivischen Seitenansicht; -
4 eine beispielhafte Architektur für ein Fahrerassistenzsystem zum Kalibrieren eines Erfassungsbereichs eines Kamerasystems; -
5 einen Auszug aus der Architektur; und -
6 die Überlappungsbereiche unterschiedlicher Kameras eines Kamerasystems in einer schematischen Vogelperspektive.
-
1 a motor vehicle with a camera system, a detection range of the camera system being shifted from a normal state due to a trailer load; -
2nd extremely schematically the shift of camera positions of a camera system in the case of different driving maneuvers from a bird's eye view; -
3rd further possible shifts of camera positions from a perspective side view; -
4th an exemplary architecture for a driver assistance system for calibrating a detection range of a camera system; -
5 an excerpt from the architecture; and -
6 the overlapping areas of different cameras of a camera system in a schematic bird's eye view.
An dem Kraftfahrzeug
Weitere beispielhafte Situationen sind in
Es wurden nun mehrere beispielhafte Zustände gezeigt, in welchen sich ein Erfassungsbereich eines Kamerasystems
Anschließend werden die vorverarbeiteten Bilder aus den beiden Encodern
In einer Höheneinheit
Das Bestimmen der Höhenwerte durch die Höheneinheit
Die Größe und Lage der Überlappungsbereiche
Die Ausgaben der Verknüpfungslagen
Das künstliche neuronale Netz
Basierend auf den Positionen/Posen
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- CN 106960456 [0004]CN 106960456 [0004]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018132649.1A DE102018132649A1 (en) | 2018-12-18 | 2018-12-18 | Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018132649.1A DE102018132649A1 (en) | 2018-12-18 | 2018-12-18 | Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018132649A1 true DE102018132649A1 (en) | 2020-06-18 |
Family
ID=70858633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018132649.1A Pending DE102018132649A1 (en) | 2018-12-18 | 2018-12-18 | Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018132649A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012001858A1 (en) * | 2012-02-01 | 2012-09-27 | Daimler Ag | Method for calibrating wafer level camera of stereo camera assembly, for vehicle for environmental detection, involves identifying corresponding pixels within data sets detected by image capture units during correspondence analysis |
DE102013224502A1 (en) * | 2012-12-07 | 2014-06-12 | Continental Teves Ag & Co. Ohg | Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods |
DE102015107677A1 (en) * | 2014-05-16 | 2015-11-19 | Gm Global Technology Operations, Llc | All-Round Vision Camera System (VPM) Online Calibration |
CN106960456A (en) | 2017-03-28 | 2017-07-18 | 长沙全度影像科技有限公司 | A kind of method that fisheye camera calibration algorithm is evaluated |
DE102017205093A1 (en) * | 2017-03-27 | 2018-09-27 | Conti Temic Microelectronic Gmbh | Method and system for predicting sensor signals of a vehicle |
-
2018
- 2018-12-18 DE DE102018132649.1A patent/DE102018132649A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012001858A1 (en) * | 2012-02-01 | 2012-09-27 | Daimler Ag | Method for calibrating wafer level camera of stereo camera assembly, for vehicle for environmental detection, involves identifying corresponding pixels within data sets detected by image capture units during correspondence analysis |
DE102013224502A1 (en) * | 2012-12-07 | 2014-06-12 | Continental Teves Ag & Co. Ohg | Method for calibrating stereo camera of vehicle, involves finding calibration error for calibrating stereo camera, by comparing three-dimensional (3D) environment data of two cameras calculated at preset time periods |
DE102015107677A1 (en) * | 2014-05-16 | 2015-11-19 | Gm Global Technology Operations, Llc | All-Round Vision Camera System (VPM) Online Calibration |
DE102017205093A1 (en) * | 2017-03-27 | 2018-09-27 | Conti Temic Microelectronic Gmbh | Method and system for predicting sensor signals of a vehicle |
CN106960456A (en) | 2017-03-28 | 2017-07-18 | 长沙全度影像科技有限公司 | A kind of method that fisheye camera calibration algorithm is evaluated |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006056408B4 (en) | Method for determining a position, device and computer program product | |
EP2166510B1 (en) | Method for calculating the position and orientation of a camera in a vehicle | |
DE102014204383B4 (en) | Driver assistance system for object recognition and method | |
EP3475921B1 (en) | Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle | |
DE102017109445A1 (en) | Calibration of a vehicle camera device in the vehicle longitudinal direction or vehicle transverse direction | |
DE102008026876A1 (en) | Stereo camera system and method for determining at least one calibration error of a stereo camera system | |
EP2715666A1 (en) | Method for determining a pitching movement in a camera installed in a vehicle, and method for controlling a light emission from at least one headlamp on a vehicle | |
DE102010049216A1 (en) | Method for operating camera i.e. stereo camera, arranged at car, involves detecting distance of object via image evaluation, and calibrating camera when distance determined by sensing unit deviates from distance determined by evaluation | |
DE102019111041A1 (en) | Method and device for determining an estimated value of the side slip angle of a vehicle | |
DE102017201796A1 (en) | Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device | |
DE102015006571A1 (en) | Device and method for determining a torsion of a body and / or a chassis | |
DE102020202305A1 (en) | Method for recognizing the surroundings of a vehicle and method for training a fusion algorithm for a vehicle system | |
DE102018132649A1 (en) | Method for calibrating a detection area of a camera system using an artificial neural network; Control unit; Driver assistance system and computer program product | |
DE102017003629A1 (en) | Device and method for calibrating optical sensors of a vehicle | |
DE102017104357A1 (en) | METHOD, DEVICE AND COMPUTER READABLE STORAGE MEDIUM WITH MOTOR PLANT INSTRUCTIONS FOR A MOTOR VEHICLE | |
WO2020212102A1 (en) | Method and device for creating an elevation profile for an area to be driven in by a vehicle | |
WO2023099066A1 (en) | Simulation for validating an automating driving function for a vehicle | |
WO2023036619A1 (en) | Method and driver assistance system for assisting a driver in driving along a recorded trajectory | |
DE102020003465A1 (en) | Method for the detection of objects in monocular RGB images | |
DE102015112443A1 (en) | Method for determining a movement of a motor vehicle by means of fusion of odometry data, driver assistance system and motor vehicle | |
DE102018117199A1 (en) | Method for determining at least one relative orientation angle of a team using an inertial measuring unit, computer program product, electronic computing device and driver assistance system | |
DE102021133091A1 (en) | Method for determining an alignment of a camera unit of a detection device, detection device and vehicle | |
DE102018130246A1 (en) | Method for operating a parking assistance system in which a steering lock is set on at least a second parking move, computer program product, electronic computing device and parking assistance system | |
DE102021004535A1 (en) | Method for calibrating an odometry device of a motor vehicle, control device for carrying out such a method, calibration device with such a control device and motor vehicle with such a calibration device | |
WO2024120876A1 (en) | Method and device for controlling the automated lateral control of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |