[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102019204408B4 - Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar - Google Patents

Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar Download PDF

Info

Publication number
DE102019204408B4
DE102019204408B4 DE102019204408.5A DE102019204408A DE102019204408B4 DE 102019204408 B4 DE102019204408 B4 DE 102019204408B4 DE 102019204408 A DE102019204408 A DE 102019204408A DE 102019204408 B4 DE102019204408 B4 DE 102019204408B4
Authority
DE
Germany
Prior art keywords
target object
determined
vehicle
detections
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019204408.5A
Other languages
German (de)
Other versions
DE102019204408A1 (en
Inventor
Dan Oprisan
Philipp Ruess
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019204408.5A priority Critical patent/DE102019204408B4/en
Priority to PCT/EP2020/056618 priority patent/WO2020200683A1/en
Publication of DE102019204408A1 publication Critical patent/DE102019204408A1/en
Application granted granted Critical
Publication of DE102019204408B4 publication Critical patent/DE102019204408B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/589Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S15/588Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Verfahren zur Bestimmung der Gierrate (ω) eines Zielobjektes (50), wobei das Zielobjekt (50) ein Fahrzeug ist, umfassend ein Empfangen von Sensordaten, welche mehrere Detektionen (P1, ... PN) umfassen, welche das Zielobjekt (50) beschreiben, ein Abschätzen der Lage des Gierzentrums (64) des Zielobjektes (50) auf Grundlage der Detektionen (P1, ...PN), sowie ein Bestimmen der Gierrate (ω) auf Grundlage des abgeschätzten Ortes des Gierzentrums (64),• wobei die Lage des Gierzentrums (64) dadurch bestimmt wird, dasso aus den Detektionen (P1, ... PN) mittels Hauptkomponentenanalyse die zueinander orthogonalen Hauptkomponenten (61, 62) bestimmt werden,o eine Bestimmung einer Orientierung (φ) des Zielobjektes (50) auf Basis der Hauptkomponenten (61, 62) erfolgt,o eine Form des Zielobjekts (50) als Rechteck (60) angenähert wird mit Rechteckseiten (a, b), die jeweils orthogonal auf den Hauptkomponenten (61, 62) stehen, wobei die Rechteckseiten (a, b) durch Least-Square-Minimierung der Fehlerfunktion (f)ƒ(a,b)=∑i=1Nmin{|Pi−R(a,b)|2}, die die Summe über alle minimalen Abstände zwischen einer Detektion (Pi) und dem Rechteck (60) repräsentiert, bestimmt werden,o aus Punktgeschwindigkeiten (vi) der Detektionen (P1, ...PN) die mittlere Geschwindigkeit (vi) des Zielobjekts (50) bestimmt wird,o das Heck des Fahrzeugs als kürzeste (min(a,b)) der Rechteckseiten (a, b), die sich in der entgegengesetzten Richtung der mittleren Geschwindigkeit (vi) befindet, bestimmt wird,o Lage und Orientierung einer Hinterachse (63) als parallel zum Heck im Abstand L = 0,2 · max{a, b} bestimmt wird,o das Gierzentrum (64) als in der Mitte der Hinterachse (63) befindlich bestimmt wird, und• wobei die Gierrate (ω) dadurch bestimmt wird, dass die Lage des Gierzentrums (64) nach den voran genannten Verfahrensschritten bestimmt wird, umfassend die Bestimmung der Orientierung (φ) des Zielobjektes (50) auf Basis der Hauptkomponenten (61, 62), und die Detektionen (P1, ...PN) in eine Modellgleichung, die das Bewegungsverhaltens des Fahrzeugs in Form des Rechtecks (60) beschreibt, eingesetzt werden, wobei ein Gleichungssystem mit zwei Unbekannten (v, ω) und N Gleichungen erhalten wird, das Gleichungssystem mit Least-Square-Minimierung gelöst wird und die berechnete Gierrate (ω) ausgegeben wird.A method for determining the yaw rate (ω) of a target object (50), the target object (50) being a vehicle, comprising receiving sensor data comprising a plurality of detections (P1, ... PN) describing the target object (50). , estimating the location of the yaw center (64) of the target object (50) based on the detections (P1, ...PN), and determining the yaw rate (ω) based on the estimated location of the yaw center (64),• wherein the Position of the yaw center (64) is determined by determining the mutually orthogonal main components (61, 62) from the detections (P1, ... PN) by means of main component analysis, determining an orientation (φ) of the target object (50). Based on the main components (61, 62), a shape of the target object (50) is approximated as a rectangle (60) with rectangle sides (a, b), which are orthogonal to the main components (61, 62), the rectangle sides ( a, b) by least square minimization of the error func tion (f)ƒ(a,b)=∑i=1Nmin{|Pi−R(a,b)|2}, which represents the sum over all minimum distances between a detection (Pi) and the rectangle (60), are determined,o the average speed (vi) of the target object (50) is determined from point speeds (vi) of the detections (P1, ...PN),o the rear of the vehicle as the shortest (min(a,b)) of the rectangle sides (a,b), which is in the opposite direction of the mean velocity (vi),o location and orientation of a rear axle (63) is determined to be parallel to the rear at a distance L = 0.2 max{a,b} is determined,o the yaw center (64) is determined as being in the middle of the rear axle (63), and• the yaw rate (ω) is determined by determining the position of the yaw center (64) according to the aforementioned method steps, comprising the determination of the orientation (φ) of the target object (50) on the basis of the principal components (61, 62), and the detections (P1, ... PN) in a model equation that Bewe behavior of the vehicle in the form of the rectangle (60), a system of equations with two unknowns (v, ω) and N equations being obtained, the system of equations being solved with least squares minimization and the calculated yaw rate (ω) being output becomes.

Description

Die vorliegende Offenbarung betrifft ein Verfahren zum Auswerten von Sensordaten, insbesondere im Gebiet der Fahrzeugsensorik für Fahrerassistenzsysteme, autonome Fahrzeuge oder halbautonome Fahrzeuge.The present disclosure relates to a method for evaluating sensor data, in particular in the field of vehicle sensors for driver assistance systems, autonomous vehicles or semi-autonomous vehicles.

Autonome Fahrzeuge und Fahrassistenzsysteme gewinnen an Relevanz und Verbreitung. Für solche Systeme ist es insbesondere von Bedeutung, dass das Fahrzeug den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrsteilnehmer richtig einschätzen kann. Um den Fahrweg anderer Fahrzeuge im Straßenverkehr einzuschätzen, ist neben der Ortsinformation und der Bewegungsgeschwindigkeit auch die Gierrate (Drehung) des einzuschätzenden Fahrzeugs von Bedeutung.Autonomous vehicles and driver assistance systems are becoming more relevant and widespread. It is particularly important for such systems that the vehicle can correctly assess the route of surrounding vehicles, for example vehicles of other road users. In order to assess the route taken by other vehicles on the road, the yaw rate (rotation) of the vehicle to be assessed is important in addition to the location information and the speed of movement.

Es sind bereits Lösungen aus dem Stand der Technik bekannt, die in der Lage sind die Gierrate eines Fahrzeugs basierend auf Sensordaten zu bestimmen. So bestimmt das in Patentoffenbarung DE 10 2013 019 804 A1 offengelegte Gerät die Gierrate eines anderen Fahrzeugs mit Hilfe zweier Sensoren.Solutions from the prior art are already known which are able to determine the yaw rate of a vehicle based on sensor data. So determined in patent disclosure DE 10 2013 019 804 A1 disclosed device the yaw rate of another vehicle using two sensors.

Die EP 3 415 945 A1 offenbart ein Verfahren zur Bestimmung der Gierrate eines Zielfahrzeuges, wobei aus Radardaten eine erste Linie senkrecht zur Orientierung des Ziels und durch die Mitte des Ziels verlaufend bestimmt wird, eine zweite Linie durch die Drehmitte des Ziels verlaufend bestimmt wird, der Schnittpunkt der ersten und zweiten Linie bestimmt wird, daraus die Position des Drehpunktes bestimmt wird und doe Gierrate geschätzt wird.The EP 3 415 945 A1 discloses a method for determining the yaw rate of a target vehicle, a first line perpendicular to the orientation of the target and running through the center of the target being determined from radar data, a second line running through the center of rotation of the target being determined, the intersection of the first and second lines is determined, from which the position of the pivot point is determined and the yaw rate is estimated.

Die EP 3 285 230 A1 offenbart ein Fahrzeugumgebungserkennungssystem, das mindestens eine Erkennungseinrichtung und mindestens eine Verarbeitungseinheit umfasst, wobei das Fahrzeugumgebungserkennungssystem so angeordnet ist, dass es mindestens zwei Merkmalspunkte an Objekten außerhalb eines Fahrzeugs erfasst. The EP 3 285 230 A1 discloses a vehicle environment detection system comprising at least one detector and at least one processing unit, the vehicle environment detection system being arranged to detect at least two feature points on objects external to a vehicle.

Die EP 3 415 948 A1 offenbart eine Methode zur Bestimmung der Entfernung der Reichweite eines Ziels in einer horizontalen Ebene durch ein mit einem Radarsystem ausgestattetes Leitfahrzeug.The EP 3 415 948 A1 discloses a method for determining the range of range of a target in a horizontal plane by a radar-equipped lead vehicle.

Die EP 3 151 034 A1 offenbart ein Radarsystem umfassend einen Radarsensor, wobei eine Gierrate eines Zielfahrzeugs zum gegenwärtigen Zeitpunkt basierend auf einem derzeitigen Frequenzbereich eines gegenwärtigen Azimutwinkels bestimmt wird.The EP 3 151 034 A1 discloses a radar system including a radar sensor wherein a yaw rate of a target vehicle at the current time is determined based on a current frequency range of a current azimuth angle.

Die DE 10 2008 025 773 A1 offenbart ein Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts, bei dem eine Entfernung zum Objekt ermittelt, eine Verschiebung zumindest eines Teils des Objekts im Bild einer Kamera detektiert und mindestens ein Parameter des Orts- und Bewegungszustands unter Berücksichtigung eines Bewegungsmodells des beobachteten Objekts geschätzt wird, wobei einer der Parameter eine Gierrate oder eine Quergeschwindigkeit ist.The DE 10 2008 025 773 A1 discloses a method for estimating a position and movement state of an observed object, in which a distance to the object is determined, a displacement of at least part of the object in the image of a camera is detected and at least one parameter of the position and movement state, taking into account a movement model of the observed object is estimated, one of the parameters being a yaw rate or a lateral velocity.

Es sind auch weitere Lösungen bekannt, welche die Gierrate über zeitliche Filterung (Tracking) der Sensordaten bestimmen.Other solutions are also known which determine the yaw rate by temporal filtering (tracking) of the sensor data.

Die bekannten Lösungen sind allerdings im zeitlichen Auflösungsvermögen beschränkt, da mehrere zeitlich versetzte Messungen ausgewertet werden müssen, oder es besteht die Notwendigkeit, mehrere Sensoren zu verwenden, was den Aufbau der Messapparatur platz- und ressourcenintensiv macht.However, the known solutions are limited in terms of the temporal resolution, since a number of measurements that are offset in time have to be evaluated, or there is a need to use a number of sensors, which makes the construction of the measuring apparatus space- and resource-intensive.

Hiervon ausgehend liegt der Erfindung die Aufgabe zu Grunde, ein Verfahren und eine Auswertungseinheit bereitzustellen, welches die Bestimmung der Gierrate verbessert. Diese Aufgabe wird durch das Verfahren nach Anspruch 1 und die Auswertungseinheit nach Anspruch 3 gelöst. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen und der folgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung.Proceeding from this, the object of the invention is to provide a method and an evaluation unit which improves the determination of the yaw rate. This object is achieved by the method according to claim 1 and the evaluation unit according to claim 3. Further advantageous refinements of the invention result from the dependent claims and the following description of preferred exemplary embodiments of the present invention.

Die Ausführungsbeispiele zeigen ein Verfahren zur Bestimmung der Gierrate eines Zielobjektes, umfassend ein Empfangen von Sensordaten, welche mehrere Detektionen umfassen, welche das Zielobjekt beschreibt, ein Abschätzen der Lage des Gierzentrums des Zielobjektes auf Grundlage der Detektionen, sowie ein Bestimmen der Gierrate auf Grundlage des abgeschätzten Ortes des Gierzentrums. Die Gierrate beschreibt hierbei die Rotationsgeschwindigkeit eines Objekts um die Hochachse an einem definierten Referenzpunkt, hier Gierzentrum genannt. Vorzugsweise liefern die mehreren Detektionen liefern eine Punktwolke, welche das Zielobjekt beschreibt.The exemplary embodiments show a method for determining the yaw rate of a target object, comprising receiving sensor data, which includes a plurality of detections that describe the target object, estimating the position of the yaw center of the target object based on the detections, and determining the yaw rate based on the estimated location of the craving center. The yaw rate describes the rotational speed of an object around the vertical axis at a defined reference point, here called the yaw center. Preferably, the multiple detections provide a point cloud that describes the target object.

Bei dem Fahrzeug kann es sich insbesondere um ein fahrerloses autonomes oder um ein teilautonom bewegtes Fahrzeug handeln. Es kann sich beispielsweise um ein Land-, Luft- oder Wasserfahrzeug handeln, beispielsweise um ein fahrerloses Transportsystem (FTS), einen autonomen PKW, ein Schienenfahrzeug, eine Drohne oder ein Boot.The vehicle can in particular be a driverless, autonomous vehicle or a partially autonomously moving vehicle. For example, it can be a land, air or water vehicle, for example a driverless transport system (DTS), an autonomous car, a rail vehicle, a drone or a boat.

Die Sensordaten stammen beispielsweise von ein oder mehreren Sensoren, welche dazu ausgelegt sind, das Umfeld eines Fahrzeugs zu erfassen. Bei den Sensoren kann es sich insbesondere um Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen handeln.The sensor data originate, for example, from one or more sensors that are designed to record the surroundings of a vehicle. The sensors can in particular be cameras, radar sensors, lidar sensors, ultrasonic sensors or the like.

Das Verfahren umfasst erfindungsgemäß eine Kombination eines Least Squares-Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Gierzentrums.According to the invention, the method comprises a combination of a least squares estimation method from several detections with an orientation estimation based on the principal component analysis, together with an estimation of the yaw center.

Die Gierrate wird erfindungsgemäß bestimmt durch Lösung einer überbestimmten Modellgleichung, welche die Bewegung des Zielobjektes abschätzt. Hierbei wird eine Modellgleichung verwendet, die als Unbekannte den Betrag der Zielobjektsgeschwindigkeit und die Gierrate des Zielobjekts enthält.According to the invention, the yaw rate is determined by solving an overdetermined model equation which estimates the movement of the target object. A model equation is used here, which contains the amount of the target object speed and the yaw rate of the target object as unknowns.

Die Modellgleichung wird erfindungsgemäß gelöst, indem N Detektionen bzw. Messpunkte der Sensordaten in die Modellgleichung eingesetzt werden, um ein Gleichungssystem mit zwei Unbekannten und N Gleichungen zu erhalten.The model equation is solved according to the invention by inserting N detections or measurement points of the sensor data into the model equation in order to obtain an equation system with two unknowns and N equations.

Das Gleichungssystem wird mit Hilfe eines Least-Square-Schätzverfahrens gelöst.The system of equations is solved using a least squares estimation method.

Die Sensordaten liegen beispielsweise als Punktwolke vor, die Orts- und Geschwindigkeitsinformationen von Zielen des Zielobjektes umfasst.The sensor data is available, for example, as a point cloud that includes location and speed information of targets of the target object.

Das Abschätzen der Lage des Gierzentrums kann beispielsweise durch Abschätzung der Koordinaten des Clusterzentrums der Punkwolke erfolgen. Beispielsweise kann das Clusterzentrum als der Schwerpunkt der Punkwolke ermittelt werden.The location of the yaw center can be estimated, for example, by estimating the coordinates of the cluster center of the point cloud. For example, the cluster center can be determined as the centroid of the point cloud.

Die Lage des Gierzentrums wird auch auf Basis einer Hauptkomponentenanalyse abgeschätzt. Die Ermittlung der Orientierung des Zielobjekts erfolgt mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird.The location of the yaw center is also estimated based on a principal component analysis. The orientation of the target object is determined with a main component analysis of the detections associated with the target object by evaluating the angle of the main components.

Erfindungsgemäß wird die Lage des Gierzentrums als Mitte einer Hinterachse des Zielobjektes abgeschätzt.According to the invention, the position of the yaw center is estimated as the center of a rear axle of the target object.

Die Ausführungsbeispiele zeigen auch eine Auswertungseinheit mit einem Prozessor, der dazu ausgelegt ist, das hier beschrieben Verfahren durchzuführen. Bei dem Prozessor kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt.The exemplary embodiments also show an evaluation unit with a processor which is designed to carry out the method described here. The processor can be, for example, a computing unit such as a central processing unit (CPU) that executes program instructions.

Das Verfahren kann beispielsweise als ein computer-implementiertes Verfahren realisiert werden, das von einem Prozessor einer Auswertungseinheit ausgeführt wird. Gegenstand ist somit auch ein Computerprogramm, welches die hier beschriebenen Verfahren ausführt.The method can be implemented, for example, as a computer-implemented method that is executed by a processor of an evaluation unit. The subject matter is therefore also a computer program that executes the methods described here.

Die Erfassung, Überprüfung und Verarbeitung, beispielsweise die Bestimmung der Gierrate erfolgt vorzugsweise in Echtzeit. Das heißt, die Bestimmung der Gierrate eines Zielobjekts auf Grundlage der Sensordaten beispielsweise eines hochauflösenden Radars erfolgt vorzugsweise instantan. Instantan bedeutet hier, dass die Schätzung der Gierrate innerhalb eines Messzyklus, also ohne Historieninformation, erfolgt.The detection, checking and processing, for example the determination of the yaw rate, preferably takes place in real time. This means that the yaw rate of a target object is preferably determined instantaneously on the basis of the sensor data, for example from a high-resolution radar. Instantaneous means here that the yaw rate is estimated within one measurement cycle, i.e. without historical information.

Ausführungsformen werden nun beispielhaft und unter Bezugnahme auf die beigefügten Zeichnungen beschrieben, in denen:

  • 1 ein Blockdiagramm zeigt, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt;
  • 2 ein Blockdiagramm ist, das eine beispielhafte Konfiguration eines Steuergeräts für autonomes Fahren zeigt;
  • 3 die von einem Radarsensor gemessenen Daten eines Fahrzeugs schematisch darstellt;
  • 4 und 5 schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke zeigen;
  • 6 in einem Flussdiagram die Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke schematisch darstellt; und
  • 7 die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke bei bereits bestimmtem Drehzentrum zeigt.
  • 8 eine mögliche Modellgleichung zur Berechnung der Gierrate verdeutlicht.
Embodiments will now be described by way of example and with reference to the accompanying drawings, in which:
  • 1 12 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention;
  • 2 Fig. 12 is a block diagram showing an example configuration of an autonomous driving controller;
  • 3 schematically represents the data of a vehicle measured by a radar sensor;
  • 4 and 5 schematically show the step-by-step determination of the center of rotation of a yawing vehicle from a point cloud provided by a radar sensor;
  • 6 in a flow chart, the determination of the center of rotation of a yawring vehicle is shown schematically from a point cloud provided by a radar sensor; and
  • 7 shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with the center of rotation already determined.
  • 8th illustrates a possible model equation for calculating the yaw rate.

1 zeigt ein Blockdiagramm, das schematisch die Konfiguration eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung darstellt. Das Fahrzeug umfasst mehrere Komponenten, welche via eines Fahrzeugkommunikationsnetzwerks 28 miteinander verbunden sind. Das Fahrzeugkommunikationsnetzwerk 28 kann beispielsweise ein im Fahrzeug eingebautes standardgemäßes Fahrzeugkommunikationsnetzwerk wie etwa ein CAN-Bus (controller area network), ein LIN-Bus (local interconnect network), ein LAN-Bus (local area network), ein MOST-Bus und/oder ein FlexRay-Bus (registered trademark) oder dergleichen sein. 1 12 is a block diagram schematically showing the configuration of a vehicle according to an embodiment of the present invention. The vehicle includes a number of components which are connected to one another via a vehicle communication network 28 . The vehicle communication network 28 may be, for example, an in-vehicle standard vehicle communication network such as a controller area network (CAN) bus, a local interconnect network (LIN) bus, a local area network (LAN) bus, a MOST bus, and/or a FlexRay bus (registered trademark) or the like.

In dem in 1 dargestellten Beispiel umfasst das autonome Fahrzeug 1 eine Steuereinheit 12 (ECU 1). Diese Steuereinheit 12 steuert ein Lenksystem. Das Lenksystem bezieht sich dabei auf die Komponenten, die eine Richtungssteuerung des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit 14 (ECU 2), die ein Bremssystem steuert. Das Bremssystem bezieht sich dabei auf die Komponenten, die ein Bremsen des Fahrzeugs ermöglichen. Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit 16 (ECU 3), die einen Antriebsstrang steuert. Der Antriebsstrang bezieht sich dabei auf die Antriebskomponenten des Fahrzeugs. Der Antriebsstrang kann einen Motor, ein Getriebe, eine Antriebs-/Propellerwelle, ein Differential und einen Achsantrieb umfassen.in the in 1 illustrated example, the autonomous vehicle 1 includes a control unit 12 (ECU 1). This control unit 12 controls a steering system. The steering system refers to the components that enable directional control of the vehicle. The autonomous vehicle 1 further includes a control unit 14 (ECU 2) that controls a braking system. The braking system refers to the components that allow the vehicle to brake. The autonomous vehicle 1 further includes a control unit 16 (ECU 3) that controls a powertrain. The powertrain refers to the drive components of the vehicle. The powertrain may include an engine, transmission, driveshaft/propeller shaft, differential, and final drive.

Das autonome Fahrzeug 1 umfasst ferner eine Steuereinheit für autonomes Fahren 18 (ECU 4). Die Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, das autonome Fahrzeug 1 so zu steuern, dass dieses ganz oder teilweise ohne Einfluss eines menschlichen Fahrers im Straßenverkehr agieren kann. Die Steuereinheit für autonomes Fahren 18, die in 2 und der zugehörigen Beschreibung näher beschrieben ist, steuert ein oder mehrere Fahrzeugsubsysteme während das Fahrzeug im autonomen Modus betrieben wird, nämlich das Bremssystem 14, das Lenksystem 12 und das Antriebssystem 14. Hierfür kann die Steuereinheit für autonomes Fahren 18 beispielsweise über das Fahrzeugkommunikationsnetzwerk 28 mit den entsprechenden Steuereinheiten 12, 14 und 16 kommunizieren.The autonomous vehicle 1 further includes an autonomous driving control unit 18 (ECU 4). The control unit for autonomous driving 18 is designed to control the autonomous vehicle 1 in such a way that it can operate in road traffic entirely or partially without the influence of a human driver. The control unit for autonomous driving 18, which is in 2 and the associated description, controls one or more vehicle subsystems while the vehicle is operated in the autonomous mode, namely the braking system 14, the steering system 12 and the propulsion system 14. For this purpose, the control unit for autonomous driving 18 can, for example, via the vehicle communication network 28 with the corresponding control units 12, 14 and 16 communicate.

Das Fahrzeug umfasst ferner ein oder mehrere Sensoren 26, welche dazu ausgelegt sind, das Umfeld des Fahrzeugs zu erfassen, wobei die Sensoren am Fahrzeug montiert sind und Bilder des Umfelds des Fahrzeugs erfassen, oder Objekte oder Zustände im Umfeld des Fahrzeugs erkennen. Die Umfeldsensoren 26 umfassen insbesondere Kameras, Radar-Sensoren, Lidar-Sensoren, Ultraschall-Sensoren oder dergleichen. Die Umfeldsensoren 26 können innerhalb des Fahrzeugs oder außerhalb des Fahrzeugs (z. B. an der Außenseite des Fahrzeugs) angeordnet sein. The vehicle also includes one or more sensors 26 which are designed to detect the vehicle's surroundings, the sensors being mounted on the vehicle and capturing images of the vehicle's surroundings, or recognizing objects or conditions in the vehicle's surroundings. Surroundings sensors 26 include, in particular, cameras, radar sensors, lidar sensors, ultrasonic sensors or the like. The surroundings sensors 26 can be arranged inside the vehicle or outside the vehicle (eg on the outside of the vehicle).

Beispielsweise kann eine Kamera in einem vorderen Bereich des Fahrzeugs zur Aufnahme von Bildern eines vor dem Fahrzeug befindlichen Bereichs vorgesehen sein.For example, a camera can be provided in a front area of the vehicle for recording images of an area in front of the vehicle.

Die Fahrzeugsensorik des Fahrzeugs umfasst ferner eine Satellitennavigationseinheit 24 (GPS/GNSS-Einheit). Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GPS/GNSS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, A-GPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien) und dergleichen.The vehicle sensor system of the vehicle also includes a satellite navigation unit 24 (GPS/GNSS unit). It should be noted that in the context of the present invention, GPS/GNSS is representative of all Global Navigation Satellite Systems (GNSS), such as GPS, A-GPS, Galileo, GLONASS (Russia), Compass (China), IRNSS (India) and the like .

Das Fahrzeug umfasst ferner eine Benutzerschnittstelle 32 (HMI = Human-Machine-Interface), die einem Fahrzeuginsassen ermöglicht, mit einem oder mehreren Fahrzeugsystemen in Interaktion zu stehen. Diese Benutzerschnittstelle 32 (beispielsweise eine GUI = graphical user interface) kann eine elektronische Anzeige zum Ausgeben einer Graphik, von Symbolen und/oder Inhalt in Text-form, und eine Eingabeschnittstelle zum Empfangen einer Eingabe (beispielsweise manuelle Eingabe, Spracheingabe und Eingabe durch Gesten, Kopf- oder Augen-bewegungen) umfassen. Die Eingabeschnittstelle kann beispielsweise Tastaturen, Schalter, berührungsempfindliche Bildschirme (Touchscreen), Eye-Tracker und dergleichen umfassen.The vehicle also includes a human-machine interface (HMI) 32 that allows a vehicle occupant to interact with one or more vehicle systems. This user interface 32 (e.g., a GUI = graphical user interface) may include an electronic display for outputting graphics, symbols, and/or content in text form, and an input interface for receiving input (e.g., manual input, voice input, and input by gestures, head or eye movements). For example, the input interface may include keyboards, switches, touch screens, eye trackers, and the like.

Wenn steuerungsseitig oder fahrerseitig ein Betriebszustand für das autonome Fahren aktiviert ist, bestimmt die Steuereinheit für autonomes Fahren 18, auf Grundlage von zur Verfügung stehenden Daten über eine vorgegebene Fahrtstrecke, von Umweltsensoren aufgenommenen Umgebungsdaten, sowie von mittels den Fahrzeugsensoren erfassten Fahrzeugbetriebsparametern, die der Steuereinheit 18 von den Steuereinheiten 12, 14 und 16 zugeleitet werden, Parameter für den autonomen Betrieb des Fahrzeugs (beispielsweise Soll-Geschwindigkeit, Soll-Moment, Abstand zum Vorausfahrzeug, Abstand zum Fahrbahnrand, Lenkvorgang und dergleichen). Beispielsweise ist die Steuereinheit für autonomes Fahren 18 dazu ausgelegt den Fahrweg umliegender Fahrzeuge, beispielsweise von Fahrzeugen anderer Verkehrsteilnehmer zu analysieren und einzuschätzen.If an operating state for autonomous driving is activated on the control side or on the driver side, the control unit for autonomous driving 18 determines based on available data over a specified route, environmental data recorded by environmental sensors, and vehicle operating parameters recorded by the vehicle sensors, which are sent to control unit 18 by control units 12, 14 and 16, parameters for the autonomous operation of the vehicle (for example target speed, target torque, distance to the vehicle in front, distance to the edge of the road, steering operation and the like). For example, the control unit for autonomous driving 18 is designed to analyze and assess the driving path of surrounding vehicles, for example vehicles of other road users.

2 zeigt ein Blockdiagramm, das eine beispielhafte Konfiguration einer Steuereinheit für autonomes Fahren 18 (ECU 4) darstellt. Bei der Steuereinheit für autonomes Fahren 18 kann es sich beispielsweise um ein Steuergerät (electronic control unit ECU oder electronic control module ECM) handeln. Die Steuereinheit für autonomes Fahren 18 (ECU 4) umfasst einen Prozessor 40. Bei dem Prozessor 40 kann es sich beispielsweise um eine Recheneinheit wie eine zentrale Verarbeitungseinheit (CPU = central processing unit) handeln, die Programminstruktionen ausführt. Der Prozessor der Steuereinheit für autonomes Fahren 18 ist dazu ausgelegt, beim Fahren hinter einem Vorausfahrzeug je nach geplantem Fahrmanöver, basierend auf den Informationen des sensorbasierten Umfeldmodells, eine optimale Fahrposition (Folgeabstand, Lateralversatz) unter Berücksichtigung des zulässigen Fahrspurbereichs zu berechnen. Die errechnete optimale Fahrposition wird zur Steuerung von Aktuatoren der Fahrzeugsubsysteme 12, 14 und 16, beispielsweise von Brems-, Antriebs- und/oder Lenkaktuatoren, verwendet. Die Steuereinheit für autonomes Fahren 18 umfasst ferner einen Speicher und eine Eingabe/ Ausgabe-Schnittstelle. Der Speicher kann aus einem oder mehreren nichtflüchtigen computerlesbaren Medien bestehen und umfasst mindestens einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können Kombinationen von verschiedenen Arten von Speicher umfassen, beispielsweise von einem Nur-Lese-Speicher 43 (ROM = Read-only memory) und einem Direktzugriffsspeicher 42 (RAM = Random Access Memory) (z. B. dynamischer RAM („DRAM“), synchron DRAM („SDRAM“) usw.). Ferner kann die Steuereinheit für autonomes Fahren 18 ein externes Speicherlaufwerk 44, wie beispielsweise ein externes Festplattenlaufwerk (hard disk drive: HDD), ein Flashspeicher-Laufwerk oder ein nicht flüchtiges Festkörperlaufwerk (solid state drive: SSD) umfassen. Die Steuereinheit für autonomes Fahren 18 umfasst ferner eine Kommunikationsschnittstelle 45, über welche die Steuereinheit mit dem Fahrzeugkommunikationsnetzwerk (28 in 2) kommunizieren kann. 2 12 is a block diagram showing an example configuration of an autonomous driving control unit 18 (ECU 4). The control unit for autonomous driving 18 can be, for example, a control device (electronic control unit ECU or electronic control module ECM). The autonomous driving control unit 18 (ECU 4) includes a processor 40. The processor 40 may be, for example, a computing unit such as a central processing unit (CPU) that executes program instructions. The processor of the control unit for autonomous driving 18 is designed to calculate an optimal driving position (following distance, lateral offset) when driving behind a vehicle in front, depending on the planned driving maneuver, based on the information from the sensor-based environment model, taking into account the permissible lane area. The calculated optimal driving position is used to control actuators of the vehicle subsystems 12, 14 and 16, for example brake, drive and/or steering actuators. The autonomous driving control unit 18 further includes a memory and an input/output interface. The memory may be one or more non-transitory computer-readable media and includes at least a program storage area and a data storage area. The program memory area and data memory area may include combinations of different types of memory, such as read-only memory (ROM) 43 and random access memory (RAM) 42 (e.g., dynamic RAM ( "DRAM"), synchronous DRAM ("SDRAM"), etc.). Further, the autonomous driving control unit 18 may include an external storage drive 44, such as an external hard disk drive (HDD), a flash memory drive, or a non-volatile solid state drive (SSD). The control unit for autonomous driving 18 also includes a communication interface 45, via which the control unit communicates with the vehicle communication network (28 in 2 ) can communicate.

3 zeigt schematisch die von einem Umgebungssensor 26 gemessenen Daten eines Fahrzeugs. Als Umgebungssensor 26 wird beispielsweise ein hochauflösender Radar verwendet, der für ein Zielobjekt mehrere Detektionen P1 bis PN („Ziele“) generiert, die mittel dem Fachmann bekannten Verfahren einem Zielobjekt zugeschrieben werden können. Im Folgenden werden die Prinzipien der Erfindung anhand eines Radarsensors beschrieben. Diese Prinzipien lassen sich allerdings genauso für Daten von anderen Sensortypen, wie beispielsweise ToF-, Lidar-, Ultraschall- oder Kamerasensoren anwenden. Bei dem Zielobjekt handelt es sich hier beispielsweise um ein Fahrzeug 50 mit Hinterachse 51. Das Radar ist in der Lage, die Position der Detektionen P1 bis PN beispielsweise in einem Polarkoordinatensystem (Abstand ri und Azimutwinkel θi) zu bestimmen, sowie die Radialgeschwindigkeit vr,i der Detektionen zu erfassen. Dadurch ist die radiale Geschwindigkeitsverteilung vr,i an verschiedenen Ortspunkten des Zielobjekts P1 bis PN für einen gegebenen Messzeitpunkt bekannt. Bei einer reinen Translationsbewegung stimmt der gemessene Geschwindigkeitsvektor vi an dem gegebenen Messpunkt Pi in Betrag und Phase mit der mittleren Zielobjektgeschwindigkeit v' = Mittelwert (vi) überein. Für diese Situationen sind Verfahren bekannt, um aus den gemessenen Radardetektionen den Objektgeschwindigkeitsvektor vi zu bestimmen, auf die an dieser Stelle nicht näher eingegangen wird. 3 shows schematically the data of a vehicle measured by an environment sensor 26 . A high-resolution radar, for example, is used as the environmental sensor 26, which generates a plurality of detections P 1 to P N (“targets”) for a target object, which can be assigned to a target object using methods known to those skilled in the art. The principles of the invention are described below using a radar sensor. However, these principles can also be applied to data from other types of sensors, such as ToF, lidar, ultrasonic or camera sensors. The target object here is, for example, a vehicle 50 with a rear axle 51. The radar is able to determine the position of the detections P 1 to P N , for example in a polar coordinate system (distance r i and azimuth angle θ i ), as well as the To capture radial velocity v r,i of the detections. As a result, the radial velocity distribution v r,i at various locations of the target object P 1 to P N is known for a given measurement time. In the case of a pure translational movement, the measured velocity vector v i at the given measuring point P i agrees in magnitude and phase with the mean target object velocity v'=mean value (vi). For these situations, methods are known for determining the object speed vector v i from the measured radar detections, which will not be discussed in detail at this point.

Eine zusätzliche Rotation des Zielobjekts um das Rotationszentrum (im realen Umfeld oft gegeben, beispielsweise bei einer Kurvenfahrt) mit einer Gierrate ω führt zu einer Überlagerung der mittleren Zielobjektgeschwindigkeit v' mit dem Geschwindigkeitsanteil vθ,i der durch die Rotation des Zielobjekts verursacht wird. Die Superposition dieser Geschwindigkeitskomponenten beeinflusst die radiale Geschwindigkeitsverteilung vr,i, die vom Sensor erfasst wird. Durch die zusätzlichen unbekannten Grö-ßen (Gierrate ω, Rotationszentrum) ist eine allgemeine Bestimmung der Fahrzeugkinematik in einem einzigen Zyklus nicht mehr sinnvoll durchführbar. Aus diesem Grund nutzt das folgende Verfahren einige Annahmen über die Form und Funktionalität von Fahrzeugen, um das mathematische Problem der Bestimmung der Gierrate aus den gemessenen Sensordaten zu vereinfachen.An additional rotation of the target object around the center of rotation (often given in the real environment, for example when cornering) with a yaw rate ω leads to a superimposition of the average target object speed v' with the speed component v θ,i caused by the rotation of the target object. The superposition of these velocity components affects the radial velocity distribution v r,i recorded by the sensor. Due to the additional unknown variables (yaw rate ω, center of rotation), a general determination of the vehicle kinematics in a single cycle can no longer be carried out in a meaningful way. For this reason, the following procedure uses some assumptions about the form and functionality of vehicles to simplify the mathematical problem of determining the yaw rate from the measured sensor data.

Setzt man zur Beschreibung der Kinematik des Zielobjekts ein Einspurmodell mit Vorderachslenkung voraus (klassisches Fahrzeug), lässt sich der Referenzpunkt, um den das Fahrzeug rotiert, durch das Zentrum der Hinterachse genau beschreiben. Dieser Referenzpunkt wird im Folgenden als Drehzentrum 64 bezeichnet.If one assumes a single-track model with front-axle steering (classic vehicle) to describe the kinematics of the target object, the reference point around which the vehicle rotates can be represented by the cent around the rear axle. This reference point is referred to below as the center of rotation 64 .

4 und 5 zeigen schematisch die schrittweise Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke (auch „Detektionen“, oder „Ziele“ genannt). Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird. 4 and 5 show schematically the step-by-step determination of the center of rotation of a yawring vehicle from a point cloud provided by a radar sensor (also called “detections” or “targets”). Since there are several spatially distributed detections for a target object, the geometric extent and also the orientation of the target object can be determined. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object by evaluating the angle of the main components.

In 4 detektiert ein Umgebungssensor 26, beispielsweise ein Radarsensor, in seinem Sichtfeld 260 ein Zielobjekt als Punktwolke. Die Punktwolke besteht aus einzelnen Detektionen, welche aus Abstandsmessungen und Richtungsmessungen im Sichtbereich des Sensors ermittelt werden. Die Punktwolke bzw. die einzelnen Detektionen enthalten neben Abstands- (Ort) auch (Relativ-)Geschwindigkeitsinformationen. Daher kann die geometrische Ausdehnung und somit auch die Orientierung des Zielobjekts, in diesem Fall das Fahrzeug 50, bestimmt werden. Zu diesem Zweck werden erfindungsgemäß die zueinander orthogonal stehenden Hauptkomponenten 61 und 62 aus der Punktewolke mittels Hauptkomponentenanalyse bestimmt. Algorithmen zu diesem Zweck sind aus dem Stand der Technik hinlänglich bekannt. Ferner kann aus der Punktewolke auch auf die geometrische Ausdehnung des Zielobjekts rückgeschlossen werden. 4 zeigt diesbezüglich, wie erfindungsgemäß mittels Least Square oder einem anderen Fehlerfunktions-Minimalisierungsverfahren ein Rechteck 60 in die Punktwolke gefittet wird. Dieses Rechteck 60 wird an dieser Stelle als vereinfachte Form des Zielobjektes benutzt und nutzt das Wissen aus, dass es sich bei dem Zielobjekt um ein Fahrzeug 50 handelt, dessen Form als Rechteck angenähert werden kann.In 4 an environment sensor 26, for example a radar sensor, detects a target object as a point cloud in its field of view 260. The point cloud consists of individual detections, which are determined from distance measurements and direction measurements in the field of view of the sensor. The point cloud or the individual detections contain not only distance (location) but also (relative) speed information. Therefore, the geometric extent and thus also the orientation of the target object, in this case the vehicle 50, can be determined. For this purpose, according to the invention, the main components 61 and 62, which are orthogonal to one another, are determined from the cloud of points by means of main component analysis. Algorithms for this purpose are well known from the prior art. Furthermore, conclusions can also be drawn about the geometric extent of the target object from the cloud of points. 4 shows in this regard how, according to the invention, a rectangle 60 is fitted into the point cloud by means of least squares or another error function minimization method. This rectangle 60 is used here as a simplified shape of the target and takes advantage of the knowledge that the target is a vehicle 50 whose shape can be approximated as a rectangle.

Das Rechteck wird unter der Hilfsbedingung an die Punktwolke gefittet, dass die jeweiligen Rechteckseiten a und b orthogonal auf den Hauptkomponenten 61 und 62 stehen. Anschließend wird eine Fehlerfunktion f bestimmt, wobei f die jeweils kürzesten Abstände zwischen einem Punkt Pi und dem Rechteck 60 aufsummiert und diese Funktion mittels Least-Square-Verfahrens minimiert.The rectangle is fitted to the point cloud under the auxiliary condition that the respective rectangle sides a and b are orthogonal to the principal components 61 and 62. An error function f is then determined, where f sums up the respective shortest distances between a point Pi and the rectangle 60 and this function is minimized using the least squares method.

5. zeigt das berechnete Rechteck 60 mit Seitenlängen a und b inklusive Hauptkompnenten 61 und 62 ohne die vom Radarsensor bestimmte Punktwolke. Sobald das Rechteck 60 bestimmt ist, kann die Lage der Hinterachse 63 näherungsweise geschätzt werden. Erfindungsgemäß wird der Ort der Hinterachse 63 dadurch abgeschätzt, dass die Hinterachse 63 als parallel zum Heck des Fahrzeugs im Abstand L angenommen wird. Der Abstand L wird im Vorfeld eingestellt als L = 0,2 - max {a,b}. Das Heck des Fahrzeugs wird aus den Seitenlängen a und b des Rechtecks 60 und dem mittleren Geschwindigkeitsvektor v' des Fahrzeugs bestimmt. Da Fahrzeuge länger als breit sind, kommt als Heck nur eine der beiden kürzeren Seiten in Betracht. Zunächst wird also bestimmt, ob a oder b kürzer ist. Nun wird angenommen, dass das Fahrzeug vorwärts fährt. In diesem Fall kann angenommen werden, dass das Heck die Seite ist, die sich in der entgegengesetzten Richtung zur mittleren Geschwindigkeit v' der Punktwolke befindet. Ist das Heck auf diese Weise bestimmt, wird Ort und Orientierung der Hinterachse 63 abgeschätzt. Nun wird als weitere Annahme verwendet, dass das Drehzentrum 64 des Zielobjekts sich in der Mitte der Hinterachse 63 befindet. Auf diese Art wird der Ort der Drehachse 64 ausreichend eingeschätzt um mit der weiteren Gierratenbestimmung fortzufahren. 5 . shows the calculated rectangle 60 with side lengths a and b including main components 61 and 62 without the point cloud determined by the radar sensor. Once the rectangle 60 is determined, the location of the rear axle 63 can be approximately estimated. According to the invention, the location of the rear axle 63 is estimated by assuming that the rear axle 63 is parallel to the rear of the vehicle at a distance L. The distance L is set in advance as L = 0.2 - max {a,b}. The rear of the vehicle is determined from the side lengths a and b of the rectangle 60 and the mean velocity vector v' of the vehicle. Since vehicles are longer than they are wide, only one of the two shorter sides can be considered as the rear. So first it is determined whether a or b is shorter. It is now assumed that the vehicle is running forward. In this case, the tail can be assumed to be the side that is in the opposite direction to the mean velocity v' of the point cloud. With the rear determined in this way, the location and orientation of the rear axle 63 is estimated. Now, as a further assumption, the center of rotation 64 of the target is at the center of the rear axle 63 . In this manner, the location of the axis of rotation 64 is sufficiently estimated to proceed with further yaw rate determination.

Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Für die Bestimmung des Rotationszentrums 64 kann deshalb alternativ auch eine Abschätzung über die Koordinaten des Clusterzentrums der Punkwolke herangezogen werden, was für die hier Beschriebene Bestimmung der Gierrate bereits ausreichend ist. Das Verwenden des Clusterzentrums als Gierzentrum ist im Vergleich zur Berechnung der Hinterachse weniger Rechenzeit-aufwändig.Simulations have confirmed that the position of the center of rotation does not need to be known exactly to obtain a robust yaw rate estimate. For the determination of the center of rotation 64, an estimation of the coordinates of the cluster center of the point cloud can therefore alternatively be used, which is already sufficient for the determination of the yaw rate described here. Using the cluster center as the yaw center requires less computing time compared to calculating the rear axle.

6 zeigt in einem Flussdiagram die Bestimmung des Drehzentrums eines girierenden Fahrzeugs aus einer von einem Radarsensor bereit gestellten Punktwolke. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausgeführt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in 1) oder dergleichen ausgeführt. In einem ersten Schritt S60 werden die zueinander orthogonalen Hauptkomponenten 61 und 62 aus der Punktwolke des Radar-Sensors mittels Hauptkomponentenanalyse bestimmt. In einem Zwischenschritt S61 wird aus den Hauptkomponenten 61 und 62 ein Winkel φ bestimmt (siehe 8), der die relative Orientierung des Fahrzeugs zum Sensor 26 angibt. In einem nächsten Schritt S62 werden die Rechteckslängen a und b anhand der Punktwolke und der Hauptkomponenten bestimmt. Hierzu wird das wissen ausgenutzt, dass sich a und b orthogonal zu ihrer jeweiligen Hauptkomponente befinden und anschließend die Fehlerfunktion f mittels Least-Square-Verfahren oder einem anderen Fehlerfunktons-Minimierungsverfahrens minimiert, sodass die beiden a und b bestimmt werden, für die die Fehlerfunktion f minimal wird. Hierbei kann die Fehlerfunktion f erfindungsgemäß wie folgt ausgedrückt ƒ ( a , b ) = i = 1 N min { | P i R ( a , b ) | 2 }

Figure DE102019204408B4_0002
als die Summe über alle minimalen Abstände zwischen einem Messpunkt Pi und dem Rechteck 60 repräsentiert durch die Funktion R(a,b). Anschließend wir in einem Schritt S63 aus den Punktgeschwindigkeiten vi der Punktwolke die mittlere Fahrzeuggeschwindigkeit v` bestimmt. Hierbei gilt: v ' = i N v i N
Figure DE102019204408B4_0003
wobei N die Anzahl der Punkte der Punktwolke ist. In einem nächsten Schritt S64 wird das Heck des Fahrzeugs aus der Richtung der mittleren Geschwindigkeit v' und den Rechtecksseitenlängen a und b bestimmt, wobei das Wissen ausgenutzt wird, dass nur die kürze Rechtecksseitenlänge min(a,b) als Heck in Frage kommt und angenommen wird, dass das Fahrzeug vorwärts fährt, das Heck folglich die Rechtecksseitenlänge ist, die sich in der entgegengesetzten Richtung der mittleren Geschwindigkeit v' befindet. In einem nächsten Schritt S65 werden Lage und Orientierung der Hinterachse 63 als parallel zum Heck und im Abstand L = 0,2 - max {a, b} abgeschätzt. In einem letzten Schritt S66 wird nun das Drehzentrum 64 als in der Mitte der Hinterachse 63 befindlich abgeschätzt. Auf diese Art ist nun der Ort des Drehzentrums 64 ausreichend bekannt, um zu einer robusten Abschätzung der Gierrate zu gelangen. 6 shows in a flow chart the determination of the center of rotation of a yawing vehicle from a point cloud provided by a radar sensor. The method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving (18 in 1 ) or the like executed. In a first step S60, the mutually orthogonal main components 61 and 62 are determined from the point cloud of the radar sensor by means of main component analysis. In an intermediate step S61, an angle φ is determined from the principal components 61 and 62 (see 8th ), which indicates the relative orientation of the vehicle to the sensor 26. In a next step S62, the rectangle lengths a and b are determined using the point cloud and the principal components. For this purpose, the knowledge is used that a and b are orthogonal to their respective main components den and then the error function f is minimized using the least squares method or another error function minimization method, so that the two a and b are determined for which the error function f is minimal. Here, according to the present invention, the error function f can be expressed as follows ƒ ( a , b ) = i = 1 N at least { | P i R ( a , b ) | 2 }
Figure DE102019204408B4_0002
as the sum over all minimum distances between a measuring point P i and the rectangle 60 represented by the function R(a,b). Then, in a step S63, the average vehicle speed v` is determined from the point speeds vi of the point cloud. The following applies here: v ' = i N v i N
Figure DE102019204408B4_0003
where N is the number of points in the point cloud. In a next step S64, the rear of the vehicle is determined from the direction of the average speed v' and the rectangular side lengths a and b, using the knowledge that only the shorter rectangular side length min(a,b) is possible as the rear and is assumed becomes that the vehicle is moving forward, hence the tail is the rectangle side length which is in the opposite direction of the mean speed v'. In a next step S65, the position and orientation of the rear axle 63 are estimated as being parallel to the rear and at a distance L=0.2-max {a, b}. In a final step S66, the center of rotation 64 is estimated to be in the center of the rear axle 63. In this way, the location of the center of rotation 64 is now sufficiently known to provide a robust estimate of the yaw rate.

7 zeigt die Bestimmung der Gierrate eines girierenden Fahrzeugs aus einer von einem Radarsensor bereitgestellten Punktwolke bei bereits bestimmtem Drehzentrum. Das Verfahren wird beispielsweise von einer Sensorauswertungseinheit ausgeführt, wie beispielsweise einer Steuereinheit für autonomes Fahren (18 in 1) oder dergleichen. In einem ersten Schritt S71 wird zunächst die Punktwolke empfangen, die von einem Sensor geliefert wird und die Messdaten dieses Sensors repräsentiert. 7 shows the determination of the yaw rate of a yawing vehicle from a point cloud provided by a radar sensor with the center of rotation already determined. The method is carried out, for example, by a sensor evaluation unit, such as a control unit for autonomous driving (18 in 1 ) or similar. In a first step S71, the point cloud is initially received, which is supplied by a sensor and represents the measurement data of this sensor.

Der Sensor kann ein Radar, ein Lidar oder auch ein Kamerasensor sein. Die Punktwolke besteht aus Abstandsmessungen eines detektierten Objekts im Sichtbereich des Sensors. Die Punktwolke enthält neben Abstands- (Ort) auch (Relativ-)Geschwindigkeitsinformationen. In einem zweiten Schritt S72 wird das Drehzentrum des Objekts aus der Punktwolke bestimmt. Dazu wird erfindungsgemäß das in 6 beschriebene Verfahren angewandt. Gemäß dem Verfahren der 6 wird die Zielobjektorientierung durch Hauptkomponentenanalyse ermittelt. In einer anderen Variante kann die Zielobjektorientierung an Stelle der Hauptkomponentanalyse aus einer anderen Quelle bezogen werden. Dies kann mit Hilfe eines anderen Sensors in einem Fusionssytem bestimmt werden (z.B. Lidar oder Kamera). Oder aber durch Verwendung von a priori Wissen (z.B. Querverkehr an der Kreuzung). In einem dritten Schritt S73 werden die Punkte P1 bis PN der Punktwolke in eine Modellgleichung eingesetzt, die die zwei Unbekannten Betrag der Zielobjektgeschwindigkeit v und Gierrate ω enthält. Die Modellgleichung beschreibt hierbei typischerweise das Bewegungsverhaltens eines Fahrzeugs, das wiederum als Rechteck mit den Seitenlängen a und b genähert wird. Die Modellgleichung ist mit zwei Unbekannten und N > 2 Messpunkten überbestimmt. Daher wird die Modellgleichung für mehrere Detektionen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbekannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen (Punkte der Punktwolke) steht. Dieses Gleichungssystem wird mit einem Least-Squares-Schätzverfahren gelöst und man erhält eine Schätzung der Gierrate ω und des Betrags des Geschwindigkeitsvektors v. In einem vierten Schritt S74 wird nun die berechnete Gierrate ω ausgeben, sodass andere Systeme des Fahrzeugs, zum Beispiel ein Einpark-, Brems- oder Fahrassistent diese für ihre Funktion verwenden können.The sensor can be a radar, a lidar or a camera sensor. The point cloud consists of distance measurements of a detected object in the field of view of the sensor. In addition to distance (location), the point cloud also contains (relative) speed information. In a second step S72, the center of rotation of the object is determined from the point cloud. For this purpose, according to the invention, the 6 procedures described are used. According to the procedure of 6 the target object orientation is determined by principal component analysis. In another variant, the target object orientation can be obtained from another source instead of the main component analysis. This can be determined using another sensor in a fusion system (e.g. lidar or camera). Or by using a priori knowledge (e.g. cross traffic at the intersection). In a third step S73, the points P 1 to P N of the cloud of points are inserted into a model equation that contains the two unknown amounts of the target object speed v and yaw rate ω. The model equation typically describes the movement behavior of a vehicle, which in turn is approximated as a rectangle with side lengths a and b. The model equation is overdetermined with two unknowns and N > 2 measurement points. Therefore, the model equation is evaluated for several detections from one measurement cycle, which results in an overdetermined equation system with two unknowns and N equations, where N stands for the number of detections considered (points of the point cloud). This system of equations is solved using a least squares estimation method and an estimate of the yaw rate ω and the absolute value of the velocity vector v is obtained. In a fourth step S74, the calculated yaw rate ω is output so that other systems of the vehicle, for example a parking, braking or driving assistant, can use this for their function.

Da für ein Zielobjekt mehrere räumlich verteilte Detektionen vorhanden sind, kann die geometrische Ausdehnung und somit auch die Orientierung des Zielobjekts bestimmt werden. Die Ermittlung der Orientierung des Zielobjekts erfolgt beispielsweise mit einer Hauptkomponentenanalyse der dem Zielobjekt zugehörigen Detektionen, indem der Winkel der Hauptkomponenten ausgewertet wird. Für die Bestimmung des Rotationszentrums wird die Annahme getroffen, dass eine Abschätzung über die Koordinaten des Clusterzentrums ausreichend ist. Simulationen haben bestätigt, dass die Position des Rotationszentrums nicht exakt bekannt sein muss, um eine robuste Gierratenschätzung zu erhalten. Es verbleiben zwei Unbekannte (Betrag der Zielobjektgeschwindigkeit und Gierrate) für eine Modellgleichung, somit ist die Gleichung unterbestimmt. Daher wird die Modellgleichung für mehrere Detektionen aus einem Messzyklus ausgewertet, was ein überbestimmtes Gleichungssystem mit zwei Unbekannten und N Gleichungen zur Folge hat, wobei N für die Anzahl der betrachteten Detektionen steht. Dieses Gleichungssystem wird mit einem Least-Squares-Schätzverfahren gelöst und man erhält eine Schätzung der Gierrate und des Betrags des Geschwindigkeitsvektors.Since there are several spatially distributed detections for a target object, the geometric extent and thus also the orientation of the target object can be determined. The orientation of the target object is determined, for example, with a main component analysis of the detections associated with the target object by evaluating the angle of the main components. For the determination of the center of rotation, the assumption is made that an estimate of the coordinates of the cluster center is sufficient. Simulations have confirmed that the position of the center of rotation does not need to be known exactly to obtain a robust yaw rate estimate. Two unknowns remain (magnitude of target object velocity and yaw rate) for a model equation, so the equation is underdetermined. Therefore, the model equation is evaluated for several detections from one measurement cycle, resulting in an overdetermined system of equations with two unknowns and N equations, where N stands for the number of detections considered. This system of equations is solved using a least squares estimation method and an estimate of the yaw rate and the absolute value of the velocity vector is obtained.

Die Ausführungsbeispiele zeigen somit eine Kombination eines Least Squares-Schätzverfahrens von mehreren Detektionen mit einer Orientierungsschätzung auf Basis der Hauptkomponentenanalyse, zusammen mit einer Abschätzung des Rotationszentrums. Dadurch kann der Geschwindigkeitsbetrag und die Gierrate des Objekts innerhalb eines Messzyklus mit nur einem Radarsensor ausgewertet werden. Bisher beschriebene Verfahren sind zur Gierratenschätzung eines Zielobjekts in einem Messzyklus auf mindestens zwei Radarsensoren angewiesen, oder benötigen bei Verwendung von einem Radarsensor mehrere Messzyklen um die Gierrate zu bestimmen.The exemplary embodiments thus show a combination of a least squares estimation method from several detections with an orientation estimation based on the principal component analysis, together with an estimation of the center of rotation. This means that the speed and yaw rate of the object can be evaluated within a measurement cycle using just one radar sensor. Methods described so far are dependent on at least two radar sensors in one measurement cycle for estimating the yaw rate of a target object, or, when using one radar sensor, require several measurement cycles in order to determine the yaw rate.

8 veranschaulicht eine Modellgleichung, wie sie in 7 verwendet wurde, um die Gierrate ω abzuschätzen. 8th illustrates a model equation as in 7 was used to estimate the yaw rate ω.

Eine Modellgleichung zur Beschreibung der Bewegung, insbesondere der Drehung eines Fahrzeugs 10, die verwendet werden kann, um die Gierrate zu schätzen, wie in Schritt S73 der 7 beschrieben, lautet beispielsweise: v D = v cos ( θ φ ) + ω ( y R cos ( θ ) x R sin ( θ ) )

Figure DE102019204408B4_0004
A model equation for describing the movement, in particular the turning of a vehicle 10, which can be used to estimate the yaw rate, as in step S73 of FIG 7 described, for example: v D = v cos ( θ φ ) + ω ( y R cos ( θ ) x R sin ( θ ) )
Figure DE102019204408B4_0004

Hierbei bezeichnen die einzelnen Variablen folgende physikalische Größen, wie in 8 dargestellt: θ, r und vD bezeichnen den vom Sensor 26 gemessenen Winkel, Abstand und Radialgeschwindigkeit einer Detektion (vgl. 3). φ bezeichnet den mittels Hauptachsentransformation ermittelten Orientierungswinkel des Fahrzeugs 10 relativ zum Sensor 26 (vgl. Schritt S61 in 6). xR und yR bezeichnen die Koordinaten des Gierzentrums 64 (wie beispielsweise gemäß dem Verfahren der 6 ermittelt), ω bezeichnet die gesuchte Gierrate des Fahrzeugs und v die Lineargeschwindigkeit des Fahrzeugs 10, die vom Sensor 26 gemessene Radialgeschwindigkeit des Fahrzeugs 10.Here, the individual variables designate the following physical quantities, as in 8th shown: θ, r and v D denote the angle, distance and radial speed of a detection measured by the sensor 26 (cf. 3 ). φ designates the orientation angle of the vehicle 10 relative to the sensor 26 determined by means of main axis transformation (cf. step S61 in 6 ). x R and y R denote the coordinates of the yaw center 64 (such as according to the method of 6 determined), ω designates the searched yaw rate of the vehicle and v the linear speed of the vehicle 10, the radial speed of the vehicle 10 measured by the sensor 26.

Die Punktwolke ℘ die der Sensor liefert besteht aus N Detektionen mit mindestens den Einträgen ri, vD,i und θi: R = { P 1 ( r 1 , v D ,1 , θ 1 ) , , P i ( r i , v D , i , θ i ) , , P N ( r N , v D , N , θ N ) }

Figure DE102019204408B4_0005
The point cloud ℘ provided by the sensor consists of N detections with at least the entries r i , v D,i and θ i : R = { P 1 ( right 1 , v D ,1 , θ 1 ) , ... , P i ( right i , v D , i , θ i ) , ... , P N ( right N , v D , N , θ N ) }
Figure DE102019204408B4_0005

Die Werte xR und yR (Koordinaten des Gierzentrums 6) und der Orientierungswinkel φ wurden aus der Hauptkomponentenanalyse (siehe 4 bis 6) bestimmt. Somit verbleiben nur die Lineargeschwindigkeit v und die Gierrate ω als unbekannte Grö-ßen der Modellgleichung.The x R and y R values (yaw center 6 coordinates) and the orientation angle φ were obtained from principal component analysis (see 4 until 6 ) certainly. Thus, only the linear velocity v and the yaw rate ω remain as unknown quantities of the model equation.

Gleichung (1) kann als Skalarprodukt zweier Vektoren dargestellt werden, wobei der zweite Vektor die Unbekannten v und ω enthält: v D = [ cos ( θ φ )   y R cos ( θ ) x R sin ( θ ) ] [ v ω ]

Figure DE102019204408B4_0006
Equation (1) can be represented as the dot product of two vectors, where the second vector contains the unknowns v and ω: v D = [ cos ( θ φ ) y R cos ( θ ) x R sin ( θ ) ] [ v ω ]
Figure DE102019204408B4_0006

Gleichung (2) kann nun auf jedes Element der Punktwolke Pi ∈ ℘ angewendet werden, sodass ein Gleichungssystem mit N Gleichungen entsteht. Dieses kann als Vektorgleichung mit den Vektoren y

Figure DE102019204408B4_0007
und p ,
Figure DE102019204408B4_0008
sowie der Matrix X dargestellt werden: [ v D ,1 v D , N ] = [ c o s ( θ 1 φ ) y R cos ( θ 1 ) x R sin ( θ 1 ) c o s ( θ N φ ) y R cos ( θ N ) x R sin ( θ N ) ] [ v ω ]     y     X     p
Figure DE102019204408B4_0009
Equation (2) can now be applied to each element of the point cloud P i ∈ ℘, resulting in an equation system with N equations. This can be written as a vector equation using the vectors y
Figure DE102019204408B4_0007
and p ,
Figure DE102019204408B4_0008
and the matrix X can be represented: [ v D ,1 v D , N ] = [ c O s ( θ 1 φ ) y R cos ( θ 1 ) x R sin ( θ 1 ) c O s ( θ N φ ) y R cos ( θ N ) x R sin ( θ N ) ] [ v ω ] y X p
Figure DE102019204408B4_0009

Durch Invertieren der Matrix X kann Gleichung (3) nach p

Figure DE102019204408B4_0010
umgestellt werden. Für die Least-Square-Verfahrensschätzung empfiehlt sich eine weitere Transposition von X, (3) sodass eine weitere Gleichung erhalten wird: p L S Q = ( X T X ) 1 X T y
Figure DE102019204408B4_0011
Equation (3) can be obtained by inverting the matrix X p
Figure DE102019204408B4_0010
be switched. For the least squares method estimation, a further transposition of X, (3) is recommended, so that another equation is obtained: p L S Q = ( X T X ) 1 X T y
Figure DE102019204408B4_0011

Da das Gleichungssystem überbestimmt ist, kann, wie bereits weiter oben erwähnt, p

Figure DE102019204408B4_0012
und damit v und ω mittels Least-Square-Schätzverfahren aus Gleichung (4) bestimmt/geschätzt werden.Since the system of equations is overdetermined, as already mentioned above, p
Figure DE102019204408B4_0012
and thus v and ω are determined/estimated using least squares estimation methods from equation (4).

Claims (3)

Verfahren zur Bestimmung der Gierrate (ω) eines Zielobjektes (50), wobei das Zielobjekt (50) ein Fahrzeug ist, umfassend ein Empfangen von Sensordaten, welche mehrere Detektionen (P1, ... PN) umfassen, welche das Zielobjekt (50) beschreiben, ein Abschätzen der Lage des Gierzentrums (64) des Zielobjektes (50) auf Grundlage der Detektionen (P1, ...PN), sowie ein Bestimmen der Gierrate (ω) auf Grundlage des abgeschätzten Ortes des Gierzentrums (64), • wobei die Lage des Gierzentrums (64) dadurch bestimmt wird, dass o aus den Detektionen (P1, ... PN) mittels Hauptkomponentenanalyse die zueinander orthogonalen Hauptkomponenten (61, 62) bestimmt werden, o eine Bestimmung einer Orientierung (φ) des Zielobjektes (50) auf Basis der Hauptkomponenten (61, 62) erfolgt, o eine Form des Zielobjekts (50) als Rechteck (60) angenähert wird mit Rechteckseiten (a, b), die jeweils orthogonal auf den Hauptkomponenten (61, 62) stehen, wobei die Rechteckseiten (a, b) durch Least-Square-Minimierung der Fehlerfunktion (f) ƒ ( a , b ) = i = 1 N min { | P i R ( a , b ) | 2 }
Figure DE102019204408B4_0013
, die die Summe über alle minimalen Abstände zwischen einer Detektion (Pi) und dem Rechteck (60) repräsentiert, bestimmt werden, o aus Punktgeschwindigkeiten (vi) der Detektionen (P1, ...PN) die mittlere Geschwindigkeit (vi) des Zielobjekts (50) bestimmt wird, o das Heck des Fahrzeugs als kürzeste (min(a,b)) der Rechteckseiten (a, b), die sich in der entgegengesetzten Richtung der mittleren Geschwindigkeit (vi) befindet, bestimmt wird, o Lage und Orientierung einer Hinterachse (63) als parallel zum Heck im Abstand L = 0,2 · max{a, b} bestimmt wird, o das Gierzentrum (64) als in der Mitte der Hinterachse (63) befindlich bestimmt wird, und • wobei die Gierrate (ω) dadurch bestimmt wird, dass die Lage des Gierzentrums (64) nach den voran genannten Verfahrensschritten bestimmt wird, umfassend die Bestimmung der Orientierung (φ) des Zielobjektes (50) auf Basis der Hauptkomponenten (61, 62), und die Detektionen (P1, ...PN) in eine Modellgleichung, die das Bewegungsverhaltens des Fahrzeugs in Form des Rechtecks (60) beschreibt, eingesetzt werden, wobei ein Gleichungssystem mit zwei Unbekannten (v, ω) und N Gleichungen erhalten wird, das Gleichungssystem mit Least-Square-Minimierung gelöst wird und die berechnete Gierrate (ω) ausgegeben wird.
Method for determining the yaw rate (ω) of a target object (50), the target object (50) being a vehicle, comprising receiving sensor data which include a plurality of detections (P 1 , ... P N ) which the target object (50 ) describe estimating the location of the yaw center (64) of the target object (50) based on the detections (P 1 , ...P N ), and determining the yaw rate (ω) based on the estimated location of the yaw center (64) , • the position of the center of yaw (64) being determined in that o the mutually orthogonal main components (61, 62) are determined from the detections (P 1 , ... P N ) by means of principal component analysis, o a determination of an orientation (φ ) of the target object (50) on the basis of the main components (61, 62), o a shape of the target object (50) as a rectangle (60) is approximated with rectangle sides (a, b), which are orthogonal to the main components (61, 62 ) where the rectangle sides (a, b) are determined by least square minimization g of the error function (f) ƒ ( a , b ) = i = 1 N at least { | P i R ( a , b ) | 2 }
Figure DE102019204408B4_0013
, which represents the sum of all minimum distances between a detection (P i ) and the rectangle (60), can be determined, o from point velocities (vi) of the detections (P 1 , ...P N ) the mean velocity (vi) of the target object (50) is determined, o the rear of the vehicle is determined as the shortest (min(a,b)) of the rectangle sides (a, b), which is in the opposite direction of the mean speed (vi), o position and orientation of a rear axle (63) is determined to be parallel to the rear at a distance L = 0.2 · max{a,b}, o the yaw center (64) is determined to be at the center of the rear axle (63), and • where the yaw rate (ω) is determined by determining the position of the yaw center (64) according to the aforementioned method steps, including determining the orientation (φ) of the target object (50) on the basis of the main components (61, 62), and the detections (P 1 , ...P N ) into a model equation that describes the movement behavior of the describes the vehicle in the form of the rectangle (60), a system of equations with two unknowns (v, ω) and N equations being obtained, the system of equations being solved with least squares minimization and the calculated yaw rate (ω) being output.
Verfahren nach Anspruch 1, wobei die Lage des Gierzentrums (64) durch Abschätzung der Koordinaten des Clusterzentrums der Detektionen (P1, ... PN) erfolgt.procedure after claim 1 , the location of the yaw center (64) being determined by estimating the coordinates of the cluster center of the detections (P 1 ,...P N ). Vorrichtung, umfassend einen Prozessor, der dazu ausgelegt ist, das Verfahren nach einem der Ansprüche 1, 2 durchzuführen.Apparatus comprising a processor adapted to perform the method of any one of Claims 1 , 2 to perform.
DE102019204408.5A 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar Active DE102019204408B4 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019204408.5A DE102019204408B4 (en) 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar
PCT/EP2020/056618 WO2020200683A1 (en) 2019-03-29 2020-03-12 Method for determining the yaw rate of a target object on the basis of sensor data, for example a high-resolution radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019204408.5A DE102019204408B4 (en) 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar

Publications (2)

Publication Number Publication Date
DE102019204408A1 DE102019204408A1 (en) 2020-10-01
DE102019204408B4 true DE102019204408B4 (en) 2023-02-02

Family

ID=69804910

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019204408.5A Active DE102019204408B4 (en) 2019-03-29 2019-03-29 Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar

Country Status (2)

Country Link
DE (1) DE102019204408B4 (en)
WO (1) WO2020200683A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240185719A1 (en) * 2022-12-01 2024-06-06 Caterpillar Inc. Systems and methods for detecting false positives in collision notifications

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11275173B2 (en) 2019-05-20 2022-03-15 Zoox, Inc. Yaw rate from radar data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008025773A1 (en) 2008-05-29 2009-01-08 Daimler Ag Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
DE102013019804A1 (en) 2013-11-27 2015-05-28 Daimler Ag Method for determining a movement of an object
EP3151034A1 (en) 2015-10-02 2017-04-05 Delphi Technologies, Inc. Automated vehicle radar system to determine yaw-rate of a target vehicle
EP3285230A1 (en) 2016-08-19 2018-02-21 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
EP3415948A1 (en) 2017-06-12 2018-12-19 Aptiv Technologies Limited A method of determining the de-aliased range rate of a target
EP3415945A1 (en) 2017-06-12 2018-12-19 Aptiv Technologies Limited Method of determining the yaw rate of a target vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008025773A1 (en) 2008-05-29 2009-01-08 Daimler Ag Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition
DE102013019804A1 (en) 2013-11-27 2015-05-28 Daimler Ag Method for determining a movement of an object
EP3151034A1 (en) 2015-10-02 2017-04-05 Delphi Technologies, Inc. Automated vehicle radar system to determine yaw-rate of a target vehicle
EP3285230A1 (en) 2016-08-19 2018-02-21 Autoliv Development AB Enhanced object detection and motion estimation for a vehicle environment detection system
EP3415948A1 (en) 2017-06-12 2018-12-19 Aptiv Technologies Limited A method of determining the de-aliased range rate of a target
EP3415945A1 (en) 2017-06-12 2018-12-19 Aptiv Technologies Limited Method of determining the yaw rate of a target vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240185719A1 (en) * 2022-12-01 2024-06-06 Caterpillar Inc. Systems and methods for detecting false positives in collision notifications

Also Published As

Publication number Publication date
DE102019204408A1 (en) 2020-10-01
WO2020200683A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
DE102016106298B4 (en) Fusion method for a cross-traffic application using radar devices and a camera
EP2819901B1 (en) Method and device for determining the speed and/or position of a vehicle
DE102016102002B4 (en) Improvement of a vehicle motion estimation with radar data
DE102008026397B4 (en) Radar, lidar, and camera-assisted vehicle dynamics estimation methods
DE102013200132B4 (en) Lane keeping system for a vehicle
DE102012216386A1 (en) Method for operating a driver assistance system of a vehicle
DE102018221265B4 (en) Method and system for detecting wind acting on a vehicle
DE102019214628A1 (en) Validation of surroundings detection using satellite images and SAR radar data
EP3653460A1 (en) Method and control unit for operating an autonomous vehicle
DE102015215838B4 (en) vehicle control device
DE102020215504A1 (en) Method and device for detecting objects in the surroundings of a vehicle
DE102019204408B4 (en) Method for determining the yaw rate of a target object based on sensor data, for example from a high-resolution radar
DE102018217000A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE112020002753T5 (en) VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM
WO2021219353A1 (en) Autonomous and/or assisted coupling of a trailer, taking into consideration the height profile of the ground
DE102017205973A1 (en) Method for determining an offset contained in a yaw rate signal of a yaw rate sensor of a motor vehicle and control device and motor vehicle
DE102019213929A1 (en) Plausibility check of stopped previously dynamic objects with the help of allocation grids
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
EP3663771A1 (en) Method and system for detecting wind in a geographic region
DE102018216999A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE112019001307T5 (en) Driver assistance control apparatus and method and driver assistance system for a vehicle
DE102019211327B4 (en) Device, vehicle and method for improved multi-radar sensor calibration
DE102018218003A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE102019213867A1 (en) Obstacle detection comprising a recurrent neural network
DE102018132676A1 (en) Method for locating a vehicle in an environment

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final