[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102017102506B4 - Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung - Google Patents

Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung Download PDF

Info

Publication number
DE102017102506B4
DE102017102506B4 DE102017102506.5A DE102017102506A DE102017102506B4 DE 102017102506 B4 DE102017102506 B4 DE 102017102506B4 DE 102017102506 A DE102017102506 A DE 102017102506A DE 102017102506 B4 DE102017102506 B4 DE 102017102506B4
Authority
DE
Germany
Prior art keywords
wheel
detection data
tracked
candidates
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017102506.5A
Other languages
English (en)
Other versions
DE102017102506A1 (de
Inventor
Wei Tong
Shuqing Zeng
Jinsong Wang
Wende Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017102506A1 publication Critical patent/DE102017102506A1/de
Application granted granted Critical
Publication of DE102017102506B4 publication Critical patent/DE102017102506B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Erfassen anderer Fahrzeuge (14) relativ zu einem Trägerfahrzeug (12) mittels Raderfassung, wobei zum Verfahren die folgenden Schritte gehören:das Verfolgen von Radkandidaten basierend auf Raderfassungsdaten einer Vielzahl von Objekterkennungsvorrichtungen (16, 18), wobei zu den Raderfassungsdaten die Informationen zu einem oder mehreren der erkannten Objekte gehören, die von der Vielzahl der Objekterkennungsvorrichtungen (16, 18) als ein potenzielles Rad identifiziert wurden;das Vergleichen ausgewählter Parameter mit Bezug auf die Erfassungsdaten für jeden der verfolgten Radkandidaten; unddas Identifizieren eines anderen Fahrzeugs (14) durch Bestimmung, ob eine Grenzwertkorrelation zwischen den verfolgten Radkandidaten basierend auf dem Vergleich der ausgewählten Parameter vorliegt; dadurch gekennzeichnet , dasszu den Raderfassungsdaten ein kinematisches Modell für jedes durch die Vielzahl der Objekterkennungsvorrichtungen (16, 18) identifizierte potenzielle Rad gehört; und dasszum Vergleich ausgewählter Parameter mit Bezug auf die Raderfassungsdaten der Vergleich ausgewählter Parameter des kinematischen Modells für jeden verfolgten Radkandidaten gehört.

Description

  • TECHNISCHES GEBIET
  • Die Erfindung bezieht sich auf Systeme zur Objekterkennung und Verfolgung und spezifischer auf ein Verfahren zum Erfassen anderer Fahrzeuge relativ zu einem Trägerfahrzeug mittels Raderfassung, wie es der Art nach im Wesentlichen aus der DE 10 2015 206 746 A1 bekannt ist.
  • Bezüglich des weitergehenden Standes der Technik sei an dieser Stelle auf die EP 2 910 968 A1 verwiesen.
  • HINTERGRUND
  • Viele moderne Fahrzeuge sind mit fortschrittlichen Sicherheits- und Fahrassistenzsystemen ausgestattet, die robuste und präzise Systeme zur Objekterkennung und Verfolgung zur Steuerung des Trägerfahrzeugs benötigen. Diese Systeme nutzen periodische oder kontinuierliche Erfassung von Objekten und Regelalgorithmen zur Einschätzung verschiedener Objektparameter, wie z. B. die relative Objektentfernung, die Entfernungsrate (d. h. die Geschwindigkeit der Näherung oder Entfernung des Objektes), Fahrtrichtung, Objektposition und Objektgröße. Die Objekterkennungssysteme können eine beliebige Anzahl von Technologien verwenden, wie Radar, Sichtabbildungen, Laser- oder LiDAR, Ultraschall usw. Jedes dieser Erkennungssysteme trägt zur Objekterkennung und Einschätzung von Objektparametern auf unterschiedliche Weise und mit verschiedenen Einschränkungen bei. Speziell die Erkennung und Verfolgung von Objekten in benachbarten Fahrspuren, die für bestimmte Systeme für Sicherheit und Fahrassistenz benötigt werden (z. B. Systeme zur Vermeidung von einem Seitenaufprall), können durch die Leistungseinschränkungen einiger Erkennungssysteme eine Herausforderung darstellen.
  • Beispielsweise erfassen Radargeräte Objekte durch die Aussendung elektromagnetischer Signale, die von Objekten innerhalb des Erfassungsbereichs des Sensors reflektiert werden. Das reflektierte Signal kehrt zum Radargerät als Echo zurück und wird dort zur Gewinnung von Informationen ausgewertet, z. B. die Signallaufzeit der übertragenen/empfangenen Energie. Die Signallaufzeit ist direkt proportional zur Entfernung des Objekts vom Radar. Neben der Entfernungsbestimmung gibt es auch Verfahren zur Berechnung der Azimutabweichung (d. h. Querbereich) der erkannten Objekte. Daher können Radargeräte in Abhängigkeit von der Komplexität Objekte in Bezug auf Entfernung und Azimut in Relation zur Geräteposition erkennen.
  • Basierend auf den reflektierten Signalen während einer Abtastung des gesamten Sensorbereichs wird ein Satz von Erfassungspunkten gesammelt. Durch die Art der vom Fernsensor (egal ob Radar, Laser, Ultraschall oder andere aktive Sensoren) erfassten „Reflexionen“ repräsentiert der Satz von Erfassungspunkten nur bestimmte Punkte des/der Objekts/Objekte innerhalb des Erfassungsbereiches des Sensors. Um zu bestimmen, welche Art von Objekten vorhanden sein kann und wo sich solche Objekte befinden, werden die Erfassungspunkte analysiert. Bei Nahbereichsradargeräten fehlt jedoch die notwendige Auflösung für Winkel und Raum, um Einzelheiten zur Identifikation und zur Unterscheidung von dicht beieinander befindlichen Objekten zu erkennen (z. B. keine Zielpunktannahme). Leistungsschwund ergibt sich auch bei Radarsystemen, wenn zwischen Gerät und Objekt keine oder nur eine geringe Geschwindigkeitsdifferenz besteht, da Geschwindigkeit und Richtung dann schwer abzuschätzen sind.
  • Vision Imaging wird ebenfalls häufig zur Identifikation und Klassifikation von Objekten in der Nähe des Trägerfahrzeuges von Systemen zur Erkennung und Verfolgung von Objekten eingesetzt. Allgemein erfassen visuelle Systeme mit einer oder mehreren Kamera(s) Bilder und extrahieren Objekte und Eigenschaften mit verschiedenen Bildverarbeitungstechniken. Das Objekt wird dann über die Bildreihen verfolgt, während es sich durch den Sichtbereich des Systems bewegt. Allerdings kann sich die Erscheinung bewegter Objekte von einem erfassten Bild zu einem anderen wesentlich verändern. Daher kann dasselbe Objekt auf an verschiedenen Stellen gemachten Bildern unterschiedlich aussehen. Weicht das Aussehen eines Objektes oder Merkmals auf unterschiedlichen Bildern zu stark voneinander ab, kann das System die Verfolgung möglicherweise nicht leisten.
  • ZUSAMMENFASSUNG
  • Gemäß einer Ausführungsform der Erfindung wird ein Verfahren zur Erkennung anderer Fahrzeuge relativ zu einem Trägerfahrzeug durch Raderfassung vorgestellt, wobei sich das Verfahren durch die Merkmale des Anspruchs 1 auszeichnet. Zum Verfahren gehört die Verfolgung ausgewählter Räder aufgrund von Rad-Erfassungsdaten von einer Vielzahl von Geräten, der Vergleich bestimmter Parameter der Erfassungsdaten für jedes der ausgewählten Räder, und die Identifizierung eines anderen Fahrzeugs durch die Bestimmung, ob aufgrund der verglichenen Parameter zwischen den verfolgten Rädern eine Grenzwertübereinstimmung besteht.
  • Ferner wird ein Verfahren zur Erkennung anderer Fahrzeuge relativ zu einem Trägerfahrzeug mittels Raderfassung zur Verfügung beschrieben. Das Verfahren umfasst den Empfang erster Raderfassungsdaten über ein erstes potenzielles Rad, das durch eine erste Objekterfassungsvorrichtung entdeckt wurde, den Empfang zweiter Raderfassungsdaten über ein zweites potenzielles Rad, das durch eine zweite Objekterfassungsvorrichtung entdeckt wurde, Fusion der ersten und zweiten Erfassungsdaten um auf Systemebene Radkandidaten zu erzeugen, Vergleich der Beziehung zwischen jedem Paar von Radkandidaten auf Systemebene, Vergleichen der Beziehung zwischen jedem Paar Radkandidaten auf Systemebene mit einem Satz von Kriterien für ein Fahrzeugprofil und Erfassen eines Fahrzeugs, wenn die Beziehung zwischen einem Paar Radkandidaten auf Systemebene die Kriterien für ein Fahrzeugprofil erfüllt.
  • Des Weiteren wird ein System zur Erkennung anderer Fahrzeuge in Relation zu einem Trägerfahrzeug anhand von Raderfassung zur Verfügung beschrieben. Das System hat mindestens ein Steuermodul, das für den Empfang der Raderfassungsdaten von mehreren Objekterfassungsgeräten bezüglich potenzieller Radkandidaten ausgelegt ist, die Erfassungsdaten von mehreren Objekterfassungsgeräten zur Erzeugung von Radkandidaten auf Systemebene abgleicht, ein Verhältnis zwischen jedem Paar von Radkandidaten auf Systemebene bestimmt, das Verhältnis von jedem Paar auf Systemebene mit einem Satz von Kriterien für ein Fahrzeugprofil vergleicht und ein Fahrzeug erkennt, wenn die Beziehung zwischen einem Paar von Radkandidaten auf Systemebene die Kriterien für ein Fahrzeugprofil erfüllt.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Eine oder mehrere Ausführungsformen der Erfindung werden im Folgenden in Verbindung mit den beigefügten Zeichnungen beschrieben, wobei gleiche Bezeichnungen gleiche Elemente bezeichnen, und wobei:
    • 1 eine Übersicht einer Beispielumgebung mit einem Trägerfahrzeug und einem herannahenden anderen Fahrzeug im Sinne eines Ausführungsbeispiels der vorliegenden Offenbarung zeigt; und
    • 2 ein Blockdiagramm des Systems zur Objekterkennung und Verfolgung im Sinne eines Ausführungsbeispiels der vorliegenden Offenbarung zeigt;
    • 3 ein Flussdiagramm zeigt, in dem ein Beispielverfahren für die Erkennung eines anderen Fahrzeugs im Sinne eines Ausführungsbeispiels der vorliegenden Offenbarung dargestellt ist;
    • 4 ein Flussdiagramm zeigt, in dem ein anderes Beispielverfahren für die Erkennung eines anderen Fahrzeugs im Sinne eines Ausführungsbeispiels der vorliegenden Offenbarung dargestellt ist;
    • 5 ein Flussdiagramm zeigt, in dem ein Beispielverfahren für die Erkennung potenzieller Räder unter Verwendung eines Erfassungsgerätes auf Radarbasis im Sinne eines Ausführungsbeispiels der vorliegenden Offenbarung dargestellt ist; und
    • 6 ein Flussdiagramm zeigt, in dem ein Beispielverfahren für die Erkennung potenzieller Räder unter Verwendung eines Bildsystems im Sinne eines Ausführungsbeispiels der vorliegenden Offenbarung dargestellt ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER VERANSCHAULICHTEN AUSFÜHRUNGSFORM(EN)
  • Je nach Bedarf werden Ausführungsformen hier umfassend offenbart. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich als Beispiele verschiedener und alternativer Formen und Kombinationen aus diesen dienen. In seiner Verwendung hier deutet der Begriff „Beispiel“ auf eine expansive Nutzung von Ausführungsbeispielen als Darstellungen, Exemplare, Modelle oder Muster hin. Die Figuren sind nicht unbedingt maßstabsgerecht und einige Merkmale können größer oder kleiner dargestellt sein, um die Einzelheiten bestimmter Komponenten zu veranschaulichen. In anderen Fällen werden Komponenten, Systeme, Materialien oder Verfahren nicht im Detail beschrieben, um die vorliegende Offenbarung nicht undeutlich erscheinen zu lassen. Folglich sind die hier offenbarten spezifischen Details in Bezug auf Konstruktion und Funktion nicht als Einschränkung zu verstehen, sondern lediglich als Basis für die Ansprüche sowie als repräsentative Grundlage, um Fachleute zu schulen.
  • Das nachfolgend beschriebene System und das Verfahren werden zur Erkennung und Verfolgung von anderen Fahrzeugen anhand der Raderfassung durch mehrere Objekterkennungsvorrichtungen eingesetzt. In einer Ausführungsform hat das System Erfassungsvorrichtungen auf Radar- und auf visueller Basis, um unter erkannten Objekten im Erfassungsbereich des Trägerfahrzeuges Räder zu erkennen. Ein einheitlicher Rad-Tacker legt die Erfassungsdaten der Geräte auf Radar- und visueller Basis zusammen und verfolgt Radkandidaten aufgrund der kombinierten Erfassungsdaten. Die Anwesenheit des anderen Fahrzeugs wird bestimmt, wenn es eine Grenzwertübereinstimmung zwischen zwei beliebigen verfolgten Radkandidaten gibt.
  • Obwohl die vorliegende Offenbarung und die Ausführungsbeispiele hauptsächlich mit Bezug auf visuelle und Radarsysteme als Beispiele beschreiben werden, könne die hier offenbarten generellen Konzepte zur Zusammenführung von Ergebnissen unterschiedlichster Sensoren und Erfassungsgeräte für Objekte genutzt werden. Mit anderen Worten kann jede beliebige Anzahl von verschiedenen Sensoren, Komponenten, Vorrichtungen, Modulen, Systemen usw. das System zur Erkennung und Verfolgung von Objekten 10 mit Informationen oder Eingaben versorgen, die von den vorliegenden Verfahren verwendet werden können. Es sollte beachtet werden, dass die Objekterkennungsgeräte sowie alle anderen Sensoren des Systems zur Erkennung und Verfolgung von Objekten 10 in der Hardware, Software, Firmware oder einer Kombination aus diesen eingebunden sein kann. Diese Sensoren können die Bedingungen, für die sie vorgesehen sind, direkt erfassen oder messen, oder sie können solche Bedingungen basierend auf den Informationen von anderen Sensoren, Komponenten, Geräten, Modulen, Systemen usw. indirekt bewerten. Weiterhin können diese Sensoren direkt mit dem offenbarten Steuermodul verbunden sein, indirekt über andere elektronische Geräte, einen Fahrzeugkommunikationsbus, ein Netzwerk usw., oder durch andere, allgemein bekannte Möglichkeiten. Diese Sensoren können Teil einer anderen Fahrzeugkomponente, Vorrichtung, eines Moduls oder Systems usw. sein, (z. B. Sensoren eines Motorsteuergerätes (ECM), einer automatischen Schlupfregelung (ASR), eines elektronischen Stabilitätsprogramms (ESP), einer ABS-Bremsanlage usw.); oder es kann sich um eigenständige Komponenten handeln (wie schematisch in 1 dargestellt). Jeder der nachfolgend beschriebenen Sensorwerte kann auch von einer anderen Komponente, Vorrichtung, einem Modul, System usw. im Trägerfahrzeug stammen, statt direkt von einem aktuellen Sensor. In einigen Fällen können mehrere Sensoren zum Erfassen eines einzelnen Parameters (z. B. zur Herstellung einer Signalredundanz) eingesetzt werden. Es sollte beachtet werden, dass die vorgenannten Szenarien nur einige der Möglichkeiten darstellen, da jede Art von geeigneter Sensoranordnung von dem System zur Erkennung und Verfolgung von Objekten 10 verwendet werden kann. Das System beschränkt sich nicht auf einen bestimmten Sensor oder eine bestimmte Sensoranordnung.
  • Die 1 und 2 zeigen ein System zur Erkennung und Verfolgung von Objekten 10 in einem Trägerfahrzeug 12 gemäß einem Ausführungsbeispiel der vorliegenden Offenbarung. 1 zeigt ein Übersichtsbild einer Beispielumgebung mit einem Trägerfahrzeug 12 und in einer benachbarten Fahrspur ein herannahendes anderes Fahrzeug 14, das in die gleiche Richtung fährt. Zur Vereinfachung der Erklärung wird in 1 nur eine Interessenszone auf einer Seite des Trägerfahrzeuges 12 bezogen auf das sich nähernde andere Fahrzeug 14 gezeigt. Fachleuten ist jedoch klar, dass die typischen Systeme zur Erkennung und Verfolgung von Objekten auf allen Seiten des Trägerfahrzeuges 12 in verschiedenen Kombinationen implementiert sind, damit Objekte im Bereich von 360 Grad um das Fahrzeug herum entdeckt und verfolgt werden können. 2 zeigt ein Blockschaltbild des Systems zur Erkennung und Verfolgung von Objekten 10 gemäß einem Ausführungsbeispiel.
  • Mit Bezug auf die 1 und 2 hat das System zur Erkennung und Verfolgung von Objekten 10 eine Vielzahl von Objekterkennungsvorrichtungen 16, 18, ein Rad-Tracker-Modul 20 und ein Steuermodul 22, welches in einer Ausführungsform ein externes Berechnungsmodul für Objekte (EOCM) ist. Die Vielzahl der Erfassungseinrichtungen ist dafür ausgelegt, Objekte im Umfeld des Trägerfahrzeuges 12 zu erfassen und zu verfolgen und können bekannte Objekterkennungssysteme nutzen, darunter ohne Einschränkung ein LiDAR-System, Radar, visuelle Vorrichtungen (z. B. Kamera usw.), einen LD-Pointer oder Kombinationen aus diesen. Im hier gezeigten Ausführungsbeispiel werden als Objekterkennungsvorrichtungen im Trägerfahrzeug 12 ein Radargerät 16 und ein visuelles System 18 erwähnt.
  • Die Radar-Erfassungsvorrichtung 16 hat eine Vielzahl von Radarsensoren 24 an verschiedenen Stellen entlang der Außenseite des Trägerfahrzeuges 12. Im Beispiel in 1 sind die Radarsensoren 24 an der vorderen und hinteren linken Ecke des Trägerfahrzeuges 12 verbaut, wobei jeder Sensor einen Erfassungsbereich 26 überwacht, der einen bestimmten Interessensbereich abdeckt. Die Radarsensoren 24 sind so konfiguriert, dass sie elektromagnetische Signale aussenden, die von anderen Objekten innerhalb des Erfassungsbereiches 26 reflektiert werden. Die reflektierten Signale kehren als Echo zurück und werden vom Radar-Objekterkennungsmodul 28 verarbeitet, das Informationen über das erkannte Objekt aus dem Echo gewinnt, wie beispielsweise Entfernung, Azimutwinkel und Bereichsdaten einschließlich Doppler-Messungen. Das Radar-Objekterkennungsmodul 28 kann ein einheitliches Modul sein, oder eine Vielzahl von anderen Modulen oder Teilmodulen enthalten, die dafür ausgelegt sind, Radarechos gemäß den hier offenbarten Verfahren und Algorithmen zu empfangen und zu verarbeiten. In einer Ausführungsform schließt das Radar-Objekterkennungsmodul 28 ohne Einschränkung einen Verstärker, Mischer, Oszillatoren, Kombinatoren, Filter und Konverter ein. Die Funktionen des Radar-Objekterkennungsmoduls 28 können variieren, umfassen generell aber die Durchführung verschiedener Filterungs-, Verstärkungs-, Umwandlungs- und Digitalisierungsfunktionen, sowie die Analyse verschiedener Merkmale des Signals zur Bestimmung der Signalcharakteristiken wie Phase, Frequenz und Amplitude. Fachleuten ist klar, dass die eingesetzten Techniken zur Gewinnung dieser Informationen aus den Signalen variieren können, dazu können ohne Einschränkung phasengleiche-, Quadraturanalysen und Frequenzbereichsanalysen mittels FourierTransformation gehören. In einer Ausführungsform kann das Radar-Objekterkennungsmodul 28 ohne Einschränkung auch Komponenten zur Pulskompression und Störunterdrückung (z. B. Doppler-Filterung) enthalten. Wie nachfolgend näher beschrieben und in Übereinstimmung mit den hier offenbarten Verfahren, ist das Radar-Objekterkennungsmodul 28 dafür ausgelegt, im Erfassungsbereich 26 erkannte Objekte als potenzielle Räder zu identifizieren.
  • Das visuelle System 18 hat eine Bildaufnahmevorrichtung 30, die ohne Einschränkung eine Kamera sein kann, die an verschiedenen Stellen um das Trägerfahrzeug 12 herum montiert sein kann. Im Beispiel in 1 ist die Bildaufnahmevorrichtung 30 entlang der linken Seite des Trägerfahrzeuges verbaut und hat einen Erfassungsbereich 32, der eine bestimmte Interessenszone überwacht, was in diesem Beispiel die linke Seite des Trägerfahrzeuges 12 ist. Die Bildaufnahmevorrichtung erfasst Bilder von Objekten im gesamten Erfassungsbereich 32 und überträgt die Bilddaten zu einem visuellen Objekterkennungsmodul 34. Das visuelle Objekterkennungsmodul 34 kann ein einheitliches Modul sein, oder eine Vielzahl von anderen Modulen oder Teilmodulen enthalten, die dafür ausgelegt sind, erfasste Bilder gemäß den hier offenbarten Verfahren und Algorithmen zu empfangen und zu verarbeiten. In einer Ausführungsform gehört zum Verarbeiten des erfassten Bildes das Extrahieren von Informationen bezüglich erkannter Objekte und kann auch Gleichrichtung, Skalierung, Filterung und Rauschminderung des Eingabebildes umfassen. Wie nachfolgend näher beschrieben und in Übereinstimmung mit den hier offenbarten Verfahren, ist das visuelle Objekterkennungsmodul 34 dafür ausgelegt, im Erfassungsbereich 32 erkannte Objekte als potenzielle Räder zu identifizieren
  • Das Rad-Tracker-Modul 20 ist ein Steuermodul mit der Aufgabe, Erfassungsdaten zu Rädern von einer Vielzahl von Vorrichtungen zur Objekterkennung zu empfangen und zu bündeln, was im Ausführungsbeispiel in den 1 und 2 durch ein Radargerät 16 und ein visuelles System 18 dargestellt ist. Ein Fachmann wird verstehen, dass das Rad-Tracker-Modul 20 ein eigenständiges Modul sein, oder in einem anderen Steuermodul, wie, ohne Einschränkung, dem Steuermodul 22 integriert sein kann. In einer Ausführungsform enthalten die Raderfassungsdaten (d. h. Daten in Bezug auf jedes erkannte Objekt, das als ein potenzielles Rad identifiziert worden ist), die vom Rad-Tracker-Modul 20 empfangen werden, für jedes potenzielle Rad ein entsprechendes kinematisches Modell. Die kinematischen Modelle können variieren, enthalten generell jedoch kinematische Parameter wie Position, Geschwindigkeit, Beschleunigung, Richtung der Geschwindigkeit, Richtung der Beschleunigung und andere Bewegungsgrößen. Das Rad-Tracker-Modul 20 ist so konfiguriert, dass es die Raderfassungsdaten des Radargerätes 16 und des visuellem Systems 18 kombiniert oder vereint, um auf Systemebene Radkandidaten zu erzeugen, die dann von dem Rad-Tracker-Modul 20 nach bekannten Verfahren verfolgt werden. Die Vereinigung der Raderfassungsdaten von jeder der Objekterkennungsvorrichtungen 16, 18 kann einen Zuordnungsprozess umfassen, bei dem das Rad-Tracker-Modul 20 bestimmt, ob jedes erfasste potenzielle Rad zu einem bereits verfolgten Radkandidaten gehört, oder ob auf Systemebene ein neuer Radkandidat erzeugt werden muss. Wird eine Zuordnung gefunden, so wird der Verfolgungsauftrag (Tracker) für den vorhandenen Radkandidaten auf Systemebene Rad aktualisiert, was bei einer Ausführungsform die Aktualisierung des zugehörigen kinematischen Modells einschließt. Ein Fachmann versteht, dass die Raderfassungsdaten der Objekterkennungsvorrichtungen 16, 18 vom Standpunkt des Rad-Tracker-Moduls 20 nicht unterscheidbar sind. Mit anderen Worten erhält das Rad-Tracker-Modul 20 Informationen zur Erkennung eines potenziellen Rades, kann jedoch das Gerät oder System, von dem diese Information stammt, weder erkennen noch überwachen.
  • Das Steuermodul 22 kann eine Reihe von elektronischen Verarbeitungsvorrichtungen, Speichervorrichtungen, Eingabe-/Ausgabeeinheiten (E/A) bzw. anderen bekannten Komponenten enthalten und kann verschiedene steuerungs- bzw. kommunikationsbezogene Funktionen ausführen. Je nach Ausführungsform kann das Steuermodul 22 ein eigenständiges Fahrzeugelektronikmodul (z. B. Objekterfassungscontroller, Sicherheitscontroller usw.) sein, es kann in ein anderes Fahrzeugelektronikmodul integriert oder eingebaut sein (z. B. Parkassistenzmodul, Bremssteuermodul usw.), oder es kann Bestandteil eines größeren Netzwerks oder Systems sein (z. B. Kollisionskontrollmodul [CCM], Traktionskontrolle [TCS], elektronische Stabilitätskontrolle [ESC], Antiblockiersystem [ABS], Fahrerassistenzsystem, adaptives Geschwindigkeitsregelungssystem, Spurhaltewarnsystem usw.), um nur einige Möglichkeiten aufzuzählen. Das Steuermodul 22 beschränkt sich nicht auf eine bestimmte Ausführungsform oder Anordnung.
  • In einem Ausführungsbeispiel ist das Steuermodul 22 ist ein externes Berechnungsmodul für Objekte (EOCM), das einen elektronischen Speicher für die Ablage verschiedener Dateien enthält, Nachschlag-Tabellen oder andere Datenstrukturen, Algorithmen usw. Der Speichervorrichtung kann auch relevante Eigenschaften und Hintergrundinformationen zum Fahrzeug 12 speichern, wie Informationen über Bremswege, Verzögerungslimits, Temperaturgrenzen, Feuchtigkeits- oder Niederschlagsgrenzen, Fahrverhalten oder andere Verhaltensdaten des Fahrers. Das EOCM 22 kann zudem eine elektronische Verarbeitungsvorrichtung haben, (z. B. einen Mikroprozessor, einen Mikrocontroller, eine anwendungsspezifische integrierte Schaltung (ASIC) usw.), welche die in der Speichervorrichtung abgelegten Anweisungen für Software, Firmware, Programme, Algorithmen, Skripte usw. ausführt und die hier offenbarten Prozesse und Verfahren überwachen kann. Das EOCM 22 kann elektronisch mit anderen Fahrzeugvorrichtungen, Modulen und Systemen über eine geeignete Fahrzeugkommunikationstechnologie verbunden sein und mit diesen im Bedarfsfall interagieren. Das sind natürlich nur einige der möglichen Anordnungen, Funktionen und Fähigkeiten des EOCM 22, da andere Ausführungsformen ebenfalls verwendet werden können.
  • Basierend auf einem Vergleich aller Radkandidaten, die durch das Rad-Tracker-Modul 20 verfolgt werden und in Übereinstimmung mit den hierin offenbarten Verfahren, ist das EOCM 22 für die Erkennung der Anwesenheit eines anderen Fahrzeuges ausgelegt. Wie im Folgenden ausführlicher beschrieben, gehört in einer Ausführungsform zum Vergleich aller Radkandidaten der Vergleich der Eigenschaften des kinematischen Modells für jeden der verfolgten Radkandidaten. Die ausgewählten Eigenschaften entsprechen den Kriterien eines Fahrzeugprofils, das Beziehungen zwischen bestimmten Eigenschaften der Räder bezeichnet, die dem gleichen Fahrzeug angehören. Das EOCM 22 bestimmt, dass ein Fahrzeug erfasst wurde, oder, mehr spezifisch, dass mindestens zwei der verfolgten Radkandidaten zum selben Fahrzeug gehören, falls mindestens zwei Radkandidaten die Kriterien im Fahrzeugprofil erfüllen. Gemäß einer Ausführungsform beruhen die Kriterien auf einer Beziehung zwischen den ausgewählten kinematischen Eigenschaften jedes Radkandidaten.
  • 3 zeigt ein Flussdiagramm eines Beispielverfahrens 100 zur Erfassung eines anderen Fahrzeugs unter Verwendung des Systems zur Objekterkennung und Verfolgung 10, das oben beschrieben wurde. Es ist zu beachten, dass Operationen des Verfahrens 100 nicht notwendigerweise in einer bestimmten Reihenfolge dargestellt werden müssen und dass die Durchführung einiger oder aller Operationen auch in einer anderen Reihenfolge möglich und vorgesehen ist.
  • Beginnend mit Schritt 102 erfasst die Radarvorrichtung 16 Objekte in ihrem Erfassungsbereich 26 und klassifiziert zumindest einige der Objekte als potenzielle Räder. Bei Schritt 104 erkennt das visuelle System 18 Objekte in seinem Erfassungsbereich 32 und klassifiziert zumindest einige der Objekte als potenzielle Räder. Eine ausführliche Beschreibung der Verfahren zum Erfassen potenzieller Räder mittels Radar- und visueller Technik wird in den nachfolgenden Figuren vermittelt.
  • Bei Schritt 106 werden Raderfassungsdaten für jedes der in den Schritten 102 und 104 erkannten potenziellen Räder vom Rad-Tracker-Modul 20 empfangen. Wie oben dargelegt, können Raderfassungsdaten ein kinematisches Modell für jedes zugeordnete potenzielle Rad umfassen, dazu gehören ohne Einschränkung kinematische Parameter wie Position, Geschwindigkeit, Beschleunigung, Richtung der Geschwindigkeit, Richtung der Beschleunigung und andere Bewegungsgrößen.
  • Bei Schritt 108 vereint das Rad-Tracker-Modul 20 die Erfassungsdaten der Radarvorrichtung 16 und des visuellen Systems 18 durch die Bestimmung, ob jedes der empfangenen potenziellen Räder mit einem aktiven Tracking (d. h. ein potenzielles Rad, das bereits durch das Tracker-Modul 20 als Radkandidat verfolgt wird) assoziiert ist. In einer Ausführungsform vergleicht das Rad-Tracker-Modul 20 die Raderfassungsdaten für jedes potenzielle Rad mit Daten, die jedem der vorhandenen verfolgten Radkandidaten zugeordnet sind. Stimmen die Raderfassungsdaten für das neue potenzielle Rad mit einem vorhandenen Tracking überein, dann werden die vorhandenen, verfolgten Radkandidaten unter Verwendung der neu erworbenen Erfassungsdaten aktualisiert. Können die Raderfassungsdaten für das neue potenzielle Rad nicht mit einem vorhandenen Tracking in Verbindung gebracht werden, dann wird eine Verfolgung für einen neuen Radkandidaten angelegt. Mit anderen Worten verfolgt und vereint das Rad-Tracker-Modul 20 im Schritt 108 alle möglichen Raderkennungen der Radar- und visuellen Erfassungssysteme 16, 18.
  • Bei Schritt 110 erhält das EOCM 22 Informationen zu jedem Radkandidaten, der vom Rad-Tracker-Modul 20 verfolgt wird, darunter auch Raderfassungsdaten. Bei Schritt 112 lässt das EOCM 22 einen Algorithmus zur Erfassung eines Fahrzeugs auf der Grundlage der Radkandidaten ablaufen, die durch das vereinte Rad-Tracker-Modul 20 verfolgt werden. Die EOCM 22 bestimmt, dass ein Fahrzeugs erfasst wurde, mehr spezifisch, dass mindestens zwei der verfolgten Radkandidaten zum selben Fahrzeug gehören, falls mindestens zwei der Radkandidaten die Kriterien eines Fahrzeugprofils erfüllen. Gemäß einer Ausführungsform beruhen die Kriterien auf einer Beziehung zwischen den ausgewählten kinematischen Eigenschaften jedes Radkandidaten.
  • Genauer gesagt, basiert die Gegenwart eines anderen Fahrzeuges 14 in Relation zum Trägerfahrzeug 12 auf einem Vergleich aller durch das Rad-Tracker-Modul 20 verfolgten Radkandidaten miteinander, oder genauer, aller Merkmale eines jeden verfolgten Radkandidaten. Zum Vergleich gehört der Vergleich von ausgesuchten Parametern der kinematischen Modelle für jeden der Radkandidaten. Die ausgesuchten Parameter entsprechen den Kriterien eines Fahrzeugprofils, das Grenzwertbeziehungen zwischen bestimmten Eigenschaften der Räder des gleichen Fahrzeuges designiert. Mit anderen Worten existiert für die Räder eines Fahrzeugs eine spezifische Beziehung zueinander, die durch den Vergleich bestimmter Bewegungsparameter quantifiziert werden kann. Beispielsweise haben zwei Räder des gleichen Fahrzeuges gemeinsame Eigenschaften, die sich in Form von Position und Geschwindigkeit jedes Rades ausdrücken lassen. Genauer gesagt sollten zwei Räder dieses Fahrzeugs eine ähnliche Geschwindigkeit und Richtung aufweisen und nahe genug aneinander positioniert sein, um dem Radstand des Fahrzeugs zu entsprechen. Wenn die Beziehung zwischen ausgewählten Parametern für zwei Räder nicht die Kriterien für ein spezielles Fahrzeugprofil erfüllen, so gehören diese beiden Räder wahrscheinlich nicht zu demselben Fahrzeug.
  • 4 zeigt ein Flussdiagramm mit einem Verfahren 200 zur Erfassung eines Fahrzeugs gemäß Schritt 112 nach einer bestimmten Implementierung. Das Verfahren 200 vergleicht Eigenschaften für jeden verfolgten Radkandidaten miteinander, sodass jeder verfolgte Radkandidat mit jedem anderen Radkandidaten verglichen wird. Auf diese Weise wird zwischen jedem Paar verfolgter Radkandidaten eine Beziehung bestimmt. Zu den Raderfassungsdaten für jeden Radkandidaten gehören Information zu Standort l und Drehzahl v ,
    Figure DE102017102506B4_0001
    wobei der Standort l der (x, y, z)-Wert eines Radkandidaten im Referenzkoordinatensystem des Trägerfahrzeuges 12 ist und der Geschwindigkeitsvektor v
    Figure DE102017102506B4_0002
    sowohl Richtung als auch Geschwindigkeit des verfolgten Radkandidaten enthält, was ebenfalls Teil des Referenzsystems des Trägerfahrzeuges 12 ist.
  • Ausgehend von Schritt 202 wird zwischen jedem Paar verfolgter Radkandidaten ein Verhältnis w i = ( l i , v l )  und  w j = ( l j , v j )
    Figure DE102017102506B4_0003
    bestimmt, indem verschiedene Parameter im Zusammenhang mit den kinematischen Modell für jeden verfolgten Radkandidaten wi, wj gegen einen Satz von Kriterien für ein vordefiniertes Fahrzeugprofil ausgewertet werden. In einer Ausführungsform gehören zu dem Satz von Kriterien vier Merkmale, die Grenzbeziehungen zwischen ausgesuchten kinematischen Parametern definieren. Jede der Beziehungen zu einem Merkmal wird mit Grenzwerten abgeglichen, die generell klein sind und auf einem speziellen Fahrzeugprofil beruhen.
  • Bei Schritt 204 wird ein erstes Merkmal bewertet, indem bestimmt wird, ob beide verfolgten Radkandidaten wi, wj eine ähnliche Richtung/Geschwindigkeit haben, oder genauer gesagt, ob eine Abweichung bei der Richtung/Geschwindigkeit kleiner als ein Grenzwert für die Richtung/Geschwindigkeit ist tsd. In einer Ausführungsform wird die Beziehung Richtung/Geschwindigkeit zwischen zwei verfolgten Radkandidaten folgendermaßen bestimmt: 0 v l | v l | × v J | v J | < t s d
    Figure DE102017102506B4_0004
    wo x das Vektorprodukt zweier Vektoren v l , v l
    Figure DE102017102506B4_0005
    und tsd der Grenzwert für Richtung/Geschwindigkeit ist, | v l |
    Figure DE102017102506B4_0006
    ist die Größe des Geschwindigkeitsvektors v l ,
    Figure DE102017102506B4_0007
    | v J |
    Figure DE102017102506B4_0008
    ist die Größe des Geschwindigkeitsvektors v J .
    Figure DE102017102506B4_0009
  • Im Schritt 206 wird ein zweites Merkmal bewertet, indem bestimmt wird, ob beide verfolgten Radkandidaten wi, wj eine ähnliche Geschwindigkeit aufweisen, und insbesondere, ob eine Geschwindigkeitsabweichung kleiner als ein Geschwindigkeitsgrenzwert tsm ist. In einer Ausführungsform wird die Geschwindigkeitsbeziehung zwischen zwei verfolgten Radkandidaten so bestimmt: | | v l | | v J | | < t s m ,
    Figure DE102017102506B4_0010
    wo | v l |
    Figure DE102017102506B4_0011
    die Größe des Geschwindigkeitsvektors v l
    Figure DE102017102506B4_0012
    ist, | v J |
    Figure DE102017102506B4_0013
    ist die Größe des Geschwindigkeitsvektors v J ,
    Figure DE102017102506B4_0014
    tsm der Grenzwert und |x| ist der absolute Wert von x.
  • Im Schritt 208 wird ein drittes Merkmal bewertet, indem eine Bestimmung durchgeführt wird, ob eine potenzielle Richtung der Fahrzeugkarosserie mit der Richtung/Geschwindigkeit von einem der verfolgten Radkandidaten wi, wj übereinstimmt. In einer Ausführungsform wird die Ausrichtungsbeziehung zwischen zwei verfolgten Radkandidaten so bestimmt: l l l j × v l < t a ,
    Figure DE102017102506B4_0015
    l l l J | l l l J | × v l | v l | < t a
    Figure DE102017102506B4_0016
    wo l l l J
    Figure DE102017102506B4_0017
    der Vektor von der Position li des Radkandidaten wi zur Position lj des Radkandidaten wj ist, | l l l J _ _ _
    Figure DE102017102506B4_0018
    ist die Größe des Vektors l l l J ,
    Figure DE102017102506B4_0019
    × ist das Vektorprodukt zwischen den zwei Vektoren, v l
    Figure DE102017102506B4_0020
    ist der Geschwindigkeitsvektor, | v l |
    Figure DE102017102506B4_0021
    ist die Größe des Vektors v l ,
    Figure DE102017102506B4_0022
    und ta ist der Grenzwert für die Ausrichtung.
  • Im Schritt 210 wird ein viertes Merkmal bewertet, indem eine Bestimmung durchgeführt wird, ob die Entfernung zwischen den verfolgten Radkandidaten wi, wj innerhalb eines Grenzabstand liegt, der dem Radstand eines normalen Fahrzeugs gemäß eines Fahrzeugprofils entspricht. In einer Ausführungsform wird die Entfernungsbeziehung zwischen zwei verfolgten Radkandidaten so bestimmt: d 1 < d ( w i , w j ) < d 2 ,
    Figure DE102017102506B4_0023
    wo d(wi, wj) die Entfernung zwischen den Radkandidaten wi ist und wj, d1 und d2 die Entfernungsgrenzwerte für den Radstand im Fahrzeugprofil.
  • Werden die Merkmale der Schritte 204-210 erfüllt (d. h. jede der Beziehungen trifft zu), so gilt das Paar der Radkandidaten in der Auswertung als dem gleichen Fahrzeugs zugehörig, somit wird im Schritt 212 ein Fahrzeug erfasst. Der Standort des Fahrzeuges kann dann als die Mitte eines Linienabschnittes zwischen zwei Rädern wz, wj abgeschätzt werden, die Richtung/Geschwindigkeit und die Größe des Fahrzeugs als der Durchschnitt dieser Räder wi und wj.
  • 5 zeigt ein Flussdiagramm eines Beispielverfahrens 300 für das Erfassen potenzieller Räder unter Verwendung der Radarerfassungsvorrichtung 16, genauer gesagt des Radar-Objekterkennungsmoduls 28 gemäß einer Ausführungsform. Fachleuten ist klar, dass das hierin offenbarte Verfahren 300 lediglich als Beispiel dient und dass es im Schutzumfang der vorliegenden Offenbarung auch andere Verfahren zur Raderfassung mit Radarsensoren geben kann.
  • Das Verfahren 300 beginnt bei Schritt 302 durch die Festlegung eines Rahmens von Radarmessungen (oder Punkten) m1, m2, ... mk, für jeden mi, der Radarsensoren 24. Die Messungen können ohne Einschränkung Bereich r, Winkel θ, Doppler- v, und Signalstärke s enthalten. Bei Schritt 304 wird für jede Messung mi bestimmt, ob die Signalstärke s innerhalb des gewünschten Bereichs liegt: s u n t e r e s s o b e r e
    Figure DE102017102506B4_0024
    wo suntere ist der untere Grenzwert, und sobere der obere Grenzwert für die Signalstärke ist. Wie unter Fachleuten bekannt ist, haben Radarechos eines Rades einen relativ stabilen Bereich von Signalstärken. Daher wird in Fällen, wenn die Signalstärke s einer Einzelmessung nicht innerhalb des Grenzwertbereiches liegt, die Messung mi verworfen, da das erfasste Objekt kein Rad ist.
  • Die übrigen, im Schritt 304 nicht verworfenen Messungen werden im Schritt 306 aufgrund ihrer aus Entfernung r und Winkel θ errechneten Position nach bekannten Verfahren gebündelt. Messungen, die Positionen innerhalb einer Grenzentfernung voneinander ausweisen, werden in einer Gruppe zusammengefasst.
  • Die Grenzentfernung kann je nach Anwendung variieren. Bei Schritt 308 wird für jede Gruppe von Radarpunkten Ci = (mi1, mi2, ... mij) ein Satz von Bedingungen geprüft. In einer Ausführungsform wird der Satz der Bedingungen mittels der Durchführung der folgenden Schritte überprüft:
    1. 1) Die Bestimmung, ob die Standardabweichung der Dopplergeschwindigkeiten für diese Punkte Ci größer als oder gleich einem vordefinierten Grenzwert sind;
    2. 2) Sortierung der Punkte in der Gruppe aufgrund ihrer Dopplergeschwindigkeiten in einer aufsteigenden Reihenfolge;
    3. 3) Berechnen der Differenz der Dopplergeschwindigkeiten δ v k
      Figure DE102017102506B4_0025
      zwischen dem Radarpunkt mit der Ranglistenposition k und k + 1, wobei k = 1,2, ...,j - 1;
    4. 4) Berechnung einer mittleren δ v ¯
      Figure DE102017102506B4_0026
      und einer Standardabweichung σδv für δ v k ;
      Figure DE102017102506B4_0027
      und
    5. 5) Bestimmen, ob δ v > δ 0
      Figure DE102017102506B4_0028
      und σδv < σ1, wobei δ0 und σ1 vordefinierte Grenzwerte sind.
  • Wenn ein Bündel von Radarpunkten Ci = (mi1, mi2, ... mij) den Schritten 1-5 entspricht, wird bei Schritt 310 das Bündel als ein Rad erkannt, andernfalls stellt das Bündel kein Rad dar. Wird das Bündel im Schritt 310 als ein Rad erkannt, werden das potenzielle Rad und die zugehörigen Raderfassungsdaten an das Rad-Tracker-Modul 20 gesandt.
  • 6 zeigt ein Flussdiagramm eines Beispielverfahrens 400 für das Erfassen potenzieller Räder unter Verwendung der visuellen Vorrichtung 18, genauer gesagt, des visuellen Objekterkennungsmoduls 34 gemäß einer Ausführungsform. Fachleuten ist klar, dass das hierin offenbarte Verfahren 400 lediglich als Beispiel dient und dass es im Schutzumfang der vorliegenden Offenbarung auch andere Verfahren zur Raderfassung mit visuellen Systemen geben kann.
  • Das Verfahren 400 beginnt im Schritt 402 mit der Initialisierung des visuellen Rad-Trackers. In einer Ausführungsform sind die visuellen Rad-Tracker ein Submodul des visuellen Objekterkennungsmoduls 34 und dafür ausgelegt, Erscheinungsbildmodelle von Rädern und Positionen der durch das visuelle System 18 erkannten potenziellen Räder zu speichern. Durch Initialisieren der visuellen Rad-Tracker wird das Rad-Erscheinungsbildmodell eines jeden visuellen Rad-Trackers auf ein vordefiniertes antrainiertes Modell gesetzt und der Standort des potenziellen Rades als ungültig erklärt.
  • Bei Schritt 404 erhält das visuelle Objekterfassungsmodul 34 einen Datenrahmen einschließlich eines Bildrahmens von der Bildaufnahmevorrichtung 30 zum Zeitpunkt t. In einer Ausführungsform umfasst der Rahmen von Daten auch Raderfassungsdaten, die in Beziehung zu potenziellen Räder stehen, die gleichzeitig von der Radar-Erfassungsvorrichtung 16 erfasst wurden. Weiterhin können zu den Rahmendaten Raderfassungsdaten von den Radkandidaten gehören, die zum Zeitpunkt t-1 vom Rad-Tracker-Modul 20 verfolgt wurden. Die Standorte der potenziellen Räder, die aus den Daten der Radar-Erfassungsvorrichtung 16 und/oder dem Rad-Tracker-Modul 20 gezogen wurden, werden mit bekannten Verfahren auf ein Einzelbild projiziert.
  • Bei Schritt 406 wird ein Satz von Bildpatches von potenziellen Rädern aus dem Einzelbild vorgeschlagen. Beispielsweise können diese vorgeschlagenen Patches um die Standorte von potenziellen Rädern herum liegen, die von der Radar-Erfassungsvorrichtung 16 und/oder dem Rad-Tracker-Modul 20 in 404 vorgeschlagen wurden. In einem anderen Beispiel können die vorgeschlagenen Patches anhand des allgemein bekannten Sliding-Window-Verfahrens erzeugt werden.
  • Im Schritt 408 werden die vorgeschlagenen Patches der Radabbildung mit vorhandenen Tracks des visuellen Rad-Trackers geprüft, um Zuordnungen zu bestimmen. In einer Ausführungsform wird eine Zuordnung durch Messen der Entfernung zwischen den Standorten der vorgeschlagenen Bildpatches des Rades und vorhandenen Standort-Tracks. Falls die Entfernung einen Grenzwert unterschreitet, wird der der Patch mit dem vorhandenen Tracker assoziiert. Nach Erkennung einer Zuordnung wird das Appearance Model des vorhandenen visuellen Tracks anhand bekannter Verfahren mit den zugeordneten Patches aktualisiert.
  • Bei Schritt 410 werden alle nicht zugeordneten Patches nach bekannten Verfahren verarbeitet, um festzustellen, ob unter ihnen potenzielle Räder sind. Wurden die nicht zugeordneten Patches als Rad klassifiziert, so wird ein neuer visueller Tracker eingerichtet, andernfalls werden die Patches verworfen.
  • Bei Schritt 412 werden alle potenziellen Räder und die zugeordneten Raderfassungsdaten des visuellen Rad-Trackers an das Rad-Tracker-Modul 20 übergeben.

Claims (7)

  1. Verfahren zum Erfassen anderer Fahrzeuge (14) relativ zu einem Trägerfahrzeug (12) mittels Raderfassung, wobei zum Verfahren die folgenden Schritte gehören: das Verfolgen von Radkandidaten basierend auf Raderfassungsdaten einer Vielzahl von Objekterkennungsvorrichtungen (16, 18), wobei zu den Raderfassungsdaten die Informationen zu einem oder mehreren der erkannten Objekte gehören, die von der Vielzahl der Objekterkennungsvorrichtungen (16, 18) als ein potenzielles Rad identifiziert wurden; das Vergleichen ausgewählter Parameter mit Bezug auf die Erfassungsdaten für jeden der verfolgten Radkandidaten; und das Identifizieren eines anderen Fahrzeugs (14) durch Bestimmung, ob eine Grenzwertkorrelation zwischen den verfolgten Radkandidaten basierend auf dem Vergleich der ausgewählten Parameter vorliegt; dadurch gekennzeichnet , dass zu den Raderfassungsdaten ein kinematisches Modell für jedes durch die Vielzahl der Objekterkennungsvorrichtungen (16, 18) identifizierte potenzielle Rad gehört; und dass zum Vergleich ausgewählter Parameter mit Bezug auf die Raderfassungsdaten der Vergleich ausgewählter Parameter des kinematischen Modells für jeden verfolgten Radkandidaten gehört.
  2. Verfahren nach Anspruch 1, weiterhin umfassend das Zusammenführen der Raderfassungsdaten von der Vielzahl der Objekterkennungsvorrichtungen (16, 18).
  3. Verfahren nach Anspruch 2, wobei sich die Raderfassungsdaten auf eines oder mehrere der erkannten Objekte beziehen, die durch die Vielzahl der Objekterkennungsvorrichtungen (16, 18) als potenzielles Rad identifiziert wurden und wobei das Bündeln der Erfassungsdaten von der Vielzahl der Objekterkennungsvorrichtungen (16, 18) die Bestimmung umfasst, ob die von der Vielzahl der Objekterkennungseinrichtungen erhaltenen potenziellen Räder mit einem vorhanden Track eines verfolgten Radkandidaten assoziiert sind.
  4. Verfahren nach Anspruch 1, wobei das kinematische Modell für jedes potenzielle Rad Parameter in Bezug auf Standort, Geschwindigkeit, Beschleunigung, Richtung der Geschwindigkeit, und Richtung der Beschleunigung für jedes potenzielle Rad enthält.
  5. Verfahren nach Anspruch 4, wobei die ausgewählten Parameter des kinematischen Modells von jedem der verfolgten Radkandidaten in Beziehung zu einem Satz von Merkmalen für ein Fahrzeugprofil stehen.
  6. Verfahren nach Anspruch 1, wobei der Vergleich von ausgewählten Parametern eines ersten und eines zweiten verfolgten Radkandidaten stattfindet und wobei eine Grenzwertkorrelation zwischen dem ersten und dem zweiten verfolgten Radkandidaten besteht, wenn durch den Vergleich der ausgewählten Parameter des kinematischen Modells die Kriterien für das Fahrzeugprofil erfüllt werden.
  7. Verfahren nach Anspruch 1, wobei der Satz von Merkmalen für ein Fahrzeugprofil eine Grenzwertbeziehung jeweils zwischen einer Drehzahlrichtung der ersten und der zweiten Radkandidaten, eine Schwellenwertbeziehung zwischen einer Drehzahlgröße der ersten und zweiten Radkandidaten, eine Schwellenwertbeziehung zwischen einer Ausrichtung der Drehzahlrichtung mit einer dem Fahrzeugprofil zugewiesenen Karosserierichtung, und eine Schwellenwertbeziehung einer Distanz zwischen den ersten und zweiten Radkandidaten beinhaltet.
DE102017102506.5A 2016-02-19 2017-02-08 Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung Active DE102017102506B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/047,959 US9812008B2 (en) 2016-02-19 2016-02-19 Vehicle detection and tracking based on wheels using radar and vision
US15/047,959 2016-02-19

Publications (2)

Publication Number Publication Date
DE102017102506A1 DE102017102506A1 (de) 2017-08-24
DE102017102506B4 true DE102017102506B4 (de) 2023-12-14

Family

ID=59522456

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017102506.5A Active DE102017102506B4 (de) 2016-02-19 2017-02-08 Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung

Country Status (3)

Country Link
US (1) US9812008B2 (de)
CN (1) CN107103275B (de)
DE (1) DE102017102506B4 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163017B2 (en) * 2017-09-01 2018-12-25 GM Global Technology Operations LLC Systems and methods for vehicle signal light detection
EP3454075B1 (de) * 2017-09-11 2021-10-06 Nxp B.V. Objektdetektionssystemkalibrierung
US10393873B2 (en) * 2017-10-02 2019-08-27 Ford Global Technologies, Llc Adaptive mitigation of ultrasonic emission in vehicular object detection systems
US10732640B2 (en) * 2018-04-13 2020-08-04 Blackberry Limited System and method for preforming differential analysis of vehicles
CN111161542B (zh) * 2018-11-08 2021-09-28 杭州海康威视数字技术股份有限公司 车辆识别方法及装置
US11148670B2 (en) * 2019-03-15 2021-10-19 Honda Motor Co., Ltd. System and method for identifying a type of vehicle occupant based on locations of a portable device
CN110065494B (zh) * 2019-04-09 2020-07-31 魔视智能科技(上海)有限公司 一种基于车轮检测的车辆防碰撞方法
CN109976354A (zh) * 2019-04-23 2019-07-05 成都精工华耀科技有限公司 一种可拆装自动行驶轨道巡检小车
CN114708547A (zh) * 2022-03-23 2022-07-05 深圳信路通智能技术有限公司 车辆重识别方法、装置、计算机设备、存储介质
CN114937263B (zh) * 2022-05-05 2023-02-10 北京容联易通信息技术有限公司 一种基于视频智能分析的车辆轴数计数方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2910968A1 (de) 2014-02-19 2015-08-26 Kapsch TrafficCom AG Vorrichtung und Verfahren zur Detektion einer Radachse eines Fahrzeugs
DE102015206746A1 (de) 2014-04-16 2015-10-22 Honda Motor Co., Ltd. Mobiles-objekt-steuervorrichtung und zielobjekt-erfassungsvorrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3941770B2 (ja) * 2003-10-28 2007-07-04 株式会社デンソー 衝突可能性判定装置
US8232872B2 (en) * 2009-12-03 2012-07-31 GM Global Technology Operations LLC Cross traffic collision alert system
US8447437B2 (en) * 2010-11-22 2013-05-21 Yan-Hong Chiang Assistant driving system with video recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2910968A1 (de) 2014-02-19 2015-08-26 Kapsch TrafficCom AG Vorrichtung und Verfahren zur Detektion einer Radachse eines Fahrzeugs
DE102015206746A1 (de) 2014-04-16 2015-10-22 Honda Motor Co., Ltd. Mobiles-objekt-steuervorrichtung und zielobjekt-erfassungsvorrichtung

Also Published As

Publication number Publication date
CN107103275A (zh) 2017-08-29
CN107103275B (zh) 2020-11-17
DE102017102506A1 (de) 2017-08-24
US9812008B2 (en) 2017-11-07
US20170243478A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
DE102017102506B4 (de) Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung
EP1298454B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
EP1475764B1 (de) Verfahren und Vorrichtung zur Ermittlung der Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE102017203344A1 (de) Erfassen von langen objekten durch sensorfusion
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE102016106299A1 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102006045115A1 (de) System und Verfahren zur Zielverfolgung unter Verwendung von Sensorfusion
DE102015100134A1 (de) Objektvereinigungssystem mehrerer Radarbildgebungssensoren
DE102013113619A1 (de) Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem
DE102012216386A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
EP2799901A2 (de) Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
DE102011119767A1 (de) Erscheinungsbild-gestützte vereinigung von kamera- undentfernungssensordaten für mehrere objekte
DE102010005290A1 (de) Vereinigungsmodul für mehrere Objekte für ein Kollisionsvorbereitungssystem
DE102020107484A1 (de) Verfahren und vorrichtung zur bestätigung einer radarerfassung
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE112021005777T5 (de) Systeme und Verfahren zum Entfernungsraten-Dealiasing unter Verwendung einer Positionskonsistenz
EP4314895A1 (de) Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug
DE102006051091B4 (de) Verfahren zur Objekterkennung von Fahrzeugen mittels Nahbereichsdetektion
WO2021078335A1 (de) Verfahren zur erfassung eines zielobjekts
EP1679529B1 (de) Verfahren für die Objekterfassung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0013880000

Ipc: G01S0007410000

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final