-
TECHNISCHES GEBIET
-
Die vorliegende Offenbarung betrifft im Allgemeinen die Kommunikation zwischen Fahrzeugen und insbesondere Systeme und Verfahren zur automatischen Detektion von Anhängereigenschaften.
-
STAND DER TECHNIK
-
Heutzutage ermöglichen Fahrzeuge (z. B. Lastkraftwagen) mit an das Fahrzeug angekoppelten Anhängern den Benutzern die Möglichkeit, den Anhänger zurückzustoßen. In einigen solchen Fällen wandelt das Fahrzeug den gewünschten Weg des Benutzers in einen korrigierten Weg um, basierend auf der Kenntnis des Anhängers (z. B. Anhängergeometrie, Anhängergewicht usw.), kombiniert mit einer manuellen Sichtprüfung der Anhängerposition (z. B. relativ zum Fahrzeug). Obwohl diese Rückfahrhilfefunktion beeindruckend ist, müssen möglicherweise eine oder mehrere Eigenschaften des Anhängers vom Benutzer eingegeben werden, bevor die Rückfahrhilfefunktion aktiviert wird.
-
Fahrzeuge und stationäre Infrastrukturobjekte beinhalten jedoch zunehmend Kameras oder andere Sensoren (wie etwa LiDAR usw.) und sind dazu in der Lage, mit Fahrzeugen per Kommunikation zwischen Fahrzeugen zu kommunizieren. Dieses Netzwerk zur Kommunikation zwischen Fahrzeugen wird manchmal als Fahrzeug-zu-Fahrzeug(vehicle-to-vehicle - V2V)- und Fahrzeug-zu-Infrastruktur(vehicle-to-infrastructure - V2I)-Kommunikation bezeichnet (manchmal zusammen als V2X-Kommunikation bezeichnet).
-
KURZDARSTELLUNG
-
Die beigefügten Patentansprüche definieren diese Anmeldung. Die vorliegende Offenbarung fasst Aspekte der Ausführungsformen zusammen und sollte nicht zum Einschränken der Patentansprüche verwendet werden. Andere Umsetzungen werden in Übereinstimmung mit den hier beschriebenen Techniken in Betracht gezogen, wie dem Durchschnittsfachmann bei der Durchsicht der folgenden Zeichnungen und detaillierten Beschreibung ersichtlich wird, und diese Umsetzungen sollen innerhalb des Umfangs dieser Anmeldung liegen.
-
Es werden beispielhafte Ausführungsformen zur automatischen Detektion von Anhängereigenschaften gezeigt. Ein hierin offenbartes beispielhaftes Fahrzeug beinhaltet ein Modul zur Kommunikation zwischen Fahrzeugen und eine Infotainment-Haupteinheit. Die Infotainment-Haupteinheit ist dazu konfiguriert, ein Vorhandensein eines angekoppelten Anhängers zu detektieren. Die Infotainment-Haupteinheit ist auch dazu konfiguriert, als Reaktion auf ein Bestimmen, dass der angekoppelte Anhänger ein nichterkannter Anhänger ist, eine Bilderanfrage über das Modul zur Kommunikation zwischen Fahrzeugen zu senden, eine semantische Segmentierung der Bilder durchzuführen, eine dreidimensionale Punktwolke unter Verwendung der segmentierten Bilder zu erzeugen und eine Eigenschaft des angekoppelten Anhängers basierend auf der dreidimensionalen Punktwolke zu schätzen.
-
Ein beispielhaftes offenbartes Verfahren zur automatischen Detektion von Anhängereigenschaften beinhaltet das Detektieren, über einen Prozessor eines Fahrzeugs, eines Vorhandenseins eines angekoppelten Anhängers. Das beispielhafte Verfahren beinhaltet auch, als Reaktion auf ein Bestimmen, dass der angekoppelte Anhänger ein nichterkannter Anhänger ist, das Senden, über ein Modul zur Kommunikation zwischen Fahrzeugen, einer Bilderanfrage, das Durchführen, über den Prozessor, einer semantischen Segmentierung der Bilder, das Erzeugen, über den Prozessor, einer dreidimensionalen Punktwolke unter Verwendung der segmentierten Bilder, und das Schätzen, über den Prozessor, einer Eigenschaft des angekoppelten Anhängers basierend auf der dreidimensionalen Punktwolke.
-
Figurenliste
-
Zum besseren Verständnis der Erfindung kann auf Ausführungsformen Bezug genommen werden, die in den folgenden Zeichnungen gezeigt sind. Die Komponenten in den Zeichnungen sind nicht zwingend maßstabsgetreu und zugehörige Elemente können weggelassen sein oder in einigen Fällen können Proportionen vergrößert dargestellt sein, um die hier beschriebenen neuartigen Merkmale hervorzuheben und eindeutig zu veranschaulichen. Zusätzlich können Systemkomponenten verschiedenartig angeordnet sein, wie es auf dem Gebiet bekannt ist. Ferner bezeichnen in den Zeichnungen gleiche Bezugszeichen durchgängig entsprechende Teile in den verschiedenen Ansichten.
- 1 veranschaulicht ein beispielhaftes Fahrzeug, das gemäß den Lehren dieser Offenbarung betrieben wird.
- 2 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle zum Initiieren einer automatischen Detektion von Anhängereigenschaften.
- 3 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle zum Anzeigen eines Statusupdates der automatischen Detektion von Anhängereigenschaften.
- 4 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle zum Anzeigen und Bearbeiten eines zusammengesetzten Bildes.
- 5 veranschaulicht eine weitere beispielhafte Mensch-Maschine-Schnittstelle zum Anzeigen und Bearbeiten des zusammengesetzten Bildes.
- 6 ist ein Blockdiagramm elektronischer Komponenten des Fahrzeugs aus 1.
- 7 ein Ablaufdiagramm eines Verfahrens zum automatischen Detektieren von Eigenschaften eines Anhängers unter Verwendung von Bildern, die per Kommunikation zwischen Fahrzeugen empfangen werden, das durch die elektronischen Komponenten aus 6 umgesetzt werden kann.
-
DETAILLIERTE BESCHREIBUNG BEISPIELHAFTER AUSFÜHRUNGSFORMEN
-
Auch wenn die Erfindung in verschiedenen Formen ausgeführt sein kann, werden in den Zeichnungen einige nicht einschränkende Ausführungsbeispiele gezeigt und nachfolgend beschrieben, wobei es sich versteht, dass die vorliegende Offenbarung als Erläuterung der Erfindung anhand von Beispielen anzusehen ist und damit nicht beabsichtigt wird, die Erfindung auf die konkreten veranschaulichten Ausführungsformen zu beschränken.
-
Um eine Rückfahrhilfefunktion eines Fahrzeugs, das an einen Anhänger angekoppelt ist, zu ermöglichen, verwendet ein Fahrzeug im Allgemeinen Informationen (z. B. Anhängereigenschaften), die mit dem Anhänger assoziiert sind, der an das Fahrzeug angekoppelt ist. Doch Techniken zum Bestimmen der Anhängereigenschaften sind oft darauf angewiesen, dass der Fahrer (oder Benutzer) relevante Informationen zur Verfügung stellt. Beispielsweise kann der Fahrer dazu aufgefordert werden, Geometrien des Fahrzeugs und des angekoppelten Anhängers bereitzustellen, beispielsweise: (a) den horizontalen Abstand vom Nummernschild zur Mitte der Kugelkopfkupplung des Anhängers, (b) den horizontalen Abstand von der Mitte der Kugelkopfkupplung zu einem Aufkleber, (c) den Abstand von der Rückfahrkamera zur Mitte des Aufklebers und (d) den Abstand von der Heckklappe zur Mitte der Anhängerachse (einzelne Achse) oder zur Mitte der Anhängerachsen (zwei oder mehrere Achsen). Der Fahrer könnte die falschen Informationen haben, die relevante Abmessung falsch gemessen haben oder vergessen, dass eine Handlung eine Eigenschaft verändert hat, die mit dem Fahrzeug und/oder angekoppelten Anhänger assoziiert ist. Beispielsweise könnte der Fahrer vergessen, Informationen in das Fahrzeug einzugeben, nachdem er Inhalt vom Anhänger entfernt/letzterem hinzugefügt hat, wodurch sich der Schwerpunkt des Fahrzeugs und des angekoppelten Anhängers ändert.
-
Fahrzeuge und Infrastrukturobjekte (z. B. Ampeln, Brücken, polizeiliche Überwachungsvorrichtungen, Lampenpfosten usw.) beinhalten zunehmend Module zur Kommunikation zwischen Fahrzeugen, die eine Kommunikation zwischen Fahrzeugen, Infrastruktur und Fußgängern ermöglichen. Diese Fahrzeuge und Infrastrukturobjekte beinhalten auch zunehmend und/oder haben Drittparteien-Support für Kameras (z. B. Farbkameras, Monochromkameras, Time-of-Flight-Kameras, Stereokameras, monokulare Kameras usw.) und andere Sensoren (z. B. LiDAR usw.), die zur Verfügung stehen, um Bilder oder andere Datentypen (z. B. Punktwolkendaten) von nahegelegenen Objekten und Fahrzeugen zu erfassen.
-
Wie im Folgenden erläutert sendet ein Fahrzeug (hier manchmal als „Host-Fahrzeug“ bezeichnet) unter Verwendung eines Moduls zur Kommunikation zwischen Fahrzeugen (hier manchmal als „Fahrzeug-zu-Fahrzeug(V2V)-Modul“ oder „Dedicated Short Range Communication(DSRC)-Modul“ bezeichnet) von Zeit zu Zeit (z. B. periodisch, als Reaktion auf ein Ereignis usw.) eine Anfrage auf Bilder und Sensordaten (z. B. Radardaten, LiDAR-Daten, Ultraschallsensordaten usw.) von anderen nahegelegenen Fahrzeugen (hier manchmal als „Zielfahrzeuge“ bezeichnet) und/oder Infrastrukturmodulen, die zur Kommunikation zwischen Fahrzeugen befähigt sind (hier manchmal als „straßenseitige Einheiten“ bezeichnet). Die Anfragen beinhalten Informationen, die es den Zielfahrzeugen ermöglichen, das Host-Fahrzeug zu orten und/oder zu identifizieren, sodass das Zielfahrzeug ein oder mehrere Bilder oder andere Datenquellen (z. B. von LiDAR erhaltene Punktwolkendaten) des Host-Fahrzeugs erfassen kann. Beispielsweise kann die Anfrage die Position, Fahrtrichtung, Geschwindigkeit, Farbe und/oder das Modell des Host-Fahrzeugs usw. beinhalten. Wie hier verwendet, beinhaltet der Begriff „Host-Fahrzeug“ ein Fahrzeug (wie etwa einen Lastkraftwagen usw.) und einen Anhänger, der an das Fahrzeug angekoppelt ist. Als weiteres Beispiel kann die Anfrage ein Bild oder einen Satz Merkmalspunkte eines oder mehrerer Abschnitte des Fahrzeugs beinhalten, um den Zielfahrzeugen zu helfen. In einigen Beispielen kann das Host-Fahrzeug auch Daten und Bilder des Host-Fahrzeugs selbst anfragen und erfassen, beispielsweise über Sensoren, die mit dem Host-Fahrzeug assoziiert sind (z. B. eine oder mehrere Rückfahrkameras usw.), die dazu verwendet werden können, eine Kameraposition der Zielfahrzeuge und/oder der straßenseitigen Einheiten basierend auf Bild- oder Datenmerkmalpunkten, die in den verschiedenen Daten- und Bildersätzen vorhanden sind, zu schätzen. Ein solcher Prozess kann verwendet werden, um fehlerhafte Bilder und/oder Datenquellen herauszufiltern, zum Beispiel aufgrund einer schlechten V2X-Positionierung (z. B. hat das Zielfahrzeug keine Sichtverbindung mit dem Hostfahrzeug usw.). Wie unten beschrieben, können die empfangenen Bilder und/oder Daten verwendet werden, um die Position des Anhängers relativ zu dem Host-Fahrzeug zu bestimmen. In einigen Beispielen können die empfangenen Bilder und/oder Daten verwendet werden, um die empfangenen Bilder und/oder Daten und/oder erzeugte Bilder (wie etwa Structure-from-Motion-Karten, Punktwolken usw.) auszurichten, in denen ein Anhängerwinkel im Lauf der Zeit variieren kann (z. B. durch Kombinieren von Messungen ab dem Zeitpunkt, an dem das Host-Fahrzeug abbiegt und dann geradeaus fährt, usw.).
-
Das Host-Fahrzeug empfängt die Bilder und die Sensordaten von den Zielfahrzeugen. Wenn die Bilder empfangen werden, führt das Host-Fahrzeug eine semantische Segmentierung durch, um verschiedene Objekte (z. B. das Host-Fahrzeug einschließlich des angekoppelten Anhängers) und/oder Teile von Objekten (z. B. Räder des angekoppelten Anhängers, am Host-Fahrzeug und/oder am angekoppelten Anhänger montierte Objekte usw.) in den Bildern zu identifizieren, und erzeugt fortlaufend ein zusammengesetztes Bild des Fahrzeugs unter Verwendung eines dreidimensionalen Szene-Stitching-Prozesses, wie etwa einer Structure-from-Motion-Technik (wörtlich: Struktur aus Bewegung) und/oder Sensorfusion. Unter Verwendung der Segmentierungsinformationen, des zusammengesetzten Bildes und eines dreidimensionalen Modells des Host-Fahrzeugs und/oder des letzterem angekoppelten Anhängers, die in einem Speicher gespeichert sind, erstellt das Fahrzeug eine dreidimensionale Punktwolke des Fahrzeugs und des angekoppelten Anhängers. Sensorfusion kombiniert Sensordaten (z. B. dreidimensionale Sensordaten, wie etwa von Radar, LiDAR, Ultraschallsensoren usw.), die von den Zielfahrzeugen und/oder dem Host-Fahrzeug empfangen werden, um die dreidimensionale Struktur des Host-Fahrzeugs einschließlich des angekoppelten Anhängers weiter zu definieren. Unter Verwendung der dreidimensionalen Struktur des Host-Fahrzeugs einschließlich des angekoppelten Anhängers schätzt das Fahrzeug Eigenschaften und Geometrien des angekoppelten Anhängers.
-
In einigen Beispielen ermöglicht das Fahrzeug Fahrer-Feedback über eine Mensch-Maschine-Schnittstelle (human machine interface - HMI), wie etwa dem Infotainmentsystem des Fahrzeugs und/oder einer Anwendung (wie etwa FordPass), die auf einer Mobilvorrichtung (z. B. einem Smartphone, einer Smartwatch usw.) ausgeführt wird. Über die HMI kann der Fahrer angeben, dass der angekoppelte Anhänger ein neuer Anhänger ist (z. B. dass das Fahrzeug eine automatische Detektion der Anhängereigenschaften einleiten sollte), dass der Anhänger ein zuvor verwendeter Anhänger ist (z. B. dass das Fahrzeug Anhängereigenschaften aus dem Speicher abrufen sollte), dass der Fahrer bestätigen kann, ob die dreidimensionale Darstellung des Fahrzeugs und/oder des angekoppelten Fahrzeugs einen Akzeptanzschwellenwert erfüllt (z. B. entweder vom Fahrer auferlegt und/oder vom Fahrzeug basierend auf statistischen Techniken), dass der Fahrer eine bestimmte Straße befahren kann, um zusätzliche Bilder und Sensordaten von Zielfahrzeugen zu empfangen, usw.
-
Sobald die Eigenschaften des Anhängers geschätzt wurden, speichert das Fahrzeug die geschätzten Anhängereigenschaften zur Verwendung während nachfolgender Fahrten. Zusätzlich können die geschätzten Anhängereigenschaften verwendet werden, um die Rückfahrhilfefunktion für den Anhänger zu erleichtern. Beispielhafte Eigenschaften, die durch die offenbarten Techniken geschätzt werden können, beinhalten die Geometrie des Anhängers (z. B. Abstand zwischen Nummernschild und Kugelkopfkupplung, Abstand zwischen Kugelkopfkupplung und Aufkleber, Abstand zwischen Kamera und Aufkleber, Abstand zwischen Heckklappe und Anhängerachse), Anhängerart, Schätzung des Anhängergewichts für das Bremsen (z. B. Gewichtsverteilung usw.), Geradeausfahrverhalten, um die Musterposition während des Geradeausfahrens zu bestätigen und/oder zu überprüfen (z. B. Rückfahrkamera im Vergleich mit dem mittels der offenbarten Techniken gemessenen Anhängerwinkel), usw. Wie hier verwendet, kann ein „Aufkleber“ kann ein optisches Muster sein, das an dem angekoppelten Anhänger angebracht ist (und/oder damit assoziiert ist), um das Schätzen von Eigenschaften des angekoppelten Anhängers zu ermöglichen. In einigen Beispielen können offenbarte Techniken in der Lage sein, das optische Erscheinungsbild eines gegebenen Anhängers zu erkennen und die relevanten Eigenschaften des Anhängers ohne ein optisches Muster zu speichern. Zusätzliche Eigenschaften, die basierend auf den offenbarten Techniken geschätzt werden können, beinhalten das Identifizieren der Position oder des Erscheinungsbilds des am Anhänger angebrachten Aufklebers und das Schätzen der Gewichtsverteilung auf dem Anhänger, um die Fahr- und Bremsdynamik zu verbessern.
-
Somit stellt das Host-Fahrzeug in einigen Ausführungsformen nach Bestimmen des Vorhandenseins eines verbundenen Anhängers mehrere Anfragen über ein Modul für Kommunikation zwischen Fahrzeugen auf Bilder des Host-Fahrzeugs und des angekoppelten Anhängers von nahegelegenen Fahrzeugen und/oder nahegelegener Infrastruktur während verschiedenen Fahrmanövern wie Abbiegen, Zurückstoßen und Vorwärtsfahren. Das Fahrzeug stellt dem Fahrer Feedback (z. B. über die HMI) bereit, dass das Fahrzeug einen neuen Anhänger identifiziert hat und dabei ist, mit dem Anhänger assoziierte Eigenschaften zu schätzen. Darüber hinaus kann das Fahrzeug zu einer Fahrt entlang einer empfohlenen Route auffordern, was das Abschließen der geschätzten Messungen basierend auf einer oder mehreren Kameras von anderen Fahrzeugen oder Straßeneinheiten, die entlang der empfohlenen Route verfügbar sind, ermöglichen kann. Das Fahrzeug verwendet die erfassten Bilder des Anhängers in Kombination mit Struktur aus Bewegungstechniken, die Merkmale des Fahrzeugs und des angekoppelten Anhängers erkennt und nutzt. In einigen Beispielen gleicht die Struktur aus Bewegungstechniken viele Punkten unterschiedlicher Merkmale in einer Reihe von Bildern ab und bestimmt dann die dreidimensionalen Positionen dieser Punkte. Das Fahrzeug kombiniert daraufhin die Struktur aus Bewegungstechniken mit einem dreidimensionalen Modell des Fahrzeugs (z. B. Fabrikdaten und/oder 3D-Modelldaten des Fahrzeugs, die im Speicher gespeichert sind) und dem angeschlossenen Fahrzeug, um geometrische Eigenschaften des Anhängers basierend auf den erzeugten Geometrien zu messen (oder zu schätzen). Zum Beispiel kann das Fahrzeug ein werkgespeichertes Bild des Fahrzeugs verwenden, um das von dem Fahrzeug erzeugte dreidimensionale Modell zu kalibrieren, das Bildrauschen enthalten kann, eine relativ geringe Präzision aufweisen kann, eine relativ geringe Genauigkeit aufweisen kann und/oder andere Verzerrungs-/Störungsmodi der Daten aufweisen kann, die zu einem Fehler des vom Fahrzeug erzeugten dreidimensionalen Modells führen. Das dreidimensionale Modell kann auch verwendet werden, um die Geometrie des angekoppelten Anhängers und seinen Winkel im Vergleich zum Fahrzeug zu schätzen. Das Fahrzeug kann dann diese geschätzten Eigenschaften verwenden, um ein Steuerungsmodell zur automatischen Rückfahrhilfe zu erzeugen, ohne dass der Fahrer manuell eine oder mehrere Messungen bereitstellen muss.
-
Da in einigen Beispielen der Anhängerinhalt auf Fahrdynamik überwacht wird (z. B. durch periodisches Anfordern von Bildern des Host-Fahrzeugs und des angekoppelten Anhängers), können die offenbarten Techniken in einigen Beispielen dazu verwendet werden, eine Verschiebung des Anhängerinhalts oder fehlenden Inhalt zu detektieren (z. B. durch Diebstahl von Inhalt, vom Anhänger herunterfallenden Inhalt usw.). Zum Beispiel kann das Host-Fahrzeug in periodischen Zeitintervallen (z. B. alle fünf Minuten usw.) Bilder und/oder Daten des Host-Fahrzeugs anfordern, wenn eine Änderung des Motordrehmoments detektiert wird.
-
Die offenbarten Techniken erleichtern somit eine Echtzeitüberwachung der Konfiguration des angekoppelten Anhängers und Kenntnis seiner Konfiguration, um eine verbesserte Steuerung der Fahrdynamik, der Bremssteuerung und andere Vorteile zu ermöglichen, die ein Fahrer gewiss schätzen wird, wenn er sein Fahrzeug mit einem angekoppelten Anhänger fährt.
-
1 veranschaulicht ein Host-Fahrzeug 100, das gemäß den Lehren dieser Offenbarung betrieben wird. Das Host-Fahrzeug 100 kann ein standardmäßiges benzinbetriebenes Fahrzeug, ein Hybridfahrzeug, ein Elektrofahrzeug, ein Brennstoffzellenfahrzeug und/oder ein Fahrzeugtyp mit beliebiger anderer Antriebsart sein. Das Host-Fahrzeug 100 kann ein beliebiges Kraftfahrzeug sein, wie etwa ein Personenkraftwagen, ein Lastkraftwagen, ein Sattelschlepper oder ein Motorrad usw. Zudem zieht in dem veranschaulichten Beispiel das Host-Fahrzeug 100 einen Anhänger 116 (der, wie im Folgenden erläutert, als Teil des Host-Fahrzeugs 100 behandelt werden kann), der beispielsweise andere Objekte beinhalten kann, wie etwa (ein) Boot(e), (ein) Pferd(e), Gartengeräte usw. Das Host-Fahrzeug 100 beinhaltet Teile, die mit dem Antrieb in Verbindung stehen, wie etwa einen Antriebsstrang mit einem Motor, einem Getriebe, einer Aufhängung, einer Antriebswelle und/oder Rädern usw. Das Host-Fahrzeug 100 kann nichtautonom, halbautonom (z. B. werden einige routinemäßige Fahrfunktionen durch das Host-Fahrzeug 100 gesteuert) oder autonom (z. B. werden Fahrfunktionen durch das Host-Fahrzeug 100 ohne direkte Fahrereingabe gesteuert) sein. Das Host-Fahrzeug und/oder das/die Zielfahrzeug/e können während der Bildaufnahme stationär oder in Bewegung sein. In dem in 1 veranschaulichten Beispiel beinhaltet das Host-Fahrzeug 100 ein Modul zur Kommunikation zwischen Fahrzeugen (inter-vehicle communication module - IVCM) 102, ein bordeigenes Kommunikationsmodul (on-board communication module - OBCM) 104 und eine Infotainment-Haupteinheit (infotainment head unit - IHU) 106.
-
Das Modul zur Kommunikation zwischen Fahrzeugen 102 beinhaltet (eine) Antenne(n), Funkeinrichtung(en) und Software, um Nachrichten zu senden und eine Kommunikation zwischen dem Host-Fahrzeug 100 und Zielfahrzeugen 108, straßenseitigen Einheiten 109 und mobilgerätbasierten Modulen (nicht gezeigt) aufzubauen. Weitere Informationen über das Netzwerk zur Kommunikation zwischen Fahrzeugen und wie das Netzwerk mit Fahrzeughardware und -software kommunizieren kann, sind verfügbar in der „Core System Requirements Specification“ vom Juni 2011 des US-Verkehrsministeriums (http://www.its.dot.gov/meetings/pdf/CoreSystem_SE_SyRS_RevA%2 0(2011-06-13).pdf), welche hiermit durch Bezugnahme in ihrer Gesamtheit gemeinsam mit allen Unterlagen aufgenommen ist, die auf den Seiten 11 bis 14 des SyRS-Reports aufgeführt sind. Die Systeme zur Kommunikation zwischen Fahrzeugen können an Fahrzeugen und an Infrastruktur am Straßenrand installiert sein. Die Systeme zur Kommunikation zwischen Fahrzeugen, die in die Infrastruktur (z. B. Verkehrszeichen, Straßenbeleuchtung, städtische Kameras usw.) integriert sind, werden als „straßenseitige(s)“ System oder Einheit bezeichnet. Die Kommunikation zwischen Fahrzeugen kann mit anderen Technologien kombiniert sein, wie etwa mit dem Global Position System (GPS), Visual Light Communications (VLC), Cellular Communications, Radar mit geringer Reichweite, Advanced Driver Assistant System (ADAS) und dem autonomen Fahrzeugsystem (Wahrnehmung und Ortung), wodurch es den Fahrzeugen erleichtert wird, ihre Position, Geschwindigkeit, relative Position und/oder Neigung zu anderen Objekten zu kommunizieren und Informationen mit anderen Fahrzeugen oder externen Rechensystemen auszutauschen. Systeme zur Kommunikation zwischen Fahrzeugen können in andere Systeme wie Mobiltelefone integriert werden.
-
In einigen Beispielen setzt das Modul 102 zur Kommunikation zwischen Fahrzeugen das Dedicated-Short-Range-Communication-Protokoll (DSRC-Protokoll) um. Gegenwärtig wird das DSRC-Netzwerk durch die Abkürzung DSRC oder seinen ausgeschriebenen Namen identifiziert. Mitunter werden jedoch andere Namen verwendet, die für gewöhnlich mit einem Fahrzeugkonnektivitätsprogramm oder dergleichen in Beziehung stehen. Die Mehrheit dieser Systeme sind entweder reine DSRC oder eine Variation des Funkstandards IEEE 802.11. Jedoch sollen neben dem reinen DSRC-System auch dedizierte drahtlose Kommunikationssysteme zwischen Autos und einem straßenseitigen Infrastruktursystem abgedeckt sein, die in GPS integriert sind und auf einem IEEE-802.11-Protokoll für drahtlose lokale Netzwerke (wie z. B. 802.11p, Mobil-V2X usw.) basieren.
-
Das bordeigene Kommunikationsmodul 104 beinhaltet drahtgebundene oder drahtlose Netzwerkschnittstellen, um Kommunikation mit externen Netzwerken zu ermöglichen. Das bordeigene Kommunikationsmodul 104 beinhaltet Hardware (z. B. Prozessoren, Arbeitsspeicher, Datenspeicher, Antenne usw.) und Software, um die drahtgebundenen und/oder drahtlosen Netzwerkschnittstellen zu steuern. In dem veranschaulichten Beispiel beinhaltet das bordeigene Kommunikationsmodul 104 eine oder mehrere Kommunikationssteuerungen für standardbasierte Netzwerke (z. B. das Global System for Mobile Communications (GSM), Universal Mobile Telecommunications System (UMTS), Long Term Evolution (LTE), Code Division Multiple Access (CDMA), WiMAX (IEEE 802.16m); ein drahtloses lokales Netzwerk (einschließlich IEEE 802.11 a/b/g/n/ac oder andere) und Wireless Gigabit (IEEE 802.11ad) usw.). In einigen Beispielen beinhaltet das bordeigene Kommunikationsmodul 104 eine drahtgebundene und/oder drahtlose Schnittstelle (z. B. einen Hilfsanschluss, einen Universal-Serial-Bus(USB)-Anschluss, einen Bluetooth®-Drahtlosknoten usw.), um kommunikativ mit einer mobilen Vorrichtung (z. B. einem Smartphone, einer Smartwatch, einem Tablet usw.) gekoppelt zu sein. In solchen Beispielen kann das Host-Fahrzeug 100 über die gekoppelte mobile Vorrichtung mit dem externen Netzwerk kommunizieren. Bei dem/den externen Netzwerk(en) kann es sich um Folgendes handeln: ein öffentliches Netzwerk, wie etwa das Internet; ein privates Netzwerk, wie etwa ein Intranet; oder Kombinationen davon, und es kann eine Vielfalt von Netzwerkprotokollen genutzt werden, die derzeit zur Verfügung stehen oder später entwickelt werden, einschließlich unter anderem TCP/IP-basierte Netzwerkprotokolle. In einigen Beispielen kommuniziert das Fahrzeug 100 mit einem externen Server über das bordeigene Kommunikationsmodul 104, um Informationen (z. B. Wetter, Hintergrundbilder usw.) über einen aktuellen Standort des Fahrzeugs 100 zu empfangen. Beispielsweise kann das Fahrzeug 100 von dem externen Server Hintergrundbilder der Umgebung des Fahrzeugs 100 anfordern, um das von dem Fahrzeug 100 erzeugte zusammengesetzte Bild zu verbessern. In einigen Beispielen empfängt das Fahrzeug 100 von dem externen Server ein dreidimensionales Modell des verwendeten Fahrzeugs 100, das zumindest teilweise benutzt wird, um zusätzliche Betrachtungsperspektiven in dem zusammengesetzten Bild bereitzustellen, die möglicherweise nicht in empfangenen Bildern erfasst wurden.
-
Die Infotainment-Haupteinheit 106 stellt eine Schnittstelle zwischen dem Fahrzeug 100 und einem Benutzer bereit. Die Infotainment-Haupteinheit 106 beinhaltet digitale und/oder analoge Schnittstellen (z. B. Eingabevorrichtungen und Ausgabevorrichtungen), um eine Eingabe von dem Benutzer (den Benutzern) zu empfangen und Informationen anzuzeigen. Die Eingabevorrichtungen können beispielsweise einen Steuerknopf, ein Armaturenbrett, eine Digitalkamera zur Bilderfassung und/oder visuellen Befehlserkennung, einen Touchscreen, eine Audioeingabevorrichtung (z. B. ein Kabinenmikrofon), Tasten oder ein Berührungsfeld beinhalten. Die Ausgabevorrichtungen können Instrumenten-Cluster-Ausgaben (z. B. Drehscheiben, Beleuchtungsvorrichtungen), Aktoren, eine Frontanzeige, eine Mittelkonsolenanzeige (z. B. eine Flüssigkristallanzeige (liquid crystal display - „LCD“), eine organische Leuchtdioden(organic light emitting diode - „OLED“)-Anzeige, eine Flachbildschirmanzeige, eine Festkörperanzeige usw.) und/oder Lautsprecher beinhalten. In dem veranschaulichten Beispiel beinhaltet die Infotainment-Haupteinheit 106 Hardware (z. B. einen Prozessor oder eine Steuerung, einen Arbeitsspeicher, einen Datenspeicher usw.) und Software (z. B. ein Betriebssystem usw.) für ein Infotainment-System (wie etwa SYNC® und MyFord® von Ford®, Entune® von Toyota®, IntelliLink® von GMC® usw.). Des Weiteren zeigt die Infotainment-Haupteinheit 106 das Infotainment-System beispielsweise auf der Mittelkonsolenanzeige an. In dem veranschaulichten Beispiel in 1 beinhaltet die Infotainment-Haupteinheit 106 einen Eigenschaftenschätzer 110. Alternativ dazu kann der Eigenschaftenschätzer 110 in einigen Beispielen in ein anderes Fahrzeugmodul integriert sein, wie etwa ein Karosseriesteuerungsmodul oder eine Autonomieeinheit, die autonome Funktionen des Fahrzeugs 100 steuert.
-
Der Eigenschaftenschätzer 110 detektiert das Vorhandensein eines Anhängers, schätzt Eigenschaften, die mit dem Anhänger assoziiert sind, und speichert die geschätzten Eigenschaften dann für nachfolgende Verwendung, wie etwa wenn das Anhängerrückfahrhilfesystem des Fahrzeugs 100 aktiviert ist. Um das Vorhandensein des Anhängers 116 zu detektieren, kann der Eigenschaftenschätzer 110 einen oder mehrere Sensoren des Fahrzeugs 100 nutzen (z. B. eine Rückfahrkamera des Fahrzeugs 100), der Merkmalerkennung durchführt und den Anhänger 116 und/oder ein optisches Muster identifiziert, das an dem Anhänger angebracht ist. Das optische Muster (oder der Aufkleber) kann Charakteristiken beinhalten (z. B. (ein) einzigartige(s) Muster, die einen spezifischen Anhänger identifizieren), die das optische Muster gegenüber der Rückfahrkamera als ein optisches Muster des Anhängers identifizieren. Während ein optisches Muster nicht erforderlich ist, um das Vorhandensein des Anhängers 116 zu detektieren, kann die Einbindung des optischen Musters auf dem Anhänger 116 eine relativ robustere Lösung zum Schätzen von Eigenschaften des Anhängers 116 beispielsweise im Hinblick auf unterschiedliche Beleuchtungsbedingungen und/oder Anhängerkonfigurationen ermöglichen. In einigen Beispielen detektiert der Eigenschaftenschätzer 110 das Vorhandensein des Anhängers 116 basierend auf einer Angabe, dass sich eine mit dem Fahrzeug 100 assoziierte Fahrdynamik geändert hat (z. B. wird angegeben, dass der Anhänger 116 an das Fahrzeug 100 angekoppelt wurde). In einigen Beispielen detektiert der Eigenschaftenschätzer 110 das Vorhandensein des Anhängers 116 als Reaktion auf eine Angabe, dass Anhängerbremsleuchten mit dem Fahrzeug verbunden wurden.
-
Nachdem der Eigenschaftenschätzer 110 das Vorhandensein des Anhängers 116 detektiert, bestimmt der Eigenschaftenschätzer 110, ob es sich bei dem detektierten Anhänger um einen zuvor angekoppelten Anhänger handelt. Beispielsweise kann der Eigenschaftenschätzer 110 Charakteristiken des angekoppelten Anhängers 116 mit Charakteristiken vergangener Anhänger vergleichen, die im Speicher gespeichert sind. Beispielsweise kann der Eigenschaftenschätzer 110 Merkmalpunkte an einer festen Ausrichtung (z.B. beim Geradeausfahren, aus der Perspektive der Rückfahrkamera usw.) benutzen, um zu bestimmen, ob es sich bei dem Anhänger um einen zuvor angekoppelten Anhänger handelt. Andere beispielhafte Charakteristiken, die von dem Eigenschaftenschätzer 110 benutzt werden können, beinhalten beispielsweise detektierte Farbmuster (z. B. kalibriert im Vergleich zu Sonneneinstrahlung im Vergleich zu Wetterbedingungen, die Farbdarstellung beeinflussen), zur Beschleunigung notwendiges Drehmoment, Bremskraft, um über eine Entfernung hin anzuhalten, Bremswirkung usw. Es versteht sich jedoch, dass der Eigenschaftenschätzer 110 zusätzliche oder alternative Merkmale und/oder Charakteristiken des angekoppelten Anhängers detektieren kann, um zu bestimmen, ob es sich bei dem angekoppelten Anhänger 116 um einen zuvor angekoppelten Anhänger handelt (z. B. einen erkannten Anhänger). In einigen Beispielen kann der Eigenschaftenschätzer 110 gespeicherte Anhänger basierend auf Vorhersagen zuvor gespeicherter Anhänger sortieren. Falls der Eigenschaftenschätzer 110 bestimmt, dass es sich bei dem angekoppelten Anhänger 116 um einen erkannten Anhänger handelt (z. B. entsprechen Charakteristiken des angekoppelten Anhängers 116 Charakteristiken eines vergangenen Anhängers), dann ruft der Eigenschaftenschätzer 110 die zuvor aufgezeichneten Eigenschaften des erkannten Anhängers ab und benutzt die abgerufenen Eigenschaften im Steuerungsalgorithmus, um das Anhängerrückfahrhilfesystem zu unterstützen. In einigen Beispielen kann der Eigenschaftenschätzer 110 einen erkannten Anhänger erneut abbilden (oder erneut scannen). Beispielsweise kann der angekoppelte Anhänger 116 ein „offener“ Anhänger sein, der Güter wie etwa ein Boot transportiert. In einigen derartigen Beispielen kann der Eigenschaftenschätzer 110 den erkannten Anhänger erneut abbilden (oder erneut scannen), um zu bestimmen, ob der angekoppelte Anhänger Güter transportiert (z. B. ein Boot usw.).
-
Falls der Eigenschaftenschätzer 110 nicht in der Lage war, den angekoppelten Anhänger 116 als einen vergangenen Anhänger zu erkennen, dann versucht der Eigenschaftenschätzer 110, die Geometrie des angekoppelten Anhängers 116, die physische Positionierung des angekoppelten Anhängers 116 relativ zu dem Host-Fahrzeug 100 und das Erscheinungsbild des angekoppelten Anhängers 116 zu bestimmen. In einigen Beispielen kann der Eigenschaftenschätzer 110 den Fahrer benachrichtigen, bevor er versucht, den angekoppelten Anhänger 116 zu scannen. Beispielsweise kann der Eigenschaftenschätzer 110 die Infotainment-Haupteinheit 106 dazu veranlassen, eine Nachricht anzuzeigen, die angibt, dass der angekoppelte Anhänger 116 nicht erkannt wurde und/oder den Fahrer dazu auffordern, den Scan des angekoppelten Anhängers 116 zu initiieren. In einigen Beispielen kann der Eigenschaftenschätzer 110 die Infotainment-Haupteinheit 106 dazu veranlassen, eine Nachricht anzuzeigen, die in der Vergangenheit erkannte Anhänger identifiziert und anfordern, dass der Fahrer bestimmt, ob der angekoppelte Anhänger einer der in der Vergangenheit erkannten Anhänger ist. Von Zeit zu Zeit (a) bestimmt der Eigenschaftenschätzer 110 eine georäumliche Ausrichtung des Host-Fahrzeugs 100, die dazu benutzt wird, den Zielfahrzeugen 108 und/oder den straßenseitigen Einheiten 109 dabei zu helfen, den relativen Standort des Host-Fahrzeugs 100 verglichen mit ihrem Standort zu bestimmen, und (b) sendet eine Anfragenachricht unter Verwendung des Moduls 102 zur Kommunikation zwischen Fahrzeugen. In einigen Beispielen sendet der Eigenschaftenschätzer 110 die Anfrage periodisch (z. B. stündlich, täglich usw.) oder als Reaktion auf ein Ereignis (z. B. Detektion eines nichterkannten Anhängers, jeder Schlüsselzyklus, Einfahrt in ein dichtbesiedeltes Gebiet usw.). Alternativ oder zusätzlich dazu sendet in einigen Beispielen der Eigenschaftenschätzer 110 die Anfragenachricht als Reaktion auf das Detektieren von Veränderungen im Status des Host-Fahrzeugs 100 und/oder des angekoppelten Anhängers 116. Beispielsweise kann der Eigenschaftenschätzer 110 eine Veränderung des Gesamtbruttogewichts und/oder Veränderungen der Fahrdynamik detektieren.
-
Die Anfragenachricht fordert an, dass die naheliegenden Zielfahrzeuge 108 und/oder straßenseitigen Einheiten 109 Bilder und/oder Sensordaten von dem Host-Fahrzeug 100 mit ihren Kameras 112 (z. B. z. B. Farbkameras, Monochromkameras, Time-of-Flight-Kameras, Stereokameras, monokulare Kameras usw.) und/oder ihren Entfernungsdetektionssensoren (z. B. Radar, LiDAR, Ultraschallsensoren usw.) zu erfassen. Die Anfragenachricht beinhaltet Informationen zu der georäumlichen Ausrichtung des Host-Fahrzeugs 100. Die georäumlichen Ausrichtungsinformationen beinhalten Standort (z. B. Koordinaten des globalen Positionierungssystems (GPS) usw.), Ausrichtung (z. B. die Ausrichtung, in welche die Front des Host-Fahrzeugs 100 gerichtet ist, usw.), und/oder andere Charakteristiken (z. B. Farbe, Marke, Modell usw.), die den Zielfahrzeugen 108 und/oder den straßenseitigen Einheiten 109 beim Orten und Identifizieren des Host-Fahrzeugs 100 hilft. Beispielsweise kann die georäumliche Ausrichtung für das Host-Fahrzeug 100 GPS-Koordinaten, eine Fahrtrichtung und eine Fahrzeugfarbe beinhalten. In einigen Beispielen beinhalten die georäumlichen Ausrichtungsinformationen auch Informationen über Objekte in der Nähe des Host-Fahrzeugs 100, die als Orientierungspunkt(e) fungieren können, um den Zielfahrzeugen 108 und/oder den straßenseitigen Einheiten 109 beim Orten des Host-Fahrzeugs 100 helfen können. In einigen Beispielen filtert das Host-Fahrzeug 100 die Zielfahrzeuge 108, welche die Anfragenachrichten empfangen, basierend auf deren Standort und ihrer relativen Bewegungsbahn in Bezug auf das Host-Fahrzeug 100, um die Menge an Anfragenachrichten zu reduzieren, die an Zielfahrzeuge gesendet werden, die beispielsweise in die falsche Richtung fahren und nicht in der Lage wären, nützliche Informationen bereitzustellen. Beispielsweise kann der Eigenschaftenschätzer 110 die GPS-Koordinaten des Host-Fahrzeugs 100 benutzen, um Navigationsdaten (z. B. Karten usw.) zu analysieren, um zu bestimmen, welche Zielfahrzeuge 108 und/oder straßenseitige Einheiten 109 in der Nähe des Host-Fahrzeugs 100 sind und die das Fahrzeug visualisieren können (z. B. eine Sichtverbindung mit dem Host-Fahrzeug 100 haben). Beispielsweise kann der Eigenschaftenschätzer 110 bestimmen, ob die Straße/Schnellstraße eine baulich getrennte oder nicht getrennte Straße/Schnellstraße mit oder ohne eine physische Barriere ist. Beispielsweise kann, während ein Zielfahrzeug 108 in der Nähe des Host-Fahrzeugs 100 ist, das Zielfahrzeug 108 auf der anderen Seite einer physischen Barriere fahren und nicht dazu in der Lage sein, Bilder und/oder Daten des Host-Fahrzeugs 100 und seiner Umgebung bereitzustellen. In einigen Beispielen kann der Eigenschaftenschätzer 110 bestimmen, von welchen Zielfahrzeugen 108 und/oder straßenseitigen Einheiten 109 Bilder und/oder Daten angefragt werden sollen, basierend darauf, welche Zielfahrzeuge 108 und/oder straßenseitige Einheiten 109 Sichtverbindungen aufweisen, die notwendig sind, um den Scan (und/oder erneuten Scan) des angekoppelten Anhängers 116 durchzuführen, und/oder des Niveaus der Sensoren. Beispielsweise kann ein Fahrzeug (mit Vorder- und/oder Seitenansichtkameras), das den Anhänger auf einer gewünschten Seite überholt, bevorzugter sein, als einen zusätzlichen Satz Bilder und/oder Daten von einem geparkten Fahrzeug zu erhalten, das neben einem anderen geparkten Fahrzeug steht, das ebenfalls Bilder und/oder Daten bereitgestellt hat.
-
Der beispielhafte Eigenschaftenschätzer 110 veranlasst auch Kameras und Sensoren des Host-Fahrzeugs 100 dazu, Bilder und/oder Daten des Host-Fahrzeugs 100 und seiner Umgebung zu erfassen. Beispielsweise kann der Eigenschaftenschätzer 110 eine oder mehrere Kameras und/oder Sensoren dazu veranlassen, Informationen in Bezug auf kürzliches Fahrverhalten, wie etwa aktuelle Radposition, zurückgelegte Entfernung usw. zu erfassen. In einigen Beispielen veranlasst der Eigenschaftenschätzer 11 die Kameras und Sensoren des Host-Fahrzeugs 110, die Bilder und/oder in Bezug auf das Host-Fahrzeug 110 zur selben Zeit (oder im Wesentlichen zur selben Zeit) zu erfassen, wie die von den Zielfahrzeugen 108 und/oder den straßenseitigen Einheiten 109 erfassten externen Bilder.
-
Um die Eigenschaften des angekoppelten Anhängers 116 zu schätzen, führt der Eigenschaftenschätzer 110 eine semantische Segmentierung der empfangenen Bilder durch, erzeugt ein zusammengesetztes Bild unter Verwendung der empfangenen Bilder und erzeugt eine dreidimensionale Darstellung des angekoppelten Anhängers 116 (und des Host-Fahrzeugs 100) unter Verwendung der semantischen Segmentierung und des zusammengesetzten Bildes.
-
Semantische Segmentierung ist eine Bildklassifizierungstechnik, die Pixel eines Bildes (oder Bereiche eines Bildes, manchmal als „Stixel“ bezeichnet) verschiedenen Bestandteilen zuordnet. Beispielsweise kann der Eigenschaftenschätzer 110 Abschnitte eines Bildes identifizieren, die mit dem Host-Fahrzeug, dem Anhänger 116, einem Gepäckträger, Fahrrädern, anderen Fahrzeugen, Fußgängern, Gebüsch usw. assoziiert sind. Um semantische Segmentierung durchzuführen, verwendet der Eigenschaftenschätzer 110 Techniken wie etwa neuronale Faltungsnetzwerke (z. B. Fully Convolutional Networks (FCN), Dilated Confusions, Konvolutionalkodierung, Deep Convolutional Neural Networks mit voll verbundenen Conditional Random Fields usw.). Beispielhafte Techniken zum Durchführen semantischer Segmentierung werden von (a) Zhao et al. in „Pyramid Scene Parsing Network", 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), (b) Long et al. in „Fully Convolutional Networks for Semantic Segmentation", 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR); (c) Badrinarayanan et al. in „SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 39, Nr. 12, Jan. 2017, S. 2481-2495; (d) Yu et al. in „Multi-Scale Context Aggregation by Dilated Convolutions", 2015; (e) Chen et al. in „DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Artous Convolution, and Fully Connected CRFs", IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017; (f) Lin et al. in „RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation", 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR); und (g) Peng, Chao, et al. in „Large Kernal Matters - Improve Semantic Segmentation by Global Convolution Network", 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), beschrieben, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen werden.
-
Der Eigenschaftenschätzer 110 verwendet Struktur aus Bewegung, um eine dreidimensionale Darstellung (z. B. ein zusammengesetztes Bild) des Host-Fahrzeugs 100 und des angekoppelten Anhängers 116 zu konstruieren. In einigen Beispielen verwendet der Eigenschaftenschätzer 110 die Ergebnisse der empfangenen Bilder dazu, Objekte aus den Bildern zu entfernen, die das Host-Fahrzeug, den angekoppelten Anhänger 116 nicht betreffen und/oder sich im Verlauf der Zeit ändern. Unter Verwendung von Struktur aus Bewegungstechniken identifiziert der Eigenschaftenschätzer 110 Merkmal punkte des angekoppelten Anhängers 116 in den empfangenen Bilder. Andere beispielhafte Techniken zum Identifizieren von Merkmalpunkten des angekoppelten Anhängers 116 beinhalten die Verwendung visueller simultaner Positionsbestimmung und Kartenerstellung (Simultaneous Localization and Mapping - SLAM). Der Eigenschaftenschätzer 110 verwendet die Positionierung der Merkmalpunkte und ein dreidimensionales Modell (z. B. eine Punktwolke) des angekoppelten Anhängers 116, um Abschnitte der empfangenen Bilder zusammenzufügen, um das zusammengesetzte Bild des angekoppelten Anhängers 116 zu erstellen. Beispielhafte Strukturformbewegungstechniken werden von (a) Crandall, David J., et al. in „SfM with MRFs: Discrete-Continuous Optimization for Large-Scale Structure from Motion", IEEE Transactions on Pattern Analysis & Machine Intelligence, Vol. 35, Nr. 12, S. 2841-2853, 2013; (b) Nilosek, David et al. in „Assessing geoaccuracy of structure from motion point clouds from long-range image collections", Optical Engineering 53.11, 2014; und (c) Rodrigo, Carceroni et al. in „Structure from motion with known camera positions", 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Vol. 1, beschrieben, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen werden.
-
Der Eigenschaftenschätzer 110 kann auch eine Sensorfusion durchführen, um die Genauigkeit der von dem Struktur aus Bewegungsprozess erzeugten Punktwolke zu verbessern. Beispielsweise kann der Eigenschaftenschätzer 110 LiDAR-Daten, die von den Zielfahrzeugen 108 und/oder den straßenseitigen Einheiten 109 gesammelt wurden, mit der Punktwolke vergleichen und die Punktwolke entsprechen anpassen. Während Kamerabilder, die von den Zielfahrzeugen 108 und/oder den straßenseitigen Einheiten 109 bereitgestellt werden, allgemein relativ genaue Positionsinformationen bereitstellen, können manche Umweltbedingungen (z. B. Regen usw.) die Qualität der Punktwolke verschlechtern. Deshalb integriert der Eigenschaftenschätzer 110 Sensordaten, wie etwa LiDAR-Daten, um eine zusätzliche Technik zum Verbessern der Qualität der dreidimensionalen Punktwolke bereitzustellen, die unter Verwendung von Struktur aus Bewegungstechniken erzeugt wurde. Der Eigenschaftenschätzer 110 kann auch die Genauigkeit der dreidimensionalen Punkwolke durch weiteres Verarbeiten der dreidimensionalen Punktwolke erhöhen. Beispielsweise kann der Eigenschaftenschätzer 110 weiter Mitteln, Filtern und Skalieren auf eine bekannte dreidimensionale Geometrie des Fahrzeugs benutzen. In einigen Beispielen benutzt der Eigenschaftenschätzer 110 Filter wie etwa Gaußsche Filter, Medianfilter oder Bilaterale Filter, um die Bildqualität zu verbessern und/oder die Auswirkungen von Rauschen auf Merkmale zu reduzieren, die in der dreidimensionalen Punktwolke beinhaltet sind. Beispielhafte Techniken zum Erzeugen von Punktwolken werden beschrieben von: (a) Mitra, Niloy J. et al. in „Estimating surface normals in noisy point cloud data", International Journal of Computational Geometry & Applications 14, S. 261-276 (2004), und (b) Han, Xian-Feng et al. in „A review of algorithms for filtering the 3D point", Signal Processing: Image Communication 57, S. 103-112 (2017). Beispielhafte Techniken zum Verbessern von Bildentrauschung für Bildsequenzen werden beschrieben von: (a) Dekeyser, Fabien, et al. in „Restoration of noisy, blurred, undersampled image sequences using a parametric motion model", Proc. of the ISIVC 2000; (b) Dubois, Eric et al. in „Noise reduction in image sequences using motion-compensated temporal filtering", IEEE transactions on communications, 32.7, S. 826-831 (1984); (c) Brailean, James C. et al. in „Noise reduction filters for dynamic image sequences: A review", Proceedings of the IEEE 83.9, S. 1272-1292 (1995); und (d) Buades, Antoni et al., „Multi image noise estimation and denoising", 2010, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen werden. In einigen Beispielen können die Bildentrauschungstechniken bei Bildsequenzen die Eingaben in Struktur von Bewegungsalgorithmen verbessern, was zu verbesserten dreidimensionalen Punktwolken führen kann. Zusätzlich oder alternativ dazu können Bildentrauschungstechniken bei Bildsequenzen die Eingabe in semantische Segmentierungsalgorithmen verbessern, was zu verbesserter Genauigkeit und/oder Präzision bei Objektidentifizierung (oder Klassifizierung) und/oder Segmentierung führen kann. In einigen Beispielen können Bildentrauschungstechniken unter bestimmten Umweltbedingungen oder bei Variationen in der Qualität der Kamera(s), die mit den Zielfahrzeugen und/oder den straßenseitigen Einheiten assoziiert sind, hilfreich sein.
-
Der beispielhafte Eigenschaftenschätzer 110 verwendet die dreidimensionale Punktwolke, um einen Winkel zwischen dem angekoppelten Anhänger 116 und dem Host-Fahrzeug 100 zu messen. Wenn mehr Bilder von den Zielfahrzeugen 108 und/oder der straßenseitigen Einheiten 109 empfangen werden, erstellt der Eigenschaftenschätzer 110 eine Reihe gemessener Anhängerwinkel und assoziierter Rückfahrbilder des Anhängers (von denen manche ein optisches Muster beinhalten können). Die Sammlung dieser Daten bietet ein Verfahren, zu prüfen, dass ein Steuerungsmodell basierend auf den gemessenen Anhängereigenschaften in der Lage ist, den Anhänger bei Rückfahrvorgängen in dem gewünschten Winkel auszurichten. Wie oben erläutert, kann der Eigenschaftenschätzer 110 Merkmalpunkte verwenden, um die Bilder zu fluchten. Doch bei Bildern, die das optische Muster beinhalten, kann der Eigenschaftenschätzer 100 das optische Muster verwenden, um die Bilder auszurichten, um die dreidimensionale Darstellung zu bilden. Der Eigenschaftenschätzer 110 kann auch Umrisspixel aus der dreidimensionalen Darstellung (manchmal als „dreidimensionales Modell“ bezeichnet) unter Verwendung statistischer Analystechniken entfernen, wie etwa k-Nachbarabstände, Interpolation der Interaktion von Anhängerwinkel und Rückfahrbild unter Verwendung des Random Sample Consensus (RANSAC) oder ähnlichen Algorithmen. Beispielhafte Techniken zum Filtern der dreidimensionalen Darstellung werden beschrieben von: (a) Tombari et al. in „Object recognition in 3D scenes with occlusions and clutter by Hough voting", 4th Pacific-Rim Symposium on Image and Video Technology (2010); (b) Chen, H. et al. in „3D free-form object recognition in ränge images using local surface patches", Pattern Recognition Letters, Vol. 28, Nr. 10, S. 1252-1262, 2007; (c) Besl, Paul, et al. in „A Method for Registration of 3-D Shapes", IEEE Trans. on Pattern Analysis and Machine Intelligence, Los Alamitos, CA, USA: IEEE Computer Society, 14 (2), S. 239-256 (1992); (d) Papazov, Chavdar et al. in „An efficient ransac for 3d object recognition in noisy and occluded scenes", Asian Conference on Computer Vision, Springer, Berlin, Heidelberg (2010); und (e) Rosman, Guy, et al. in „Patch-Collaborative Spectral Point-Cloud Denoising", Computer Graphics Forum. Vol. 32, Nr. 8 (2013), die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen werden.
-
Unter Verwendung der dreidimensionalen Punktwolke schätzt der Eigenschaftenschätzer 110 dann erwünschte Eigenschaften des angekoppelten Anhängers 116, die dem Host-Fahrzeug 100 helfen können, wenn das Anhängerrückfahrhilfesystem des Fahrzeugs 100 aktiviert wird. Der Eigenschaftenschätzer 110 speichert daraufhin die geschätzten Eigenschaften des angekoppelten Anhängers 116 und eine oder mehrere Charakteristiken, die mit dem angekoppelten Anhänger 116 assoziiert sind, in einem Speicher des Host-Fahrzeugs 100, sodass der angekoppelte Anhänger 116 als erkannter Anhänger identifiziert werden kann, wenn das Anhängerrückfahrhilfesystem nachfolgend aktiviert wird. In einigen Beispielen kann der Eigenschaftenschätzer 110 es dem Fahrer ermöglichen, dem angekoppelten Anhänger 116 zum späteren Abrufen der gespeicherten Eigenschaften einen Namen zu geben.
-
In einigen Beispielen kann der Eigenschaftenschätzer 100 Zielfahrzeuge 108 und/oder straßenseitige Einheiten 109 anfragen, zusätzliche Bilder des Host-Fahrzeugs 100 und/oder des angekoppelten Anhängers 116 bereitzustellen. Beispielsweise kann der Eigenschaftenschätzer 110 Anfragen auf zusätzliche Bilder wiederholen, bis die statistische Gewissheit der Geometrie und Bild im Vergleich mit Anhängerwinkeldaten innerhalb eines erwünschten Fehlerbereichs liegt, um erwünschte Steuerungstoleranzen sicherzustellen (z. B. während der Anhängerrückfahrhilfe).
-
In einigen Beispielen stellt der Eigenschaftenschätzer 110 über die Infotainment-Haupteinheit 106 dem Fahrer Feedback bereit und/oder fordert Feedback vom Fahrer an (z. B. ein Statusupdate). Beispielsweise kann der Eigenschaftenschätzer 110 eine Anzeigevorrichtung der Infotainment-Haupteinheit 106 dazu veranlassen, eine Nachricht anzuzeigen, die angibt, dass ein Anhänger detektiert wurde, dass der Eigenschaftenschätzer 110 versucht, den angekoppelten Anhänger als einen vergangenen Anhänger zu erkennen, dass der angekoppelte Anhänger erkannt oder nicht erkannt wurde, die jegliche abgerufenen und/oder geschätzten Eigenschaften des angekoppelten Anhängers angibt usw. Beispielsweise kann der Eigenschaftenschätzer 110 über die Anzeigevorrichtung Infotainment-Haupteinheit 106 anzeigen, dass der angekoppelte Anhänger 116 erkannt wurde, und auch die abgerufenen Eigenschaften anzeigen. In einigen Beispielen ermöglicht der Eigenschaftenschätzer 110 es dem Fahrer, die abgerufenen Eigenschaften zu prüfen. In einigen Beispielen zeigt der Eigenschaftenschätzer 110 dem Fahrer ein Fortschrittsupdate des Messschätzungsverfahrens an. Beispielsweise kann der Eigenschaftenschätzer 110 über die Anzeigevorrichtung anzeigen, dass ein Prozentsatz (z. B. 90 %) des Anhängers abgebildet und/oder gemessen wurde, beispielsweise basierend auf Punktwolkenrauschen und Flächenschätzung, benötigte Oberflächenperspektive usw.
-
In einigen Beispielen ist es möglich, dass der Eigenschaftenschätzer 110 nicht in der Lage ist, eine oder mehrere Eigenschaften des Anhängers sachgemäß zu schätzen (z. B. auf einem statistisch signifikanten Konfidenzniveau oder mit einem entsprechenden Maß an Präzision in Bezug auf die Position relevanter Merkmale und deren Entfernungen (z. B. Abstand zwischen Anhängerrad und Anhängerkupplung usw.). In manchen derartigen Beispielen kann der Eigenschaftenschätzer 110 den Fahrer über die Anzeigevorrichtung der Infotainment-Haupteinheit 104 dazu auffordern, die Eigenschaften manuell bereitzustellen. In manchen derartigen Beispielen fordert der Eigenschaftenschätzer 110 zusätzliche Bilder von den Zielfahrzeugen 108 und/oder straßenseitigen Einheiten 109 an.
-
In einigen Beispielen, in denen die vorstehenden Techniken verwendet werden, ist der Eigenschaftenschätzer 110 auch dazu in der Lage, die Geometrie und den Inhalt des angekoppelten Anhängers zu schätzen. Beispielsweise kann der Eigenschaftenschätzer 110, wenn der Inhalt des angekoppelten Anhängers sichtbar ist, den Inhalt inspizieren und die Wirkung nachvollziehen, die der Inhalt auf Dynamik, Geometrie und/oder Konfiguration des Anhängers hat. Beispielsweise ist der Eigenschaftenschätzer 110, da der Eigenschaftenschätzer 110 periodisch Bilder des angekoppelten Anhängers 110 sammelt, dazu in der Lage, das Gewicht des Anhängers, den Massenmittelpunkt des angekoppelten Anhängers und andere Informationen zu schätzen, was das Bestimmen optimaler Fahrdynamik und zu benutzender Bremssteuerungspläne ohne Eingabe vom Fahrer erleichtern kann. Das Fahrzeug 100 kann auch vom Eigenschaftenschätzer 110 geschätzte Eigenschaften dazu verwenden, Fahrstrecken zu vermeiden, die aufgrund der geschätzten Abbiegungsradien und/oder des geschätzten Mindestabstands des Anhängers möglicherweise schwierig zu navigieren sind oder aufgrund von Änderungen der topografischen Höhe schwierig freizugeben sind. In einigen Beispielen kann der Eigenschaftenschätzer 110 die Kraftstoffeffizienz des angekoppelten Anhängers und des Fahrzeugsystems basierend auf dem Windwiederstand und der Masse des angekoppelten Anhängers schätzen. In einigen Beispielen kann der Eigenschaftenschätzer 110 bei der Navigation helfen, indem er Navigationsrouten mit Tankstopps basierend auf der geschätzten Kraftstoffeffizienz aktualisiert.
-
2 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle (human machine interface - HMI) 200 zum Initiieren automatischer Detektion von Anhängereigenschaften. In einigen Beispielen wird die HMI 200 auf einer Konsole Infotainment-Haupteinheit 106 angezeigt. Zusätzlich oder alternativ dazu wird die HMI 200 in einigen Beispielen auf einem Bildschirm einer Mobilvorrichtung über eine Anwendung angezeigt, die auf der Mobilvorrichtung ausgeführt wird. In dem veranschaulichten Beispiel interagiert der Benutzer mit der HMI 200 über eine Touchscreen-Schnittstelle. Die HMI 200 zeigt ein Bild 202 an, das von einer Kamera (z. B. einer Rückfahrkamera oder -kameras) des Fahrzeugs 100 erfasst wurde. In dem veranschaulichten Beispiel aus 2 gibt das Bild 202 an, dass der Anhänger 116 an das Fahrzeug 100 angekoppelt ist. Als Reaktion auf das Detektieren des Vorhandenseins eines Anhängers beinhaltet die beispielhafte HMI 200 aus 2 ein Hilfsmittel 204, „Neuen Anhänger scannen“, und ein „Vergangener Trailer“-Hilfsmittel 206.
-
Das Hilfsmittel 204, „Neuen Anhänger scannen“, ermöglicht dem Benutzer, einen Scan des Anhängers 116, der an das Fahrzeug 100 angekoppelt ist, zu initiieren. Beispielsweise kann durch Auswählen des Hilfsmittels 204, Neuen Anhänger scannen“, das Fahrzeug 100 damit beginnen, Nachrichten zu senden, die dazu auffordern, dass andere Fahrzeuge und/oder Infrastrukturmodule, die zur Kommunikation zwischen Fahrzeugen befähigt sind, ein oder mehrere Bilder des Fahrzeugs 100 erfassen und die erfassten Bilder an das Fahrzeug 100 zu senden.
-
Das „Vergangener Trailer“-Hilfsmittel 206 ermöglicht dem Benutzer, anzuzeigen, dass der Anhänger 116, der an das Fahrzeug 100 angekoppelt ist, ein zuvor gescannter Anhänger ist. In manchen solchen Fällen kann das Fahrzeug 100 den angekoppelten Anhänger 116 identifizieren und gespeicherte Eigenschaften des identifizierten Anhängers 116 abrufen.
-
3 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle 300, um ein Statusupdate der automatischen Detektion von Anhängereigenschaften anzuzeigen. In dem veranschaulichten Beispiel aus 3 beinhaltet die HMI 300 verschiedene Bereiche, die mit verschiedenen Vorgängen assoziiert sind. Beispielsweise kann die HMI 300 einen Navigationsbereich 302, einen Medienbereich 304 und einen Fortschrittsbereich 306 aufweisen.
-
Der Navigationsbereich 302 aus 3 erleichtert die Navigation, indem straßengenaue Anweisungen verwendet werden. Der Medienbereich 304 zeigt an, welche Medien derzeit im Fahrzeug 100 laufen. Der Fortschrittsbereich 306 stellt dem Benutzer ein Statusupdate des Prozesses der automatischen Detektion von Anhängereigenschaften bereit. Im veranschaulichten Beispiel aus 3 gibt der Fortschrittsbereich 306 an, dass die automatische Detektion von Anhängereigenschaft zu 90 Prozent abgeschlossen ist. Der beispielhafte Fortschrittsbereich 306 beinhaltet eine gestrichelte Linie 308, um anzugeben, wie viel vom Anhänger 116 gescannt wurde.
-
Während die beispielhafte HMI 300 of 3 drei Beispielbereiche beinhaltet, versteht es sich, das eine beliebige Anzahl von Bereichen in der HMI enthalten sein können. Ferner versteht es sich, dass die hier einbezogenen Bereiche der HMI auf beliebige geeignete Weise angeordnet sein können. Beispielsweise kann die HMI den Fortschrittsbereich in einem Hauptabschnitt der Schnittstelle enthalten.
-
4 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle 400, um ein zusammengesetztes Bild 402 anzuzeigen und zu bearbeiten. Die HMI 400 ermöglicht es dem Benutzer, beliebige gemessene Eigenschaften des Anhängers zu überprüfen und zu ändern. In dem veranschaulichten Beispiel aus 4 beinhaltet die HMI 400 ein Zoom-Hilfsmittel 404, ein Schwenk-Hilfsmittel 406, ein Dreh-Hilfsmittel 408, ein Messbestätigungshilfsmittel 410, ein Messbearbeitungshilfsmittel 412 und ein Nächstmessungshilfsmittel 414.
-
Das Zoom-Hilfsmittel 404 ermöglicht einem Benutzer das Ändern eines Zugabstands durch Ändern des Sichtwinkels. Das Schwenk-Hilfsmittel 406 ermöglicht einem Benutzer das Ändern einer Ausrichtung einer Sicht, um den Abschnitt der Szene zu ändern, der in dem zusammengesetzten Bild 402 gerendert wird. Das Dreh-Hilfsmittel 408 ermöglicht einem Benutzer, einen Sichtwinkel der Szene zu ändern, die in dem zusammengesetzten Bild 402 gerendert wird. Das Messbestätigungshilfsmittel 410 ermöglicht es einem Benutzer, ein angezeigte Eigenschaft des Anhängers zu akzeptieren. In dem veranschaulichten Beispiel kann der Benutzer akzeptieren, dass der Abstand von der Hinterachse des Fahrzeugs 100 zur Hinterachse des Anhängers 116 „X Fuß“ ist. Das Messbearbeitungshilfsmittel 412 ermöglicht einem Benutzer, den Wert der angezeigten Eigenschaft zu bearbeiten. Beispielsweise kann der Benutzer den Abstand von der Hinterachse Fahrzeugs 100 zum Schwerpunkt des Anhängers 116 ändern. Das Nächstmessungshilfsmittel 414 ermöglicht einem Benutzer, sich eine andere Eigenschaft des Anhängers anzeigen zu lassen.
-
5 veranschaulicht ein weiteres Beispiel einer Mensch-Maschine-Schnittstelle 500 zum Anzeigen und Bearbeiten eines zusammengesetzten Bildes 502. Die HMI 500 ermöglicht es dem Benutzer, beliebige gemessene Eigenschaften des Anhängers zu prüfen und zu ändern. In dem veranschaulichten Beispiel in 5 ermöglicht die HMI 500 es dem Benutzer, das geschätzte Gewicht des Anhängers zu ändern. Die beispielhafte HMI 500 beinhaltet das Zoom-Hilfsmittel 404, das Schwenk-Hilfsmittel 406, das Dreh-Hilfsmittel 408, das Messbestätigungshilfsmittel 410, das Messbearbeitungshilfsmittel 412 und das Nächstmessungshilfsmittel 414 aus 4. Die beispielhafte HMI 500 aus 5 beinhaltet auch ein Messerhöhungshilfsmittel 504, um den Wert der gemessenen Eigenschaft (z. B. das geschätzte Gewicht des Anhängers) zu erhöhen und ein Messreduzierungshilfsmittel 506, um den Wert der gemessenen Eigenschaft zu senken.
-
6 ist ein Blockdiagramm elektronischer Komponenten 600 des Fahrzeugs 100 aus 1. In dem veranschaulichten Beispiel beinhalten die elektronischen Komponenten 600 das Modul 102 zur Kommunikation zwischen Fahrzeugen, das bordseitige Kommunikationsmodul 104, die Infotainment-Haupteinheit 106 und einen Fahrzeugdatenbus 602.
-
In dem veranschaulichten Beispiel beinhaltet die Infotainment-Haupteinheit 106 einen Prozessor oder eine Steuerung 604 und einen Arbeitsspeicher 606. In dem veranschaulichten Beispiel ist die Infotainment-Haupteinheit 106 strukturiert, um den Eigenschaftenschätzer 110 zu beinhalten. Alternativ dazu kann in einigen Beispielen der Eigenschaftenschätzer 110 in eine andere elektronische Steuereinheit (electronic control unit - ECU) mit eigenem Prozessor und Speicher integriert sein (wie etwa bordseitige Rechenplattformen, ein ADAS-Modul usw.).
-
Bei dem Prozessor oder der Steuerung 604 kann es sich um eine beliebige geeignete Verarbeitungsvorrichtung oder einen Satz von Verarbeitungsvorrichtungen handeln, wie etwa, unter anderem: einen Mikroprozessor, eine mikrocontrollerbasierte Plattform, eine geeignete integrierte Schaltung, ein oder mehrere feldprogrammierbare Gate-Arrays (Field Programmable Gate Array - FPGA) und/oder eine oder mehrere anwendungsspezifische integrierte Schaltungen (Application-Specific Integrated Circuit - ASIC).
-
Der Arbeitsspeicher 606 kann ein flüchtiger Arbeitsspeicher (z. B. RAM, der nichtflüchtigen RAM, magnetischen RAM, ferroelektrischen RAM und andere geeignete Formen beinhalten kann); nichtflüchtiger Arbeitsspeicher (z. B. Plattenspeicher, FLASH-Speicher, EPROMs, EEPROMs, nichtflüchtiger Festkörperspeicher usw.), unveränderlicher Arbeitsspeicher (z. B. EPROM), Nur-Lese-Arbeitsspeicher und/oder Datenspeichervorrichtungen mit hoher Kapazität (z. B. Festplatten, Solid-State-Laufwerke usw.) sein. In einigen Beispielen beinhaltet der Arbeitsspeicher 606 mehrere Arbeitsspeicherarten, insbesondere einen flüchtigen Arbeitsspeicher und nichtflüchtigen Arbeitsspeicher.
-
Bei dem Arbeitsspeicher 606 handelt es sich um computerlesbare Medien, auf denen ein oder mehrere Sätze von Anweisungen, wie etwa die Software zum Ausführen der Verfahren der vorliegenden Offenbarung, eingebettet sein können. Die Anweisungen können eines oder mehrere der Verfahren oder eine Logik, wie in dieser Schrift beschrieben, verkörpern. Beispielsweise können sich die Anweisungen während der Ausführung der Anweisungen vollständig oder zumindest teilweise innerhalb eines beliebigen oder mehreren von dem Arbeitsspeicher 606, dem computerlesbaren Medium und/oder innerhalb des Prozessoren 604 befinden.
-
Die Begriffe „nichttransitorisches computerlesbares Medium“ und „physisches computerlesbares Medium“ sind so zu verstehen, dass sie ein einzelnes Medium oder mehrere Medien beinhalten, wie etwa eine zentralisierte oder verteilte Datenbank und/oder damit assoziierte Zwischenspeicher und Server, auf denen ein oder mehrere Sätze von Anweisungen gespeichert sind. Die Begriffe „nichttransitorisches computerlesbares Medium“ und „physisches computerlesbares Medium“ beinhalten zudem jedes beliebige physische Medium, das zum Speichern, Verschlüsseln oder Tragen eines Satzes von Anweisungen zum Ausführen durch einen Prozessor in der Lage ist oder das ein System dazu veranlasst, ein beliebiges oder mehrere der hier offenbarten Verfahren oder Vorgänge durchzuführen. Im hier verwendeten Sinne ist der Begriff „physisches computerlesbares Medium“ ausdrücklich derart definiert, dass er jede beliebige Art von computerlesbarer Datenspeichervorrichtung und/oder Datenspeicherplatte beinhaltet und das Verbreiten von Signalen ausschließt.
-
Der Fahrzeugdatenbus 602 koppelt das Modul 102 zur Kommunikation zwischen Fahrzeugen, das bordseitige Kommunikationsmodul 104 und die Infotainment-Haupteinheit 106 kommunikativ. In einigen Beispielen beinhaltet der Fahrzeugdatenbus 602 einen oder mehrere Datenbusse. Der Fahrzeugdatenbus 602 kann in Übereinstimmung mit einem Controller-Area-Network-(CAN-)Bus-Protokoll laut Definition der International Standards Organization (ISO) 11898-1, einem Media-Oriented-Systems-Transport-(MOST-)Bus-Protokoll, einem CAN-Flexible-Data-(CAN-FD-)Bus-Protokoll (ISO 11898-7) und/oder einem K-Leitungs-Bus-Protokoll (ISO 9141 und ISO 14230-1) und/oder einem Ethernet™-Bus-Protokoll IEEE 802.3 (ab 2002) usw. umgesetzt sein.
-
7 ist ein Ablaufdiagramm eines Verfahrens 700 zum automatischen Detektieren von Eigenschaften eines Anhängers unter Verwendung von Bildern, die per Kommunikation zwischen Fahrzeugen empfangen werden, das durch die elektronischen Komponenten 600 aus 6 umgesetzt werden kann. Eingangs, bei Block 702, wartet der Eigenschaftenschätzer 110, bis ein Anhänger detektiert wird (z. B. an das Fahrzeug 100 angekoppelt). Wenn der Eigenschaftenschätzer 110 den Anhänger detektiert, zeigt der Eigenschaftenschätzer 110 dem Benutzer über das Infotainment-System eine Nachricht an, die angibt, dass ein Anhänger detektiert wurde und dass Anhängereigenschaften bestimmt werden. Bei Block 706 bestimmt der Eigenschaftenschätzer 110, ob der Anhänger erkannt wird (z. B. ob Eigenschaften des Anhängers beispielsweise im Speicher des Fahrzeugs 100 gespeichert sind). Falls der Eigenschaftenschätzer 110 bei Block 706 bestimmt, dass der Anhänger erkannt wird (z. B. dass Anhängereigenschaften im Speicher des Fahrzeugs 100 gespeichert sind), dann ruft bei Block 708 der Eigenschaftenschätzer 110 die gespeicherten Eigenschaften ab (z. B. aus dem Speicher des Fahrzeugs 100) und verwendet die abgerufenen Eigenschaften. In einigen Beispielen kann der Eigenschaftenschätzer 110 die abgerufenen Eigenschaften dem Benutzer anzeigen, um es dem Benutzer zu ermöglichen, eine oder mehrere der Anhängereigenschaften zu prüfen und/oder zu bearbeiten. Das beispielhafte Verfahren 700 aus 7 endet daraufhin.
-
Falls der Eigenschaftenschätzer 110 bei Block 706 bestimmt, dass der angekoppelte Anhänger nicht erkannt wird, sendet der Eigenschaftenschätzer 110 daraufhin bei Block 710 eine Nachricht per Kommunikation zwischen Fahrzeugen an die Zielfahrzeuge 108 und/oder die straßenseitigen Einheiten 109 zur Bilderanfrage. Beispielsweise kann der Eigenschaftenschätzer 110 die Zielfahrzeuge 108 und/oder die straßenseitigen Einheiten 109 basierend auf ihrer Nähe zum Host-Fahrzeug 100, basierend darauf, ob die Zielfahrzeuge 108 und/oder die straßenseitigen Einheiten 109 in der Lage sind, das Host-Fahrzeug 100 zu visualisieren (z. B. das Host-Fahrzeug 100 in Sichtlinie haben usw.), usw. auswählen. In einigen Beispielen
-
Bei Block 712 veranlasst der Eigenschaftenschätzer 110 das Fahrzeug 100 dazu, Bilder des Fahrzeugs 100 und des angekoppelten Anhängers zu erfassen. Beispielsweise kann der Eigenschaftenschätzer 110 die Rückfahrkamera des Fahrzeugs 100 dazu veranlassen, Bilder des Anhängers zu erfassen. Bei Block 714 führt der Eigenschaftenschätzer 110 eine semantische Segmentierung der Bilder von den Zielfahrzeugen 108, den straßenseitigen Einheiten 109 und/oder der von dem Fahrzeug 100 erfassten Bilder aus. Bei Block 716 identifiziert der Eigenschaftenschätzer 110 (ein) Objekt(e), die in den erfassten Bildern enthalten sind. Beispielsweise identifiziert der Eigenschaftenschätzer 110, wenn der Eigenschaftenschätzer 110 Bilder empfängt, den Anhänger 116 und damit assoziierte Objekte (z. B. Räder, Kugelkopfkupplung, Anhängerleuchten usw.) in den Bildern.
-
Bei Block 718 erzeugt der Eigenschaftenschätzer 110 eine dreidimensionale Punktwolke des Anhängers 116 unter Verwendung von Struktur aus Bewegungstechniken. Bei Block 720 führt der Eigenschaftenschätzer 110 eine Sensorfusion durch. Beispielsweise kann der Eigenschaftenschätzer 110 Daten, die über andere Sensoren erfasst wurden (z. B. LiDAR usw.), zu der dreidimensionalen Punktwolke zusammenführen (z. B. iterativ zusammenführen). Bei Block 722 führt der Eigenschaftenschätzer 110 eine Verarbeitung an der dreidimensionalen Punktwolke durch. Beispielsweise kann der Eigenschaftenschätzer 110 basierend auf bekannten Anhängergeometrien ein Mitteln, Filtern und Skalieren der dreidimensionalen Punktwolke durchführen.
-
Bei Block 724 veranlasst der Eigenschaftenschätzer 110 die Infotainment-Einheit dazu, eine dreidimensionale Darstellung des Anhängers (z. B. ein zusammengesetztes Bild) anzuzeigen. Bei Block 726 bestimmt der Eigenschaftenschätzer 110, ob die angezeigte dreidimensionale Darstellung des Anhängers akzeptiert wird. Beispielsweise kann der Benutzer über die HMI angeben, dass die angezeigte dreidimensionale Darstellung des Anhängers akzeptiert wird oder nicht akzeptiert wird. In einigen Beispielen kann der Eigenschaftenschätzer 110 statistische Techniken anwenden, um einen Fehler der dreidimensionalen Darstellung des Anhängers zu schätzen und zu bestimmen, ob die angezeigte Darstellung akzeptabel ist. Beispielsweise kann der Eigenschaftenschätzer 110 bestimmen, ob eine Positionsgenauigkeit der Position des Anhängerrads einen Fehlerschwellenwert erfüllt, um zu bestimmen, ob die dreidimensionale Darstellung des Anhängers akzeptabel ist. Falls der Eigenschaftenschätzer 110 bei Block 726 bestimmt, dass die angezeigte Darstellung nicht akzeptabel ist, kehrt die Steuerung zu Block 710 zurück.
-
Falls der Eigenschaftenschätzer 110 bei Block 726 bestimmt, dass die angezeigte Darstellung akzeptabel ist (falls z. B. der Benutzer über ein Hilfsmittel der HMI angibt, dass die angezeigte Darstellung akzeptabel ist, bestimmt der Eigenschaftenschätzer 110 dass die dreidimensionale Darstellung einem statistisch signifikanten Konfidenzniveau entspricht, usw.), dann benutzt der Eigenschaftenschätzer 110 bei Block 728 die dreidimensionale Darstellung zum Schätzen (oder Messen) von Eigenschaften des angekoppelten Anhängers 116. Beispielsweise kann der Eigenschaftenschätzer 110 Eigenschaften des Anhängers wie die folgenden schätzen: (a) einen horizontalen Abstand von dem Nummernschild zur Mitte der Kugelkopfkupplung an dem Anhänger, (b) einen horizontalen Abstand von der Mitte der Kugelkopfkupplung zu der Mitte eines Aufklebers/ optischen Musters/ Merkmalpunkts, (c) einen Abstand von der Rückfahrkamera zur Mitte des Aufklebers/ optischen Musters/ Merkmalpunkts, (d) einen Abstand von der Heckklappe zur Mitte der Anhängerachse (einzelne Achse) oder zur Mitte der Anhängerachse (zwei oder mehrere Achsen), (e) Gewicht des Anhängers, (f) Massenmittelpunkt des Anhängers, (g) Massenmittelpunkt des Fahrzeugs und des angekoppelten Anhängers usw.
-
Bei Block 730 bestimmt der Eigenschaftenschätzer 110, ob die geschätzten Anhängereigenschaften einen Akzeptanzschwellenwert erfüllen. Beispielsweise kann der Eigenschaftenschätzer 110 auf eine Benutzereingabe warten, die angibt, dass die geschätzten Eigenschaften akzeptabel sind. In einigen Beispielen kann der Eigenschaftenschätzer 110 die geschätzten Eigenschaften mit einem statistisch signifikanten Konfidenzniveau vergleichen, um zu bestimmen, ob die geschätzten Anhängereigenschaften den Akzeptanzschwellenwert erfüllen. Falls der Eigenschaftenschätzer 110 bei Block 730 bestimmt, dass die geschätzten Anhängereigenschaften den Akzeptanzschwellenwert nicht erfüllen, kehrt die Steuerung zu Block 710 zurück.
-
Falls der Eigenschaftenschätzer 110 bei Block 730 bestimmt, dass die geschätzten Anhängereigenschaften den Akzeptanzschwellenwert erfüllen, dann speichert der Eigenschaftenschätzer 110 bei Block 732 die geschätzten Anhängereigenschaften. Beispielsweise kann der Eigenschaftenschätzer 110 geschätzten Anhängereigenschaften und Charakteristiken, die mit dem angekoppelten Anhänger 116 assoziiert sind, in einem Speicher (z. B. dem Arbeitsspeicher 606) des Fahrzeugs 100 aufzeichnen. Das beispielhafte Verfahren 700 aus 7 endet daraufhin.
-
Das Ablaufdiagramm 7 ist repräsentativ für maschinenlesbare Anweisungen, die in einem Speicher gespeichert sind (wie etwa dem Arbeitsspeicher 606 aus 6), der ein oder mehrere Programme umfasst, die bei Ausführung durch einen Prozessor (wie etwa der Prozessor 604 aus 6) das Fahrzeug 100 dazu veranlassen, den beispielhaften Eigenschaftenschätzer 110 aus 1 und/oder 6 umzusetzen. Ferner können, obwohl das beispielhafte Programm/die beispielhaften Programme unter Bezugnahme auf das in 7 veranschaulichte Ablaufdiagramm beschrieben ist/sind, alternativ viele andere Verfahren zum Umsetzen des beispielhaften Eigenschaftenschätzers 110 verwendet werden. Beispielsweise kann die Ausführungsabfolge der Blöcke geändert werden und/oder einige der beschriebenen Blöcke können geändert, weggelassen oder kombiniert werden.
-
In dieser Anmeldung soll die Verwendung der Disjunktion die Konjunktion beinhalten. Die Verwendung von bestimmten oder unbestimmten Artikeln soll keine Kardinalität anzeigen. Insbesondere soll ein Verweis auf „den“ Gegenstand oder „einen“ Gegenstand auch einen aus einer möglichen Vielzahl derartiger Gegenstände bezeichnen. Ferner kann die Konjunktion „oder“ dazu verwendet werden, Merkmale wiederzugeben, die gleichzeitig vorhanden sind, anstelle von sich gegenseitig ausschließenden Alternativen. Mit anderen Worten sollte die Konjunktion „oder“ so verstanden werden, dass sie „und/oder“ beinhaltet. Im hier verwendeten Sinne beziehen sich die Begriffe „Modul“ und „Einheit“ auf Hardware mit Schaltungstechnik, um Kommunikations-, Steuerungs- und/oder Überwachungsfähigkeiten, häufig in Verbindung mit Sensoren, bereitzustellen. „Module“ und „Einheiten“ können auch Firmware beinhalten, die mit der Schaltungstechnik ausgeführt wird. Die Ausdrücke „beinhaltet“, „beinhaltend“ und „beinhalten“ sind einschließend und verfügen über denselben Umfang wie „umfasst“, „umfassend“ bzw. „umfassen“.
-
Die vorstehend beschriebenen Ausführungsformen und insbesondere etwaige „bevorzugte“ Ausführungsformen sind mögliche Beispiele für Umsetzungen und sind lediglich für ein eindeutiges Verständnis der Grundsätze der Erfindung dargelegt. Viele Variationen und Modifikationen können an der/den vorstehend beschriebenen Ausführungsform(en) vorgenommen werden, ohne im Wesentlichen vom Geist und den Grundsätzen der hier beschriebenen Techniken abzuweichen. Sämtliche Modifikationen sollen hier im Umfang dieser Offenbarung eingeschlossen und durch die folgenden Ansprüche geschützt sein.
-
Gemäß der vorliegenden Erfindung wird ein Fahrzeug bereitgestellt, das Folgendes aufweist: ein Modul zur Kommunikation zwischen Fahrzeugen; und eine Infotainment-Haupteinheit zum: Detektieren eines Vorhandenseins eines angekoppelten Anhängers, und als Reaktion auf ein Bestimmen, dass der angekoppelte Anhänger ein nichterkannter Anhänger ist: Senden einer Bilderanfrage über das Modul zur Kommunikation zwischen Fahrzeugen; Durchführen einer semantischen Segmentierung der Bilder; Erzeugen einer dreidimensionalen Punktwolke unter Verwendung der segmentierten Bilder; Schätzen einer Eigenschaft des angekoppelten Anhängers basierend auf der dreidimensionalen Punktwolke.
-
Gemäß einer Ausführungsform beinhaltet die Bilderanfrage georäumliche Informationen in Bezug auf das Fahrzeug, um es Empfängern der Bilderanfrage zu ermöglichen, das Fahrzeug zu orten.
-
Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit zum Erzeugen der dreidimensionalen Punktwolke die Bilder unter Verwendung einer Structure-from-Motion-Technik (wörtlich: Struktur aus Bewegung) zusammenfügen.
-
Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit zum Erzeugen der dreidimensionalen Punktwolke eine Sensorfusion mit der dreidimensionalen Punktwolke durchführen, indem Sensordaten iterativ mit der dreidimensionalen Punktwolke zusammengeführt werden.
-
Gemäß einer Ausführungsform die Infotainment-Haupteinheit eine dreidimensionale Darstellung des angekoppelten Anhängers basierend auf der dreidimensionalen Punktwolke und zusätzlicher Verarbeitung, die an der dreidimensionalen Punktwolke durchgeführt wird, erzeugen soll.
-
Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit zum Durchführen der zusätzlichen Verarbeitung an der dreidimensionalen Punktwolke die dreidimensionale Punktwolke mitteln, filtern und skalieren.
-
Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit die dreidimensionale Darstellung anzeigen, wenn die dreidimensionale Darstellung teilweise abgeschlossen ist, bei Empfang der Bilder im Zeitverlauf.
-
Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit (1) die geschätzten Eigenschaften und (2) die Charakteristiken, die mit dem angekoppelten Anhänger assoziiert sind, aufzeichnen, um eine nachfolgende Erkennung des angekoppelten Anhängers zu ermöglichen.
-
Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit das Vorhandensein des angekoppelten Anhängers basierend auf einer Rückfahrkamera, einer detektierten Veränderung der mit dem Fahrzeug assoziierten Fahrdynamik oder einer Verbindung von Anhängerbremsleuchten detektieren.
-
Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit zumindest eines von den Folgenden schätzen: (a) einen horizontalen Abstand von einem Nummernschild zu einer Mitte der Kugelkopfkupplung an dem angekoppelten Anhänger, (b) einen horizontalen Abstand von der Mitte der Kugelkopfkupplung zu einer Mitte eines Merkmalpunkts, (c) einen Abstand von einer Rückfahrkamera zur Mitte des Merkmalpunkts, (d) einen Abstand von einer Heckklappe zu einer Mitte einer Anhängerachse, (e) ein Gewicht des angekoppelten Anhängers, (f) einen Massenmittelpunkt des angekoppelten Anhängers oder (g) einen Massenmittelpunkt des Fahrzeugs und des angekoppelten Anhängers.
-
Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren: Detektieren, über einen Prozessor eines Fahrzeugs, eines Vorhandenseins eines angekoppelten Anhängers, und als Reaktion auf ein Bestimmen, dass der angekoppelte Anhänger ein nichterkannter Anhänger ist; Senden, über ein Modul zur Kommunikation zwischen Fahrzeugen, einer Bilderanfrage; Durchführen, über den Prozessor, einer semantischen Segmentierung der Bilder; Erzeugen, über den Prozessor, einer dreidimensionalen Punktwolke unter Verwendung der segmentierten Bilder; und Schätzen, über den Prozessor, einer Eigenschaft des angekoppelten Anhängers basierend auf der dreidimensionalen Punktwolke.
-
Gemäß einer Ausführungsform beinhaltet die Bilderanfrage georäumliche Informationen in Bezug auf das Fahrzeug, um es Empfängern der Bilderanfrage zu ermöglichen, das Fahrzeug zu orten.
-
Gemäß einer Ausführungsform beinhaltet das Erzeugen der dreidimensionalen Punktwolke, die Bilder unter Verwendung einer Struktur aus Bewegungstechnik zusammenzufügen.
-
Gemäß einer Ausführungsform beinhaltet das Erzeugen der dreidimensionalen Punktwolke das Durchführen einer Sensorfusion mit der dreidimensionalen Punktwolke, indem Sensordaten iterativ mit der dreidimensionalen Punktwolke zusammengeführt werden.
-
Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner durch das Erzeugen einer dreidimensionalen Darstellung des angekoppelten Anhängers gekennzeichnet, basierend auf der dreidimensionalen Punktwolke und zusätzlicher Verarbeitung, die an der dreidimensionalen Punktwolke durchgeführt wird.
-
Gemäß einer Ausführungsform beinhaltet das Durchführen der zusätzlichen Verarbeitung an der dreidimensionalen Punktwolke Mitteln, Filtern und Skalieren der dreidimensionalen Punktwolke.
-
Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner durch das Anzeigen, über eine mit dem Fahrzeug assoziierte Anzeigevorrichtung, der dreidimensionalen Darstellung gekennzeichnet, wenn die dreidimensionale Darstellung teilweise abgeschlossen ist, bei Empfang der Bilder im Zeitverlauf.
-
Gemäß einer Ausführungsform ist die vorstehende Erfindung ferner durch das Aufzeichnen (1) der geschätzten Eigenschaften und (2) der Charakteristiken, die mit dem angekoppelten Anhänger assoziiert sind, gekennzeichnet, um eine nachfolgende Erkennung des angekoppelten Anhängers zu ermöglichen.
-
Gemäß einer Ausführungsform basiert das Detektieren des Vorhandenseins des angekoppelten Anhängers auf einer Rückfahrkamera, einer detektierten Veränderung der mit dem Fahrzeug assoziierten Fahrdynamik oder einer Verbindung von Anhängerbremsleuchten.
-
Gemäß einer Ausführungsform ist die geschätzte Eigenschaft mindestens eines der Folgenden: (a) ein horizontaler Abstand von einem Nummernschild zu einer Mitte der Kugelkopfkupplung an dem angekoppelten Anhänger, (b) ein horizontaler Abstand von der Mitte der Kugelkopfkupplung zu einer Mitte eines Merkmalpunkts, (c) ein Abstand von einer Rückfahrkamera zur Mitte des Merkmalpunkts, (d) ein Abstand von einer Heckklappe zu einer Mitte einer Anhängerachse, (e) ein Gewicht des angekoppelten Anhängers, (f) ein Massenmittelpunkt des angekoppelten Anhängers oder (g) ein Massenmittelpunkt des Fahrzeugs und des angekoppelten Anhängers.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Nicht-Patentliteratur
-
- Zhao et al. in „Pyramid Scene Parsing Network“, 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) [0029]
- Long et al. in „Fully Convolutional Networks for Semantic Segmentation“, 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) [0029]
- Badrinarayanan et al. in „SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation“, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 39, Nr. 12, Jan. 2017, S. 2481-2495 [0029]
- Yu et al. in „Multi-Scale Context Aggregation by Dilated Convolutions“, 2015 [0029]
- Chen et al. in „DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Artous Convolution, and Fully Connected CRFs“, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017 [0029]
- Lin et al. in „RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation“, 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) [0029]
- Peng, Chao, et al. in „Large Kernal Matters - Improve Semantic Segmentation by Global Convolution Network“, 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) [0029]
- Crandall, David J., et al. in „SfM with MRFs: Discrete-Continuous Optimization for Large-Scale Structure from Motion“, IEEE Transactions on Pattern Analysis & Machine Intelligence, Vol. 35, Nr. 12, S. 2841-2853, 2013 [0030]
- Nilosek, David et al. in „Assessing geoaccuracy of structure from motion point clouds from long-range image collections“, Optical Engineering 53.11, 2014 [0030]
- Rodrigo, Carceroni et al. in „Structure from motion with known camera positions“, 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Vol. 1 [0030]
- Mitra, Niloy J. et al. in „Estimating surface normals in noisy point cloud data“, International Journal of Computational Geometry & Applications 14, S. 261-276 (2004) [0031]
- Han, Xian-Feng et al. in „A review of algorithms for filtering the 3D point“, Signal Processing: Image Communication 57, S. 103-112 (2017) [0031]
- Dekeyser, Fabien, et al. in „Restoration of noisy, blurred, undersampled image sequences using a parametric motion model“, Proc. of the ISIVC 2000 [0031]
- Dubois, Eric et al. in „Noise reduction in image sequences using motion-compensated temporal filtering“, IEEE transactions on communications, 32.7, S. 826-831 (1984) [0031]
- Brailean, James C. et al. in „Noise reduction filters for dynamic image sequences: A review“, Proceedings of the IEEE 83.9, S. 1272-1292 (1995) [0031]
- Buades, Antoni et al., „Multi image noise estimation and denoising“, 2010 [0031]
- Tombari et al. in „Object recognition in 3D scenes with occlusions and clutter by Hough voting“, 4th Pacific-Rim Symposium on Image and Video Technology (2010) [0032]
- Chen, H. et al. in „3D free-form object recognition in ränge images using local surface patches“, Pattern Recognition Letters, Vol. 28, Nr. 10, S. 1252-1262, 2007 [0032]
- Besl, Paul, et al. in „A Method for Registration of 3-D Shapes“, IEEE Trans. on Pattern Analysis and Machine Intelligence, Los Alamitos, CA, USA: IEEE Computer Society, 14 (2), S. 239-256 (1992) [0032]
- Papazov, Chavdar et al. in „An efficient ransac for 3d object recognition in noisy and occluded scenes“, Asian Conference on Computer Vision, Springer, Berlin, Heidelberg (2010) [0032]
- Rosman, Guy, et al. in „Patch-Collaborative Spectral Point-Cloud Denoising“, Computer Graphics Forum. Vol. 32, Nr. 8 (2013) [0032]
- ISO 11898-7 [0053]
- ISO 9141 [0053]
- ISO 14230-1 [0053]