-
Stand der Technik
-
Die Erfindung betrifft Fahrassistenzsysteme, die zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer ausgebildet sind, und betrifft insbesondere solche Fahrassistenzsysteme, bei dem basierend auf einer Umfeldsensorik des Fahrzeugs unterschiedliche Umfelddarstellungen verfügbar sind.
-
Fahrassistenzsysteme dienen der Unterstützung des Fahrers in bestimmten Fahrsituationen. Ein Fahrassistenzsystem kann beispielsweise eines oder mehrere der folgende Subsysteme umfassen: ein ABS (Antiblockiersystem), ESP (elektronisches Stabilitätsprogramm), ACC ("Adaptive Cruise Control", Abstandsregeltempomat), einen Parkassistenten zum assistierten Ein- und/oder Ausparken, etc. Die Funktionalität bspw. eines Einparkassistenten kann etwa umfassen, dass eine Parklücke bei der Vorbeifahrt vermessen und der Fahrer anschließend in die Parklücke geführt wird. Das Führen kann dabei in passiver Form geschehen, d. h. der Fahrer bekommt Lenkwinkelvorgaben sowie Losfahr- und Anhaltebefehle übermittelt. Der Einparkassistent kann aber das Einparken auch aktiv übernehmen, wobei der Fahrer lediglich Losfahr- bzw. Anhaltevorgaben erhält und die Quer- und/oder Längsführung automatisch durch das System vorgenommen wird; hierbei wird das Brems- und Antriebssystems des Fahrzeugs automatisch durch das Fahrerassistenzsystem angesteuert.
-
Fahrassistenten verfügen i. d. R. über eine Umfeldsensorik zur Erfassung eines Fahrzeugumfeldes. Zur Umfeldsensorik kann bspw. ein Kamerasystem gehören, welches eine oder mehrere Kameras umfasst, die beispielsweise im Heckbereich (Rückfahrkamera/s), Frontbereich (Frontkamera/s), und/oder Seitenbereich (z.B. jeweils eine Seitenkamera im linken bzw. rechten Seitenspiegel) verbaut ist / sind. Weitere oder andere Einbaupositionen sind ebenfalls verwirklicht und/oder denkbar. Jede einzelne Kamera kann zur Erfassung unterschiedlicher Ansichten des Fahrzeugumfeldes ausgebildet sein, indem die Kamera schwenkbar angebracht ist, über eine Zoomfunktion verfügt, etc.
-
Zusätzlich oder alternativ zu einer automatischen Auswertung (z.B. für eine Objektdetektion) können die erfassten Ansichten auf einer Anzeigeeinheit, einem HMI ("Human-Machine-Interface", Mensch-Maschine-Schnittstelle) ausgegeben werden, um dem Fahrer zu einem besseren Überblick zu verhelfen und/oder bei der Nahfeldnavigation zu assistieren.
-
Ein Kamerasystem mit mehreren und/oder verstellbaren Kameras kann dementsprechend unterschiedliche Ansichten bzw. Darstellungen des Umfelds des Fahrzeugs bereitstellen. Beispiele für unterschiedliche Anzeigemodi zur Ausgabe an den Fahrer sind etwa "Rear-View" (eine Ansicht einer rückwärtigen Umgebung des Fahrzeugs entweder in einem normalen Kameramodus, oder in einem Modus mit einem erweiterten Sichtbereich, z.B. 180°-Optik), "Top-View" (Umfelddarstellung aus einer Vogelperspektive), "Trailer-Hitch-Mode" (Anzeige eines Bildausschnitts einer Rückfahrkamera mit Bezug zu einer Anhängerkupplung, um bei Rangiervorgängen mit einem Anhänger zu assistieren); etc.
-
Zur Auswahl einer geeigneten Ansicht muss der Fahrer über eine entsprechende Bedienschnittstelle bspw. des HMI die gewünschte Ansicht und/oder den gewünschten Anzeigemodus auswählen. Hierdurch kann der Fahrer relevante Umfeldbereiche/Szenarios visualisieren. Die Fahrer verlassen sich häufig sehr stark auf die entsprechende Assistenzfunktion, d. h. sie konzentrieren sich hauptsächlich auf die momentan dargestellte / ausgewählte Ansicht auf dem Monitor, Display, oder dgl. Das kann jedoch zu problematischen Situationen bis hin zu Unfällen führen. Wird z.B. in einem "Morph Mode" vom gesamten Fahrzeugumfeld lediglich ein kleiner Bildausschnitt um eine Anhängerkupplung herum ausgegeben, können Objekte wie etwa potentielle Hindernisse, aber auch Fahrbahnmarkierungen oder dergleichen in größerer Entfernung oder an anderer Stelle nicht erkannt werden.
-
Die
DE 10 2007 044 536 A1 beschreibt eine Vorrichtung zum Überwachen der Umgebung eines Kraftfahrzeugs, welches neben Mitteln zur Aufnahme von Bildern auch Mittel zur Bestimmung beispielsweise einer früheren Position des Kraftfahrzeugs umfasst. Die Wiedergabe eines Umgebungsausschnitts kann selbsttätig in Abhängigkeit von einer früheren Position des Kraftfahrzeuges angepasst werden. Beispielsweise kann eine als Aufnahmemittel dienende Kamera verschwenkt werden oder es kann auf eine andere Kamera umgeschaltet werden, und/oder ein wiedergegebener Bildausschnitt kann angepasst werden. Die Anpassung des Umgebungsausschnitts kann beispielsweise auch in Abhängigkeit von der Fahrgeschwindigkeit des Kraftfahrzeugs vorgenommen werden, in Abhängigkeit von einer zukünftigen Position des Fahrzeugs, vom aktuellen Lenkwinkel, einer Position des Fahrzeugs in Bezug auf elektronisches Kartenmaterial, etc. Auch ein Zoomfaktor bzw. Öffnungswinkel kann in Abhängigkeit von derartigen Parametern verändert werden.
-
Das vorstehend skizzierte System kann dem Fahrer einen verbesserten Überblick über die Umfeldsituation verschaffen, indem das System automatisch bestimmte Umfeldszenarien anzeigt. Allerdings wird dadurch nicht das Problem endgültig gelöst, wie dem Fahrer situationsabhängig die bestmögliche Unterstützung zu seiner Orientierung über das Fahrzeugumfeld bereitgestellt werden kann.
-
Offenbarung der Erfindung
-
Nach dem Voranstehenden ist es eine Aufgabe der Erfindung, ein Fahrassistenzsystem und ein Betriebsverfahren für ein Fahrassistenzsystem vorzuschlagen, welches dem Fahrer basierend auf vorhandener Umfeldsensorik situationsabhängig die bestmögliche Unterstützung zu seiner Orientierung über das Fahrzeugumfeld bereitstellt.
-
Erfindungsgemäß wird ein Verfahren in einem Fahrassistenzsystem zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer vorgeschlagen. Basierend auf einer Umfeldsensorik des Fahrzeugs sind unterschiedliche Umfelddarstellungen verfügbar. Das Verfahren umfasst die folgenden Schritte: Bereitstellen einer Zustandsinformation betreffend einen Aktivierungszustand einer Assistenzfunktion des Fahrassistenzsystems; Auswählen einer Umfelddarstellung aus den unterschiedlichen Umfelddarstellungen basierend auf der Zustandsinformation; und Ausgeben einer Steuerungsinformation zur ausgewählten Umfelddarstellung.
-
Die Umfeldsensorik kann beispielsweise ein Kamerasystem mit einer oder mehreren Kameras umfassen, zusätzlich oder alternativ aber auch etwa ein Ultraschallsystem, Radarsystem, etc.. Die Umfelddarstellungen können etwa auf dem Kamerasystem basierende Videoansichten des Fahrzeugumfeldes umfassen, die zur Ausgabe auf eine Anzeigeeinheit vorgesehen sind. Andere Umfelddarstellungen könnten etwa Visualisierungen von Ultraschalldaten, Radardaten, etc. sein.
-
Die Zustandsinformation kann den Aktivierungszustand beispielsweise einer Auspark-Funktion oder einer Einpark-Funktion, und/oder eines anderen Subsystems des Fahrassistenten betreffen. Zusätzlich oder alternativ kann die Zustandsinformation den Aktivierungszustand einer aktiven oder passiven Längsführung und/oder Querführung des Fahrzeugs betreffen.
-
Die Auswahl einer bestimmten Umfelddarstellung aus der Mehrzahl der verfügbaren unterschiedlichen Umfelddarstellungen kann neben der Zustandsinformation zusätzlich auch auf der Auswertung von Sensordaten basieren, die das Fahrzeug und/oder das Fahrzeugumfeld betreffen. Die Sensordaten können beispielsweise Videodaten des Kamerasystems betreffen, Ultraschalldaten einer Ultraschallsensorik, Radardaten eines Radarsystems, Infrarotdaten eines Infrarotsystems, und/oder Daten eines sonstigen Sensorsystems zur Umfelderfassung mindestens eines Teils eines Fahrzeugumfeldes beispielsweise nach hinten, vorne oder in seitlichen Bereichen um das Fahrzeug herum. Die Sensordaten können ganz oder teilweise dieselben Daten umfassen, die auch den ausgegebenen Umfelddarstellungen zugrundeliegen.
-
Zusätzlich oder alternativ können die für die Auswahl berücksichtigten Sensordaten solche Daten umfassen, die nicht das Umfeld, sondern das Fahrzeug selbst betreffen, beispielsweise Positionsdaten des Fahrzeugs, wie etwa geografische Positionsangaben wie sie von einem GPS-Sensor zur Verfügung gestellt werden, Positionsdaten bzgl. einer Einordnung des Fahrzeugstandortes in elektronisches Kartenmaterial, Positionsdaten relativ zu Positionsmarken im Fahrzeugumfeld, beispielsweise in einem Parkhaus, auf einem Parkplatz, etc. Zusätzlich oder alternativ können beispielsweise Geschwindigkeitsdaten oder Lenkwinkeldaten (allg. Daten, die einen Lenkungszustand des Fahrzeugs angeben), mit einbezogen werden.
-
Bei bestimmten Ausführungsformen des erfindungsgemäßen Verfahrens erfolgt die Auswahl einer Umfelddarstellung basierend auf einer Detektion einer Struktur in den Sensordaten. Bei dieser Struktur kann es sich etwa um ein Objekt handeln, welches z.B. in Videoansichten identifiziert bzw. detektiert wurde, wobei das Objekt etwa ein potentielles Hindernis, ein parklückenbegrenzendes Objekt, ein bewegtes Objekt wie ein Passant, Fahrradfahrer, anderes Fahrzeug etc. umfassen kann. Die Struktur kann weiterhin eine detektierte Parklückenbegrenzung, Fahrspur, Fahrbahnmarkierung, und/oder eine überfahrbare oder nicht-überfahrbare, erhabene oder lediglich als Kennzeichnung vorhandene Fahrbahnbegrenzung bzw. -abgrenzung umfassen. Die ausgewählte Umfelddarstellung kann beispielsweise die detektierte Struktur dem Fahrer anzeigen, um ihn auf das potentielle Hindernis, die Markierung etc. aufmerksam zu machen.
-
Die ausgegebene Steuerungsinformation kann eine automatische Umschaltung auf die ausgewählte Umfelddarstellung umfassen. Zusätzlich oder alternativ kann die Steuerungsinformation eine Ausgabe eines Hinweises auf die ausgewählte Umfelddarstellung an den Fahrer umfassen. Der Hinweise kann beispielsweise auf einer optischen Anzeige erfolgen, etwa indem die ausgewählte Darstellung durch Blinken, farblich und/oder auf andere Weise hervorgehoben wird, und/oder kann akustisch erfolgen, indem etwa der Fahrer mittels Lautsprecher darauf hingewiesen wird, dass nunmehr die Ansicht einer Rückfahrkamera, Seitenkamera, eine Top-View-Ansicht, etc. angezeigt wird bzw. werden sollte. Gegebenenfalls kann der Fahrer nach dem Hinweis selbst entscheiden, ob er sich eine oder die vorgeschlagene Anzeige ausgeben lässt.
-
Die Steuerungsinformation kann auch mehrere Umfelddarstellungen betreffen. So können die verfügbaren Umfelddarstellungen priorisiert, z.B. in einer Reihenfolge geordnet werden und dem Fahrer kann eine derartige Reihenfolge zur Anzeige ausgegeben oder vorgeschlagen werden. Mehrere Darstellungen können parallel auf einem Anzeigeschirm ausgegeben werden, wobei die nach Auswahl des Systems wichtigste Darstellung beispielsweise größer, und/oder auf andere Weise gegenüber den weiteren Darstellungen hervorgehoben präsentiert werden kann.
-
Erfindungsgemäß wird weiterhin ein Computerprogramm zur Durchführung eines der hierin beschriebenen Verfahren vorgeschlagen, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei der Computereinrichtung kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrassistenzsystems oder eines Subsystems hiervon in einem Fahrzeug handeln. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung, oder auf einer entfernbaren CD-Rom, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung wie einem Server zum Herunterladen bereitgestellt werden, z.B. über ein Datennetzwerk wie das Internet oder eine Kommunikationsverbindung wie etwa eine Telefonleitung oder eine drahtlose Verbindung.
-
Erfindungsgemäß wird weiterhin ein Fahrassistenzsystem vorgeschlagen, welches zur Ausgabe von Darstellungen eines Fahrzeugumfeldes an einen Fahrer ausgebildet ist. Eine Umfeldsensorik des Fahrzeugs dient zur Gewinnung unterschiedlicher Umfelddarstellungen. Das Fahrassistenzsystem umfasst die folgenden Komponenten: Eine Komponente zum Bereitstellen einer Zusatzinformation betreffend einen Aktivierungszustands einer Assistenzfunktion des Fahrassistenzsystems; eine Komponente zum Auswählen einer Umfelddarstellung aus den unterschiedlichen Umfelddarstellungen basierend auf der Zustandsinformation; und eine Komponente zum Ausgeben einer Steuerungsinformation zur ausgewählten Umfelddarstellung.
-
Die Umfeldsensorik kann folgendes umfassen: ein Kamerasystem mit einer oder mehreren Kameras, beispielsweise Rückfahr-, Front-, Seitenkameras, und/oder Kameras an weiteren Einbauorten; ein Ultraschallsystem mit einem oder mehreren Sensoren z.B. im Heckbereich und/oder Frontbereich; einem Radarsystem, einem Lidar-System, Infrarotsystem, etc. Weitere Sensoren, die dem Fahrassistenzsystem zugeordnet sein können, umfassen etwa einen Positionssensor wie einen GPS-Sensor, gegebenenfalls mit zugeordnetem elektronischem Kartenmaterial, Lenkwinkelsensor, Geschwindigkeitsensor.
-
Vorteile der Erfindung
-
Aspekte der Erfindung betreffen die Einbeziehung von Zustandsinformationen bzgl. des Fahrassistenten in eine Steuerung einer automatischen Umschaltung einer Anzeige, um dem Fahrer situationsabhängig einen optimalen Überblick über das relevante Fahrzeugumfeld bereitzustellen. Bei einer (automatischen) Auswahlentscheidung wird ein Zustand (Status, Modus) des Fahrassistenten berücksichtigt, beispielsweise ob der Einparkassistent momentan aktiv ist, ob eine Ausparkfunktion momentan aktiv ist, etc. Dies ermöglicht es dem System, eine Auswahlentscheidung zu treffen, die noch besser an die momentane Fahrsituation angepasst ist, als dies nur durch die Auswertung von Sensordaten möglich ist. Beispiele für solche verbesserten Entscheidungsalgorithmen werden nachfolgend geschildert.
-
Geht etwa die momentane Fahrsituation wie etwa "Einparken", "Ausparken" in die Entscheidung zur Auswahl geeigneter Umfeldansichten mit ein, wird eine verbesserte Unterstützung des Fahrers z.B. im Hinblick auf mögliche Gefahrensituationen möglich. Die tatsächlich relevanten Szenarien können mit gegenüber bisherigen Systemen erhöhter Zuverlässigkeit ausgewählt werden, d. h. die Verfügbarkeit und Verlässlichkeit der Systeme verbessert sich. Der Fahrer kann unmittelbar und auf intuitive Weise über ein relevantes Umfeldszenario informiert werden. Dies kann zu einer erhöhten Akzeptanz beispielsweise eines Einparkassistenten, Ausparkassistenten, allgemein eines Fahrassistenzsystems beitragen.
-
Die Werthaltigkeit der verbauten Komponenten wird gesteigert; dies betrifft beispielsweise die Sensor(sub)-Systeme der verbauten Umfeldsensorik, also etwa des Videosystems, Ultraschallsystems, etc. Gleichzeitig werden für die Erfindung in der Regel keine zusätzlichen Komponenten benötigt; es werden also keine zusätzlichen Einbauorte erforderlich. Somit kann der Gewinn an intuitiv leicht erfassbarer Unterstützung in komplexen Fahrsituationen auf kostengünstige Weise erreicht werden, beispielsweise lediglich durch ein entsprechendes Update der Software einer ECU ("Electronic Control Unit“).
-
Kurze Beschreibung der Zeichnungen
-
Weitere Aspekte und Vorteile der Erfindung werden nunmehr anhand der beigefügten Figuren eingehender beschrieben. Hierbei zeigt:
-
1 ein mit einem erfindungsgemäßen Fahrassistenzsystem ausgerüstetes Fahrzeug in einer beispielhaften Fahrsituation;
-
2 eine schematische Darstellung funktionaler Komponenten des Fahrassistenzsystems aus 1; und
-
3 In Form eines Flussdiagramms eine Arbeitsweise des Fahrassistenzsystems der 2.
-
Ausführungsformen der Erfindung
-
In 1 ist schematisch ein Fahrzeug 100 in einer Fahrsituation dargestellt, die ein Einparken in eine Parklücke 102 zwischen parklückenbegrenzenden Objekten (z.B. Fahrzeugen) 104 und 106 betrifft, die aber auch ein Ausparken aus der Parklücke 102 betreffen kann. Die Parklücke 102 wird weiterhin durch eine Bordsteinkarte 108 begrenzt, und ist darüberhinaus durch eine Fahrbahnmarkierung 110 von einer Fahrbahn 112 abgegrenzt. Der mit dem Bezugszeichen 112 versehene Pfeil gibt gleichzeitig eine Fahrtrichtung des fließenden Verkehrs auf der Fahrbahn 112 an.
-
Das Fahrzeug 100 verfügt über ein Fahrassistenzsystem 114, welches gemäß 1 unter anderem die folgenden Komponenten umfasst: Auf einer ECU 116 ist eine Steuerungssoftware installiert, mittels der ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens implementiert ist. Statt einer zentralen ECU, wie in 1 dargestellt, könnte ein anderes Fahrassistenzsystem auch mehrere verteilte Steuerkomponenten umfassen. Die ECU 116 ist zur Entgegennahme von Sensordaten eines Kamerasystems 117 mit einer Rückfahrkamera 118, einer Frontkamera 120 sowie in Seitenspiegel integrierten Seitenkameras 122, 124 ausgebildet. Zur Umfeldsensorik des Fahrassistenzsystems 114 gehört neben dem Kamerasystem 117 auch ein Ultraschallsystem 125 mit im Heck des Fahrzeugs 100 verbauten Ultraschallsensoren 126, 128. Das Fahrassistenzsystem 114 kann weitere Sensorsysteme umfassen, die in 1 nicht gezeigt sind.
-
Die ECU 116 ist zur Ausgabe von mit den Kameras 118–124 gewonnenen Darstellungen der entsprechenden Umfeldbereiche um das Fahrzeug 100 herum ausgebildet, wobei die Umfelddarstellungen auf eine Anzeigeeinheit 130 erfolgen, die zur Anzeige von Informationen an den Fahrer ausgerüstet und ausgerichtet ist. Neben der Anzeige 130 können zusätzliche oder andere Ausgabeeinheiten vorgesehen sein, beispielsweise ein Lautsprecher.
-
Jede der Kameras 118–124 kann jeweils eine Monokamera oder auch eine Stereokamera umfassen, die fest oder auch schwenkbar eingebaut sein kann. Jede der Kameras 118–124 kann einen festen oder einen einstellbaren Sichtbereich haben, wobei bei letzterem etwa ein optischer und/oder elektronischer (digitaler) Zoom zum Einsatz kommen kann. In 1 ist schematisch angedeutet, dass beispielsweise die Rückfahrkamera 118 zwischen unterschiedlichen Erfassungsbereichen 132, 134 (stufenlos oder in diskreten Schritten) umgeschaltet werden kann, wobei der Erfassungsbereich 132 eine Optik mit einem Erfassungsbereich von nahezu 180° umfasst, d. h. einen weiten Sichtbereich, der nahezu den gesamten Bereich hinter dem Heck des Fahrzeugs 100 abdeckt (Weitwinkelperspektive), während der Sichtbereich 134 einen kleineren Öffnungswinkel von beispielsweise etwa 90° abdeckt, der jedoch zu einer weniger verzerrten Darstellung führt, was insbesondere entferntere Objekte auf der Anzeige 130 intuitiv einfacher erfassbar macht. In 1 ist beispielhaft angedeutet, dass z.B. auch die linke Seitenkamera 122 zwischen einem Weitwinkel-Sichtbereich 136 und einem engeren Sichtbereich 138 umschaltbar sein kann. Zusätzlich oder alternativ können eine oder mehrere der Kameras 118–124 schwenkbar entlang einer horizontalen und/oder vertikalen Schwenkachse sein.
-
In 2 ist das Fahrassistenzsystem 114 aus 1 mit weiteren funktionalen Details dargestellt. Die Kameras 118–124 sowie Ultraschallsensoren 126, 128 kommunizieren über ein Bussystem 202 mit der ECU 116. Über ein Bussystem 204 ist die ECU 116 mit Ausgabeeinheiten wie der Anzeigeeinheit 130 und einem Lautsprecher 206 verbunden, sowie mit einer Eingabeeinheit 208 zur Entgegennahme von Steuerbefehlen vom Fahrer des Fahrzeugs 100. Bei der Eingabeeinheit 208 kann es sich auch beispielsweise um ein Mikrofon und/oder einen Softkey auf der Anzeigeeinheit 130 handeln. Die Bussysteme 202 und 204 können identisch sein, sie sind jedoch aus Gründen der Übersichtlichkeit in der 2 getrennt dargestellt.
-
Auf der ECU 116 sind ein Einparkassistent 210 sowie ein Ausparkassistent 212 implementiert. Desweiteren liegt eine Auswertungskomponente 214 zur Auswertung der von den Kamerasystem 117 gelieferten Kameraansichten im Hinblick auf Strukturen wie potentielle Hindernisse, Fahrbahnmarkierungen, etc. vor. Eine weitere Auswertungskomponente 216 dient zur Auswertung vom Ultraschallsystem 125 gelieferter Sensordaten zur Objektdetektion. Weiterhin ist eine Zustandskomponente 218 zur Bereitstellung mindestens einer Zustandsinformation vorgesehen, die einen Aktivierungszustand einer Assistenzfunktion des Fahrassistenzsystems (FAS) 114 betrifft. Die Einheit 218 kann im einfachsten Fall als dedizierter Speicherbereich in einer der ECU 116 zugeordneten Speicherkomponente (nicht explizit gezeigt) implementiert werden. In einem derartigen Speicherbereich kann beispielsweise ein Flag oder eine Mehrzahl von Flags vorgesehen sein, die gesetzt oder nicht gesetzt sind und auf diese Weise einen Aktivierungszustand bspw. der Komponenten 210, 212 repräsentieren.
-
Weiterhin umfasst die ECU 116 eine Auswahlkomponente 220, die zum Auswählen einer Umfelddarstellung aus den unterschiedlichen, von den Kameras 118–124 gelieferten Umfelddarstellungen basierend unter anderem auf der von der Komponente 218 bereitgestellten Zustandsinformation ausgebildet ist. Der Komponente 220 kann ein Speicherbereich 222 zugeordnet sein, der die Abarbeitung einer oder mehrerer Bedingungen zum Treffen einer Auswahlentscheidung anhand vorgegebener Kriterien ermöglicht.
-
Eine weitere Sensordaten-Auswertungskomponente 224 ist zur Auswertung von Sensordaten ausgebildet, die einen Zustand des Fahrzeugs 100 betreffen. Beispielsweise kann die Komponente 224 Daten eines schematisch dargestellten GPS-Sensors 226 oder sonstigen Positionssensors sowie weiterer Sensoren auswerten, für die beispielhaft nur ein Sensor 226 illustriert ist, der beispielsweise ein Geschwindigkeitssensor, Lenkwinkelsensor, etc. sein kann.
-
Die Auswahlkomponente 220 steuert eine Ausgabekomponente 230 an, die entsprechend der Ansteuerung eine oder mehrere der von den Kameras 118–124 bereitgestellten Umfeldansichten an die Anzeigeeinheit 130 ausgibt oder für den Abruf durch den Fahrer bereitstellt. Zusätzlich steuert die Ausgabeeinheit 230 die akustische Ausgabeeinheit 208 an.
-
Eine erfindungsgemäße Funktionsweise des Fahrassistenzsystems 114 wird nunmehr anhand des Flussdiagramms 300 in 3 genauer beschrieben. Im Grundsatz dient das Zusammenwirken der in 2 gezeichneten Komponente dazu, in einer bestimmten Fahrsituation eine optimal zur Unterstützung des Fahrers geeignete Umfelddarstellung aus den verfügbaren unterschiedlichen Umfelddarstellungen auszuwählen und dem Fahrer zur Anzeige anzubieten (302).
-
In Schritt 304 stellt die Komponente 218 eine Zustandsinformation betreffend einen Aktivierungszustand einer Assistenzfunktion des Fahrassistenzsystems 114 bereit. Wie in 2 illustriert, hält die Komponente 218 insbesondere Informationen darüber, ob der Einparkassistent 210 momentan aktiv ist und/oder der Ausparkassistent 212 aktiv ist. Diese Informationen können beispielsweise durch die Komponenten 210, 212 aktiv der Komponente 218 zugeliefert werden. Die bereitgestellte Zustandsinformation kann von der Komponente 218 der Auswahlkomponente 220, aber auch etwa der Video-Auswertungskomponente 214 zur Verfügung gestellt werden, und kann von diesen beispielsweise aktiv abgerufen werden.
-
In Schritt 306, der parallel zum Schritt 304 abgearbeitet werden kann, stellen die Komponenten 214 und/oder 216 Sensordaten bereit. Diese werden in Schritt 308 etwa in der Auswahlkomponente 220 ausgewertet. Beispielsweise kann die Video-Auswertungskomponente 214 aktiv sein, um vom Kamerasystem 117 zugelieferte Videoansichten auf das Vorhandensein potentieller Hindernisse, Fahrbahnbegrenzungen, -markierungen und dergleichen auszuwerten. Die Komponente 216 kann die Sensorsignale des Sensorsystems 125 auf das Vorhandensein, die Position, Entfernung etc. von Hindernissen im Erfassungsbereich der Sensoren 126, 128 auswerten.
-
In den Schritten 306, 308 können auch Sensordaten der Sensoren 226, 228 in der Komponente 224 ausgewertet und der Auswahlkomponente 220 für den nachgelagerten Schritt 310 zur Verfügung gestellt werden. So kann beispielsweise eine Information des Lenkwinkelsensors 228 in geeigneter Form an die Auswahlkomponente 220 geliefert werden, so dass diese etwa die Bereitstellung einer geeigneten der beiden von den Seitenkameras 122, 124 gelieferten Ansichten initiieren kann.
-
Ob und welche Auswertungen in den Schritten 306, 308 vorgenommen werden, kann ggf. durch Zustandsinformationen gesteuert werden, die im Schritt 304 in der Komponente 218 bereitgestellt werden. Liegt beispielsweise die Zustandsinformation vor, dass der Einparkassistent 210 aktiv ist und/oder eine aktive Längs- bzw. Querführung bei einer Rückwärtsfahrt des Fahrzeugs 100 durchgeführt wird, kann sich eine Detektion potentieller Einparkhindernisse und/oder bewegter Objekte auf die Erfassungsbereiche der Rückfahrkamera 118, sowie gegebenenfalls der Seitenkameras 122, 124 konzentrieren, während der Sichtbereich der Frontkamera 120 vernachlässigt werden kann. Liegt beispielsweise die Zustandsinformation vor, dass der Ausparkassistent 212 aktiv ist und/oder sich das Fahrzeug 100 aktiv oder passiv geführt aus der Parklücke 102 in Vorwärtsfahrt herausbewegt, kann beispielsweise auf eine Erfassung von Hindernissen im Erfassungsbereich der Rückfahrkamera 118 sowie der Ultraschallsensoren 126, 128 verzichtet werden.
-
Im Schritt 310 wird eine der von den Kameras 118–124 gelieferten Umfelddarstellungen zur Anzeige auf dem Schirm 130 ausgewählt, und zwar basierend auf der im Schritt 304 bereitgestellten Zustandsinformation sowie unter Einbeziehung der Auswertung der Sensordaten in den Schritten 306, 308. Die Auswahlkomponente 220 wählt basierend auf den bereitgestellten Informationen und unter Abarbeitung von Algorithmen sowie vordefinierten Daten, die im Speicherbereich 222 abgelegt sind, eine der von den Kameras 118–124 bereitgestellte Umfelddarstellungen aus, oder entscheidet, dass eine Videoansicht momentan nicht zweckmäßig ist und lässt die Anzeige auf dem Schirm 130 unverändert oder schaltet diesen dunkel.
-
In Schritt 312 gibt die Auswahlkomponente 220 einen Indikator für die auszuwählende Umfelddarstellung an die Ausgabekomponente 230 aus, beispielsweise eine Angabe einer der Kameras 118–124, ggf. mit einer Angabe einer Schwenkposition der Kamera, und/oder einer Zoomfunktionalität. Die Komponente 230 kann daraufhin beispielsweise eine Videoansicht etwa der Rückfahrkamera 118 auf den Anzeigeschirm 130 durchschalten. Alternativ kann die Komponente 230 die entsprechende Ansicht lediglich bereitstellen, so dass der Fahrer über ein entsprechendes Kommando die bereitgestellte Ansicht aktiv auf den Anzeigeschirm 130 holen kann. Die Ausgabekomponente 230 kann einen Hinweis auf die ausgegebene oder bereitgestellte Ansicht etwa akustisch über den Lautsprecher 206 ausgeben, beispielsweise über eine Sprachausgabe wie "Achtung linker Seitenbereich".
-
In 3 ist illustriert, dass das Verfahren 300 in Schritt 314 endet. Das Verfahren kann entweder zyklisch getriggert werden (302), und/oder wenn sich beispielsweise eine Fahrsituation des Fahrzeugs 100 ändert, beispielsweise wenn der Einparkassistent 210 oder Ausparkassistent 212 zwar weiterhin aktiv ist, aber von einer Vorwärts- in eine Rückwärtsfahrt gewechselt wird, ein Geschwindigkeitsschwellwert überschritten oder unterschritten wird, eine Objektdetektion erfolgt, etc. Hierzu kann das Verfahren (in 3 nicht dargestellt) zyklisch eine Statusabfrage beispielsweise der Zustandsinformationen in der Komponente 218 durchführen. Beim erneuten Durchlaufen der Abfolge 300 kann sodann eine andere Ansicht ausgewählt und bereitgestellt werden. Es kann ein Algorithmus vorgesehen sein, um ein zu häufiges Umschalten bis hin zu einem Flackern der Anzeige auf dem Schirm 130 zu verhindern.
-
Nachfolgend werden konkrete Beispielssituationen anhand des in den Figuren illustrierten Fahrerassistenzsystems 114 diskutiert. Unter Bezugnahme auf 1 sei zunächst angenommen, dass Fahrzeug 100 würde rückwärts in die Parklücke 102 einparken. Hierbei würde (Schritt 304) die Komponente 218 eine Zustandsinformation speichern, die bspw. angibt, dass der Einparkassistent 210 aktiv ist und beispielsweise eine aktiv oder passiv geführte Rückwärtsfahrt in die Parklücke 102 hinein durchgeführt wird. Hierbei könnte bei Fehlen weiterer Randbedingungen wie etwa Hindernissen in der Parklücke 102 auf der Anzeigeeinrichtung 130 eine Top-View-Ansicht vergleichbar der Darstellung in 1 wiedergegeben werden, um so dem Fahrer den Fortgang des Einparkens übersichtlich anzuzeigen. Die Top-View-Ansicht würde also im Schritt 310 von der Auswahlkomponente 220 als momentan optimale Ansicht ausgewählt werden, und würde von der Auswertungskomponente 214 durch geeignete Verarbeitung der Umfelddarstellungen der Kameras 118–124 konstruiert.
-
Bei Fortgang des Einparkvorganges und Annäherung des Fahrzeugs 100 beispielsweise mit dem hinteren oder vorderen rechten Rad an den Bordstein 108 kann zur verbesserten Unterstützung des Fahrers die Auswahlkomponente 220 die Ausgabe der von der rechten Seitenkamera 124 gelieferten Videoansicht initiiert werden, um es dem Fahrer zu ermöglichen, gegebenenfalls eine Rad-Bordstein-Kontakt zu vermeiden. Die Auswahlkomponente 220 zieht bei dieser Entscheidung sowohl die Zustandsinformation heran, dass der Einparkassistent weiterhin aktiv ist, als auch Sensordaten der Kameras 117 und oder Ultraschallsystems 125. Die Kamera 124 könnte geeignet konfiguriert, d. h. verschwenkt und/oder fokussiert werden, um kritische Ausschnittsbereiche der Videoansicht bestmöglich auf der Anzeige 130 präsentieren zu können.
-
Ein anderes Beispiel für einen Trigger, der etwa zur automatischen Umschaltung der Anzeige führen kann, wäre die Übernahme der Einparkfunktion durch den Fahrer. In das Verfahren 300 ginge also unter anderem die Zustandsinformation ein, dass der Einparkassistent deaktiviert wurde; d. h. die Bereitstellung der Zustandsinformation im Schritt 304 bezieht sich hier insbesondere auf eine Änderung des Aktivierungszustandes des Einparkassistenten. Bei diesem Beispiel würde sodann detektiert, dass der Abstand der Bordsteinkante 108 zu zumindest einem Rad des Fahrzeugs 100 einen vorgegebenen Schwellenwert unterschreitet, woraufhin die Auswahlkomponente 220 in Schritt 310 eine von der Kamera 124 gelieferte Seitenansicht automatisch auf die Anzeigeeinheit 130 ausgeben würde.
-
Bei einem nochmals anderen Beispiel sei ebenfalls unter Bezugnahme auf die 1 davon ausgegangen, dass das Fahrzeug 100 aus der Parklücke 102 in Richtung auf die Fahrbahn 112 ausparkt. Die Auswahl der bestmöglich geeigneten Ansicht zur Unterstützung des Fahrers kann hierbei je nach Fahrsituation unterschiedlich sein. Ist beispielsweise der Ausparkassistent 212 aktiviert, wobei das Fahrzeug aber noch steht, könnte eine Top-View-Ansicht (Vogelperspektive) angeboten bzw. auf der Einheit 130 ausgegeben werden. Wird in den Schritten 306, 308 detektiert, dass das Fahrzeug sich innerhalb der Längsparklücke 102 nach rückwärts in Bewegung gesetzt hat, könnte die Auswahlkomponente 220 in Schritt 310 die Umschaltung auf eine Ansicht der Rückfahrkamera 118 initiieren.
-
Wird detektiert, dass das Fahrzeug 100 sich im Ausparkmodus befindet, aber vorwärts bewegt, könnte die Auswahlkomponente 220 die (erneute) Umschaltung auf eine von der Frontkamera 120 gelieferte Ansicht initiieren. Zusätzlich oder alternativ könnte auch eine Ansicht der linken Seitenkamera 122 dargestellt oder angeboten werden, um den Fahrer auf eventuell auf der Fahrbahn 112 vorhandenen Verkehr hinzuweisen. Hierbei wäre gegebenenfalls die Kamera 122 entsprechend auszurichten bzw. zu fokussieren. Ist der Ausparkvorgang beendet, würde sich dies in den in der Komponente 218 repräsentierten Zustandsinformationen wiederspiegeln, in dem der Ausparkassistent 212 als 'deaktiviert' repräsentiert wäre, woraufhin die Auswahlkomponente 220 beispielsweise das Umschalten auf die Ansicht der Frontkamera 120 initiieren könnte oder auch den Anzeigeschirm 130 dunkel schalten könnte.
-
Bei einem wieder anderen Szenario (nicht in 1 dargestellt), bei dem ein Fahrzeug rückwärts aus einer Querparklücke ausparkt, könnte als Umfelddarstellung für die optimale Unterstützung des Fahrers automatisch eine von der Rückfahrkamera gelieferte Videoansicht ausgegeben werden, wobei falls verfügbar eine Weitwinkelperspektive, beispielsweise 180°-Optik konfiguriert würde.
-
In einem weiterem Beispielszenario sei angenommen, dass momentan eine bestimmte Detailansicht angezeigt wird, beispielsweise eine Ansicht einer hinteren Anhängerkupplung, um einen Rangiervorgang mit einem Anhänger zu unterstützen. Unabhängig hiervon hat das Fahrerassistenzsystem durch Auswertung der von der Umfeldsensorik 117, 125 gelieferten Sensordaten festgestellt, dass sich ein potentielles Kollisionsobjekt innerhalb einer festgelegten Mindestdistanz zum Fahrzeug befindet. Die Auswahlkomponente 220 würde feststellen, dass sich das Fahrerassistenzsystem momentan in einem Rangiermodus befindet und daraufhin veranlassen, dass der Fahrer beispielsweise akustisch auf die Situation hingewiesen wird, und/oder etwa eine Ansicht derjenigen Kamera anbieten, die das detektierte potentielle Hindernis anzeigt. Statt eines automatischen Umschaltens könnte auch etwa ein Miniaturbild der entsprechenden Videoansicht auf dem Schirm 130 der Ansicht der Anhängerkupplung überlagert oder beigefügt werden.
-
Die in den Schritten 306 und 308 verarbeiteten Sensordaten können auch Positionsdaten des Fahrzeugs 100 einschließen, beispielsweise GPS-Informationen. In Zusammenhang mit elektronischen Kartenmaterial könnten beispielsweise Situationen diskriminiert werden, bei denen ein Parkassistent aktiv ist und das Fahrzeug entweder bspw. an einer Straße ein- oder ausparkt, oder auf einem Parkplatz ein- oder ausparkt. Beim Ausparken aus einer Parklücke auf eine mit vergleichsweise hoher Geschwindigkeit befahrenen Fahrbahn könnte eine Videoansicht einer Seitenkamera ausgegeben werden, während auf einem Parkplatz mit im allgemeinen niedrigeren Fahrgeschwindigkeiten eine nach seitlich rückwärts gerichtete Ansicht der Kamera 122 ausgegeben werden könnte. Hierdurch kann eine nochmals intuitivere Unterstützung des Fahrers erreicht werden.
-
Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr sind innerhalb des durch die anhängenden Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 102007044536 A1 [0007]