[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102011014699B4 - Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug - Google Patents

Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug Download PDF

Info

Publication number
DE102011014699B4
DE102011014699B4 DE102011014699.7A DE102011014699A DE102011014699B4 DE 102011014699 B4 DE102011014699 B4 DE 102011014699B4 DE 102011014699 A DE102011014699 A DE 102011014699A DE 102011014699 B4 DE102011014699 B4 DE 102011014699B4
Authority
DE
Germany
Prior art keywords
motor vehicle
dimensional
images
environment
position data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011014699.7A
Other languages
English (en)
Other versions
DE102011014699A1 (de
Inventor
Norbert Keppeler
Dr. Giesler Björn
Christian Andrä
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102011014699.7A priority Critical patent/DE102011014699B4/de
Publication of DE102011014699A1 publication Critical patent/DE102011014699A1/de
Application granted granted Critical
Publication of DE102011014699B4 publication Critical patent/DE102011014699B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/18Steering angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Verfahren zum Betrieb eines Fahrerassistenzsystems (2) zum Schutz eines Kraftfahrzeugs (1), insbesondere wenigstens eines Rades, vor Beschädigungen, wobei mittels wenigstens eines Sensors dreidimensionale Positionsdaten wenigstens eines eine potentielle Gefährdung darstellenden Objekts in der Umgebung des Kraftfahrzeugs (1), insbesondere eines Randsteins, ermittelt und zur Ermittlung eines Gefährdungswertes ausgewertet werden, wobei abhängig von dem Gefährdungswert bei einer vorliegenden Gefährdung eine Information an einen Fahrer ausgegeben wird und/oder ein Fahreingriff vorgenommen wird, wobei als Sensor eine ein zweidimensionales Bild (14) wenigstens eines Teils (8, 9, 10, 11) der Umgebung des Kraftfahrzeugs (1) liefernde Kamera (4, 5, 6, 7), insbesondere eine Weitwinkelkamera, verwendet wird, wobei zur Detektion des Objekts aus zwei von unterschiedlichen Positionen des Kraftfahrzeugs (1) aufgenommen Bildern (14) mittels eines Motion-Stereo-Verfahrens die dreidimensionalen Positionsdaten des in den Bildern (14) sichtbaren Objekts unter Berücksichtigung der Aufnahmeorte ermittelt werden, dadurch gekennzeichnet, dass in den zweidimensionalen Bildern (14) wenigstens ein Kantenverläufe beschreibender Polygonzug (21) ermittelt wird, wobei anhand des Polygonzuges (21) ein Abgleich mit den dreidimensionalen Positionsdaten und/oder dem Umfeldmodell erfolgt und/oder interessierende Bereiche für die Ausführung des Motion-Stereo-Verfahrens und/oder die Bestimmung des Gefährdungswertes definiert werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs, insbesondere wenigstens eines Rades, vor Beschädigungen, wobei mittels wenigstens eines Sensors dreidimensionale Positionsdaten wenigstens eines eine potentielle Gefährdung darstellenden Objekts in der Umgebung des Kraftfahrzeugs, insbesondere eines Randsteins, ermittelt und zur Ermittlung eines Gefährdungswertes ausgewertet werden, wobei abhängig von dem Gefährdungswert bei einer vorliegenden Gefährdung eine Information an einen Fahrer ausgegeben wird und/oder ein Fahreingriff vorgenommen wird. Daneben betrifft die Erfindung noch ein Kraftfahrzeug mit einem solchen Fahrerassistenzsystem.
  • Fahrerassistenzsysteme für Kraftfahrzeuge sind bekannt und erfreuen sich zunehmender Beliebtheit. Im Allgemeinen nutzen Fahrerassistenzsysteme üblicherweise die Daten verschiedener Sensoren des Kraftfahrzeugs, um daraus eine für den Fahrer nützliche Information zu generieren oder gar selbst einen Fahreingriff auszuführen, um den Fahrer zu entlasten oder zu schützen. Zudem sind auch Fahrerassistenzsysteme bekannt, die andere Fahrzeugsysteme parametrieren oder dergleichen.
  • Von besonderem Interesse ist dabei auch der Nahbereichsschutz des Kraftfahrzeugs, so dass beispielsweise Fahrerassistenzsysteme zum Einparken bereits in vielen Kraftfahrzeugen Verwendung finden, um unter anderem auch eine Kollision mit anderen Kraftfahrzeugen zu vermeiden.
  • Ein Fahrerassistenzsystem der eingangs genannten Art ist aus der DE 10 2008 028 222 A1 bekannt. Darin wird vorgeschlagen, aktive Sensoren, die eine Signalwelle emittieren, zu verwenden, um einen Abstand eines Fahrzeugs von einem Hindernis und eine Höhe des Hindernisses relativ zu dem Fahrzeug zu bestimmen. Abhängig von dem Abstand und von der Höhe kann entweder eine Information beispielsweise an den Fahrer des Kraftfahrzeugs ausgegeben werden oder automatisch ein Eingriff in die Führung des Fahrzeugs vorgenommen werden. Um tatsächlich zu bewerten, ob ein in der Umgebung des Kraftfahrzeugs detektiertes Hindernis eine Gefahr darstellt, werden auch einige andere Parameter, beispielsweise die Geschwindigkeit des Fahrzeugs, der Auffahrwinkel eines Rades des Fahrzeugs und die Fahrspurtrajektorienprädiktion berücksichtigt. So können Beschädigungen des Fahrzeugs aufgrund von Hindernissen, z. B. Bordsteinen, vermieden werden, deren Höhe kleiner als der Abstand einer Stoßstange des Fahrzeugs von der Fahrbahn ist.
  • Nachteilhafterweise werden bei dem bekannten Fahrerassistenzsystem zusätzliche Sensoren benötigt, die eine aktive Vermessung der Umgebung erlauben, beispielsweise jeweils am Radkasten vorgesehene Ultraschallsensoren. Die Installation dieser Sensoren bringt einen zusätzlichen Montage- und Kostenaufwand mit sich; zudem werden aktive Sensoren verwendet, die zusätzliche Energie benötigen.
  • Gemäß DE 10 2009 016 562 A1 werden Bilder an unterschiedlichen Positionen eines Fahrzeugs erfasst. Zudem kann durch Sensoren zur Ermittlung eines Fahrwegs des Fahrzeugs die Positionsänderung zwischen der Aufnahme der Bilder ermittelt werden. Somit können Positionen und Abmessungen von in den Bildern dargestellten Objekten im Umfeld des Kraftfahrzeugs ermittelt werden, woraus eine dreidimensionale Umfeldkarte mit einem Höhenprofil erzeugt werden soll. Da die beiden Bilder in unterschiedlichen Positionen der Kamera und somit aus unterschiedlichen Perspektiven erfasst wurden, sind durch Vergleichen der beiden Bilder Abmessungen und Proportionen in den Bildern dargestellter Objekte vergleichbar. Durch Zugrundelegung der ermittelten Positionsänderung sind daraus reale Abmessungen, Ausformungen und Positionen der erfassten Objekte ermittelbar, so dass die dreidimensionale Karte erstellbar ist.
  • DE 100 59 900 A1 betrifft die Auswertung des Fahrzeugumfelds mittels mehrerer Kameras, wobei eine einer Vogelperspektive ähnliche Abbildung der Umgebung generiert werden soll. Gemäß letzterem Absatz kann zur Bewegungserkennung ein Motion-Stereo-Bildverarbeitungsverfahren eingesetzt werden.
  • DE 10 2004 047 130 A1 betrifft die Umgebungsmodellierung für autonome mobile Systeme. Darin wird vorgeschlagen, Daten von Sensoren zu verwenden, um Umgebungselemente, wie beispielsweise bewegliche Objekte, statische Hindernisse, freie Wege, vorhandenen Aktionsraum und dergleichen, zu identifizieren und ein Umfeldmodell mit bewerteten Elementen zu erzeugen. Als beispielhafte Sensoren sind Laser-, Ultraschall-, Radar- und Kamerasysteme genannt. Datenreduktionen können erreicht werden, indem nicht die genaue Form von Hindernissen abgespeichert wird, sondern eine approximative Form als Polygon verwendet wird, so dass ein komprimiertes Umfeldmodell entsteht, das einerseits laufend für die kontinuierliche dynamische Wegeplanung abrufbar ist und andererseits auch schnell kommunizierbar ist.
  • US 2010/0085427 A1 betrifft ein Verfahren zur bildbasierten Fahrzeugmanövrierungsassistenz. Bilder einer einzigen Bildsensiereinrichtung werden ausgewertet, um durch Bildverarbeitung Unterschiede über die Zeit zur ermitteln und vollständige, assistierende Bildinformation zu erzeugen.
  • DE 600 20 420 T2 betrifft ein Situationsdarstellungs-Anzeigesystem mit einer Vielzahl von Kameras. Jede Kamera erfasst eine Bildfolge von überlappenden Teilen eines interessierenden Bereiches. Die Bildfolgen der verschiedenen Kameras werden zusammengeführt, um bewegliche Objekte zu identifizieren.
  • Der Erfindung liegt daher die Aufgabe zugrunde, eine dem gegenüber verbesserte, passive Möglichkeit anzugeben, verlässlich eine Gefährdung für das Kraftfahrzeug im Nahbereich darstellende Objekte detektieren zu können.
  • Zur Lösung dieser Aufgabe ist bei einem Verfahren der eingangs genannten Art erfindungsgemäß vorgesehen, dass als Sensor eine ein zweidimensionales Bild wenigstens eines Teils der Umgebung des Kraftfahrzeugs liefernde Kamera, insbesondere eine Weitwinkel-Kamera, verwendet wird, wobei zur Detektion des Objekts aus zwei von unterschiedlichen Positionen des Kraftfahrzeugs aufgenommenen Bildern mittels eines Motion-Stereo-Verfahrens die dreidimensionalen Positionsdaten des in den Bildern sichtbaren Objekts unter Berücksichtigung der Aufnahmeorte ermittelt werden, wobei in den zweidimensionalen Bildern wenigstens ein Kantenverläufe beschreibender Polygonzug ermittelt wird, wobei anhand des Polygonzuges ein Abgleich mit den dreidimensionalen Positionsdaten und/oder dem Umfeldmodell erfolgt und/oder interessierende Bereiche für die Ausführung des Motion-Stereo-Verfahrens und/oder die Bestimmung des Gefährdungswertes definiert werden.
  • Die Erfindung schlägt also vor, mit Kameras, bevorzugt Weitwinkel-Kameras, ein Passivsystem zu nutzen, so dass keine Emission von Energie wie Schall oder elektromagnetischen Wellen zur Erfassung notwendig ist. Hierbei ist es grundsätzlich sinnvoll, wenn wenigstens zwei unterschiedliche Bereiche des Umfelds des Kraftfahrzeugs abdeckende Kameras verwendet werden, wobei mit besonderem Vorteil vier Kameras verwendet werden können, die dann beispielsweise dem Vorfeld des Kraftfahrzeugs, dem Bereich hinter dem Kraftfahrzeug und den beiden seitlichen Bereichen zugeordnet sind. Werden Weitwinkel-Kameras verwendet, so lässt sich somit die gesamte Umgebung des Kraftfahrzeugs durch die sich ergänzenden Erfassungsbereiche der Kameras abdecken. Es ergibt sich hier die weitere, besonders vorteilhafte Möglichkeit, Kameras zu nutzen, die ohnehin bereits im Kraftfahrzeug genutzt werden, beispielsweise für andere Fahrerassistenzsysteme bzw. Funktionen. So können beispielsweise durch das Fahrerassistenzsystem der Erfindung Kameras eines sog. „Top-View”-Systems mitgenutzt werden, das einen Aufblick auf das Kraftfahrzeug und umgebende Objekte von oben zeigen sollen.
  • Daneben oder alternativ ist es denkbar, die Kameras ferner im Rahmen eines Einparkassistenten und/oder eines Stauassistenten zu nutzen. Es müssen also nicht dedizierte Kameras zur Ermittlung der dreidimensionalen Positionsdaten vorgesehen werden, sondern es können ohnehin vorhandene Systeme im Kraftfahrzeug vorteilhaft mitgenutzt werden.
  • Die Kameras liefern zweidimensionale Bilder, die mittels eines Motion-Stereo-Verfahrens ausgewertet werden. Das Motion-Stereo-Verfahren basiert grundsätzlich auch auf dem Stereo-Prinzip, wobei im Unterschied zu einem üblichen Stereo-Verfahren die zwei Perspektiven der zu erfassenden Szene nicht zeitgleich, sondern zeitlich hintereinander aufgenommen werden. Die Bedingung, zwei unterschiedliche Perspektiven zu erhalten, die dann entsprechend wie Stereo-Bilder ausgewertet werden können, ist dabei, dass sich das Kraftfahrzeug bewegen muss, das bedeutet, die Aufnahmeorte müssen unterschiedlich sein und auch erkannt werden. Hierzu kann beispielsweise vorgesehen sein, dass die Aufnahmeorte der Bilder anhand von Odometriedaten des Kraftfahrzeugs ermittelt werden. Das bedeutet, es werden grundsätzlich bekannte und gängige Odometrieverfahren eingesetzt, um die relativen Positionen der Aufnahmeorte in Erfahrung zu bringen. Hierbei können beispielsweise ESP-Sensoren genutzt werden, die die Weiterbewegung der einzelnen Räder des Kraftfahrzeugs verfolgen, welche dann durch Daten von Beschleunigungssensoren ergänzt werden, wobei sich eine Filterung gegen Störungen anschließen kann.
  • Motion-Stereo-Verfahren sind im Stand der Technik bereits weithin bekannt und umfassen meist sog. „Matching”-Verfahren, die dasselbe Umgebungsmerkmal in den unterschiedlichen Bildern beschreibende, korrespondierende Punkte auffinden sollen. Sind erst die demselben Umgebungsmerkmal in beiden Bildern beschreibenden Punkte bekannt, so kann wie im Stereo-Prinzip üblich, eine dreidimensionale Position ermittelt werden. Es kann also vorgesehen sein, dass im Rahmen des Motion-Stereo-Verfahrens in den beiden Bildern korrespondierende Punkte anhand der Aufnahmeorte und/oder eines auf den Bilddaten arbeitenden Korrespondenzalgorithmus identifiziert werden und für die korrespondierenden Punkte eine dreidimensionale Position bestimmt wird.
  • In besonders vorteilhafter Ausgestaltung der vorliegenden Erfindung kann vorgesehen sein, dass das detektierte Objekt anhand seiner Positionsdaten in ein dreidimensionales, insbesondere als Belegungskarte ausgebildetes Umfeldmodell eingetragen wird. Derartige Umfeldmodelle sind grundsätzlich bekannt und können beispielsweise derart ausgestaltet sein, dass das gesamte erfassbare Umfeld des Kraftfahrzeugs in gleich große Würfel aufgeteilt wird, denen beispielsweise zugeordnet werden kann, ob sie durch ein Objekt belegt sind, frei sind oder ob ihr Zustand unbekannt ist. Den Würfeln können auch weitere Informationen zugeordnet sein, beispielsweise, durch welche Art von Objekt sie belegt sind und/oder die Sicherheit der entsprechenden Information. Ein derartiges Umfeldmodell bietet den Vorteil, dass es ebenso durch andere Fahrerassistenzsysteme mit ausgewertet werden kann, die ebenso Informationen über das Umfeld des Kraftfahrzeugs benötigen, beispielsweise Einparkassistenten oder dergleichen. Die in dem Umfeldmodell enthaltenen Daten werden dann, gegebenenfalls in vorab erkannten und/oder definierten interessierenden Bereichen, auf Hindernisse, beispielsweise Randsteine, ausgewertet. Hieraus wird dann wie üblich der Gefährdungswert ermittelt und der Fahrer kann gewarnt werden bzw. ein Fahreingriff, insbesondere eine Bremsung, kann vorgenommen werden.
  • Erfindungsgemäß wird in den zweidimensionalen Bildern wenigstens ein Kantenverläufe beschreibender Polygonzug ermittelt, wobei anhand des Polygonzuges ein Abgleich mit den dreidimensionalen Positionsdaten und/oder dem Umfeldmodell erfolgt und/oder interessierende Bereiche für die Ausführung des Motion-Stereo-Verfahrens und/oder die Bestimmung des Gefährdungswertes definiert werden. In diesem Fall werden letztlich auch die einzelnen zweidimensionalen Bilder ausgewertet, um so beispielsweise eine Plausibilisierung zu ermöglichen. Wie bereits beschrieben wurde, werden in Motion-Stereo-Verfahren üblicherweise korrespondierende Punkte über entsprechende Korrespondenzalgorithmen aufgefunden, die, wie im Übrigen auch die Bestimmung der Aufnahmeorte, gewissen Fehlertoleranzen unterworfen sein kann. Dann kann aus den zweidimensionalen Bildern gewonnene zusätzliche Information vorteilhaft genutzt werden, um die Qualität der Gesamtauswertung zu verbessern. Hierzu können beispielsweise Kanten, unter die auch Hell-Dunkel-Übergänge fallen, in den zweidimensionalen Bildern ermittelt werden, so dass sich insgesamt Polygonzüge ergeben, die beispielsweise mit sich ergebenden Begrenzungen in den dreidimensionalen Positionsdaten und/oder im Umfeldmodell abgeglichen werden können. Die Polygonzüge können jedoch auch genutzt werden, um bereits von vornherein interessierende Bereiche (Regions of Interest) zu definieren, sei es bezüglich der Anwendung des Motion-Stereo-Verfahrens oder auch bezüglich eines Algorithmusses, der die dreidimensionalen Positionsdaten bzw. das Umfeldmodell auswertet, um potentiell gefährdende Hindernisse aufzufinden und zu bewerten.
  • In einer zweckmäßigen Ausgestaltung kann vorgesehen sein, dass wenigstens eine an einem Außenspiegel angeordnete Kamera und/oder eine an einer Frontschürze des Kraftfahrzeuges angeordnete Kamera und/oder eine an einer Heckklappe des Kraftfahrzeugs angeordnete Kamera verwendet werden. An diesen Positionen angeordnete Weitwinkel-Kameras können den größten Teil des relevanten Umgebungsbereichs abdecken. Soll hauptsächlich das seitliche Umfeld betrachtet werden, kann es dabei ausreichend sein, nur zwei Kameras zu verwenden, die jeweils an den Außenspiegeln angeordnet sind. Ergänzt werden kann dies dann durch entsprechend den Bereich vor und hinter dem Kraftfahrzeug abdeckende Kameras.
  • Sind dreidimensionale Positionsdaten von mögliche Hindernisse darstellenden Objekten im Umfeld des Kraftfahrzeugs bekannt, beispielsweise in dem Umfeldmodell, so können diese wie grundsätzlich bekannt zu einem Gefährdungswert ausgewertet werden, wobei insbesondere der Abstand eines Objekts zum Kraftfahrzeug bzw. zu einem Rad des Kraftfahrzeugs sowie eine Bestimmung der Höhe des Objekts im Bezug auf den Reifenaufstandpunkt zweckmäßige, zu betrachtende Parameter sind. Hierbei kann bereits eine Auswahl relevanter Objekte erfolgen. Die Objekte werden dann hinsichtlich einer möglichen Beschädigung des Kraftfahrzeugs ausgewertet, wo beispielsweise zusätzlich zur Höhe des Objekts relativ zu einem Reifenaufstandpunkt eines Rades des Kraftfahrzeugs und dem Abstand zwischen einer Außenkante eines Rades des Kraftfahrzeugs und dem Objekt als weitere Parameter die Geschwindigkeit des Kraftfahrzeugs, der Auffahrwinkel eines Rades des Kraftfahrzeugs zu einer Seite des Objekts und/oder eine Prädiktion der weiteren Trajektorie des Kraftfahrzeugs (Fahrschlauch) berücksichtigt werden. Je höher die Geschwindigkeit des Kraftfahrzeugs ist, desto kritischer ist die Höhe des Objekts zu bewerten. Auch der Auffahrwinkel ist relevant, nachdem sich beispielsweise ein hohes Hindernis bei einem senkrechten Auffahren eher bewältigen lässt als bei einem schrägen Auffahren oder dergleichen. Durch die Vorhersage der Fahrspur der Räder im Rahmen der Trajektorienprädiktion kann ermittelt werden, ob das Rad überhaupt auf das Objekt auftrifft und wenn ja, wie das Rad auf das Objekt auftrifft. Als weiterer Parameter kann auch die Höhe des oder der Räder des Kraftfahrzeugs betrachtet werden, die in Kontakt mit dem Objekt treten. Je höher das Rad ist, desto höhere Hindernisse können ohne Beschädigung befahren werden.
  • Ergebnis der eben dargestellten Betrachtung ist wenigstens ein Gefährdungswert, in dessen Abhängigkeit Maßnahmen ergriffen werden können, beispielsweise eine Information an den Fahrer ausgegeben werden, die beispielsweise eine Warnung und/oder eine Lenkempfehlung umfassen kann. Die Information kann wie grundsätzlich bekannt optisch, akustisch und/oder haptisch ausgegeben werden. Möglich ist auch als Maßnahme ein automatischer Fahreingriff in die Fahrzeuglängs- und -querdynamik. Ersichtlich besteht eine Vielzahl von Möglichkeiten, um die aus den Kameradaten gewonnenen Informationen vorteilhaft zu nutzen.
  • Neben dem Verfahren betrifft die vorliegende Erfindung auch ein Kraftfahrzeug, umfassend ein Fahrerassistenzsystem zum Schutz eines Kraftfahrzeugs vor Beschädigungen, welches zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist. Sämtliche Ausführungen bezüglich der erfindungsgemäßen Verfahren lassen sich analog auf das erfindungsgemäße Kraftfahrzeug übertragen, so dass auch damit die erfindungsgemäßen Vorteile erreicht werden können. Insbesondere umfasst ein solches Kraftfahrzeug üblicherweise eine Steuereinrichtung, die dem Fahrerassistenzsystem zugeordnet ist, welche beispielsweise die Auswertung der zweidimensionalen Bilder der ebenso vom Kraftfahrzeug umfassten Kamera übernehmen kann. Geeignete Odometriesensoren liefern Informationen über die Aufnahmeorte.
  • Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnung. Dabei zeigen:
  • 1 ein erfindungsgemäßes Kraftfahrzeug,
  • 2 eine Skizze zum Ablauf des erfindungsgemäßen Verfahrens, und
  • 3 eine Skizze zur Nutzung von Informationen über Polygonzüge bei der Auswertung der Bilder.
  • 1 zeigt eine Prinzipskizze eines erfindungsgemäßen Kraftfahrzeugs 1. Es umfasst ein Fahrerassistenzsystem 2 zum Schutz des Kraftfahrzeugs 1, insbesondere der Räder, vor Beschädigungen. Der Betrieb des Fahrerassistenzsystems 2 wird dabei von einer Steuereinrichtung 3 gesteuert, die im Übrigen zur Durchführung des erfindungsgemäßen Verfahrens ausgebildet ist.
  • Das Kraftfahrzeug 1 umfasst ferner vier Kameras 4, 5, 6 und 7, die hier als Weitwinkel-Kameras ausgebildet sind. Die Kamera 5 ist an der Frontschürze des Kraftfahrzeugs 1 angeordnet, die Kamera 7 an einer Heckklappe des Kraftfahrzeugs 1, während die Kameras 4 und 6 am linken und am rechten Außenspiegel des Kraftfahrzeugs 1 befestigt sind. So decken die Erfassungsbereiche 8, 9, 10 und 11 den größten Teil des Nahbereich-Umfelds des Kraftfahrzeugs 1 ab. Die Bilder der Kameras 4 bis 7 werden der Steuereinrichtung 3 zur weiteren Auswertung zur Verfügung gestellt, beispielsweise über einen Fahrzeugbus oder eine andere Datenverbindung. Ferner erhält die Steuereinrichtung 3 Daten einer Odometriesensorik 12, aus denen die relativen Positionen des Kraftfahrzeugs 1 bei der Aufnahme zweidimensionaler Bilder durch die Kameras 4 bis 7 ermittelt werden kann.
  • Ferner steht die Steuereinrichtung 3, insbesondere über einen Fahrzeugbus, in Verbindung mit weiteren Fahrzeugsystemen 13, beispielsweise anderen Fahrerassistenzsystemen, Ausgabemitteln oder auch Steuergeräten, beispielsweise einem Bremsensteuergerät oder einem Lenksteuergerät, über die Einfluss auf die Längs- und Querführung des Kraftfahrzeugs 1 genommen werden kann.
  • Es sei an dieser Stelle angemerkt, dass die Bilder der Kameras 4 bis 7 auch für weitere Fahrerassistenzsysteme ausgewertet und verwendet werden, hier ein sog. „Top-View-System”, welches die Darstellung des Kraftfahrzeugs und umgebender Objekte in einer Draufsicht erlaubt, eine Einparkhilfe und ein Stauassistenzsystem.
  • Hierzu werden aus den Bildern der Kameras 4 bis 7 ermittelte dreidimensionale Positionsdaten von Objekten in der Umgebung des Kraftfahrzeugs 1 in ein dreidimensionales Umfeldmodell eingetragen, das hier als Belegungskarte ausgebildet ist und beispielsweise in der Steuereinrichtung 3, aber auch an anderer Stelle im Kraftfahrzeug 1, abgelegt sein kann. Um dreidimensionale Positionsdaten aus den zweidimensionalen Bildern der Kameras 4 bis 7 zu erhalten, wird im Rahmen des erfindungsgemäßen Verfahrens ein Motion-Stereo-Verfahren eingesetzt, wie es im Stand der Technik grundsätzlich bekannt ist.
  • Das erfindungsgemäße Verfahren zum Betrieb des Fahrerassistenzsystems 2 soll im Folgenden mit Bezug auf 2 näher erläutert werden.
  • Die Bilder 14 der Kameras 4 bis 7 werden dabei auf zweierlei Art ausgewertet. Zum einen sollen in einem Schritt 15 im Rahmen des Motion-Stereo-Verfahrens dreidimensionale Positionsdaten von in der Umgebung des Kraftfahrzeugs 1, konkret in einem der Erfassungsbereiche 8 bis 11, befindlichen Objekten ermittelt werden. Hierzu werden zeitlich aufeinanderfolgend aufgenommene Bilder der Kameras 4 bis 7 betrachtet, wobei sich das Kraftfahrzeug 1 zwischen den Aufnahmezeitpunkten bewegt hat, das bedeutet, die jeweils gemeinsam betrachteten Kamerabilder 14 sind an unterschiedlichen Aufnahmeorten aufgenommen worden. Die relativen Aufnahmeorte wenigstens zweier zur Ermittlung dreidimensionaler Positionsdaten gemeinsam zu betrachtender Bilder können durch die Odometriedaten 16 der Odometriesensorik 12 auf bekannte Art und Weise bestimmt werden.
  • Unter Berücksichtigung der Aufnahmeorte und/oder eines Korrespondenzalgorithmus werden im Rahmen des Motion-Stereo-Verfahrens miteinander korrespondierende Punkte in den unterschiedlichen Bildern aufgefunden, die das gleiche Umgebungsmerkmal zeigen. Ist diese Korrespondenz erst bekannt, so ist es möglich, dreidimensionale Positionsdaten zu dem entsprechenden Bildpunkt und damit zu den Objekten in der Umgebung des Kraftfahrzeugs 1 zu erhalten.
  • Vorliegend werden die dreidimensionalen Positionsdaten dann in einem Schritt 17 in ein Umfeldmodell eingetragen, das hier als eine Belegungskarte ausgebildet ist. Die erfassbare Umgebung des Kraftfahrzeugs 1 wird dabei in gleich große Volumina, beispielsweise Würfel oder dergleichen eingeteilt, denen zugeordnet wird, ob sie belegt sind, frei sind oder ob ihr Belegungszustand unbekannt ist. Selbstverständlich sind jedoch auch andere Umfeldmodelle denkbar, beispielsweise solche, in denen Objekte bereits grundsätzlich in ihrer Gesamtheit klassifiziert und betrachtet werden oder in denen betrachtete Volumina unterschiedlich groß sind. In jedem Fall ist das Umfeldmodell dazu geeignet, daraus die einzelnen Objekte in der Umgebung des Kraftfahrzeugs 1 zu extrahieren.
  • Nachdem das Motion-Stereo-Verfahren zur Bestimmung der dreidimensionalen Positionsdaten jedoch gewissen Fehlern unterworfen sein kann, werden die Bilder 14 im vorliegenden Falle parallel in einem Schritt 18 auch zweidimensional ausgewertet, in dem Kanten, insbesondere Hell-Dunkel-Übergänge, detektiert werden, gegebenenfalls nur in relevanten Bereichen.
  • Als Ergebnis ergeben sich Polygonzüge, die genutzt werden können, um die dreidimensionalen Positionsdaten und/oder das Umfeldmodell zu plausibilisieren und gegen zu testen. Dies sei durch die Skizze in 3 näher erläutert, die beispielhaft einen Belegungsverlauf 19 in einer zur Fahrtrichtung Z des Kraftfahrzeugs senkrechten, vertikalen Ebene (XY) zeigt. Ersichtlich ergibt sich ein Höhensprung 20, der einem Randstein zuzuordnen sein könnte. Existiert nun an dieser Stelle auch eine senkrecht hierzu verlaufende Kante 21 des Polygonzuges, können folglich die dreidimensionalen Positionsdaten plausibilisiert und/oder ergänzt werden.
  • Es sei an dieser Stelle angemerkt, dass die Berücksichtigung der ermittelten Polygonzüge im Schritt 15 und auch im Schritt 17 erfolgen kann. Weiter sei darauf hingewiesen, dass die zweidimensionale Auswertung in Schritt 18 auch verwendet werden kann, um interessierende Bereiche entweder für die Ermittlung der dreidimensionalen Positionsdaten, aber auch für die nun folgende Auswertung des Umfeldmodells bereitzustellen.
  • In einem Schritt 22 werden nun die durch das Umfeldmodell beschriebenen Objekte als potentielle Hindernisse für das Kraftfahrzeug 1 ausgewertet, um einen Gefährdungswert zu bestimmen, der letztlich angibt, wie groß die Gefahr einer Beschädigung des Kraftfahrzeugs 1 durch das Hindernis ist. Dabei werden in einem ersten Schritt relevante Objekte ausgewählt, beispielsweise aufgrund ihrer Höhe relativ zum Reifenaufstandspunkt des Kraftfahrzeugs 1. Sodann wird beurteilt, ob die relevanten Objekte Gefährdungen für das Kraftfahrzeug 1 darstellen. Hierbei werden zusätzliche Informationen berücksichtigt, nämlich der Abstand des Objekts von einer Außenkante des Kraftfahrzeugs 1, die Geschwindigkeit des Kraftfahrzeugs 1, die weitere Trajektorie des Kraftfahrzeugs 1, insbesondere seiner Räder, der Auffahrwinkel eines betreffenden Rades auf das Objekt und nicht zuletzt die Höhe des entsprechenden Rades, da aus diesen Größen abgeschätzt werden kann, ob tatsächlich eine Beschädigung des Kraftfahrzeugs 1 zu befürchten steht.
  • In einem Schritt 23 wird dann überprüft, ob der Gefährdungswert ein oder mehrere Schwellwerte übersteigt, an die Maßnahmen geknüpft sind. Diese Maßnahmen werden dann in einem Schritt 24 ausgeführt, wobei solche Maßnahmen beispielsweise eine Information des Fahrers, insbesondere eine Warnung und/oder eine Lenkanweisung, und/oder gar einen Lenkeingriff selber umfassen können. Eine Vielzahl grundsätzlicher aus dem Stand der Technik bekannter Maßnahmen kann hier eingesetzt werden.

Claims (7)

  1. Verfahren zum Betrieb eines Fahrerassistenzsystems (2) zum Schutz eines Kraftfahrzeugs (1), insbesondere wenigstens eines Rades, vor Beschädigungen, wobei mittels wenigstens eines Sensors dreidimensionale Positionsdaten wenigstens eines eine potentielle Gefährdung darstellenden Objekts in der Umgebung des Kraftfahrzeugs (1), insbesondere eines Randsteins, ermittelt und zur Ermittlung eines Gefährdungswertes ausgewertet werden, wobei abhängig von dem Gefährdungswert bei einer vorliegenden Gefährdung eine Information an einen Fahrer ausgegeben wird und/oder ein Fahreingriff vorgenommen wird, wobei als Sensor eine ein zweidimensionales Bild (14) wenigstens eines Teils (8, 9, 10, 11) der Umgebung des Kraftfahrzeugs (1) liefernde Kamera (4, 5, 6, 7), insbesondere eine Weitwinkelkamera, verwendet wird, wobei zur Detektion des Objekts aus zwei von unterschiedlichen Positionen des Kraftfahrzeugs (1) aufgenommen Bildern (14) mittels eines Motion-Stereo-Verfahrens die dreidimensionalen Positionsdaten des in den Bildern (14) sichtbaren Objekts unter Berücksichtigung der Aufnahmeorte ermittelt werden, dadurch gekennzeichnet, dass in den zweidimensionalen Bildern (14) wenigstens ein Kantenverläufe beschreibender Polygonzug (21) ermittelt wird, wobei anhand des Polygonzuges (21) ein Abgleich mit den dreidimensionalen Positionsdaten und/oder dem Umfeldmodell erfolgt und/oder interessierende Bereiche für die Ausführung des Motion-Stereo-Verfahrens und/oder die Bestimmung des Gefährdungswertes definiert werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Aufnahmeorte der Bilder (14) anhand von Odometriedaten des Kraftfahrzeugs (1) ermittelt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass im Rahmen des Motion-Stereo-Verfahrens in den beiden Bildern (14) korrespondierende Punkte anhand der Aufnahmeorte und/oder eines auf den Bilddaten arbeitenden Korrespondenzalgorithmus identifiziert werden und für die korrespondierenden Punkte eine dreidimensionale Position bestimmt wird.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das detektierte Objekt anhand seiner Positionsdaten in ein dreidimensionales, insbesondere als Belegungskarte ausgebildetes Umfeldmodell eingetragen wird.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens zwei, insbesondere vier, unterschiedliche Bereiche (8, 9, 10, 11) des Umfelds des Kraftfahrzeugs (1) abdeckende Kameras (4, 5, 6, 7) verwendet werden.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens eine an einem Außenspiegel angeordnete Kamera (4, 6) und/oder eine an einer Frontschürze des Kraftfahrzeugs (1) angeordnete Kamera (5) und/oder eine an einer Heckklappe des Kraftfahrzeugs (1) angeordnete Kamera (7) verwendet werden.
  7. Kraftfahrzeug (1), umfassend ein Fahrerassistenzsystem (2) zum Schutz des Kraftfahrzeugs (1) vor Beschädigungen, ausgebildet zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche.
DE102011014699.7A 2011-03-22 2011-03-22 Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug Active DE102011014699B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011014699.7A DE102011014699B4 (de) 2011-03-22 2011-03-22 Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011014699.7A DE102011014699B4 (de) 2011-03-22 2011-03-22 Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug

Publications (2)

Publication Number Publication Date
DE102011014699A1 DE102011014699A1 (de) 2012-09-27
DE102011014699B4 true DE102011014699B4 (de) 2015-10-29

Family

ID=46831580

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011014699.7A Active DE102011014699B4 (de) 2011-03-22 2011-03-22 Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102011014699B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016217637A1 (de) 2016-09-15 2018-03-15 Volkswagen Aktiengesellschaft Odometrie-Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011087894A1 (de) * 2011-12-07 2013-06-13 Robert Bosch Gmbh Verfahren und Fahrzeugassistenzsystem zur aktiven Warnung und/oder zur Navigationshilfe zur Vermeidung einer Kollision eines Fahrzeugkarosserieteils und/oder eines Fahrzeugrades mit einem Objekt
DE102012219735A1 (de) * 2012-10-29 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Bildverarbeitung von Bilddaten
US10093247B2 (en) * 2013-05-23 2018-10-09 GM Global Technology Operations LLC Enhanced front curb viewing system
DE102013010010B4 (de) * 2013-06-14 2022-02-10 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
DE102013214305A1 (de) 2013-07-22 2015-01-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Vermeidung einer Kollision eines Fahrzeuges mit mindestens einem Objekt, Fahrerassistenzsystem und Fahrzeug
DE102013019371A1 (de) 2013-11-19 2015-05-21 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeugs vor Beschädigungen bei einem Rangiervorgang und Kraftfahrzeug
CN104691415B (zh) * 2013-12-07 2017-02-01 惠州市德赛西威汽车电子股份有限公司 全景泊车辅助装置
DE102014205202A1 (de) * 2014-03-20 2015-09-24 Volkswagen Aktiengesellschaft Kraftfahrzeug mit ultraschallbasierter Abstandsmessung bei langsamer Fahrt
DE102014006547A1 (de) 2014-05-06 2015-11-12 Audi Ag Fahrerassistenzsystem für ein Kraftfahrzeug und Verfahren zum Ausgeben einer Warnung
DE102014006546A1 (de) 2014-05-06 2015-11-12 Audi Ag Kraftfahrzeug
DE102015203016B4 (de) 2015-02-19 2019-08-01 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102016111079A1 (de) * 2016-06-17 2017-12-21 Valeo Schalter Und Sensoren Gmbh Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem
DE102016215840A1 (de) 2016-08-23 2018-03-01 Volkswagen Aktiengesellschaft Verfahren zur Erfassung von im Fahrzeugumfeld befindlichen Bordsteinen
US10066946B2 (en) 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
DE102017207483A1 (de) * 2016-12-15 2018-06-21 Continental Teves Ag & Co. Ohg Steuervorrichtung für ein fahrzeug, bremsensteuergerät und verfahren zur steuerung eines fahrzeugs
US11093759B2 (en) 2018-03-06 2021-08-17 Here Global B.V. Automatic identification of roadside objects for localization

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10059900A1 (de) * 2000-12-01 2002-06-13 Daimler Chrysler Ag Darstellung von bildhafter Umgebungsinformation
DE102004047130A1 (de) * 2004-09-27 2006-04-13 Daimlerchrysler Ag Umgebungsmodellierung für autonome mobile Systeme
DE60020420T2 (de) * 1999-02-16 2006-05-04 Mitsubishi Denki K.K. Situationsdarstellungs-Anzeigesystem
DE102009016562A1 (de) * 2009-04-06 2009-11-19 Daimler Ag Verfahren und Vorrichtung zur Objekterkennung
DE102008028222A1 (de) * 2008-06-13 2009-12-17 Volkswagen Ag Verfahren und Vorrichtung zur Abstands- und Höhenbestimmung eines Fahrzeughindernisses und zur automatischen Verhinderung einer Beschädigung eines Fahrzeugs
US20100085427A1 (en) * 2008-10-07 2010-04-08 Industrial Technology Research Institute Image-based vehicle maneuvering assistant method and system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60020420T2 (de) * 1999-02-16 2006-05-04 Mitsubishi Denki K.K. Situationsdarstellungs-Anzeigesystem
DE10059900A1 (de) * 2000-12-01 2002-06-13 Daimler Chrysler Ag Darstellung von bildhafter Umgebungsinformation
DE102004047130A1 (de) * 2004-09-27 2006-04-13 Daimlerchrysler Ag Umgebungsmodellierung für autonome mobile Systeme
DE102008028222A1 (de) * 2008-06-13 2009-12-17 Volkswagen Ag Verfahren und Vorrichtung zur Abstands- und Höhenbestimmung eines Fahrzeughindernisses und zur automatischen Verhinderung einer Beschädigung eines Fahrzeugs
US20100085427A1 (en) * 2008-10-07 2010-04-08 Industrial Technology Research Institute Image-based vehicle maneuvering assistant method and system
DE102009016562A1 (de) * 2009-04-06 2009-11-19 Daimler Ag Verfahren und Vorrichtung zur Objekterkennung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016217637A1 (de) 2016-09-15 2018-03-15 Volkswagen Aktiengesellschaft Odometrie-Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs, Steuervorrichtung und Kraftfahrzeug

Also Published As

Publication number Publication date
DE102011014699A1 (de) 2012-09-27

Similar Documents

Publication Publication Date Title
DE102011014699B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Schutz eines Kraftfahrzeuges vor Beschädigungen und Kraftfahrzeug
EP3386825B1 (de) Verfahren zum erkennen einer möglichen kollision zwischen einem kraftfahrzeug und einem objekt unter berücksichtigung einer räumlichen unsicherheit, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
EP3084466B1 (de) Verfahren zum detektieren einer auf einem boden aufgebrachten markierung, fahrerassistenzeinrichtung und kraftfahrzeug
DE102010030213B4 (de) Einparkhilfesystem für Querparklücken
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
EP2991874B1 (de) Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
EP2273471B1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs
DE102014107917A1 (de) Verfahren und Vorrichtung zum Vermeiden einer Kollision eines ein Kraftfahrzeug und einen Anhänger umfassenden Gespanns mit einem Hindernis
DE102014210043A1 (de) Verfahren zur Durchführung eines Einparkvorgangs eines Fahrzeugs in eine Querparklücke, sowie entsprechendes Computerprogramm und Einparkassistent
EP2043896A1 (de) Verfahren und vorrichtung zur vermeidung und/oder minderung der folgen von kollisionen
EP2982572B1 (de) Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim ausparken, fahrerassistenzsystem und kraftfahrzeug
WO2014161691A1 (de) Verfahren und vorrichtung zum führen eines fahrzeugs im umfeld eines objekts
DE102009047066A1 (de) Verfahren zur Warnung vor einem Objekt in der Umgebung eines Fahrzeugs sowie Fahrassistentensystem
WO2015120953A1 (de) Verfahren zum betrieb eines fahrerassistenzsystems für überholvorgänge und kraftfahrzeug
DE102011116822A1 (de) Überwachungssystem zur Überwachung des Umfeldes von Fahrzeugen, insbesondere von Kraft- und/oder Nutzfahrzeugen
WO2014041209A1 (de) Verfahren zum bestimmen der ausrichtung einer parklücke, parkassistenzsystem und kraftfahrzeug
DE102009039085A1 (de) Verfahren zum Manövrieren eines Fahrzeugs sowie Fahrerassistenzsystem und Parkassistenzsystem für ein Fahrzeug
WO2013072127A1 (de) Verfahren zur unterstützung eines fahrers bei einem einparkmanöver
DE102019202026A1 (de) Verfahren und Steuereinrichtung zur Fahrzeugkollisionsvermeidung
DE102016117712A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018217746A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102013021827A1 (de) Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs vor einer Kollisionsgefahr durch Ausgeben eines nicht-optischen Warnsignals, Kollisionswarnungssystem und Kraftfahrzeug
DE102010056438A1 (de) Verfahren und Fahrerassistenzsystem zum automatischen Führen eines Kraftfahrzeugs und Kraftfahrzeug
EP2694356B1 (de) Parkassistenzsystem mit seitenbegrenzungsdetektion
DE102016111079A1 (de) Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final