[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102016212326A1 - Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs - Google Patents

Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs Download PDF

Info

Publication number
DE102016212326A1
DE102016212326A1 DE102016212326.2A DE102016212326A DE102016212326A1 DE 102016212326 A1 DE102016212326 A1 DE 102016212326A1 DE 102016212326 A DE102016212326 A DE 102016212326A DE 102016212326 A1 DE102016212326 A1 DE 102016212326A1
Authority
DE
Germany
Prior art keywords
sensor data
vehicle
sensor
data
pose information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016212326.2A
Other languages
English (en)
Inventor
Hans-Leo Ross
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102016212326.2A priority Critical patent/DE102016212326A1/de
Priority to CN201710542380.5A priority patent/CN107590768B/zh
Publication of DE102016212326A1 publication Critical patent/DE102016212326A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/023Avoiding failures by using redundant parts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs (100), wobei zumindest Sensordaten eines ersten Sensors (111, 112, 113, 114, 115) als erste Sensordaten und Sensordaten eines zweiten Sensors (111, 112, 113, 114, 115) als zweite Sensordaten erfasst werden, wobei aus den ersten Sensordaten erste Poseinformationen bestimmt werden, welche die Position und/oder Orientierung des Fahrzeugs (100) zu einem Referenzzeitpunkt beschreiben, und wobei aus den zweiten Sensordaten zweite Poseinformationen bestimmt werden, welche die Position und/oder Orientierung des Fahrzeugs (100) zu dem Referenzzeitpunkt beschreiben.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs sowie eine Recheneinheit und ein Computerprogramm zu dessen Durchführung.
  • Stand der Technik
  • Für Fahrassistenzfunktionen eines Fahrzeugs, wie z.B. Spurhalteassistenten, Abstandsregeltempomat, automatische Längsführung usw., kann mittels Sensoren wie z.B. Kamera, Radargerät, Lidargerät usw. die Umgebung des Fahrzeugs messtechnisch erfasst werden. Entsprechende mit den Sensoren erfasste Sensordaten können ausgewertet und basierend auf diesen ausgewerteten Sensordaten Eingriffe in die Fahrzeugführung durchgeführt werden, beispielsweise indem Aktoren des Fahrzeugs entsprechend angesteuert werden. Im Zuge des sog. autonomen Fortbewegens steuert sich ein Fahrzeug selbsttätig ohne Eingreifen eines Fahrers. Analog zu Fahrassistenzfunktionen wird dabei eine Vielzahl von Fahrzeugfunktionen wie Lenkung, Bremsung, Antrieb usw. automatisch durch das Fahrzeug gesteuert.
  • Für derartige Fahrassistenzfunktionen und für das autonome Fortbewegen ist es von Bedeutung, dass die Sensordaten, basierend auf welchen in die Fahrzeugführung eingegriffen wird, integer sind, um eine Gefährdung von Insassen des Fahrzeugs oder weiterer Verkehrsteilnehmer sowie eine Beschädigung des Fahrzeugs sowie weiterer Fahrzeuge zu verhindern. Eine hinreichende Datenintegrität (Vertrauensgrad der Dateninformation) ist notwendig, um gesicherte aktive Eingriffe in die Fahrzeugführung durchführen zu können.
  • Die Datenintegrität umfasst unterschiedliche Integritätsarten, insbesondere korrekter Inhalt (diese Integritätsart liegt vor, wenn Sachverhalte der realen Welt korrekt abgebildet werden), unmodifizierter Zustand (diese Integritätsart liegt vor, wenn Nachrichten unverändert zugestellt werden und Programme und Prozesse wie beabsichtigt ablaufen) und Erkennung von Modifikation (diese Integritätsart liegt vor, wenn unerwünschte Modifikationen, die nicht verhindert werden können, zumindest erkannt werden).
  • Beispielsweise ist aus der DE 10 2012 215 343 A1 ein Verfahren zum Durchführen einer Sicherheitsfunktion eines Fahrzeugs bekannt, z.B. eines Notbremsassistenten oder eines Ausweichassistenten. Daten, die für das Durchführen der Sicherheitsfunktion erforderlich sind, werden auf eine Steuereinheit des Fahrzeugs übertragen und die Steuereinheit erzeugt in Abhängigkeit von diesen übertragenen Daten Steuersignale. In zeitlichen Abständen werden dabei Diagnosetests wiederholt durchgeführt, mit welchen überprüft wird, ob in einem oder mehreren zum Durchführen des Verfahrens verwendeten elektrischen, elektronischen und/oder programmierbaren Systemen eine Störung besteht, die die Durchführung der Sicherheitsfunktion beeinträchtigen kann. Zu diesem Zweck werden Metadaten der Daten auf die Steuereinheit übertragen, welche Informationen über die zum Durchführen des Verfahrens verwendeten Systeme beinhalten. Unter Verwendung dieser Informationen wird mindestens ein Zuverlässigkeitswert der Daten ermittelt, der unter anderem von der Wahrscheinlichkeit für das Auftreten von Störungen abhängt. In Abhängigkeit von dem mindestens einen Zuverlässigkeitswert wird geprüft, ob die übertragenen Daten für das Durchführen der Sicherheitsfunktion hinreichend zuverlässig sind.
  • Offenbarung der Erfindung
  • Erfindungsgemäß werden ein Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs sowie eine Recheneinheit und ein Computerprogramm zu dessen Durchführung mit den Merkmalen der unabhängigen Patentansprüche vorgeschlagen. Vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche sowie der nachfolgenden Beschreibung.
  • Das Fahrzeug kann zweckmäßigerweise als ein Landfahrzeug, insbesondere Kraft-, Hybrid- oder Elektrofahrzeug, Personen- oder Nutzfahrzeug ausgebildet sein, z.B. als Pkw, Lkw, Motorrad, Bus, Zug usw usw. Es ist auch denkbar, dass das Fahrzeug als ein abseits von befestigten Straßen betreibbares Fahrzeug ausgebildet ist, z.B. als Geländefahrzeug (Unimog, Amphibienfahrzeug, Pistenraupe usw.), ATV (All-Terrain Vehicle, z.B. ein Quad) oder Schneemobil. Insbesondere kann das Fahrzeug auch als ein Luft- oder Wasserfahrzeug ausgebildet sein, z.B. als Flugzeug, Hubschrauber, Boot, Jetski usw. Das Fahrzeug kann von einem Fahrzeugführer bzw. Fahrer gesteuert werden oder auch ein unbemanntes, ferngesteuertes Fahrzeug sein, z.B. eine Drohne.
  • Im Rahmen des Verfahrens werden zumindest Sensordaten eines ersten Sensors als erste Sensordaten und Sensordaten eines zweiten Sensors als zweite Sensordaten erfasst. Aus den ersten Sensordaten werden erste Poseinformationen bestimmt, welche die Position und/oder Orientierung des Fahrzeugs zu einem Referenzzeitpunkt beschreiben. Analog werden aus den zweiten Sensordaten zweite Poseinformationen bestimmt, welche ebenfalls die Position und/oder Orientierung des Fahrzeugs zu dem Referenzzeitpunkt beschreiben. Die Poseinformationen beschreiben somit insbesondere jeweils, an welcher konkreten Position und/oder in welcher konkreten Orientierung in Bezug auf ein Referenzkoordinatensystem sich das Fahrzeug zu dem Referenzzeitpunkt befindet.
  • Im Rahmen des Verfahrens werden somit Sensordaten von verschiedenen Sensoren insbesondere zeitlich und örtlich kalibriert, d.h. in einen zeitlichen und örtlichen Kontext gebracht bzw. räumlich und zeitlich in ein festes Raster hineindefiniert. Verschiedene Sensordaten werden somit vergleichbar und können repräsentativ und aussagekräftig miteinander verglichen werden. Durch örtliches Kalibrieren wird gewährleistet, dass die Sensoren zumindest teilweise denselben Bereich überwachen und somit Sensordaten desselben Bereichs erfassen. Somit kann eine erste Überlappung der Sensordaten erreicht werden. Durch zeitliches Kalibrieren wird darüber hinaus gewährleistet, dass dieser gemeinsame Bereich von den Sensoren zum selben konkreten Zeitpunkt erfasst wird. Somit wird eine weitere Überlappung der Sensordaten erreicht.
  • Durch zeitliches Kalibrieren kann insbesondere eine zeitliche Integrität der Sensordaten erzielt werden. Insbesondere kann ein erstes Zeitintervall zwischen dem Zeitpunkt, zu welchem eine (optische) Information gesendet wird, und dem Zeitpunkt, zu welchem die Information von dem entsprechenden Sensor detektiert wird (optisch-elektrische Wandlung), kompensiert werden. Weiterhin können insbesondere ein zweites Zeitintervall zwischen Anregung des Sensors und Erzeugung eines entsprechenden elektrischen Signals (physikalisch-elektrische Wandlung) sowie die jeweilige Signallaufzeit dieses Signals kompensiert werden.
  • In Abhängigkeit von der Anzahl der Poseinformationen bzw. Sensoren bieten sich nun vorteilhafterweise unterschiedliche Möglichkeiten, wie mit den Informationen weiter verfahren werden kann.
  • Gemäß einer bevorzugten Weiterbildung werden die von unterschiedlichen Sensoren stammenden ersten und zweiten Poseinformationen miteinander verglichen und aus diesem Vergleich wird eine Integrität bzw. Datenintegrität der ersten Sensordaten und der zweiten Sensordaten bestimmt. Es versteht sich, dass auch Sensordaten von mehr als zwei Sensoren miteinander verglichen und eine Integrität dieser Vielzahl von Sensordaten bestimmt werden kann.
  • Die Sensordaten können somit plausibilisiert werden. Idealerweise sollte die Position bzw. Orientierung des Fahrzeugs, welche durch die von unterschiedlichen Sensoren stammenden Poseinformationen beschrieben wird, identisch sein und die tatsächliche Position bzw. Orientierung des Fahrzeugs wiedergeben. Je genauer die von unterschiedlichen Sensoren stammenden Poseinformationen also übereinstimmen, desto höher ist die Datenintegrität der entsprechenden Sensordaten. Eine Möglichkeit zur Bestimmung der Integrität basiert auf einer Bestimmung eines Überlappungsgrades von in den Sensordaten enthaltenen Informationen. Wenn unterschiedliche Sensoren in Zeit und Raum dasselbe erkennen, wenn also die entsprechenden Sensordaten zeitlich und örtlich überlappen, besitzen diese Daten einen erhöhten Integritätsgrad.
  • Beispielsweise kann ein entsprechender Integritätswert bestimmt werden, welcher beispielsweise zwischen 0 (schlecht) und 1 (gut) bzw. zwischen 0% und 100% liegen kann. Es kann ein Schwellwert definiert werden, wobei die Sensordaten als nicht ausreichend integer bewertet werden, wenn der Integritätswert diesen Schwellwert nicht erreicht. Hierdurch wird es insbesondere möglich, auch unscharfe "Sensor"daten (z.B. Ausgabedaten von neuronalen Netzen, Kalman-Filtern, andere statistische erfasste Daten usw.) in die Integritätsbestimmung einzubeziehen.
  • Weiterhin können durch das Verfahren Angriffe auf das Fahrzeug, insbesondere auf die Fahrzeugführung, leicht erkannt werden. Um sich Zugriff auf das Fahrzeug zu verschaffen und im Zug eines Angriffs auf die Fahrzeugführung Einfluss zu nehmen, müsste es einem Angreifer gelingen, Daten in das Fahrzeug einzubringen, welche mit den von den Sensoren erfassten Sensordaten übereinstimmen und mit diesen Sensordaten plausibilisiert werden können. Der Angreifer müsste somit das nachbilden, was die unterschiedlichen Sensoren zu jedem konkreten Zeitpunkt erfassen. Andernfalls könnte durch den Vergleich der Sensordaten sofort bemerkt werden, dass es sich um keine echten Sensordaten, sondern um einen Angriff handelt. Es ist jedoch nahezu ausgeschlossen, dass ein Angreifer die Sensordaten zu jedem konkreten Zeitpunkt exakt nachbilden kann, wodurch ein Angriff nahezu unmöglich ist.
  • Vorzugsweise werden für die Bestimmung der Integrität weiterhin Metadaten des ersten Sensors und/oder des zweiten Sensors berücksichtigt. Unter Metadaten seien in diesem Zusammenhang insbesondere Informationen zu verstehen, die beschreiben, mit welcher Güte bzw. Genauigkeit der jeweilige Sensor Sensordaten messtechnisch erfassen kann und/oder mit welcher Güte bzw. Genauigkeit diese erfassten Sensordaten von dem Fahrzeug bzw. dessen Steuergerät(en) ausgewertet werden können. Beispielsweise können diese Metadaten im Zuge eines Herstellungs- bzw. Entwicklungsprozesses der einzelnen Sensoren bestimmt werden, indem der Sensor präzise vermessen wird. Beispielsweise können diese Metadaten im Zuge des Herstellungsprozesses in dem Sensor selbst hinterlegt werden und von dem Sensor insbesondere an die entsprechende Recheneinheit, welche die Integrität im Rahmen des Verfahrens bestimmt, mitgeteilt werden. Diese Metadaten können auch während der Produktvalidierung als spezifische Kenngröße ermittelt werden.
  • Beispielsweise können die Metadaten Fehlerraten, Diagnosedeckungsgrad (Diagnostic Coverage DC) und/oder Buslaufzeiten der Sensoren oder andere implementierte fehlerbeherrschende Maßnahmen und deren Effizienz beschreiben. Beispielsweise können die Metadaten auch Wahrscheinlichkeiten beschreiben, z.B. Wahrscheinlichkeiten für das Auftreten von Störungen bzw. Fehlern, wie etwa systembedingte Hardware- oder Softwarefehler. Vorzugsweise kann der Integritätswert der ersten und zweiten Sensordaten in Abhängigkeit von diesen Metadaten bestimmt werden, insbesondere in Abhängigkeit von derartigen Wahrscheinlichkeiten für das Auftreten von Fehlern bzw. Störungen und/oder in Abhängigkeit von derartigen Fehlererraten.
  • Für eine detaillierte Erläuterung derartiger Metadaten sei an dieser Stelle auf die Offenlegungsschrift DE 10 2012 215 343 A1 verwiesen. Beispiele für mögliche Fehler und entsprechende Fehlerraten sind etwa in Absatz [0030] dieser Offenlegungsschrift gegeben. Weiterhin sind detaillierte Ausführungen zu Metadaten, wie z.B. Fehlerraten, Diagnosedeckungsgrad, entsprechenden Wahrscheinlichkeiten, sowie zu der Bestimmung eines Integritätswertes von Daten in Abhängigkeit von derartigen Metadaten in dieser Offenlegungsschrift insbesondere in den Absätzen [0010] bis [0040] erläutert, auf welche an dieser Stelle vollumfänglich verwiesen wird.
  • Gemäß einer vorteilhaften Ausführung werden die ersten Poseinformationen und/oder die zweiten Poseinformationen mit Umgebungsinformationen verglichen, welche eine Umgebung des Fahrzeugs zu dem Referenzzeitpunkt beschreiben. Aus diesem Vergleich wird vorzugsweise die Integrität der ersten bzw. zweiten Sensordaten bestimmt. Insbesondere kann somit bewertet werden, wie zuverlässig die Sensordaten die Position und die Umgebung des Fahrzeugs beschreiben.
  • Beispielsweise können die Umgebungsinformationen die Straße beschreiben, auf welcher sich das Fahrzeug zu dem Referenzzeitpunkt bewegt. Derartige Umgebungsinformationen können beispielsweise aus Kartendaten eines Navigationssystems des Fahrzeugs oder aus dem Internet bzw. über eine drahtlose Datenverbindung oder auch von anderen Fahrzeugen bezogen werden.
  • Beispielsweise kann aus den Sensordaten die Position zu dem Referenzzeitpunkt relativ zu einem Referenzpunkt der Umgebung des Fahrzeugs bestimmt werden. Somit werden sowohl ein Referenzzeitpunkt als auch ein räumlicher Referenzpunkt bzw. Referenzraumpunkt (insbesondere ein markanter Punkt in der Umgebung des Fahrzeugs) vorgegeben, auf welche die Sensordaten bezogen werden können. Die Sensordaten können somit wie oben beschrieben zweckmäßigerweise in einen konkreten zeitlichen und örtlichen Kontext gebracht bzw. räumlich und zeitlich in ein festes Raster hineindefiniert werden. Die Sensordaten werden somit vergleichbar, repräsentativ und aussagekräftig.
  • Insbesondere durch Navigationsdaten können Sensoren effektiv plausibilisiert werden, so dass im Fahrzeug unabhängig von anderen Sensorsystemen eine hohe Integrität erreicht werden kann. Durch Vergleiche mit gesicherten Infrastrukturinformationen können die Sensordaten effektiv unabhängig von aktuellen Umgebungsbedingungen, z. B. der aktuellen Fahrzeuggeschwindigkeit, Luftdruck, Wetterbedingungen usw., plausibilisiert werden. Derartige unterschiedliche Umgebungsbedingungen können sich gegebenenfalls aufgrund der physikalischen Messprinzipien der Sensoren auf die Sensordaten auswirken.
  • Vorzugsweise wird ein Abstand des Fahrzeugs zu einem Referenzpunkt der Umgebung als erste Poseinformationen und/oder zweite Poseinformationen bestimmt. Dieser Referenzpunkt kann zweckmäßigerweise aus den Umgebungsinformationen entnommen werden. Beispielsweise kann ein markanter, eindeutig zu identifizierender Punkt in der Umgebung gewählt werden, wie beispielsweise eine Brücke, ein Pfeiler, eine Kreuzung, eine Einmündung, ein Baum, eine Fahrbahnmarkierung usw.
  • Wenn beispielsweise mittels Sensoren die Umgebung vor dem Fahrzeug erfasst wird, kann der jeweilige Referenzpunkt in entsprechenden Aufnahmen derartiger Sensoren identifiziert werden, z.B. mittels eines Objekterkennungsprogramms, und der Abstand kann jeweils berechnet werden. Somit kann anhand konkreter Referenzpunkte der Umgebung bewertet werden, wie präzise und zuverlässig die Sensoren Position und Umgebung des Fahrzeugs bestimmen können.
  • Insbesondere können auf diese Weise automatisch die aktuelle Situation, beispielsweise aktuelle Wetterverhältnisse, für die Bestimmung der Integrität berücksichtigt werden. Wenn beispielsweise aufgrund von Regen, Nebel, Schnee usw., schlechte Sichtverhältnisse herrschen, wird dies automatisch im Rahmen des Verfahrens erkannt. Wenn bei derartigen schlechten Sichtverhältnissen z.B. ein in 100 m vor dem Fahrzeug liegender Referenzpunkt (wie etwa eine Brücke) von optischen, insbesondere fahrzeugeigenen, Sensoren (wie Kamera, Radargerät, Lidargerät) nicht erkannt werden kann und somit ein entsprechender Abstand als Poseinformation nicht bestimmbar ist, werden die Sensordaten als entsprechend unzuverlässig eingestuft. Analog können die Sensordaten als unzuverlässig bewertet werden, wenn beispielsweise die Fahrbahnmarkierung als Referenzpunkt gewählt wird und wenn mit den optischen, insbesondere fahrzeugeigenen, Sensoren aufgrund schlechter Sichtverhältnisse die Fahrbahnmarkierung nur bis zu einem Abstand von 50 m vor dem Fahrzeug erkannt werden kann.
  • Vorzugsweise wird eine Position und/oder Orientierung des Fahrzeugs in einem Koordinatensystem als erste Poseinformationen und/oder zweite Poseinformationen bestimmt. Das Koordinatensystem kann dabei ein absolutes Koordinatensystem, z.B. das Weltkoordinatensystem, oder ein zeitlich variables Koordinatensystem, z.B. bezogen auf einen Referenzpunkt in der Umgebung als Ursprung, sein.
  • Mittels des Koordinatensystems (als räumliche Referenz) zu dem Referenzzeitpunkt (als zeitliche Referenz) können die Sensordaten insbesondere wie oben beschrieben in einen räumlichen und zeitlichen Kontext gebracht bzw. räumlich und zeitlich in ein festes Raster hineindefiniert werden.
  • Vorzugsweise ist der Referenzzeitpunkt durch eine Datenlaufzeit der ersten Sensordaten und/oder der zweiten Sensordaten bestimmt. Für unterschiedliche Sensoren können unterschiedliche, sensorindividuelle Datenlaufzeiten (Latenz) gelten. Das heißt es kann für unterschiedliche Sensoren unterschiedlich lange dauern, bis gemessene Sensordaten ausgewertet und die jeweiligen verwertbaren Informationen bestimmt sind. Unter einer derartigen Datenlaufzeit sei in diesem Zusammenhang insbesondere ein Zeitintervall zwischen einem ersten Zeitpunkt und einem zweiten Zeitpunkt zu verstehen, wobei die entsprechenden Sensordaten zweckmäßigerweise zu diesem ersten Zeitpunkt erfasst werden. Zu dem ersten Zeitpunkt wird der entsprechende Sensor insbesondere angeregt (optisch-elektrische bzw. physikalisch-elektrische Wandlung), beispielsweise weil in dem Sensor ein Spannungs- oder Strompuls erzeugt wird. Während des Zeitintervalls werden diese Sensordaten an eine Recheneinheit weitergeleitet, beispielsweise über ein Bussystem an ein Steuergerät, und ausgewertet. Zu diesem zweiten Zeitpunkt sind die Sensordaten zweckmäßigerweise ausgewertet und die entsprechende Poseinformation ist insbesondere bestimmt.
  • Die Datenlaufzeit kann beispielsweise von Buslaufzeiten oder von Datenübertragungszeiten abhängen, welche benötigt werden, um die vom Sensor erfassten Sensordaten in eine entsprechende Recheneinheit, z.B. in ein Steuergerät, zu übertragen, welche die Sensordaten auswertet. Weiterhin kann die Datenlaufzeit von einer Laufzeit abhängen, welche z.B. ein in der Recheneinheit ausgeführtes Programm benötigt, um die Sensordaten auszuwerten und die entsprechenden Information zu bestimmen.
  • Für Sensordaten unterschiedlicher Sensoren, welche gleichzeitig zu demselben ersten Zeitpunkt erfasst werden, können also zu unterschiedlichen zweiten Zeitpunkten die entsprechenden ausgewerteten Informationen in der Recheneinheit vorliegen. Durch das Verfahren können diese unterschiedlichen Datenlaufzeiten von unterschiedlichen Sensoren kompensiert werden. Es werden somit nicht Poseinformationen miteinander verglichen, welche zum selben zweiten Zeitpunkt erhalten werden, da diese gegebenenfalls auf Sensordaten basieren, welche zu verschiedenen ersten Zeitpunkten von den jeweiligen Sensoren erfasst wurden. Stattdessen werden Poseinformationen miteinander verglichen, welche die Position/Orientierung des Fahrzeugs zu demselben Referenzzeitpunkt beschreiben.
  • Der Referenzzeitpunkt kann insbesondere in der Vergangenheit liegen, beispielsweise mindestens um ein Zeitintervall vor dem aktuellen Zeitpunkt, welches der größten Datenlaufzeit der verglichenen Sensoren entspricht. Somit kann die Datenlaufzeit unterschiedlicher Sensoren kompensiert werden und es kann gewährleistet werden, dass nur synchrone Sensordaten miteinander verglichen werden, welche auf einen gemeinsamen zeitlichen Referenzzeitpunkt bezogen werden können.
  • Es ist auch denkbar, dass der Referenzzeitpunkt vorzugsweise in der Zukunft liegt. Insbesondere kann zu diesem Zweck eine zukünftige Position bzw. Orientierung des Fahrzeugs als Poseinformationen aus den Sensordaten extrapoliert werden. Durch Vergleich dieser entsprechenden Poseinformationen kann somit bewertet werden, wie zuverlässig die zukünftige Position des Fahrzeugs mittels der Sensordaten vorhergesagt werden kann und wie stark basierend auf dieser extrapolierten Position Eingriffe auf die Fahrzeugführung durchgeführt werden dürfen.
  • Das Verfahren bietet somit die Möglichkeit, repräsentativ bewerten zu können, wie integer erfasste Sensordaten sind. Insbesondere kann somit bewertet werden, wie präzise durch die Sensoren die tatsächliche Position des Fahrzeugs bestimmt werden kann. Anhand der bestimmten Integrität kann insbesondere bewertet werden, ob die Sensordaten integer genug sind, um für Fahrzeugfunktionen verwendet zu werden. Das Verfahren eignet sich daher insbesondere für Fahrassistenzfunktionen (z.B. Spurhalteassistent, Abstandsregeltempomat, automatische Längsführung usw.) und besonders vorteilhaft für ein autonomes Fortbewegen des Fahrzeugs, im Zuge dessen sich das Fahrzeug selbstständig steuert, insbesondere ohne Eingreifen eines Fahrzeugführers.
  • Vorteilhafterweise wird in Abhängigkeit von den ersten und zweiten Sensordaten ein automatischer Eingriff in die Fahrzeugführung durchgeführt. Besonders bevorzugt wird dieser Eingriff im Zuge des autonomen Fortbewegens durchgeführt. Es ist auch denkbar, dass der Eingriff vorteilhafterweise durch eine Fahrerassistenzfunktion durchgeführt wird. Die ersten und zweiten Sensordaten werden beispielsweise ausgewertet und weiterverarbeitet, um Eingangsdaten zu erzeugen, basierend auf welchen der Eingriff auf die Fahrzeugführung bzw. entsprechende Ansteuerdaten für Aktoren bestimmt wird. Beispielsweise kann im Zuge des autonomen Fortbewegens mittels der Sensoren die Umgebung des Fahrzeugs, insbesondere ein spezieller Bereich vor dem Fahrzeug, messtechnisch erfasst werden. Die entsprechenden Sensordaten werden ausgewertet, um beispielsweise die Straße, den Straßenrand, Fahrbahnmarkierungen sowie weitere Verkehrsteilnehmer erkennen zu können. Weiterhin werden im Zuge dieser Auswertung zweckmäßigerweise die relative Position und der Abstand des Fahrzeugs zu derartigen Objekten der Umgebung bestimmt. In Abhängigkeit davon werden zweckmäßigerweise automatische Eingriffe in die Fahrzeugführung (Lenkung, Bremse, Antrieb usw.) durchgeführt, um das Fahrzeug sicher auf der Straße (Land/Wasser/Luft) in sicherem Abstand zu den anderen Verkehrsteilnehmern zu bewegen. Somit kann das Fahrzeug in jeder beliebigen, sogar fremden Infrastruktur sicher bewegt werden.
  • Dabei gelten hohe Sicherheitsrichtlinien, da durch entsprechende automatische Eingriffe in die Fahrzeugführung keine Gefährdung der Insassen des Fahrzeugs sowie anderer Verkehrsteilnehmer, Gebäude usw. erfolgen darf. Durch die Bewertung der Integrität der Sensordaten kann gewährleistet werden, dass automatische Eingriffe, insbesondere im Zuge des autonomen Fortbewegens, sicher und zuverlässig durchgeführt werden, ohne dass Insassen und weitere Verkehrsteilnehmer gefährdet werden und ohne dass das Fahrzeug oder weitere Fahrzeuge bzw. die Umgebung beschädigt werden. Insbesondere können automatische Eingriffe durch das Verfahren gemäß den Sicherheitsstandards der Norm ISO 26262 bzw. gemäß dem darin definierten ASIL (Automotive Safety Integrity Level) durchgeführt werden. Weiter ist es möglich, die korrekte Funktion im Sinne der Produkthaftung nachweisen zu können.
  • Vorteilhafterweise wird in Abhängigkeit von der bestimmten Integrität der ersten Sensordaten und der zweiten Sensordaten bestimmt, wie stark der automatische Eingriff in die Fahrzeugführung durchgeführt wird, insbesondere wie stark auf Aktoren des Fahrzeugs Einfluss genommen wird. Somit wird eine differenzierte Bewertung ermöglicht und es kann bestimmt werden, wie stark im Zuge des autonomen Fortbewegens bzw. im Zuge von Fahrassistenzfunktionen auf die Fahrzeugführung eingegriffen werden darf.
  • Je integrer die Sensordaten, desto stärker darf dieser Eingriff erfolgen. Es können beispielsweise verschiedene Schwellwerte definiert werden, wobei die Eingriffsstärke jeweils reduziert wird, wenn der bestimmte Integritätswert einen dieser Schwellwerte erreicht. Beispielsweise ist auch eine kontinuierliche Anpassung der Eingriffsstärke denkbar, wenn der insbesondere zwischen 0 und 1 definierte Integritätswert mit der entsprechenden Eingriffsstärke multipliziert wird. Durch die reduzierte Dynamik wird das Risiko bei möglichen Fehleingriffen signifikant reduziert.
  • Bei geringer Integrität der Sensordaten werden demgemäß keine oder nur sehr schwache Eingriffe in die Fahrzeugführung erlaubt, beispielsweise nur eine vergleichsweise geringe Maximalgeschwindigkeit, keine abrupten Lenk- oder Bremsmanöver, sondern nur sehr sanfte Korrekturen der Längs- und Querführung. Somit wird das Fahrzeug beispielsweise im Zuge des autonomen Fortbewegens automatisch bei schlechten Sichtverhältnissen langsam und vorsichtig bewegt.
  • Beispielsweise kann auch die aktuelle Geschwindigkeit des Fahrzeugs reduziert werden, um eine Reduzierung eines potentiellen Schadensausmaßes bei Unfällen zu erreichen. Beispielsweise kann die Fahrgeschwindigkeit auf einen Wert von maximal 20 km/h reduziert werden, bei welchem keine lebensgefährlichen Verletzungen möglich sind. Weiterhin kann durch eine reduzierte Geschwindigkeit erreicht werden, dass mehr Daten pro Zeiteinheit gesammelt werden können, da sich ein Zeitintervall für das Zurücklegen einer bestimmten Strecke erhöht. Insbesondere können somit präzisere und zuverlässigere Daten gesammelt werden. Auch für die Plausibilisierung der Sensordaten steht somit mehr Zeit zur Verfügung.
  • Vorzugsweise wird als ein derartiger autonomer Eingriff in die Fahrzeugführung ein Eingriff auf eine Längs- und/oder Querführung des Fahrzeugs und/oder auf eine Bremse und/oder auf einen Antrieb in Abhängigkeit von den ersten Sensordaten und von den zweiten Sensordaten durchgeführt. Um derartige Eingriffe im Zuge des autonomen Fahrens bzw. im Zuge von Fahrassistenzfunktionen sicher und ohne Gefährdung durchzuführen, ist es insbesondere von Bedeutung, dass die Sensoren die aktuelle Position sowie das aktuelle Umfeld des Fahrzeugs präzise und zuverlässig bestimmen können.
  • Gemäß einer bevorzugten Weiterbildung werden weitere von anderen Sensoren stammende Poseinformationen mit den ersten und zweiten Poseinformationen verglichen. Aus diesem Vergleich werden zweckmäßigerweise Sensordaten mit einer im Vergleich zu den ersten und zweiten Sensordaten erhöhten Datenintegrität bestimmt. Vorzugsweise wird zur Erhöhung der Datenintegrität eine Abstimmung (sog. "Voting") über die Sensordaten der Sensoren durchgeführt. Dabei wird insbesondere überprüft, ob mindestens eine bestimmte Anzahl der Sensordaten bzw. deren Poseinformationen übereinstimmen bzw. im Wesentlichen übereinstimmen. Diese übereinstimmenden Sensordaten weisen insbesondere eine im Vergleich zu den ersten und zweiten Sensordaten erhöhte Datenintegrität auf.
  • Beispielsweise kann eine sog. 2 von 3 Abstimmung ("2 out of 3 voting", "2oo3") durchgeführt werden, im Zuge derer mindestens zwei von drei Sensordaten übereinstimmen müssen. Es kann auch eine 70 von 100 Abstimmung durchgeführt werden ("70 out of 100 voting", "70oo100"), im Zuge derer mindestens 70 von 100 Sensordaten übereinstimmen müssen. Somit kann eine hohe Fehlertoleranz und eine hohe Verlässlichkeit der Sensordaten erreicht werden. Beispielsweise können in die Abstimmung auch unscharfe Sensordaten, Sensordaten mit unterschiedlichen Datenlaufzeiten oder verrauschte Sensordaten eingebracht werden.
  • Es ist beispielsweise auch denkbar eine Abstimmung für Aktoren durchzuführen, insbesondere wenn unterschiedliche Steuereinheiten oder Funktionen auf zwei unabhängige Aktoren bzw. Aktorsysteme einwirken, z.B. auf ein erstes und ein zweites Aktorsystem zum Bremsen der Räder der Vorderachse bzw. der Hinterachse oder z.B. auf zwei unabhängige Aktorsysteme in Form von zwei unabhängigen Wicklungspaaren in einer elektrischen Maschine. Basierend auf den Integritäten kann zweckmäßigerweise abgestimmt werden, welche Steuereinheiten oder Funktionen auf die Aktoren einwirken.
  • Umfasst das Fahrzeug eine Sicherheitsarchitektur mit einer Vielzahl von Sensoren, ist es auch denkbar, aus dieser Vielzahl insbesondere spezielle Sensoren auszuwählen, deren Sensordaten miteinander verglichen werden. Beispielsweise können diejenigen Sensoren ausgewählt werden, welche unter aktuellen Umgebungs- und/oder Fortbewegungsbedingungen (gute Sichtverhältnisse – schlechte Sichtverhältnisse, schnelle Fortbewegung – langsame Fortbewegung, Autobahnfahrt – Landstraßenfahrt – Stadtfahrt, Helligkeit – Dunkelheit usw.) am Besten geeignet sind, Sensordaten bezüglich der jeweiligen Poseinformation zu erfassen. Einzelne Sensoren können beispielsweise als Führungssensoren verwendet werden und andere Sensoren zur Plausibilisierung. Insbesondere können einzelne Sensoren während des Betriebs gewählt werden und es kann während des Betriebs zwischen verschiedenen Sensoren umgeschaltet werden.
  • Der erste Sensor und/oder der zweite Sensor sind jeweils vorzugsweise als ein fahrzeugeigener oder fahrzeugfremder Sensor ausgebildet. Unter einem fahrzeugeigenen Sensor sei in diesem Zusammenhang ein Sensor zu verstehen, der Bestandteil des Fahrzeugs ist, z.B. interne Kamera, Radargerät, Lidargerät, GPS-Gerät, Navigationssystem, Lenkwinkelsensor, Raddrehzahlsensor, Beschleunigungssensor, Drehratensensor, Inertialsensor usw. Insbesondere werden Sensordaten eines derartigen fahrzeugeigenen Sensors ohnehin im Zuge des regulären Betriebs des Fahrzeugs erfasst. Mittels eines derartigen Beschleunigungssensors kann insbesondere eine Längs- und/oder Querbeschleunigung des Fahrzeugs bestimmt werden. Mittels eines Drehratensensors kann zweckmäßigerweise eine Gier-, Roll- und/oder Nickrate rate des Fahrzeugs bestimmt werden.
  • Unter einem fahrzeugfremden Sensor sei in diesem Zusammenhang ein Sensor zu verstehen, welcher kein Bestandteil des Fahrzeugs ist, z.B. externe Kameras, Radargeräte, Lidargeräte usw. Ein derartiger fahrzeugfremder Sensor ist außerhalb des Fahrzeugs angeordnet und ist insbesondere in anderen Fahrzeugen oder in einer Umgebung des Fahrzeugs, z.B. auf einer Straße, in einem verkehrsberuhigten Bereich oder in einer Park- oder Haltezone, fest installiert und überwacht diese Umgebung bzw. einen Teil der Umgebung.
  • Vorteilhafterweise sind für die ersten Sensordaten und für die zweiten Sensordaten jeweils eine Schnittstelle einer Recheneinheit vorgesehen, welche insbesondere als ein Steuergerät des Fahrzeugs ausgebildet ist. Die ersten Sensordaten und die zweiten Sensordaten werden von der Recheneinheit über die jeweilige Schnittstelle eingelesen und verarbeitet. Vorzugsweise wird die Integrität der Sensordaten von der Recheneinheit bestimmt. Vorzugsweise werden ebenfalls die oben beschriebenen Metadaten von der Recheneinheit über die jeweilige Schnittstelle eingelesen.
  • Vorteilhafterweise können diese Schnittstellen als deterministische Schnittstelle ausgebildet sein bzw. ein deterministisches Abtasten der Schnittstelle kann vorzugsweise ermöglicht werden. Unter einer deterministischen Schnittstelle sei in diesem Zusammenhang eine Schnittstelle zu verstehen, mittels welcher Sensordaten zwischen Sensor und der Recheneinheit deterministisch übertragen werden können. Insbesondere kann mittels einer derartigen deterministischen Schnittstelle gewährleistet werden, dass Sensordaten in Echtzeit übertragen werden können. Durch einen derartigen Determinismus (zeitlich stabiler fester Rahmen, wann die Sensordaten dem Rechenwerk zur Verfügung stehen) kann die Kompensation von Datenlaufzeiten erleichtert werden, da insbesondere eine maximale Datenlaufzeit und ein garantiertes Vorliegen von erfassten Sensordaten, ausgewerteten Sensordaten bzw. bestimmten Poseinformationen zu einem speziellen Zeitpunkt gewährt werden kann.
  • Eine erfindungsgemäße Recheneinheit, z.B. ein Steuergerät eines Fahrzeugs, ist, insbesondere programmtechnisch, dazu eingerichtet, ein erfindungsgemäßes Verfahren durchzuführen.
  • Auch die Implementierung des Verfahrens in Form eines Computerprogramms ist vorteilhaft, da dies besonders geringe Kosten verursacht, insbesondere wenn ein ausführendes Steuergerät noch für weitere Aufgaben genutzt wird und daher ohnehin vorhanden ist. Geeignete Datenträger zur Bereitstellung des Computerprogramms sind insbesondere magnetische, optische und elektrische Speicher, wie z.B. Festplatten, Flash-Speicher, EEPROMs, DVDs u.a.m. Auch ein Download eines Programms über Computernetze (Internet, Intranet usw.) ist möglich.
  • Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung.
  • Die Erfindung ist anhand von Ausführungsbeispielen in der Zeichnung schematisch dargestellt und wird im Folgenden unter Bezugnahme auf die Zeichnung beschrieben.
  • Kurze Beschreibung der Zeichnungen
  • 1 zeigt schematisch ein Fahrzeug, das dazu eingerichtet ist, eine bevorzugte Ausführungsform eines erfindungsgemäßen Verfahrens durchzuführen.
  • 2 zeigt schematisch eine Steuereinheit eines Fahrzeugs, die dazu eingerichtet ist, eine bevorzugte Ausführungsform eines erfindungsgemäßen Verfahrens durchzuführen.
  • 3 zeigt schematisch ein Fahrzeug, das dazu eingerichtet ist, eine bevorzugte Ausführungsform eines erfindungsgemäßen Verfahrens durchzuführen, auf einer Straße.
  • 4 zeigt ebenfalls schematisch ein Fahrzeug, das dazu eingerichtet ist, eine bevorzugte Ausführungsform eines erfindungsgemäßen Verfahrens durchzuführen, auf einer Straße.
  • Ausführungsform(en) der Erfindung
  • In 1 ist ein Fahrzeug 100 schematisch dargestellt, welches beispielsweise als ein Personenkraftwagen ausgebildet ist. Das Fahrzeug 100 weist eine Vielzahl von Sensoren auf, beispielsweise eine Kamera 111 und ein Radargerät 112, mittels welchen jeweils eine Umgebung bzw. ein Bereich vor dem Fahrzeug 100 messtechnisch erfasst werden kann.
  • Weiterhin weist das Fahrzeug 100 einen Drehzahlsensor 113 auf, um eine Raddrehzahl des Fahrzeugs 100 messtechnisch zu erfassen. Mittels eines Lenkwinkelsensors 114 kann ein aktueller Lenkwinkel des Fahrzeugs 100 erfasst werden und mittels eines Inertialsensors 115 können Gier-, Roll- und Nickwinkel (d.h. eine Orientierung) des Fahrzeugs 100 erfasst werden.
  • Weiterhin umfasst das Fahrzeug 100 eine Vielzahl von Aktoren, beispielsweise einen Bremsaktor 121, um eine Bremse des Fahrzeugs 100 zu betätigen, einen Motoraktor 122 (z.B. Kraftstoffzumesssystem), um Drehzahl bzw. Leistung eines Motors Fahrzeugs 100 zu steuern, und einen Lenkwinkelaktor 123, um den Lenkwinkel des Fahrzeugs 100 zu ändern und um somit die Längs- bzw. Querführung des Fahrzeugs 100 zu beeinflussen.
  • Es versteht sich, dass das Fahrzeug 100 noch weitere Sensoren und Aktoren sowie weitere Elemente aufweisen kann, welche aus Gründen der Übersichtlichkeit nicht explizit dargestellt sind.
  • Die Sensoren 111, 112, 113, 114, 115 sowie die Aktoren 121, 122, 123 sind über ein Kommunikationssystem des Fahrzeugs 100, beispielsweise über ein Bussystem, insbesondere CAN, mit einem Steuergerät 130 verbunden. Weiterhin ist ein Navigationssystem 140 vorgesehen, welches ebenfalls über das Bussystem mit dem Steuergerät 130 verbunden ist.
  • Das Steuergerät 130 ist insbesondere dazu eingerichtet, ein autonomes Fahren als Form des autonomen Fortbewegens des Fahrzeugs 100 durchzuführen. Im Zuge dessen wird das Fahrzeug 100 autonom durch das Steuergerät 130 gesteuert, ohne dass ein Fahrer als Fahrzeugführer eingreifen muss. Zu diesem Zweck liest das Steuergerät 130 Sensordaten ein, welche von den Sensoren 111, 112, 113, 114, 115 erfasst werden, wertet diese Sensordaten aus und bestimmt in Abhängigkeit davon Ansteuerdaten für die Aktoren 121, 122, 123, um das Fahrzeug 100 in Abhängigkeit von den erfassten Sensordaten zu steuern.
  • Für ein derartiges autonomes Fahren ist es von Bedeutung, dass die Sensordaten integer bzw. präzise und zuverlässig sind, um eine Gefährdung von Insassen und weiteren Verkehrsteilnehmern zu verhindern. Das Steuergerät 130 ist daher, insbesondere programmtechnisch, dazu eingerichtet eine bevorzugte Ausführungsform eines erfindungsgemäßen Verfahrens durchzuführen.
  • Das Steuergerät 130 ist in 2 schematisch dargestellt. Wie in 2 zu erkennen ist, ist das Steuergerät jeweils über eine (insbesondere separate) Schnittstelle 211, 212, 213, 214 bzw. 215 mit den einzelnen Sensoren 111, 112, 113, 114 bzw. 115 verbunden. Jedoch können auch mehrere Sensoren über eine selbe (insbesondere serielle) Schnittstelle, z.B. LIN, SENT oder SPI, mit dem Steuergerät verbunden sein Über diese Schnittstelle(n) 211, 212, 213, 214 bzw. 215 liest das Steuergerät 130 jeweils von dem entsprechenden Sensor 111, 112, 113, 114 bzw. 115 erfasste Sensordaten ein.
  • Weiterhin sind in einzelnen oder allen Sensoren 111, 112, 113, 114, 115 jeweils Metadaten hinterlegt, welche beschreiben, mit welcher Güte bzw. Genauigkeit der jeweilige Sensor Sensordaten messtechnisch erfassen kann. Beispielsweise können diese Metadaten Fehlerraten und Diagnosedeckungsgrad (Diagnostic Coverage DC) des jeweiligen Sensors beschreiben.
  • Über die Schnittstelle(n) 211, 212, 213, 214 bzw. 215 liest das Steuergerät 130 jeweils insbesondere ebenfalls diese Metadaten von dem entsprechenden Sensor 111, 112, 113, 114 bzw. 115 ein.
  • In einer Logikeinheit 220 des Steuergeräts 130 wird in Abhängigkeit von diesen Sensordaten und diesen Metadaten im Zuge einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens eine Integrität der Sensordaten bestimmt, wie nachfolgend anhand von 3 beschrieben wird.
  • In 3 ist das Fahrzeug 100 aus 1 schematisch dargestellt. Die in 1 dargestellten Elemente (Sensoren, Aktoren usw.) sind in 3 der Übersichtlichkeit halber nicht explizit dargestellt.
  • Das Fahrzeug 100 bewegt sich dabei auf einer Straße 300 auf einer Fahrspur 310. Die Fahrspur 310 ist durch einen Mittelstreifen 321 und eine seitliche Fahrbahnmarkierung 322 begrenzt. In dem dargestellten Beispiel bewegt sich das Fahrzeug 100 auf eine Brücke 330 zu.
  • Zweckmäßigerweise lässt sich dabei ein Inertialsystem 341 des Fahrzeugs 100 definieren, in welchem sich das Fahrzeug 100 nicht bewegt. Dieses Inertialsystem 341 bewegt sich dabei mit der Geschwindigkeit des Fahrzeugs 100 relativ zu einem ortsfesten Koordinatensystem 342 der Straße 300 als Referenzkoordinatensystem.
  • Im Folgenden wird beispielhaft erläutert, wie im Zuge einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens eine Integrität von Sensordaten der Kamera 111 und des Radars 112 bestimmt werden kann.
  • Die Umgebung vor dem Fahrzeug 100 wird insbesondere kontinuierlich mittels der Kamera 111 und dem Radar 112 messtechnisch erfasst, es werden also insbesondere kontinuierlich Bilder mit der Kamera 111 und mit dem Radar 112 von der Umgebung vor dem Fahrzeug gemacht. Die Kamera 111 erfasst dabei Bilder als erste Sensordaten (im Folgenden auch als Kameradaten bezeichnet) und das Radar 112 erfasst entsprechende Aufnahmen als zweite Sensordaten (im Folgenden auch als Radardaten bezeichnet).
  • Die entsprechenden Bilder bzw. Sensordaten sowie die Metadaten werden von der Kamera 111 und dem Radar 112 über die entsprechende Schnittstelle 211 bzw. 212 an das Steuergerät 130 übermittelt.
  • In dem Steuergerät 130 werden die Sensordaten ausgewertet. Aus diesen ersten und zweiten Sensordaten werden dabei jeweils erste bzw. zweite Poseinformationen bestimmt, welche jeweils die Position des Fahrzeugs 100 beschreiben.
  • Da kontinuierlich Sensordaten von der Kamera 111 und dem Radar 112 erfasst werden, werden zweckmäßigerweise auch kontinuierlich entsprechende Poseinformationen bestimmt. Die Kameradaten und die Radardaten können jedoch unterschiedliche Datenlaufzeiten besitzen, d.h. es kann unterschiedlich lange dauern, bis aus zu einem speziellen Zeitpunkt erfassten Kamera- und Radardaten letztendlich die entsprechenden ersten bzw. zweiten Poseinformationen bestimmt sind.
  • Daher werden die Kamera- und Radardaten zeitlich kalibriert bzw. auf einen Referenzzeitpunkt bezogen. Zu diesem Zweck bestimmt das Steuergerät 130 aus den Kamera- bzw. Radardaten jeweils die Position des Fahrzeugs zu einem konkreten Zeitpunkt, welcher insbesondere in der Vergangenheit liegt. Zur Kompensation der Datenlaufzeiten kann dieser konkrete Zeitpunkt insbesondere durch die Datenlaufzeiten bestimmt sein. Beispielsweise kann dieser konkrete Zeitpunkt 0,5 Sekunden vor dem aktuellen Zeitpunkt liegen.
  • Weiterhin werden die Kamera- und Radardaten örtlich kalibriert bzw. auf einen räumlichen Referenzpunkt bezogen. Vorzugsweise kann zu diesem Zweck ein markanter Punkt der Umgebung, welcher insbesondere mit der Kamera 111 und dem Radar 112 leicht zu identifizieren ist, ausgewählt werden. Der Abstand des Fahrzeugs 100 zu diesem Referenzpunkt kann vorzugsweise aus den Kamera- und Radardaten als entsprechende Poseinformation bestimmt werden.
  • Beispielsweise können über das Navigationssystem 140 Umgebungsinformationen bezogen werden, welche die Umgebung des Fahrzeugs beschreiben, insbesondere den Bereich der Straße 300 vor dem Fahrzeug. Derartige Umgebungsinformationen können in dem Navigationssystem 140 beispielsweise als Kartendaten hinterlegt sein. Basierend auf diesen Umgebungsinformationen kann ein entsprechender Referenzpunkt ausgewählt werden. In diesem Beispiel wird ein bestimmter Punkt der Brücke 330, z.B. ein Mittelpunkt eines Pfeilers o.ä., als Referenzunkt ausgewählt.
  • Um aus den Kamera- und Radardaten den Abstand des Fahrzeugs 100 zu diesem Referenzpunkt als entsprechende Poseinformation zu bestimmen, kann von dem Steuergerät 130 eine Objekterkennung durchgeführt werden, um den Pfeiler o.ä. als den konkreten Punkt in den Bildern der Kamera 111 und des Radar 112 zu erkennen. Wenn der Pfeiler o.ä. durch die Objekterkennung erkannt wurde, wird der Abstand des Fahrzeugs 100 zu dem Pfeiler o.ä. aus den ersten und zweiten Sensordaten bestimmt.
  • Insgesamt wird somit aus den kontinuierlich erfassten Kameradaten von dem Steuergerät 130 der Abstand des Fahrzeugs 100 vor 0,5 s (als Referenzzeitpunkt) zu dem Pfeiler o.ä. der Brücke 330 (als räumlicher Referenzpunkt) als erste Poseinformation bestimmt. Analog wird dieser Abstand aus den Radardaten als zweite Poseinformation bestimmt.
  • Aus diesen ersten und zweiten Poseinformationen sowie den entsprechenden Metadaten, wird von dem Steuergerät ein Integritätswert bestimmt, welcher beispielsweise zwischen 0 und 1 liegen kann.
  • Weiterhin bestimmt das Steuergerät 130 in Abhängigkeit von diesem Integritätswert, wie stark im Zuge des autonomen Fahrens Eingriffe in die Fahrzeugführung vorgenommen werden dürfen und wie stark somit die Aktoren 121, 122, 123 angesteuert werden dürfen. Beispielsweise können zu diesem Zweck die Ansteuerwerte für die Aktoren 121, 122, 123 mit dem bestimmten Integritätswert multipliziert werden.
  • Beispielsweise wenn die Kamera einen Defekt aufweist und die Umgebung vor dem Fahrzeug 100 nicht präzise erfassen und den Pfeiler o.ä. der Brücke 330 nur teilweise oder gar überhaupt nicht mittels der Bilderkennung erkannt werde kann, werden die entsprechenden Sensordaten somit als unzuverlässig eingestuft und nur sehr schwache Eingriffe in die Fahrzeugführung erlaubt.
  • Zweckmäßigerweise kann somit auch automatisch im Zuge des autonomen Fahrens auf schlechte Sichtverhältnisse reagiert werden. Wenn der Pfeiler o.ä. der Brücke 330 aufgrund von Nebel mittels der Bilderkennung nicht erkannt werden kann, werden ebenfalls nur sehr schwache Eingriffe in die Fahrzeugführung erlaubt.
  • Es ist beispielsweise auch denkbar, die Aufnahmen der Kamera 111 und des Radars 112 als erste und zweite Sensordaten mit weiteren Sensordaten zu plausibilisieren und gemäß einer bevorzugten Ausführungsform des Verfahrens eine entsprechende Integrität dieser Sensordaten zu bestimmen. Im Folgenden wird beispielhaft erläutert, wie Zuge einer bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens eine Integrität von Sensordaten der Kamera 111, des Radars 112, des Lenkwinkelsensors 114 und des Inertialsensors 115 bestimmt werden kann.
  • Der Lenkwinkel des Fahrzeugs wird dabei mittels des Lenkwinkelsensors 114 als dritte Sensordaten erfasst. Roll-, Gier- und Nickwinkel des Fahrzeugs werden als vierte Sensordaten mittels des Inertialsensors 115 erfasst. Als Umgebungsinformation kann in diesem Beispiel über das Navigationsgerät 140 das ortsfeste Koordinatensystem 342 der Straße 300 aus Kartendaten bezogen werden.
  • Durch Auswerten der Sensordaten kann die Orientierung des Fahrzeugs 100 relativ zu der Straße 300 bestimmt werden. Somit kann vorzugsweise aus den ersten, zweiten, dritten und vierten Sensordaten jeweils eine relative Position des Fahrzeugs in dem Inertialsystem 341 des Fahrzeugs 100 relativ zu dem ortsfesten Koordinatensystem 342 der Straße 300 zu dem Referenzzeitpunkt, also vor 0,5 Sekunden, als entsprechende erste, zweite, dritte und vierte Poseinformationen bestimmt werden. Das ortsfeste Koordinatensystem 342 fungiert somit als räumlicher Referenzpunkt und der oben beschriebene konkrete Zeitpunkt als Referenzzeitpunkt
  • Aus diesen ersten, zweiten, dritten und vierten Poseinformationen sowie den entsprechenden Metadaten, werden von dem Steuergerät 130 der Integritätswert sowie die Stärke der Aktoransteuerung bestimmt.
  • Durch den Vergleich der Poseinformationen und die Bestimmung des Integritätswertes kann ebenfalls verhindert werden, dass ein Angreifer sich Zugriff auf das Fahrzeug 100 verschafft und in die Fahrzeugführung eingreift. Ein Angreifer müsste es schaffen, Daten in das Fahrzeug 100 einzubringen, die exakt das abbilden, was die Sensoren 111, 112, 114 und 115 erfassen, was nahezu ausgeschlossen ist.
  • Ein Beispiel, wie das Verfahren vorteilhaft zum sicheren Durchführen des autonomen Fahrens beitragen kann, wird im Folgenden anhand von 4 erläutert. In 4 ist das Fahrzeug 100 analog zu 3 dargestellt. Dabei bewegt sich das Fahrzeug 100 im Zuge des autonomen Fahrens gerade aus auf der Straße 400 bzw. auf einer entsprechenden Fahrspur 410.
  • Damit sich das Fahrzeug 100 im Zuge des autonomen Fahrens sicher auf der Straße 400 und auf seiner Fahrspur 410 bewegt und nicht davon abkommt, können beispielsweise Sicherheitskorridore definiert werden, welche in 4 mit den Bezugszeichen 421, 422 und 423 bezeichnet sind.
  • Der mit 421 bezeichnete Korridor definiert beispielsweise einen zulässigen, nominalen Bereich, in welchem sich das Fahrzeug 100 zum sicheren Fahren auf der Fahrspur 410 bewegen sollte. Der Korridor 423 ist ein Sperrbereich, in welchen sich das Fahrzeug 100 im Zuge des autonomen Fahrens nicht bewegen darf.
  • Die mit 422 bezeichneten Korridore sind Toleranzbereiche, in welchen sich das Fahrzeug 100 noch auf seiner Fahrspur 410 bewegt, aber sich der Fahrbahnbegrenzung oder dem Mittelstreifen und somit insbesondere dem Sperrbereich 423 nähert. Wenn sich das Fahrzeug 100 in einen dieser Toleranzbereiche 422 bewegt, wird im Zuge des autonomen Fahrens entsprechend gegengesteuert, um das Fahrzeug 100 wieder in den nominalen, zulässigen Bereich 421 zu bewegen.
  • Beispielsweise können derartige Korridore durch Normen und Sicherheitsrichtlinien gefordert werden, beispielsweise durch die ISO 26262. Durch das Verfahren zum Bestimmen einer Integrität von Sensordaten kann gewährleistet werden, dass die Sensordaten des Fahrzeugs 100, mittels welchen im Zuge des autonomen Fahrens die Straße messtechnisch erfass wird, zuverlässig sind und dass sich das Fahrzeug 100 sicher in dem zulässigen Bereich 421 bewegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102012215343 A1 [0005, 0018]
  • Zitierte Nicht-Patentliteratur
    • Norm ISO 26262 [0035]
    • ISO 26262 [0094]

Claims (17)

  1. Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs (100), wobei zumindest Sensordaten eines ersten Sensors (111, 112, 113, 114, 115) als erste Sensordaten und Sensordaten eines zweiten Sensors (111, 112, 113, 114, 115) als zweite Sensordaten erfasst werden, wobei aus den ersten Sensordaten erste Poseinformationen bestimmt werden, welche die Position und/oder Orientierung des Fahrzeugs (100) zu einem Referenzzeitpunkt beschreiben, und wobei aus den zweiten Sensordaten zweite Poseinformationen bestimmt werden, welche die Position und/oder Orientierung des Fahrzeugs (100) zu dem Referenzzeitpunkt beschreiben.
  2. Verfahren nach Anspruch 1, wobei die ersten Poseinformationen und die zweiten Poseinformationen miteinander verglichen werden und wobei aus diesem Vergleich eine Integrität der ersten Sensordaten und der zweiten Sensordaten bestimmt wird.
  3. Verfahren nach Anspruch 2, wobei die ersten Poseinformationen und/oder die zweiten Poseinformationen mit Umgebungsinformationen verglichen werden, welche eine Umgebung (300) des Fahrzeugs (100) zu dem Referenzzeitpunkt beschreiben, und wobei aus diesem Vergleich die Integrität der ersten bzw. zweiten Sensordaten bestimmt wird.
  4. Verfahren nach Anspruch 2 oder 3, wobei für die Bestimmung der Integrität weiterhin Metadaten des ersten Sensors (111, 112, 113, 114, 115) und/oder des zweiten Sensors (111, 112, 113, 114, 115) berücksichtigt werden.
  5. Verfahren nach einem der vorstehenden Ansprüche, wobei ein Abstand des Fahrzeugs (100) zu einem Referenzpunkt (330) der Umgebung (300) als erste Poseinformationen und/oder zweite Poseinformationen bestimmt werden.
  6. Verfahren nach Anspruch 5, wobei eine Position und/oder Orientierung des Fahrzeugs (100) in einem Koordinatensystem (341, 342) als erste Poseinformationen und/oder zweite Poseinformationen bestimmt werden.
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei der Referenzzeitpunkt durch eine Datenlaufzeit der ersten Sensordaten und/oder der zweiten Sensordaten bestimmt ist.
  8. Verfahren nach einem der vorstehenden Ansprüche, wobei in Abhängigkeit von den ersten Sensordaten und von den zweiten Sensordaten ein automatischer Eingriff in die Fahrzeugführung durchgeführt wird.
  9. Verfahren nach Anspruch 8 in Rückbezug zumindest auf Anspruch 2, wobei in Abhängigkeit von der bestimmten Integrität der ersten Sensordaten und der zweiten Sensordaten bestimmt wird, wie stark dieser automatische Eingriff in die Fahrzeugführung durchgeführt wird.
  10. Verfahren nach Anspruch 8 oder 9, wobei ein Eingriff auf eine Längs- und/oder Querführung des Fahrzeugs (100) und/oder auf eine Bremse und/oder auf einen Antrieb in Abhängigkeit von den ersten Sensordaten und von den zweiten Sensordaten als automatischer Eingriff in die Fahrzeugführung durchgeführt wird.
  11. Verfahren nach einem der vorstehenden Ansprüche, wobei weitere von anderen Sensoren stammende Poseinformationen mit den ersten und zweiten Poseinformationen verglichen und eine Abstimmung über die Sensordaten der Sensoren durchgeführt wird.
  12. Verfahren nach einem der vorstehenden Ansprüche, wobei der erste Sensor ein fahrzeugeigener oder ein fahrzeugfremder Sensor ist und/oder wobei der zweite Sensor ein fahrzeugeigener oder ein fahrzeugfremder Sensor.
  13. Verfahren nach einem der vorstehenden Ansprüche, wobei der erste Sensor und/oder der zweite Sensor jeweils als Lenkwinkelsensor (112) und/oder Raddrehzahlsensor (113) und/oder Beschleunigungssensor und/oder Drehratensensor und/oder Inertialsensor (115) und/oder Kamera (111) und/oder Radargerät (112) und/oder Lidargerät ausgebildet sind.
  14. Verfahren nach einem der vorstehenden Ansprüche, wobei für die ersten Sensordaten und für die zweiten Sensordaten jeweils eine Schnittstelle (211, 212, 213, 214, 215) einer Recheneinheit (130) vorgesehen ist, wobei die ersten Sensordaten und die zweiten Sensordaten von der Recheneinheit (130) über die jeweilige Schnittstelle (211, 212, 213, 214, 215) eingelesen werden verarbeitet werden.
  15. Recheneinheit (130), die dazu eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche durchzuführen.
  16. Computerprogramm, das eine Recheneinheit (130) dazu veranlasst, ein Verfahren nach einem der Ansprüche 1 bis 14 durchzuführen, wenn es auf der Recheneinheit (130) ausgeführt wird.
  17. Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 16.
DE102016212326.2A 2016-07-06 2016-07-06 Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs Pending DE102016212326A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016212326.2A DE102016212326A1 (de) 2016-07-06 2016-07-06 Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
CN201710542380.5A CN107590768B (zh) 2016-07-06 2017-07-05 用于对用于运输工具的位置和/或方向的传感器数据进行处理的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016212326.2A DE102016212326A1 (de) 2016-07-06 2016-07-06 Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102016212326A1 true DE102016212326A1 (de) 2018-01-11

Family

ID=60676483

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016212326.2A Pending DE102016212326A1 (de) 2016-07-06 2016-07-06 Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs

Country Status (2)

Country Link
CN (1) CN107590768B (de)
DE (1) DE102016212326A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110884503A (zh) * 2018-08-17 2020-03-17 罗伯特·博世有限公司 用于测试机动车的自动化驾驶功能的方法、设备及存储介质
EP3633107A1 (de) * 2018-10-05 2020-04-08 Kässbohrer Geländefahrzeug AG Pistenpflegefahrzeug und verfahren zum betreiben eines pistenpflegefahrzeugs
DE102018217014A1 (de) * 2018-10-04 2020-04-09 Elektrobit Automotive Gmbh Dynamische Qualifizierung von Nutzdaten
WO2020249755A1 (de) * 2019-06-14 2020-12-17 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines fahrassistenzsystems eines fahrzeugs und fahrerassistenzsystem für ein fahrzeug
CN113886634A (zh) * 2021-09-30 2022-01-04 重庆长安汽车股份有限公司 一种车道线离线数据可视化方法及装置
DE102020007078B3 (de) 2020-11-19 2022-03-24 Daimler Ag Verfahren zum anonymisierten Übertragen von zeit- und ortsreferenzierten Sensordaten eines Fahrzeuges zu einer fahrzeugexternen Rechnereinheit
EP3850158B1 (de) 2018-11-20 2022-04-06 PRINOTH S.p.A. Pistenfahrzeug mit automatisierten funktionen und verfahren zur steuerung eines pistenfahrzeugs
DE102021100794A1 (de) 2021-01-15 2022-07-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Verarbeitung von Messdaten eines Umfeldsensors eines Fahrzeugs mit Kompensation von latenzbehafteten Fahrzeugdaten, Recheneinrichtung sowie Computerprogramm
US11663860B2 (en) * 2019-10-25 2023-05-30 Toyota Research Institute, Inc. Dynamic and variable learning by determining and using most-trustworthy inputs
WO2024051914A1 (de) 2022-09-05 2024-03-14 Cybernetics Information Base Gmbh Verfahren und system zur übertragung einer steuerungsanforderung
DE102022212431A1 (de) 2022-11-22 2024-05-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren, Computerprogramm, Speichermedium, Vorrichtung zur Kalibrierung eines Fahrzeugsensorsystems

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019200423A1 (de) * 2019-01-16 2020-07-16 Robert Bosch Gmbh Verfahren zum Bereitstellen eines Integritätsbereichs einer Parameterschätzung
CN110083150B (zh) * 2019-01-21 2022-05-06 苏州乐轩科技有限公司 机器人以及机器人控制方法
CN112214009B (zh) * 2019-06-25 2022-07-26 上海商汤临港智能科技有限公司 传感器数据处理方法、装置、电子设备及系统
DE102019135851A1 (de) * 2019-12-30 2021-07-01 Daimler Ag Verfahren zum Unterdrücken von mehrdeutigen Messdaten von Umfeldsensoren

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012215343A1 (de) 2012-08-29 2014-05-28 Continental Automotive Gmbh Verfahren zum Durchführen einer Sicherheitsfunktion eines Fahrzeugs und System zum Durchführen des Verfahrens

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10007675B2 (en) * 2007-07-31 2018-06-26 Robert Bosch Gmbh Method of improving database integrity for driver assistance applications
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
DE102009002708A1 (de) * 2009-04-29 2010-11-04 Robert Bosch Gmbh Verfahren zur Identifikation von Sensoren an einem Bus durch ein Steuergerät, sowie ein Steuergerät und ein Sensor hierzu
DE102011077998A1 (de) * 2010-06-23 2012-01-05 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsvalidierung
DE102010048273A1 (de) * 2010-10-12 2011-05-26 Daimler Ag Verfahren zum aufmerksamkeitsabhängigen Initiieren einer Fahrzeugaktion und Fahrerassistenzsystem zur Durchführung des Verfahrens
CN102616240A (zh) * 2011-01-29 2012-08-01 中国第一汽车集团公司 基于信息融合的汽车前向安全系统
US8831819B2 (en) * 2011-04-14 2014-09-09 Toyota Jidosha Kabushiki Kaisha Abnormality determination device and method of longitudinal acceleration sensor
DE102012216217A1 (de) * 2011-09-12 2013-03-14 Continental Teves Ag & Co. Ohg Ausrichtungsmodell für ein Sensorsystem
DE102012221766B4 (de) * 2012-11-28 2018-08-30 Robert Bosch Gmbh Integration eines optischen Sensors und eines Ultraschallsensors
RU2658981C2 (ru) * 2013-06-18 2018-06-26 Дир Энд Компани Система выявления рабочего состояния для рабочей машины с объединением, учитывающим достоверность значений датчиков
DE102013019145B4 (de) * 2013-11-15 2016-12-22 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs mit Umfeldsensoren und Kraftfahrzeug
DE102014210770A1 (de) * 2014-06-05 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und system zur bestimmung einer fahrzeugposition eines fahrzeuges
US9936358B2 (en) * 2014-06-25 2018-04-03 Rutgers, The State University Of New Jersey Systems and methods for detecting driver phone operation using device position and orientation data
FR3028827B1 (fr) * 2014-11-20 2018-03-09 Renault S.A.S. Procede de detection de la perte de vigilance d'un conducteur de vehicule

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012215343A1 (de) 2012-08-29 2014-05-28 Continental Automotive Gmbh Verfahren zum Durchführen einer Sicherheitsfunktion eines Fahrzeugs und System zum Durchführen des Verfahrens

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ISO 26262
Norm ISO 26262

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110884503A (zh) * 2018-08-17 2020-03-17 罗伯特·博世有限公司 用于测试机动车的自动化驾驶功能的方法、设备及存储介质
DE102018217014A1 (de) * 2018-10-04 2020-04-09 Elektrobit Automotive Gmbh Dynamische Qualifizierung von Nutzdaten
EP3633107A1 (de) * 2018-10-05 2020-04-08 Kässbohrer Geländefahrzeug AG Pistenpflegefahrzeug und verfahren zum betreiben eines pistenpflegefahrzeugs
DE102018217049A1 (de) * 2018-10-05 2020-04-09 Kässbohrer Geländefahrzeug Aktiengesellschaft Pistenpflegefahrzeug und Verfahren zum Betreiben eines Pistenpflegefahrzeugs
US11970828B2 (en) 2018-10-05 2024-04-30 Kässbohrer Geländefahrzeug AG Method for operating a piste grooming vehicle
EP3850158B1 (de) 2018-11-20 2022-04-06 PRINOTH S.p.A. Pistenfahrzeug mit automatisierten funktionen und verfahren zur steuerung eines pistenfahrzeugs
WO2020249755A1 (de) * 2019-06-14 2020-12-17 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines fahrassistenzsystems eines fahrzeugs und fahrerassistenzsystem für ein fahrzeug
CN114008683A (zh) * 2019-06-14 2022-02-01 大众汽车股份公司 用于运行车辆的驾驶员辅助系统的方法和车辆的驾驶员辅助系统
US12106575B2 (en) 2019-06-14 2024-10-01 Volkswagen Aktiengesellschaft Method for operating a driver assistance system of a vehicle and driver assistance system for a vehicle
CN114008683B (zh) * 2019-06-14 2024-11-05 大众汽车股份公司 用于运行车辆的驾驶员辅助系统的方法和车辆的驾驶员辅助系统
US11663860B2 (en) * 2019-10-25 2023-05-30 Toyota Research Institute, Inc. Dynamic and variable learning by determining and using most-trustworthy inputs
DE102020007078B3 (de) 2020-11-19 2022-03-24 Daimler Ag Verfahren zum anonymisierten Übertragen von zeit- und ortsreferenzierten Sensordaten eines Fahrzeuges zu einer fahrzeugexternen Rechnereinheit
DE102021100794A1 (de) 2021-01-15 2022-07-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Verarbeitung von Messdaten eines Umfeldsensors eines Fahrzeugs mit Kompensation von latenzbehafteten Fahrzeugdaten, Recheneinrichtung sowie Computerprogramm
CN113886634B (zh) * 2021-09-30 2024-04-12 重庆长安汽车股份有限公司 一种车道线离线数据可视化方法及装置
CN113886634A (zh) * 2021-09-30 2022-01-04 重庆长安汽车股份有限公司 一种车道线离线数据可视化方法及装置
WO2024051914A1 (de) 2022-09-05 2024-03-14 Cybernetics Information Base Gmbh Verfahren und system zur übertragung einer steuerungsanforderung
DE102022212431A1 (de) 2022-11-22 2024-05-23 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren, Computerprogramm, Speichermedium, Vorrichtung zur Kalibrierung eines Fahrzeugsensorsystems

Also Published As

Publication number Publication date
CN107590768A (zh) 2018-01-16
CN107590768B (zh) 2024-01-30

Similar Documents

Publication Publication Date Title
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018120786B4 (de) Verfahren zum Überwachen eines autonomen Fahrzeugs sowie entsprechend eingerichtetes Fahrzeug
DE102016212195A1 (de) Verfahren zum Durchführen eines automatischen Eingriffs in die Fahrzeugführung eines Fahrzeugs
DE102012222301B4 (de) Verfahren zum Steuern eines Host-Fahrzeugs
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
DE102010049091A1 (de) Verfahren zum Betreiben zumindest eines Sensors eines Fahrzeugs und Fahrzeug mit zumindest einem Sensor
DE102021101426A1 (de) Erkennung von fahrzeugbetriebsbedingungen
DE102016212196A1 (de) Verfahren zum Auswerten von Sensordaten
DE102020119541A1 (de) Detektieren von fahrzeugbetriebsbedingungen
DE102018101114A1 (de) Fahrspurwechsel eines fahrzeugs
DE102011102927A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs und Fahrerassistenzsystem für ein Kraftfahrzeug
DE102019216989B4 (de) Fahrzeugsensorvalidierungssystem und Verfahren zur Objektvalidierung
DE102012109310A1 (de) Verfahren und Vorrichtung zum Unterstützen des Zurückführens eines Fahrzeugs nach dem Verlassen einer Fahrbahn
DE102019133708A1 (de) Verfahren und vorrichtung zum erfassen von statischen und dynamischen informationen auf spurniveau
DE102017205495A1 (de) Vorrichtung und Verfahren zum Fokussieren von Sensoren im fahrdynamischen Grenzbereich für ein Kraftfahrzeug
DE102018133457B4 (de) Verfahren und System zum Bereitstellen von Umgebungsdaten
DE102016203727A1 (de) Verfahren zum Vermeiden eines Auffahrunfalls zwischen einem ersten Fahrzeug und einem zweiten Fahrzeug und Steuergerät
WO2015090691A1 (de) Verfahren zum erzeugen eines umgebungsmodells eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102020129802A1 (de) Fahrzeugbetriebskennzeichnung
DE102012024959A1 (de) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
DE112020005125T5 (de) System zum aufzeichnen von ereignisdaten eines autonomen fahrzeugs
DE102019206652A1 (de) Verfahren zum Ermitteln einer Fahrzeuglänge eines Fahrzeugs eines Fahrzeugverbunds
DE102015212751A1 (de) Vorrichtung und Verfahren zur Fahrerassistenz für ein Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed