WO2008043795A1 - Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr - Google Patents
Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr Download PDFInfo
- Publication number
- WO2008043795A1 WO2008043795A1 PCT/EP2007/060788 EP2007060788W WO2008043795A1 WO 2008043795 A1 WO2008043795 A1 WO 2008043795A1 EP 2007060788 W EP2007060788 W EP 2007060788W WO 2008043795 A1 WO2008043795 A1 WO 2008043795A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- information
- environment
- vehicles
- risk
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/163—Decentralised systems, e.g. inter-vehicle communication involving continuous checking
Definitions
- the invention relates to methods for detecting obscured objects in traffic with the features of the preamble of claim 1 and an apparatus for performing the method.
- the object of the invention is to provide a method that overcomes the previous limitations of the prior art with respect to the Um chargeds vented and recognizes in particular hidden objects in traffic.
- a first embodiment of the invention takes place in the method for detecting obscured objects in traffic in which on the one hand the environment of a vehicle and on the other hand movement quantities of the own vehicle are detected by sensors, these as information to surrounding vehicles by means of an interface 17 to the vehicle Vehicle communication 60) and are received by the surrounding vehicles, wherein the steps are passed through: a) the data of the sensors (10, 20, 30, 40) expand an environment model (50) b) the extended environment model (50 ) is updated in the own vehicle by means of a display (80) c) a situation analysis (70) of the environment and an evaluation of the situation in the own vehicle is carried out d) objects representing an accident risk are visualized in the display with a high priority e ) predefined steps to reduce the risk of accidents in your own company be activated f) via the communication system (60) to the vehicle to vehicle communication, the information about the initiated steps to reduce the risk of accidents are transmitted to the environment
- the transmission of the information by means of multicast and / or unicast and / or broadcast transmission takes place.
- a particularly advantageous Ausgetsaltung is characterized in that the received information is evaluated prioritized and sent the information to be transmitted prioritized after a relevance check.
- the embodiment of the method is particularly advantageous in that the received information is forwarded to a separate driver assistance system (14) and, in the case of detected vehicles in the environment having an activated driver assistance system, the transmitted information is supplied to the respective driver assistance system of the respective vehicle ,
- a stereo camera with a 12-bit dynamic range is used as the visual sensor, which carries out an object tracking and an object tracking. This results in a kind of production of the dataset to be evaluated when modifying the environment model.
- a particularly advantageous embodiment of the method according to the invention is characterized in that the transmitted information takes place in the form of position and dynamic information packets (29).
- the packet-oriented approach addresses all packet-oriented transmission protocols.
- the device comprising at least one memory, at least one computer unit (15) and at least one interface (17) for the data exchange, wherein the information from the neighboring vehicles via the communication system (60) and via the interface (17 ) are forwarded to the computer unit (15), the data of the own vehicle (1) by the sensors (10, 20, 30) determined, updated and forwarded via the sensor data processing (50) to an environment model (50), wherein under real-time conditions the own position, the environment and the position of the neighboring vehicles is determined via the position determination system (12) and fed to the computer via the interface (17) to the environment model (50), from the received information and the determined data a prediction of the trajectory of the own vehicle, the environment and the adjacent vehicles is carried out, which at risk S Signaling via an output unit (80) to the driver or by intervention by the vehicle safety and / or driver assistance systems (13,14) in the trajectory of the own vehicle or signaling the engagement of the trajectory of the vehicle (1) to the adjacent Vehicles are done.
- An embodiment of the invention is illustrated in the drawings and
- FIG. 1 shows a display representation according to the invention in the vehicle
- FIG. 2 block diagram according to the invention
- FIG. 3 shows an example of a data model
- the vehicle 1 are at least one communication, a position determination, vehicle safety, driver assistance system 11/12/13/14, and sensors 10, 20, 30 and a sensor data processing 40, and at least one computer unit 15 with memory via wired or mobile data bus lines performs a data exchange with the system elements and sensors, wherein on the computer unit a dynamically changeable environment model 50, the sensor data processing unit 40 and a situation analysis 70 is performed.
- the environment model 50, the sensor data processing unit 40 and the situation analysis are preferably constructed as modules.
- the modular concept is reflected again.
- the communication system 11 exchanges information over a cellular network such as GSM and the communication system 60 is used for the transmission and reception of information from vehicle to vehicle.
- GSM Global System for Mobile communications
- the communication system 60 is used for the transmission and reception of information from vehicle to vehicle.
- all communication functionality will be performed in a single communication system.
- an electronic display is used in the vehicle 80, which can be mounted stationary and / or variable visible to the driver in the passenger compartment.
- a method is used whose detection range is not limited by optical visibility.
- One such method is the vehicle-vehicle communication already mentioned.
- the communication system 60 is at least configured for vehicle-to-vehicle communication.
- a standardized, non-optical, radio-based information transmission method supporting system for the communication between at least two vehicles or participants is used as a communication system.
- the communication system 110 supports various mobile transmission methods that establish information distribution in the so-called point-to-point connection, whereas the communication system 60 performs a broadcast mode.
- the transmission of data packets from a point, or vehicle, to all vehicles or subscribers within a network is understood. It is used to transmit environment information via defined radio standards such as eg IEEE 802.11p and display it in your own vehicle. In dangerous situations, after execution of the method according to the invention, an additional warning or intervention in the vehicle behavior takes place.
- different mobile transmission methods such as WLAN, DSRC, GSM, GPRS, UMTS, are executed.
- Positioning systems 12 serve to determine the own position. Positioning systems are GPS transmitters and receivers as well as navigation systems. According to the invention, integrated position determination systems that combine both functionalities in one device can also be used. As vehicle safety systems 13, all braking systems available in the vehicle can be used with electronic control. Vehicle safety systems may include Electronic Break System (EBS) 131, Engine Management System (EMS) 132, Anti-lock Braking System (ABS) 133, Traction Control (ASR), Electronic Stability Program (ESP), Electronic Differential Lock (EDS), Transmission Control Unit (TCU), Electronic Brake Force Distribution (EBV) and / or Engine Drag Torque Control (MSR).
- EBS Electronic Break System
- EMS Engine Management System
- ABS Anti-lock Braking System
- ASR Traction Control
- ESP Electronic Stability Program
- EDS Electronic Differential Lock
- TCU Transmission Control Unit
- EVS Electronic Brake Force Distribution
- MSR Engine Drag Torque Control
- Driver assistance systems 14 are electronic ancillary devices in vehicles to assist the driver in certain driving situations. Here are often safety aspects, but also the increase in ride comfort in the foreground. These systems partly autonomously or autonomously intervene in drive, control (eg gas, brake) or signaling devices of the vehicle or warn the driver shortly before or during critical situations by means of suitable man-machine interfaces.
- control eg gas, brake
- signaling devices of the vehicle or warn the driver shortly before or during critical situations by means of suitable man-machine interfaces.
- driver assistance systems are, for example, parking assistance (sensor arrays for obstacle and distance detection), brake assist (BAS), cruise control, adaptive cruise control (ACC) 141, distance warning, turn assistant, traffic jam assistant, lane detection system, lane departure warning / lane assistant (lane departure warning, LDW )) 142, Lane Keeping Support), Lane Change Assistance, Lane Change Support, Intelligent Speed Adaptation (ISA), Adaptive Headlights, Tire Pressure Monitoring System, Driver Acquisition, Traffic Sign Recognition, Platooning, Automatic Emergency Braking (ANB), headlamp dipping and dipping assist, night vision system.
- FIG. 2 shows a multi-sensorial environmental detection with a networked environment model.
- the core of the method according to the invention are the steps of sensor data processing 40, formation and supplementation of the environment model 50 by means of the sensor data processing 40 and the vehicle-to-vehicle communication 60, and the delivery of the environment model to a situation analysis.
- the environment model 50 knows an interface to the vehicle safety system and driver assistance systems and at the same time allows validation of the environmental detection.
- lidar 10 based on scanning or fixed laser beams and radar 20 with characteristics for long-range radar and near-range radar and visual sensors in the form of cameras 30, both for the visible range and for the invisible range, which includes, for example, the heat radiation.
- a radar system measures the distance to and at the same time the speed of objects by evaluating the object backscatter.
- different possibilities like pulse radar, FMCW (frequency modulated continuous wave) and FSK ⁇ frequency shift keying) modulation, as well as combinations thereof are used.
- Adaptive Cruise Control (ACC) uses a far-range radar that can measure distances up to 150 meters and spot objects as punctiform.
- the short-range radar With short-range radar, several sensors (transmitter and receiver) are used at the same time, each having a significantly larger opening angle (up to +/- 60 °). By coupling evaluation of the received signals, it is also possible to locate several objects up to a distance of 30 meters. While the far-field radar operates at a frequency of 77 GHz, the short-range radar uses the frequency range around 24 GHz and 79 GHz, respectively. An important advantage of radar is the insensitivity of the radar wave propagation against 'weather influences such as rain, snow or fog.
- Non-scanning systems with multiple laser beams and photodiodes are used as the distance radar for distance (ACC), whereby the larger number of beams results in a better lateral resolution compared to the long-range radar.
- ACC distance radar for distance
- predominantly scanning lidar is used, which in principle allows a complete all-round view (360 ° opening angle). To compensate for pitching movements of the vehicle, it is recommended to use several scanning planes.
- Cameras offer a high-resolution picture of the driving environment, in contrast to the distance-measuring principles of radar and lidar. Since the contrast ratios in the road are often very large, according to the invention a highly dynamic cameras with, for example, a 12-bit dynamic range is used. While grayscale cameras can be used for track recognition, color cameras are provided for reliable amp detection. In order to associate the 2D information of a monocamera with distance information, according to the invention, stereo cameras with a horizontal base, such as the pair of human eyes, and the disparities between the two images are determined mainly on vertical edges for distance determination.
- movable cameras such as scanning attachments in lidar or radar
- additional control in the viewing direction e.g. based on the attention.
- thermal imaging cameras for pedestrian detection, since the temperature of the human body is a reliable detection feature.
- the block Sensor Data Processing 40 takes special account of the additional requirements of a multisensorial approach. Once sensor data is correlated, both the mutual location of the sensors and a common time base are related to each other.
- Stereo Cameras e.g. are operated synchronously to obtain both measurements at the same time.
- asynchronous systems are also used if the measurements are provided with a time stamp which is supplied by a common system clock (master clock).
- the environment model 50 all the results of the multisensorial driving environment detection and additionally received information from the environment are collected by the vehicle-to-vehicle communication via the communication system 60.
- Receiving and updating the information from the neighboring vehicles is done in such a way that the neighboring vehicles 2 and 3 their position and dynamic information packages 29 (PDP), as exemplified in Figure 3, on the in-vehicle and for the information exchange between at least two vehicles communicate continuously with the communication system for the vehicle to vehicle communication.
- PDP position and dynamic information packages 29
- the position and dynamic information packages 2 representing and distributing the respective vehicle contain information, e.g. the vehicle identifier 21, the GPS data with accurate lane keeping information 22, the individual vehicle parameters 23, e.g. the vehicle geometry with length 231, width 232, turning circle, the vehicle type (car / off-road vehicle / small truck / truck / etc.) 233, the previously known information of the vehicle dynamics 24 with max. Longitudinal acceleration and deceleration 241, max. Lateral acceleration 242, max. Vehicle speed 23, the current vehicle speed 245, the longitudinal acceleration, the lateral acceleration, the current yaw rate, the current steering angle.
- the position and dynamic information packs 29 contain information about the currently in the respective Vehicle active vehicle safety systems 25 and driver assistance systems 25, as well as information about the lane parameters 26, such as slope angle and estimated friction. Further fields are provided in the position and dynamic information packages 2 for optional information 27, such as the status of traffic lights or the position of recognized pedestrians.
- the position and dynamic information of all neighboring vehicles, with which the own vehicle communicates, are stored in a dynamically updated, internal memory of the computer unit 15, which can be configured as a database.
- the sending vehicle already has an active position and dynamics information packet in the database, i. it is already "recognized" by the receiving own vehicle, the data is updated with the latest position and dynamics information packets.
- the position and dynamics information packets 2 of a vehicle leaving the zone and no longer transmitting data after an active period are removed from the database.
- the updating and transmission of the own position and dynamic data of the own vehicle takes place in such a way that in the own vehicle the same data as described are recorded and calculated and the entire position and dynamic data packet are transmitted by the own communication system to the neighboring vehicles.
- the position data of the first positioning system which may be implemented as a GPS receiver, is used as basic information. These data are forwarded to the environment model 50.
- the environment model 50 comprises a multiplicity of previously known object types which are structured to describe the driving environment in a so-called object catalog.
- each object there are a number of attributes which are either measured and determined with the sensors, for example width, height, distance, speed, or in a very simple embodiment as a look-up table or in another embodiment in the already are recorded, such as number of lanes, assignment of traffic lights and speed limits.
- attributes which are either measured and determined with the sensors, for example width, height, distance, speed, or in a very simple embodiment as a look-up table or in another embodiment in the already are recorded, such as number of lanes, assignment of traffic lights and speed limits.
- the objects are distinguished between static objects, i. Objects that are part of the infrastructure, such as lanes, traffic signs or peripheral buildings and dynamic objects.
- static objects i. Objects that are part of the infrastructure, such as lanes, traffic signs or peripheral buildings and dynamic objects.
- the description of the movement of dynamic objects is made by subordinate dynamics models, which are formulated relative to object-specific coordinate systems.
- the situation analysis 70 defines and describes the relationships between the found objects, such as singers or lane drive in the function of the traffic jam assistant.
- the driver assistance system such as distance display, distance warning, adaptive cruise control, congestion assistant, emergency braking, different levels of abstraction in the situation analysis, such as distance to the vehicle in front, consideration of own speed, Einscherer situation, possible evasive maneuvers, formed according to the invention.
- the information from and communication with other vehicles and / or the infrastructure is used. The entire available information about the current situation is now stored in the extended environment model and is available to the situation analysis 70.
- the display in the vehicle 80 is either directly in the video image or as a virtual image from the perspective, we indicated in Fig. 1, the bird's eye view. It is intended that the recognition results, such as vehicles or lane markings, enter directly into the image. If there are no video recordings available or the coverage of other sensors is greater than the camera field of view, the detected objects are displayed in a virtual image.
- the method it is advantageously possible to determine the danger emanating from an object on the basis of a situation analysis. If it is then a very high risk, the object will be highlighted in the ad and measures to avoid an accident initiated.
- measures are e.g. the tightening of the straps, the priming of the brake system. It is also thought to give the driver acoustic, haptic and visual cues to the driver that a dangerous situation is developing.
- the initiated measures are in turn transmitted via the communication system 60 to the environment in order to notify the measures introduced to the vehicles located in the vicinity.
- the relevant information is forwarded to the driver assistance systems in the vehicles 2 and 3, which are located in the immediate vicinity, in order to extend their coverage area as well.
- the driver of the individual vehicle is not in his actions by the evaluation of the Um chargeds vente, which has only a limited local range limited. As a result, the presence of certain local conditions at a certain time the driver made accessible, which then measures can be taken in an advantageous manner to avoid accidents, for example.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr bei dem einerseits die Umgebung eines Fahrzeuges und andererseits Bewegungsgrößen des eigenen Fahrzeuges mittels Sensoren erfasst werden, diese als Information an im Umfeld befindliche Fahrzeuge mittels einer Schnittstelle 17 zur Fahrzeug zu Fahrzeug-Kommunikation (60) übertragen und von den im Umfeld befindlichen Fahrzeugen empfangen werden wobei das folgende Schritte durchlaufen werden: a) die Daten der Sensoren (10, 20, 30, 40) ein Umfeldmodell (50) erweitern, b) das erweiterte Umfeldmodell (50) mittels einer Anzeige (80) im eigenen Fahrzeug aktualisiert wiedergegeben wird, c) eine Situationsanalyse (70) des Umfelds und eine Bewertung der Situation im eigenen Fahrzeug durchgeführt wird, d) Objekte, die eine Unfallgefahr repräsentieren in der Anzeige mit einer hohen Priorität visualisiert werden, e) vordefinierte Schritte zur Reduktion der Unfallgefahr im eigenen Fahrzeug aktiviert werden, f) über die Kommunikationssystem (60) zur Fahrzeug zu Fahrzeug-Kommunikation die Information über die eingeleiteten Schritte zur Reduktion der Unfallgefahr an die Umgebung übermittelt werden.
Description
Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr
Die Erfindung betrifft Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr mit den Merkmalen des Oberbegriffs des Anspruchs 1 sowie eine Vorrichtung zum Durchführen des Verfahrens .
1. Stand der Technik
Unfälle resultieren fast immer aus einem Fehlverhalten eines Verkehrsteilnehmers. Dieses Fehlverhalten kann mehrere Ursachen haben:
1. ) Mangelnde Erfahrung
2.) Absichtlich hohe Risikobereitschaft
3.) Übersehen der relevanten Objekte oder Unaufmerksamkeit
4.) Schlechte Sicht
Die ersten 3 Punkte bringen hierbei die größte Gefahr mit sich. Dem 4. wird kein hohes Gefahrenpotential zugemessen, da ein Verkehrsteilnehmer in einer solchen Situation möglichst vorsichtig sein wird und ansonsten unter Punkt 2 fällt. Da Punkt 1 und 2 alleine von den persönlichen Eigenschaften des Fahrers abhängen, ist hier kaum etwas zu bewirken, außer durch eine verbesserte Ausbildung oder höhere Sanktionen. Für die letzten beiden Punkte wurde in den vergangenen Jahrzehnten bereits viel in Fahrerassistenzsysteme investiert, die auf klassischen Umfeldsensorik wie Video- oder Strahlsensoren
beruhen. Aber auch für diese Sensoren gibt es Beschränkungen, die den Erfassungsbereich betreffen. Solche können z.B. Gegenstände, Nebel oder Schnee den Erfassungsbereich begrenzen. In kritischen Verkehrssituationen wie z. B. drohenden Kollisionen mit anderen Fahrzeugen kann ein Fahrer häufig nicht schnell genug bzw. nicht situationsgerecht reagieren.
Aus EP 0 473 866 A2 ist ein System bekannt, bei dem ein Sensor eine Vielzahl von potenziellen Kollisionsobjekten erfasst und mit Hilfe der erfassten Daten eine mögliche Kollision vorhergesagt wird. Zur Vermeidung der Kollision wird vorgeschlagen, dass von einer Fahrzeugsteuereinheit Bremsmittel und/oder Lenkmittel aktiviert werden, um eine Kollision zu vermeiden. Es wird nicht angegeben, auf welche Weise eine Steuereinheit entscheidet, ob die Lenkmittel, die Bremsmittel oder beides eingesetzt werden müssen, um die Kollision zu vermeiden.
Aus US 6,049 295 Al ist ein Verfahren bekannt, das Kollisionen zwischen Fahrzeugen verhindern soll, die eine Kreuzung ohne Verkehrszeichen oder einen schlecht einsehbaren Straßenabschnitt befahren. Dieses Verfahren erfordert eine straßenfeste Einrichtung und fahrzeuggebundene Einrichtungen, die per Funk miteinander in Verbindung stehen.
Aus DE 198 30 547 Al ist weiter ein Kreuzungswarnsystem bekannt, das ebenfalls auf straßenseitige und fahrzeugseitige Einrichtungen angewiesen ist.
Die bekannten Verfahren und Vorrichtungen zur Kollisionsvermeidung verwenden bei der Interpretation einer vorliegenden Fahrsituation einzelne fahrsituationstypische Informationen, um eine anschließenden Bewertung durchzuführen. Nachteilig
hierbei ist, dass andere Informationen zur Verbesserung der Fahrsituationsbewertung nicht flexibel und einfach ausgewertet werden können.
Aufgabe der Erfindung ist es ein Verfahren bereitzustellen, das die bisherigen Einschränkungen des Standes der Technik bezüglich der Umfelderfassung aufhebt und das insbesondere verdeckte Objekte im Straßenverkehr erkennt.
Diese Aufgabe wird erfindungsgemäß mit den Merkmalen des Anspruchs 1 sowie den Merkmalen des Anspruchs 8 gelöst.
In einer ersten Ausgestaltung der Erfindung erfolgt bei dem Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr bei dem einerseits die Umgebung eines Fahrzeuges und andererseits Bewegungsgrößen des eigenen Fahrzeuges mittels Sensoren erfasst werden, diese als Information an im Umfeld befindliche Fahrzeuge mittels einer Schnittstelle 17 zur Fahrzeug zu Fahrzeug-Kommunikation 60) übertragen und von den im Umfeld befindlichen Fahrzeugen empfangen werden, wobei das Schritte durchlaufen werden: a) die Daten der Sensoren (10, 20, 30, 40) ein Umfeldmodell (50) erweitern b) das erweiterte Umfeldmodell (50) mittels einer Anzeige (80) im eigenen Fahrzeug aktualisiert wiedergegeben wird c) eine Situationsanalyse (70) des Umfelds und eine Bewertung der Situation im eigenen Fahrzeug durchgeführt wird d) Objekte, die eine Unfallgefahr repräsentieren in der Anzeige mit einer hohen Priorität visualisiert werden e) vordefinierte Schritte zur Reduktion der Unfallgefahr im eigenen Fahrzeug aktiviert werden
f) über die Kommunikationssystem (60) zur Fahrzeug zu Fahrzeug-Kommunikation die Information über die eingeleiteten Schritte zur Reduktion der Unfallgefahr an die Umgebung übermittelt werden
In einer vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahren erfolgt die Übermittlung der Information mittels Multicast und/oder Unicast und/oder Broadcast-Übertragung.
Eine besonders vorteilhafte Ausgetsaltung zeichnet sich dadurch aus, dass die empfangen Information priorisiert ausgewertet und die zu übertragenden Information nach einer Relevanzprüfung priorisiert gesendet werden.
Besonders vorteilhaft ist die Ausgestaltung des Verfahrens in der Art, dass die empfangen Information an ein eigenes Fahrerassistenzsystem (14) weitergeleitet werden und bei erkannten Fahrzeugen in der Umgebung, die ein aktiviertes Fahrerassistenzsystem aufweisen, die gesendeten Information zu dem jeweiligen Fahrerassistenzsystem des jeweiligen Fahrzeuges zugeführt werden.
In einer weitern vorteilhaften Ausgestaltung erfolgen vordefinierten Schritte im Fahrzeug 1 zur Reduktion der Unfallgefahr durch die Straffung der Gurte, und/oder das Vorfüllen der Bremsanlage des Fahrzeuges.
In einer vorteilhaften Ausbildung des erfindungegemäßen Verfahrens wird als visueller Sensor eine Stereokamera mit einem 12 bit Dynamikbereich verwendet, die eine Obejektracking und eine Objektverfolgung ausführt. Hierdurch erfolgt eine Art Re-
duktion der zu bewertenden Datenmenge, bei der Modifikation des Umfeldmodells.
Eine besonders vorteilhafte Ausgestaltung des erfindungsgemäßen Verfahrens zeichnet sich dadurch aus, dass die gesendeten Information in Form von Positions- und Dynamikinformationspaketen (29) erfolgt. Durch den paketorientierten Ansatz werden alle paketorientierten Übertragungsprotokolle adressiert.
Die Aufgabe wird gelöst durch die erfindungsgemäße Vorrichtung, umfassend mindestens einen Speicher, mindestens eine Rechnereinheit (15) und mindestens eine Schnittstelle (17) für den Datenaustausch, wobei die Informationen aus den benachbarten Fahrzeugen über das Kommunikationssystem (60) und über die Schnittstelle (17) zu der Rechnereinheit (15) weitergeleitet werden, die Daten des eigenen Fahrzeugs (1) durch die Sensoren (10, 20, 30) ermittelt, aktualisiert und über die Sensordatenverarbeitung (50) an ein Umfeldmodell (50) weitergeleitet werden, wobei unter Echtzeitbedingungen die eigene Position, das Umfeld und die Position der benachbarten Fahrzeuge über das Positionsbestimmungssystem (12) ermittelt und dem Rechner über die Schnittstelle (17) an das Umfeldmodell (50) zugeführt wird, aus den empfangenen Informationen und den ermittelten Daten eine Voraussage der Bewegungsbahn des eigenen Fahrzeugs, des Umfeld und der benachbarten Fahrzeuge erfolgt, wobei bei Gefahr eine Signalisierung über eine Ausgabeeinheit (80) an den Fahrer erfolgt oder durch ein Eingreifen mittels der Fahr- zeugsicherheits- und /oder Fahrassistenzsysteme (13,14) in die Bewegungsbahn des eigenen Fahrzeugs oder Signalisieren des Eingriffs der Bewegungsbahn des Fahrzeuges (1) an die benachbarten Fahrzeuge erfolgt.
Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird im Folgenden näher beschrieben.
Es zeigen
Fig. 1 Eine erfindungsgemäße Anzeigemdarstellung im Fahrzeug Fig. 2 Erfindungsgemäße Blockschaltbild Fig. 3 Ein Beispiel für ein Datenmodell
In dem Fahrzeug 1 befinden sich mindestens ein Kommunikations- , ein Positionsbestimmungs-, Fahrzeugsicherheit-, Fahrerassistenzsystem 11/12/13/14, sowie Sensoren 10, 20, 30 und eine Sensordatenverarbeitung 40, und mindestens eine Rechnereinheit 15 mit Speicher die über drahtgebundene oder mobilen Datenbusleitungen einen Datenaustausch mit den Systementen und Sensoren durchführt, wobei auf der Rechnereinheit ein dynamisch änderbares Umfeldmodell 50, die Sensordatenverarbeitungseinheit 40 und eine Situationsanalyse 70 ausgeführt wird. Bevorzugt werden das Umfeldmodell 50, die Sensordatenverarbeitungseinheit 40 und die Situationsanalyse als Module aufgebaut. In der in Fig. 1 dargestellten Ausführungsform spiegelt sich das mo- dulare Konzept wieder. Bespielweise erfolgt über das Kommunikationssystem 11 die der Austausch von Informationen über ein Mobilfunknetz wie GSM und das Kommunikationssystem 60 wird zur für die Übertragung und den Empfang von Information von Fahrzeug zu Fahrzeug eingesetzt. In einer bevorzugten Ausführungsform ist es angedacht, dass sämtliche Kommunikationsfunktionalität in einer einzigen Kommunikationssystem ausgeführt wird.
Als eine Ausgabeeinheit wird eine elektronische Anzeige im Fahrzeug 80 eingesetzt, die ortsfest und/oder variable für den Fahrer sichtbar im Fahrgastraum angebracht werden kann. Um den
Erfassungsbereich sowohl für den Fahrer als auch für die Sensoren zu erweitern wird auf ein Verfahren zurückgegriffen, dessen Erfassungsbereich nicht von optischen Sichtverhältnissen eingeschränkt wird. Ein solches Verfahren ist die bereits erwähnte Fahrzeug-Fahrzeug Kommunikation. Das Kommunikationssystem 60 ist mindestens ausgelegt zur Fahrzeug zu Fahrzeug Kommunikation. Erfindungsgemäß wird als Kommunikationssystem eine standardisierte, nicht optische, funkbasierte Informationsübertragungsverfahren unterstützendes System für die Kommunikation zwischen mindestens zwei Fahrzeugen bzw. Teilnehmern eingesetzt. Das Kommunikationssystem 110 unterstützt unterschiedliche mobile Übertragungsverfahren, die eine Informationsverteilung im so genannten Point to Point Verbindung aufbauen, wogegen das Kommunikationssystem 60 einen Broadcast- Mode durchführt. Als Broadcast oder Rundruf in einem rechnergestützten Netzwerk wird die Übertragung von Datenpakete von einem Punkt, bzw. Fahrzeug aus, an alle Fahrzeuge bzw. Teilnehmer innerhalb eines Netzes verstanden. Mit ihr werden über definierte Funkstandards wie z.B. IEEE 802.11p Umfeldinformationen übertragen und im eigenen Fahrzeug dargestellt werden. In Gefahrensituationen erfolgt nach Ausführung des erfindunge- gemäßen Verfahrens zusätzlich eine Warnung oder ein Eingriff in das Fahrzeugverhalten. Mittels der Kommunikationssystem 11 und 60 werden unterschiedliche mobile Übertragungsverfahren, wie WLAN, DSRC, GSM, GPRS, UMTS, ausgeführt.
Positionsbestimmungssysteme 12 dienen zur Bestimmung der eigenen Position. Als Positionsbestimmungssysteme eignen sich GPS- Sender und Empfänger sowie Navigationssysteme. Erfindungsgemäß können auch integrierte Positionsbestimmungssysteme, die beide Funktionalitäten in einem Gerät vereinen eingesetzt werden.
Als Fahrzeugsicherheitssystemen 13 sind alle im Fahrzeug verfügbaren Bremssysteme mit elektronischer Regelung einsetzbar. Fahrzeugsicherheitssysteme können das Electronic Break System (EBS) 131, das Engine Management System (EMS) 132, Antiblo- ckiersystem (ABS) 133, Antriebs-Schlupf-Regelung (ASR) , Elektronisches Stabilitätsprogramm (ESP) , Elektronische Differentialsperre (EDS), Transmission Control Unit (TCU), Elektronische Bremskraftverteilung (EBV) und/oder Motor-Schleppmomenten- Regelung (MSR) sein.
Fahrerassistenzsysteme 14 sind elektronische Zusatzeinrichtungen in Fahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen. Hierbei stehen oft Sicherheitsaspekte, aber auch die Steigerung des Fahrkomforts im Vordergrund. Diese Systeme greifen teilautonom oder autonom in Antrieb, Steuerung (z.B. Gas, Bremse) oder Signalisierungseinrichtungen des Fahrzeuges ein oder warnen durch geeignete Mensch-Maschine- Schnittstellen den Fahrer kurz vor oder während kritischer Situationen. Solche Fahrassistenzsysteme sind beispielsweise Einparkhilfe (Sensorarrays zur Hinderniss- und Abstandserkennung) , Bremsassistent (BAS) , Tempomat, Adaptive Cruise Control oder Abstandsregeltempomat (ACC) 141, Abstandswarner, Abbiegeassistent, Stauassistent, Spurerkennungssystem, Spurhalteassistent/Spurassistent (QuerführungsunterStützung, lane departure warning (LDW)) 142, Spurhalteunterstützung (Ia- ne keeping support) ) , Spurwechselassistent (lane change as- sistance) , Spurwechselunterstützung (lane change support) , Intelligent Speed Adaption (ISA), Adaptives Kurvenlicht, ReifendruckkontrollSystem, FahrerzuStandserkennung, Verkehrszeichenerkennung, Platooning, Automatische Notbremsung
(ANB) , Auf- und Abblendassistent für das Fahrlicht, Nachtsichtsystem (Night Vision).
Durch die Integration von verschiedenen Systemen werden alle funktionellen Vorteile der einzelnen Subsysteme beibehalten und zusätzlich wird deren Gesamtleistung gesteigert. Während die einzelnen Subsysteme Unfälle reduzieren können, indem sie das Risiko bestimmter Gefahren minimieren, die nur für das eigene Fahrzeug gelten, können erfindungsgemäß komplexe Gefahrensituationen gelöst werden, an der insbesondere zahlreiche Fahrzeuge beteiligt sind.
Die Aufbau in Fig. 2 zeigt eine multi-sensoriellen Umgebungserfassung mit vernetztem Umfeldmodell. Kern des erfindungsgemäßen Verfahren sind die Schritte Sensordatenaufbereitung 40, Bildung und Ergänzung der Umfeldmodellε 50 mittels der Sensor- datenverarbeitung 40 und der Fahrzeug zu Fahrzeug Kommunikation 60, und die Zuführung des Umfeldmodels an eine Situationsanalyse.
Das Umfeldmodell 50 weißt eine Schnittstelle zu den Fahrzeugsicherheitssystem und Fahrerassistenzsystemen und ermöglicht gleichzeitig eine Validierung der Umgebungserfassung.
Zu Beginn des Verfahrens wird eine Bestandsaufnahme aller verwendbaren Sensoren durchgeführt und erstellt. Diese umfasst sowohl eine funktionelle Beschreibung als auch alle wichtigen Leistungsmerkmale der Sensoren. Trotz der Vielzahl der verfügbaren Sensoren werden die verwendeten Sensoren nach Technologie in folgende drei Kategorien eingeteilt: Lidar 10 basierend auf scannenden oder feststehenden Laserstrahlen und Radar 20
mit Ausprägungen für Fernbereichsradar und Nahbereichsradar und visuelle Sensoren in der Ausführung als Kameras 30, sowohl für den sichtbaren Bereich als auch für den unsichtbaren Bereich, der beispielweise die Wärmestrahlung umfasst.
Mit elektromagnetischen Wellen misst ein Radarsystem die Entfernung zu und gleichzeitig die Geschwindigkeit von Objekten, indem die Objekt-Rückstreuung ausgewertet wird. Für die Generierung der Radarwellen werden verschiedene Möglichkeiten wie Pulse-Radar, FMCW (frequency modulated continuous wave) und FSK {frequency shift keying) Modulation, sowie Kombinationen davon eingesetzt. Für den Abstandsregeltempomaten (ACC) wird ein Fernbereichsradar eingesetzt, bei dem Entfernungen bis zu 150 Metern gemessen werden können und die Objekte als punktförmig angesehen werden.
Beim Nahbereichsradar werden gleichzeitig mehrere Sensoren (Sender und Empfänger) verwendet, die jeweils einen deutlich größeren Öffnungswinkel (bis +/- 60°) besitzen. Durch verkoppelte Auswertung der Empfangssignale können auch mehrere Objekte bis zu einer Entfernung von 30 Metern lokalisiert werden. Während das Fernbereichsradar bei einer Frequenz von 77 GHz arbeitet, benutzt das Nahbereichsradar den Frequenzbereich um 24 GHz bzw. 79 GHz. Ein wichtiger Vorteil von Radar ist die Unempfindlichkeit der Radarwellenausbreitung gegenüber 'Witterungseinflüssen wie Regen, Schneefall oder Nebel.
Im Gegensatz zu Radar wird bei Lidar die Objektgeschwindigkeit gewöhnlich über mehrere Entfernungsmessungen bestimmt und nicht direkt durch Auswertung des Dopplereffektes. Nichtscan- nende Systeme mit mehreren Laserstrahlen und Photodioden (MuI- ti-Beam-Lidar) werden wie das Fernbereichsradar für Abstands-
regelung (ACC) eingesetzt, wobei durch die größere Anzahl an Strahlen eine bessere laterale Auflösung im Vergleich zum Fernbereichsradar erzielt wird. Im Nahbereich wird überwiegend scannendes Lidar eingesetzt, das im Prinzip eine komplette Rundumsicht (360° Öffnungswinkel) ermöglicht. Um Nickbewegungen des Fahrzeuges zu kompensieren ist es angedaσht mehrere Abtastebenen zu benutzen.
Kameras bieten im Gegensatz zu den entfernungsmessenden Prinzipien von Radar und Lidar ein hochauflösendes Bild der Fahrumgebung. Da die Kontrastverhältnisse im Straßenverkehr oft sehr groß sind, wird erfindungsgemäß eine hochdynamische Kameras mit bspw. einem 12 Bit Dynamikbereich eingesetzt. Während für die Spurerkennung Grauwertkameras einsetzbar sind, sind für eine zuverlässige Ampeldetektion Farbkameras vorgesehen. Um die 2D-Information einer Monokamera mit Entfernungsinformation zu verknüpfen, werden nach der Erfindung Stereokameras mit einer horizontalen Basis, wie das Augenpaar beim Menschen, und bestimmt die Disparitäten zwischen den beiden Bildern hauptsächlich an vertikalen Kanten zur Entfernungsbestimmung. Des weiteren ist es erfindungsgemäß angedacht bewegliche Kameras einzusetzen, wie scannende Ansätze bei Lidar oder Radar, eine deutliche Vergrößerung des Blickwinkels, mit einer zusätzlichen Steuerung in der Blickrichtung z.B. basierend auf der Aufmerksamkeit. Erfindungegemäß ist es auch angedacht, dass Wärmebildkameras für die Fußgängererkennung einzusetzen, da die Temperatur des menschlichen Körpers ein zuverlässiges Detektionsmerkmal darstellt.
Erfindungsgemäß werden durch den Einsatz der genannten Sensoren, die Nachteile der einzelnen Sensoren in der Kombination
miteinander, aufgehoben und ein Mehrwert durch den kombinierten Einsatz generiert.
Der Block Sensordatenaufbereitung 40 berücksichtigt in besonderer Weise die zusätzlichen Anforderungen eines multisenso- rielien Ansatzes. Sobald Sensordaten in Beziehung gesetzt werden, wird sowohl die gegenseitige Lage der Sensoren als auch eine gerneinsame Zeitbasis in Bezug zu einander gesetzt. Hier zu erfolgt nach der Erfindung eine Ortskalibrierung zur Be- stimmung der geometrischen Relation der Objekte und Fahrzeuge zu einander, eine Zeitsynchronisation zur Bestimmung der seitlichen Relation der Objekte und Fahrzeuge zu einander und der Sensormodeilierung, bei der eine Berücksichtigung von Sensoreigenschaften eingeht. Als Bezugspunkt für das Koordinatensystem ist es erfindungsgemäß angedacht, das Eigenfahrzeug zu verwenden, das natürlich mit ortsgebundeπer Information z.B. von Navigationskarten bzw. Positionsbestimmungssysteme 12 entsprechend in Verbindung gebracht wird.
Da sich die Objekte im Verkehrsumfeld oft mit hoher Geschwindigkeit bewegen, wird eine gemeinsame Zeitbasis für einen mul- tisensoriellen Ansatz definiert. Stereokameras z.B. werden synchron betrieben, um beide Messungen zum gleichen Zeitpunkt zu erhalten. Erfindungsgemäß werden auch asynchrone Systeme verwendet, wenn die Messungen mit einem Zeitstempel versehen werden, der von einer gemeinsamen Systemuhr (Master-Clock) geliefert wird.
Für das eingesetzte Multisensorsystem Radar-Lidar-Kamera werden alle bekannten und benötigten Sensoreigenschaften in Sensormodellen zu hinterlegt und dann bei der Sensordatenverar- beitung explizit berücksichtigt, da die Eigenschaften der ein-
zelnen Sensoren, wie Reichweite, Öffnungswinkel auch bei Änderungen, z.B. anderes Kameraobjektiv, effizient zu berücksichtigen sind.
Im Umfeldmodell 50 werden alle Ergebnisse der multisensoriel- len Fahrumgebungserfassung und der zusätzlich empfangen Informationen aus der Umgebung durch die Fahrzeug zu Fahrzeug Kommunikation über das Kommunikationssystem 60 zusammengetragen. Empfang und Aktualisierung der Informationen aus den benachbarten Fahrzeugen erfolgt in der Art, das die benachbarten Fahrzeuge 2 und 3 ihre Positions- und Dynamikinformationspakete 29 (PDP), wie in Fig.3 beispielhaft angegeben, über das im jeweiligen Fahrzeug befindliche und für den Informationsaustausch zwischen mindestens zwei Fahrzeugen zuständige Kommunikationssystem für die Fahrzeug zu Fahrzeug Kommunikation fortlaufend senden.
Die das jeweilige Fahrzeug repräsentierenden und verteilten Positions- und Dynamikinformationspakete 2 enthalten Informationen, z.B. die Fahrzeugkennung 21, die GPS-Daten mit genauen Informationen über das Spurhalten 22, die individuelle Fahrzeugparameter 23, wie z.B. die Fahrzeuggeometrie mit Länge 231, Breite 232, Wendekreis, den Fahrzeugtyp (PKW / Geländefahrzeug / Klein-Lastkraftwagen / LKW / usw.) 233, die vorab bekannten Informationen der Fahrzeugdynamik 24 mit max. Längsbeschleunigung und -Verzögerung 241, max. Querbeschleunigung 242, max. Fahrzeuggeschwindigkeit 23, die aktuelle Fahrzeuggeschwindigkeit 245, die Längsbeschleunigung, die Querbeschleu- nigung, die aktuelle Gierrate, den aktuellen Lenkwinkel.
Des Weiteren beinhalten die Positions- und Dynamikinformationspakete 29 Informationen über die aktuell im jeweiligen
Fahrzeug aktiven Fahrzeugsicherheitssysteme 25 und Fahrerassistenzsysteme 25, sowie Informationen über die Fahrbahnparameter 26, wie z.B. Böschungswinkel und geschätzte Reibung. Vorgesehen sind weitere Felder in den Positions- und Dynamikinformationspakete 2 für optionale Angaben 27, wie den Zustand von Ampelsignalen oder die Position von erkannten Fußgängern.
Die Positions- und Dynamikinformationen aller benachbarten Fahrzeuge, mit denen das eigene Fahrzeug kommuniziert, werden in einem dynamisch aktualisierten, internen Speicher der Rechnereinheit 15, die als Datenbank ausgestaltet sein kann, gespeichert .
Wenn das sendende Fahrzeug bereits über ein aktives Positionsund Dynamikinformationspaket in der Datenbank verfügt, d.h. es bereits vom empfangenden, eigenen Fahrzeug "erkannt" wird, werden die Daten mit dem neuesten Positions- und Dynamikinformationspakete aktualisiert.
Fährt das Fahrzeug gerade in den Kommunikationsbereich, wird es mit dem ursprünglichen Positions- und Dynamikinformationspakete in die Datenbank eingegeben. Die Positions- und Dynamikinformationspakete 2 eines Fahrzeugs, das die Zone verlässt und das nach einem aktiven Zeitraum keine Daten mehr sendet, werden aus der Datenbank entfernt.
Die Aktualisierung und Übertragung der eigenen Positions- und Dynamikdaten des eigenen Fahrzeugs erfolgt in der Art, dass im eigenen Fahrzeugs die gleichen Daten wie beschrieben erfasst und berechnet und das gesamte Positions- und Dynamikdatenpaket durch das eigene Kommunikationssystem an die benachbarten Fahrzeuge übertragen werden.
Die Positionsdaten des ersten Positionsbestimmungssystems, der als ein GPS Empfänger ausgeführt sein kann, werden als Basis- information verwendet. Diese Daten werden an das Umfeldmodell 50 weitergeleitet.
Das Umfeldmodell 50 umfasst erfindungsgemäß eine Vielzahl von vorab bekannten Objekttypen, die zur Beschreibung der Fahrumgebung, in einem sogenannten Objektkatalog strukturiert sind.
Zu jedem Objekt gibt es eine Anzahl von Attributen, die entweder mit der Sensorik gemessen und bestimmt werden, zum Beispiel Breite, Höhe, Entfernung, Geschwindigkeit/ oder aber in einer sehr einfachen Ausführungsform als Look-Up Tabelle oder in einer weiteren Ausführungsform in der bereits erwähnten Datenbank erfasst sind, wie Anzahl der Fahrspuren, Zuordnung von Ampeln und Geschwindigkeitsbeschränkungen.
Bei den Objekten unterscheidet man zwischen statischen Objekten, d.h. Objekte, die zur Infrastruktur gehören, wie Fahrspuren, Verkehrszeichen oder Randbebauung und dynamischen Objekten. Die Beschreibung der Bewegung dynamischer Objekte erfolgt durch unterlagerte Dynamikmodelle, die relativ zu objektspezifischen Koordinatensystemen formuliert werden.
Fußgänger oder ungeschützte Verkehrsteilnehmer werden gesondert behandelt, da sowohl deren Erkennung als auch die dafür notwendigen Form und Dynamikmodelle, wie veränderliche Gestalt durch Arm- und Beinbewegungen, abrupte Richtungswechsel möglich sind und somit wesentlich komplexer sind als z. B. bei Fahrzeugen.
Die Situationsanalyse 70 definiert und beschreibt die Beziehungen zwischen den gefundenen Objekten, wie zum Beispiel Ein- scherer oder Gassenfahrt bei der Funktion des Stauassistenten. Abhängig von der Komplexität der Fahrerassistenzsystems, wie Abstandsanzeige, Abstandswarnung, Abstandsregeltempomat, Stau- assistent, Notbremsung, werden unterschiedliche Abstraktions- stufen bei der Situationsanalyεe, wie Abstand zum vorausfahrenden Fahrzeug, Berücksichtigung der eigenen Geschwindigkeit, Einscherer-Situation, mögliche Ausweichmanöver, erfindungsgemäß gebildet. Neben den Daten aus der Umgebungserfassung werden die Informationen aus der und Kommunikation mit anderen Fahrzeugen und/oder der Infrastruktur verwendet. Die gesamte verfügbare Information über die aktuelle Situation wird nun im erweiterten Umfeldmodell abgespeichert und steht der Situati- onsanalyse 70 zur Verfügung.
Die Anzeige im Fahrzeug 80 wird entweder direkt im Videobild oder auch als virtuelles Bild aus dem Blickwinkel, wir in Fig. 1 angedeutet, der Vogelperspektive dargestellt. Es ist angedacht, dass die Erkennungsergebnisse, wie Fahrzeuge oder Spurmarkierungen, direkt ins Bild einzutragen. Falls keine Videoaufnahmen zur Verfügung stehen oder der Erfassungsbereich anderer Sensoren größer als das Kamerablickfeld ist, werden die erkannten Objekte in einem virtuellen Bild dargestellt.
Eine Anzeige im Fahrzeug wird dann wie in Fig. 1 dargestellt erfolgen, für den Fall, dass sich zwei Fahrzeuge 1 und 2 als Linksabbieger gegenüber stehen und einer der beiden den entgegenkommenden Verkehr nicht sehen werden, da dieser von dem anderen Linksabbieger verdeckt wird, wobei der der Fahrer des Fahrzeugs 2 sofort erkennen würde, dass er nicht abbiegen darf.
Da durch das Verfahren das Sichtfeld erweitert und die Entscheidungsgrundlage in vielen Fällen erheblich beeinflusst wird, sind zahlreiche zusätzliche Variationen möglich, so dass das beschriebene Ausführungsbeispiel keine Einschränkung darstellt.
Durch das erweiterte Sichtfeld, werden vorteilhaft von vornherein Gefahrensituationen vermieden und somit die Anforderungen an passive Sicherheitssysteme minimiert bzw. reduziert.
Durch das Verfahren ist es in vorteilhaftweise möglich, anhand einer Situationsanalyse die Gefahr, die von einem Objekt ausgeht, zu bestimmen. Handelt es sich dann um ein sehr hohes Gefahrenpotential werden das Objekt in der Anzeige besonders hervorgehoben werden und Maßnahmen zur Vermeidung eines Unfalls eingeleitet. Solche Maßnahmen sind z.B. die Straffung der Gurte, das Vorfüllen der Bremsanlage. Es ist auch angedacht, dem Fahrer akustischen, haptische und visuellen Hinweise dem Fahrer auszugeben, dass eine Gefahrensituation im entstehen ist. Die eingeleiteten Maßnahmen werden wiederum über das Kommunikationssystem 60 an die Umgebung übertragen, um den in der Umgebung befindlichen Fahrzeugen die eingeleiteten Maßnahmen mitzuteilen.
Die relevanten Informationen werden an die Fahrerassistenzsysteme in den Fahrzeugen 2 und 3, die sich in unmittelbarer Umgebung befinden weitergegeben, um deren Erfassungsbereich e- benfalls zu erweitern. Es entsteht hierdurch ein Netz von Fahrzeugen, bei dem die nutzbare Informationsreichweite für das einzelne Fahrzeug stark erweitert wird. Der Fahrer des einzelnen Fahrzeuges wird bei seinen Handlungen nicht durch
die Auswertung der Umfelderfassung, die lediglich eine begrenzte örtliche Reichweite besitzt, eingeschränkt. Hierdurch wird das Vorliegen von bestimmten örtlichen Gegebenheiten zu einem bestimmten Zeitpunkt den Fahrer zugänglich gemacht, wodurch dann in vorteilhafter Weise Maßnahmen ergriffen werden können, um zum Bespiel Unfälle zu vermeiden.
Claims
1. Verfahren zur Erkennung von verdeckten Objekten im Straßenverkehr bei dem einerseits die Umgebung eines Fahrzeu¬ ges und andererseits Bewegungsgrößen des eigenen Fahrzeu¬ ges mittels Sensoren erfasst werden, diese als Information an im Umfeld befindliche Fahrzeuge mittels einer Schnitt¬ stelle 17 zur Fahrzeug zu Fahrzeug-Kommunikation (60) ü- bertragen und von den im Umfeld befindlichen Fahrzeugen empfangen werden dadurch kennzeichnet, das folgende Schritte durchlaufen werden: a) die Daten der Sensoren (10, 20, 30, 40) ein Umfeldmo¬ dell (50) erweitern b) das erweiterte Umfeldmodell (50) mittels einer Anzei¬ ge (80) im eigenen Fahrzeug aktualisiert wiedergege¬ ben wird c) eine Situationsanalyse (70) des Umfelds und eine Be¬ wertung der Situation im eigenen Fahrzeug durchgeführt wird d) Objekte, die eine Unfallgefahr repräsentieren in der Anzeige mit einer hohen Priorität visualisiert werden e) vordefinierte Schritte zur Reduktion der Unfallgefahr im eigenen Fahrzeug aktiviert werden f) über die Kommunikationssystem (60) zur Fahrzeug zu Fahrzeug-Kommunikation die Information über die eingeleiteten Schritte zur Reduktion der Unfallgefahr an die Umgebung übermittelt werden
2. Verfahren nach Anspruch 1 dadurch kennzeichnet, dass die Übermittlung der Information mittels Multicast und/oder Unicast und/oder Broadcast-Übertragung erfolgt.
3. Verfahren nach einem der vorangegangen Ansprüche dadurch kennzeichnet, dass die empfangen Informationen priorisiert ausgewertet und die zu übertragenden Informationen nach einer Relevanzprüfung priorisiert gesendet werden.
4. Verfahren nach einem der vorangegangen Ansprüche dadurch kennzeichnet, dass die empfangen Information an ein eigenes Fahrerassistenzsystem (14) weitergeleitet werden und bei erkannten Fahrzeugen in der Umgebung, die ein aktiviertes Fahrerassistenzsystem aufweisen, die gesendeten Informationen zu dem jeweiligen Fahrerassistenzsystem des jeweiligen Fahrzeuges zugeführt werden.
5. Verfahren nach einem der vorangegangen Ansprüche dadurch gekennzeichnet, dass die vordefinierten Schritte zur Reduktion der Unfallgefahr im Fahrzeug (1) die Straffung der Gurte, und/oder das Vorfüllen der Bremsanlagen ausgeführt werden.
6. Verfahren nach einem der vorangegangen Ansprüche dadurch gekennzeichnet, das der Sensor 30 eine Stereokamera mit einem 12 bit Dynamikbereich ist.
7. Verfahren nach einem der vorangegangen Ansprüche dadurch gekennzeichnet, die gesendeten Information in Form von Positions- und Dynamikinformationspaketen (29) erfolgt.
8. Vorrichtung zur Durchführung des Verfahrens gemäß Anspruch 1, umfassend mindestens einen Speicher, mindestens eine Rechnereinheit (15) und mindestens eine Schnittstelle (17) für den Datenaustausch, dadurch gekennzeichnet, dass dass die Informationen aus den benachbarten Fahrzeugen ü- ber das Kommunikationssystem (60) und über die Schnittstelle (17) zu der Rechnereinheit (15) weitergeleitet werden, die Daten des eigenen Fahrzeugs (1) durch die Sensoren (10, 20, 30) ermittelt, aktualisiert und über die Sensordatenverarbeitung (50) an ein Umfeldmodell (50) weitergeleitet werden, wobei unter Echtzeitbedingungen die eigene Position, das Umfeld und die Position der benachbarten Fahrzeuge über das Positionsbestimmungssystem (12) ermittelt und dem Rechner über die Schnittstelle (17) an das Umfeldmodell (50) zugeführt wird, wobei bei Gefahr eine Signalisierung über die Schnittstelle an eine Ausgabeeinheit (80) an den Fahrer erfolgt oder durch ein Eingreifen mittels der Fahrzeugsicherheits- und /oder Fahrassistenzsysteme (13,14) in die Bewegungsbahn des eigenen Fahrzeugs und/oder Signalisieren des Eingriffs der Bewegungsbahn des Fahrzeuges (1) an die benachbarten Fahrzeuge erfolgt.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP07821156.2A EP2082388B1 (de) | 2006-10-13 | 2007-10-10 | Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr |
US12/444,778 US8179281B2 (en) | 2006-10-13 | 2007-10-10 | Method and apparatus for identifying concealed objects in road traffic |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006049101.7 | 2006-10-13 | ||
DE102006049101 | 2006-10-13 | ||
DE102007048809A DE102007048809A1 (de) | 2006-10-13 | 2007-10-10 | Verfahren und Vorrichtung zur Erkennung von verdeckten Objekten im Straßenverkehr |
DE102007048809.4 | 2007-10-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2008043795A1 true WO2008043795A1 (de) | 2008-04-17 |
Family
ID=38834995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2007/060788 WO2008043795A1 (de) | 2006-10-13 | 2007-10-10 | Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr |
Country Status (4)
Country | Link |
---|---|
US (1) | US8179281B2 (de) |
EP (1) | EP2082388B1 (de) |
DE (1) | DE102007048809A1 (de) |
WO (1) | WO2008043795A1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010000521A1 (de) * | 2008-07-02 | 2010-01-07 | Robert Bosch Gmbh | Fahrerassistenzverfahren und -vorrichtung |
WO2013072112A1 (de) * | 2011-11-17 | 2013-05-23 | Robert Bosch Gmbh | Schadensbegrenzung für ein kraftfahrzeug in einer gefahrensituation |
US10163276B2 (en) * | 2015-11-09 | 2018-12-25 | Samsung Electronics Co., Ltd. | Apparatus and method of transmitting messages between vehicles |
CN109895768A (zh) * | 2017-12-11 | 2019-06-18 | 现代自动车株式会社 | 车辆及其控制方法 |
Families Citing this family (96)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060058829A1 (en) * | 2003-03-19 | 2006-03-16 | Sampson Douglas C | Intragastric volume-occupying device |
JP4254844B2 (ja) * | 2006-11-01 | 2009-04-15 | トヨタ自動車株式会社 | 走行制御計画評価装置 |
JP4371137B2 (ja) * | 2006-11-10 | 2009-11-25 | トヨタ自動車株式会社 | 自動運転制御装置 |
JP4525670B2 (ja) * | 2006-11-20 | 2010-08-18 | トヨタ自動車株式会社 | 走行制御計画生成システム |
US8169338B2 (en) * | 2008-07-25 | 2012-05-01 | GM Global Technology Operations LLC | Inter-vehicle communication feature awareness and diagnosis system |
US8935055B2 (en) * | 2009-01-23 | 2015-01-13 | Robert Bosch Gmbh | Method and apparatus for vehicle with adaptive lighting system |
WO2010100759A1 (ja) | 2009-03-06 | 2010-09-10 | トヨタ自動車株式会社 | 運転支援装置 |
DE102009020328A1 (de) * | 2009-05-07 | 2010-11-11 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Darstellung von unterschiedlich gut sichtbaren Objekten aus der Umgebung eines Fahrzeugs auf der Anzeige einer Anzeigevorrichtung |
DE102009048493A1 (de) * | 2009-09-25 | 2011-04-07 | Valeo Schalter Und Sensoren Gmbh | Fahrerassistenzsystem für ein Fahrzeug, Fahrzeug mit einem Fahrerassistenzsystem und Verfahren zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs |
EP2302412B1 (de) * | 2009-09-29 | 2012-08-15 | Volvo Car Corporation | System und Verfahren zur Beurteilung einer Frontalzusammenstoßdrohung eines Automobils |
DE102009053707B4 (de) | 2009-11-18 | 2013-03-07 | Man Truck & Bus Ag | Vorrichtung zur Anzeige eines Hindernisses im Bewegungsbereich eines Nutzfahrzeugs |
DE102010015686A1 (de) * | 2010-04-21 | 2011-10-27 | Audi Ag | Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug |
US8639437B2 (en) | 2010-06-09 | 2014-01-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Computationally efficient intersection collision avoidance system |
US8965676B2 (en) * | 2010-06-09 | 2015-02-24 | Toyota Motor Engineering & Manufacturing North America, Inc. | Computationally efficient intersection collision avoidance system |
US9096228B2 (en) | 2010-06-23 | 2015-08-04 | Continental Teves Ag & Co. Ohg | Method and system for accelerated object recognition and/or accelerated object attribute recognition and use of said method |
US8405541B2 (en) * | 2010-09-01 | 2013-03-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-range radar system |
DE102011075674A1 (de) | 2011-05-11 | 2012-11-15 | Continental Teves Ag & Co. Ohg | Abstandsbestimmung mittels eines Kamerasensors |
WO2013009692A2 (en) * | 2011-07-08 | 2013-01-17 | Godfrey Matthew R | Systems and methods for tracking and monitoring an electronic device |
US8706458B2 (en) * | 2011-10-05 | 2014-04-22 | International Business Machines Corporation | Traffic sensor management |
DE102011116169A1 (de) * | 2011-10-14 | 2013-04-18 | Continental Teves Ag & Co. Ohg | Vorrichtung zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs oder zum autonomen Fahren eines Fahrzeugs |
US8630806B1 (en) | 2011-10-20 | 2014-01-14 | Google Inc. | Image processing for vehicle control |
US9146898B2 (en) * | 2011-10-27 | 2015-09-29 | Magna Electronics Inc. | Driver assist system with algorithm switching |
US9245447B2 (en) | 2011-11-21 | 2016-01-26 | Continental Teves Ag & Co. Ohg | Method and device for the position determination of objects in road traffic, based on communication signals, and use of the device |
DE102012221264A1 (de) | 2011-11-21 | 2013-05-23 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur Positionsbestimmung von Objekten mittels Kommunikationssignalen sowie Verwendung der Vorrichtung |
JP5936258B2 (ja) * | 2012-03-22 | 2016-06-22 | 富士重工業株式会社 | 運転支援装置 |
US10609335B2 (en) | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
DE102012208254A1 (de) | 2012-05-16 | 2013-11-21 | Continental Teves Ag & Co. Ohg | Verfahren und System zur Erstellung eines aktuellen Situationsabbilds |
DE102012210069A1 (de) * | 2012-06-14 | 2013-12-19 | Continental Teves Ag & Co. Ohg | Verfahren und System zum Anpassen eines Anfahrverhaltens eines Fahrzeugs an eine Verkehrssignalanlage sowie Verwendung des Systems |
KR101493360B1 (ko) * | 2012-07-30 | 2015-02-23 | 주식회사 케이티 | 주변 차량의 상태 변화 감지를 통한 차량 주행 관리 방법 및 시스템 |
US9344989B2 (en) | 2012-09-06 | 2016-05-17 | Apple Inc. | System with wireless messages to enhance location accuracy |
US9595195B2 (en) | 2012-09-06 | 2017-03-14 | Apple Inc. | Wireless vehicle system for enhancing situational awareness |
DE102012221004A1 (de) | 2012-11-16 | 2014-05-22 | Continental Teves Ag & Co. Ohg | Verfahren und System zur verbesserten Bestimmung einer Eigenposition eines Fahrzeugs |
DE102012023498B4 (de) | 2012-12-03 | 2024-10-10 | Continental Autonomous Mobility Germany GmbH | Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung |
US10796510B2 (en) * | 2012-12-20 | 2020-10-06 | Brett I. Walker | Apparatus, systems and methods for monitoring vehicular activity |
DE102012024959A1 (de) * | 2012-12-20 | 2014-06-26 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug |
DE102012025159A1 (de) | 2012-12-21 | 2014-06-26 | Continental Teves Ag & Co. Ohg | Verfahren und System zum Lernen von Verkehrsereignissen sowie Verwendung des Systems |
DE102013201836A1 (de) | 2013-02-05 | 2014-08-07 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur Anwesenheitserkennung von Objekten in einer Fahrgastzelle eines Fahrzeugs |
DE102013215098A1 (de) | 2013-08-01 | 2015-02-05 | Bayerische Motoren Werke Aktiengesellschaft | Umfeldmodelle für Fahrzeuge |
DE102013215100A1 (de) * | 2013-08-01 | 2015-02-05 | Bayerische Motoren Werke Aktiengesellschaft | Bereitstellen eines Umfeldmodells beim Ausfall eines Sensors eines Fahrzeugs |
DE102013220312A1 (de) * | 2013-10-08 | 2015-04-09 | Bayerische Motoren Werke Aktiengesellschaft | Fortbewegungsmittel und Verfahren zum Informationsaustausch mit einem Fortbewegungsmittel |
DE102013220526A1 (de) * | 2013-10-11 | 2015-04-16 | Bayerische Motoren Werke Aktiengesellschaft | Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme |
JP6107618B2 (ja) * | 2013-11-26 | 2017-04-05 | 株式会社デンソー | 周辺移動体表示装置 |
US9079587B1 (en) * | 2014-02-14 | 2015-07-14 | Ford Global Technologies, Llc | Autonomous control in a dense vehicle environment |
US9666069B2 (en) * | 2014-02-14 | 2017-05-30 | Ford Global Technologies, Llc | Autonomous vehicle handling and performance adjustment |
DE102014007030A1 (de) * | 2014-05-13 | 2015-11-19 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Verfahren und Vorrichtung zur Warnung vor einer kritischen Verkehrssituation |
DE102014211013A1 (de) * | 2014-06-10 | 2015-12-17 | Continental Teves Ag & Co. Ohg | Fahrzeugkommunikationsgerät |
JP6237580B2 (ja) * | 2014-11-13 | 2017-11-29 | 株式会社デンソー | モータ制御装置 |
CN104442571B (zh) * | 2014-11-26 | 2016-06-01 | 重庆长安汽车股份有限公司 | 一种夜视导航集成系统及控制方法 |
DE102015105784A1 (de) * | 2015-04-15 | 2016-10-20 | Denso Corporation | Verteiltes System zum Erkennen und Schützen von verwundbaren Verkehrsteilnehmern |
US9606539B1 (en) | 2015-11-04 | 2017-03-28 | Zoox, Inc. | Autonomous vehicle fleet service and system |
US9720415B2 (en) | 2015-11-04 | 2017-08-01 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
US10248119B2 (en) | 2015-11-04 | 2019-04-02 | Zoox, Inc. | Interactive autonomous vehicle command controller |
US9734455B2 (en) | 2015-11-04 | 2017-08-15 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US9916703B2 (en) | 2015-11-04 | 2018-03-13 | Zoox, Inc. | Calibration for autonomous vehicle operation |
WO2017079341A2 (en) | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US10000124B2 (en) | 2015-11-04 | 2018-06-19 | Zoox, Inc. | Independent steering, power, torque control and transfer in vehicles |
US10401852B2 (en) | 2015-11-04 | 2019-09-03 | Zoox, Inc. | Teleoperation system and method for trajectory modification of autonomous vehicles |
US10745003B2 (en) | 2015-11-04 | 2020-08-18 | Zoox, Inc. | Resilient safety system for a robotic vehicle |
US9754490B2 (en) | 2015-11-04 | 2017-09-05 | Zoox, Inc. | Software application to request and control an autonomous vehicle service |
US10334050B2 (en) | 2015-11-04 | 2019-06-25 | Zoox, Inc. | Software application and logic to modify configuration of an autonomous vehicle |
US9507346B1 (en) | 2015-11-04 | 2016-11-29 | Zoox, Inc. | Teleoperation system and method for trajectory modification of autonomous vehicles |
US10496766B2 (en) | 2015-11-05 | 2019-12-03 | Zoox, Inc. | Simulation system and methods for autonomous vehicles |
US9517767B1 (en) | 2015-11-04 | 2016-12-13 | Zoox, Inc. | Internal safety systems for robotic vehicles |
US9632502B1 (en) | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions |
US9878664B2 (en) | 2015-11-04 | 2018-01-30 | Zoox, Inc. | Method for robotic vehicle communication with an external environment via acoustic beam forming |
US9630619B1 (en) | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Robotic vehicle active safety systems and methods |
US9958864B2 (en) | 2015-11-04 | 2018-05-01 | Zoox, Inc. | Coordination of dispatching and maintaining fleet of autonomous vehicles |
US9910441B2 (en) | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
US9804599B2 (en) * | 2015-11-04 | 2017-10-31 | Zoox, Inc. | Active lighting control for communicating a state of an autonomous vehicle to entities in a surrounding environment |
US11283877B2 (en) | 2015-11-04 | 2022-03-22 | Zoox, Inc. | Software application and logic to modify configuration of an autonomous vehicle |
US9802661B1 (en) | 2015-11-04 | 2017-10-31 | Zoox, Inc. | Quadrant configuration of robotic vehicles |
US9494940B1 (en) | 2015-11-04 | 2016-11-15 | Zoox, Inc. | Quadrant configuration of robotic vehicles |
US9632507B1 (en) | 2016-01-29 | 2017-04-25 | Meritor Wabco Vehicle Control Systems | System and method for adjusting vehicle platoon distances based on predicted external perturbations |
DE102016002603A1 (de) * | 2016-03-03 | 2017-09-07 | Audi Ag | Verfahren zur Ermittlung und Bereitstellung einer auf eine vorbestimmte Umgebung bezogenen, Umfelddaten enthaltenden Datenbank |
JP6692899B2 (ja) * | 2016-04-15 | 2020-05-13 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、および車両制御プログラム |
US10150414B2 (en) * | 2016-07-08 | 2018-12-11 | Ford Global Technologies, Llc | Pedestrian detection when a vehicle is reversing |
DE102016213038A1 (de) * | 2016-07-18 | 2018-01-18 | Zf Friedrichshafen Ag | Verfahren zur Bereitstellung von Sensorinformationen für ein Kraftfahrzeug |
EP3273423B1 (de) * | 2016-07-21 | 2019-03-13 | Continental Automotive GmbH | Vorrichtung und verfahren zur erkennung eines fussgängers |
DE102016215825A1 (de) * | 2016-08-23 | 2018-03-01 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum externen Bereitstellen von Kartendaten für Assistenzsysteme von Kraftfahrzeugen |
US9928746B1 (en) * | 2016-09-16 | 2018-03-27 | Ford Global Technologies, Llc | Vehicle-to-vehicle cooperation to marshal traffic |
DE102017203838B4 (de) * | 2017-03-08 | 2022-03-17 | Audi Ag | Verfahren und System zur Umfelderfassung |
US10338594B2 (en) * | 2017-03-13 | 2019-07-02 | Nio Usa, Inc. | Navigation of autonomous vehicles to enhance safety under one or more fault conditions |
US10423162B2 (en) | 2017-05-08 | 2019-09-24 | Nio Usa, Inc. | Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking |
US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
DE102017218438A1 (de) * | 2017-10-16 | 2019-04-18 | Robert Bosch Gmbh | Verfahren und System zum Betreiben eines Fahrzeugs |
US11022971B2 (en) | 2018-01-16 | 2021-06-01 | Nio Usa, Inc. | Event data recordation to identify and resolve anomalies associated with control of driverless vehicles |
CN108284838A (zh) * | 2018-03-27 | 2018-07-17 | 杭州欧镭激光技术有限公司 | 一种用于检测车辆外部环境信息的检测系统及检测方法 |
CN110875797B (zh) | 2018-08-31 | 2022-11-08 | 阿波罗智能技术(北京)有限公司 | 智能驾驶汽车的数据传输方法、装置及设备 |
DE102019102679A1 (de) * | 2019-02-04 | 2020-08-06 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren, Vorrichtung, Computerprogramm und Computerprogrammprodukt zum Bereitstellen eines Bahnverlaufs eines Objekts für ein Fahrzeug |
CN115605819A (zh) * | 2020-03-10 | 2023-01-13 | 谷歌有限责任公司(Us) | 用于识别沿着路线的障碍物和危险的系统和方法 |
DE102020208637A1 (de) * | 2020-07-09 | 2022-01-13 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorhersage von dynamischen Objekten an verdeckten Bereichen |
DE102020209515A1 (de) | 2020-07-29 | 2022-02-03 | Volkswagen Aktiengesellschaft | Verfahren sowie System zur Unterstützung einer vorausschauenden Fahrstrategie |
US20220198200A1 (en) * | 2020-12-22 | 2022-06-23 | Continental Automotive Systems, Inc. | Road lane condition detection with lane assist for a vehicle using infrared detecting device |
DE102021205061A1 (de) | 2021-05-19 | 2022-11-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Ermitteln verdeckter Objekte in einer ein Umfeld repräsentierenden 3D-Punktwolke |
CN114446092B (zh) * | 2022-01-19 | 2022-12-27 | 无锡学院 | 一种基于三维相机组网的s型公路模拟障碍物预警方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0473866A2 (de) | 1990-08-22 | 1992-03-11 | Kollmorgen Corporation | Zusammenstossvorbeugungssystem |
US5983161A (en) | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
DE19830547A1 (de) | 1998-05-18 | 1999-12-02 | Toyota Motor Co Ltd | Kreuzungswarnungssystem |
US6049295A (en) | 1997-12-05 | 2000-04-11 | Fujitsu Limited | Method and system for avoiding a collision at an intersection and a recording medium storing programs performing such a method |
GB2405279A (en) | 2000-10-04 | 2005-02-23 | Intelligent Tech Int Inc | Collision avoidance |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6553130B1 (en) * | 1993-08-11 | 2003-04-22 | Jerome H. Lemelson | Motor vehicle warning and control system and method |
US7042345B2 (en) * | 1996-09-25 | 2006-05-09 | Christ G Ellis | Intelligent vehicle apparatus and method for using the apparatus |
US6289332B2 (en) * | 1999-02-26 | 2001-09-11 | Freightliner Corporation | Integrated message display system for a vehicle |
DE10301468B4 (de) * | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
JP4040441B2 (ja) | 2002-12-04 | 2008-01-30 | トヨタ自動車株式会社 | 車両用通信装置 |
GB2400353A (en) * | 2003-04-09 | 2004-10-13 | Autoliv Dev | Pedestrian detecting system provided on a motor vehicle |
-
2007
- 2007-10-10 US US12/444,778 patent/US8179281B2/en active Active
- 2007-10-10 WO PCT/EP2007/060788 patent/WO2008043795A1/de active Application Filing
- 2007-10-10 EP EP07821156.2A patent/EP2082388B1/de active Active
- 2007-10-10 DE DE102007048809A patent/DE102007048809A1/de not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0473866A2 (de) | 1990-08-22 | 1992-03-11 | Kollmorgen Corporation | Zusammenstossvorbeugungssystem |
US5983161A (en) | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
US6049295A (en) | 1997-12-05 | 2000-04-11 | Fujitsu Limited | Method and system for avoiding a collision at an intersection and a recording medium storing programs performing such a method |
DE19830547A1 (de) | 1998-05-18 | 1999-12-02 | Toyota Motor Co Ltd | Kreuzungswarnungssystem |
GB2405279A (en) | 2000-10-04 | 2005-02-23 | Intelligent Tech Int Inc | Collision avoidance |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010000521A1 (de) * | 2008-07-02 | 2010-01-07 | Robert Bosch Gmbh | Fahrerassistenzverfahren und -vorrichtung |
WO2013072112A1 (de) * | 2011-11-17 | 2013-05-23 | Robert Bosch Gmbh | Schadensbegrenzung für ein kraftfahrzeug in einer gefahrensituation |
US9221468B2 (en) | 2011-11-17 | 2015-12-29 | Robert Bosch Gmbh | Damage limitation for a motor vehicle in a dangerous situation |
US10163276B2 (en) * | 2015-11-09 | 2018-12-25 | Samsung Electronics Co., Ltd. | Apparatus and method of transmitting messages between vehicles |
CN109895768A (zh) * | 2017-12-11 | 2019-06-18 | 现代自动车株式会社 | 车辆及其控制方法 |
CN109895768B (zh) * | 2017-12-11 | 2023-06-02 | 现代自动车株式会社 | 车辆及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2082388A1 (de) | 2009-07-29 |
DE102007048809A1 (de) | 2008-07-10 |
US8179281B2 (en) | 2012-05-15 |
EP2082388B1 (de) | 2015-08-19 |
US20100045482A1 (en) | 2010-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2082388B1 (de) | Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr | |
DE102008036131B4 (de) | Verfahren und Vorrichtung zur Erkennung der Verkehrssituation in einer Fahrzeugumgebung | |
DE102016217645B4 (de) | Verfahren zum Bereitstellen von Information über eine voraussichtliche Fahrintention eines Fahrzeugs | |
DE102017113176B4 (de) | Steuerungsvorrichtung eines Fahrzeugs | |
DE102020216470A1 (de) | Fahrerassistenzsystem, damit ausgestattetes fahrzeug und verfahren zum steuern des fahrzeugs | |
DE102018100112A1 (de) | Verfahren und systeme zum verarbeiten von lokalen und cloud-daten in einem fahrzeug und ein cloud-server zum übertragen von cloud-daten an fahrzeuge | |
EP3830522B1 (de) | Verfahren zur schätzung der lokalisierungsgüte bei der eigenlokalisierung eines fahrzeuges, vorrichtung für die durchführung des verfahrens, fahrzeug sowie computerprogramm | |
DE112006001864T5 (de) | System zur Beobachtung der Fahrzeugumgebung aus einer entfernten Perspektive | |
WO2008043850A1 (de) | System zur reduktion des bremsweges eines fahrzeuges | |
DE102012208256A1 (de) | Verfahren und System zum autonomen Nachführen eines Folgefahrzeugs auf der Spur eines Leitfahrzeugs | |
DE102010049721A1 (de) | Verfahren und Vorrichtung zur Anzeige einer Kritikalität | |
DE102017114876A1 (de) | Fahrerassistenzsystem zur Kollisionsvermeidung mittels Warn- und Interventionskaskade | |
DE102017221616A1 (de) | System und Verfahren für einen Einfädelassistenten unter Anwendung von Fahrzeugkommunikation | |
EP3722169B1 (de) | Kraftfahrzeug und verfahren zur kollisionsvermeidung | |
WO2007131801A1 (de) | Verfahren und vorrichtung zur vermeidung von kollisionen von fahrzeugen | |
WO2018054523A1 (de) | Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug | |
WO2020030467A1 (de) | Verfahren und steuervorrichtung zum warnen eines fahrers eines kraftfahrzeugs sowie kraftfahrzeug mit einer derartigen steuervorrichtung | |
DE102021111144A1 (de) | Spurenbasierte fahrzeugsteuerung | |
DE102019215657A1 (de) | Fahrzeugsteuerungsstystem und -verfahren | |
DE112021003340T5 (de) | Hindernisinformationsverwaltungsvorrichtung,hindernisinformationsverwaltungsverfahren und vorrichtung für ein fahrzeug | |
DE112019002668T5 (de) | Strassenseitige vorrichtung und fahrzeugseitige vorrichtung für strasse-zu-fahrzeugkommunikation, und strasse-zu-fahrzeug-kommunikationssystem | |
DE102014214507A1 (de) | Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs | |
DE102007007283A1 (de) | Verfahren und Vorrichtung zur Bestimmung von in der Fahrzeugumgebung befindlichen Fahrzeugen | |
DE102017204383A1 (de) | Verfahren zur Steuerung eines Fahrzeugs | |
DE102017223570B3 (de) | Verfahren zur Anreicherung einer Cloud mit akustischen Fahrzeugumgebungsdaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 07821156 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2007821156 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 12444778 Country of ref document: US |