[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2013102508A1 - Verfahren und vorrichtung zur fahrerinformation - Google Patents

Verfahren und vorrichtung zur fahrerinformation Download PDF

Info

Publication number
WO2013102508A1
WO2013102508A1 PCT/EP2012/071925 EP2012071925W WO2013102508A1 WO 2013102508 A1 WO2013102508 A1 WO 2013102508A1 EP 2012071925 W EP2012071925 W EP 2012071925W WO 2013102508 A1 WO2013102508 A1 WO 2013102508A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
motor vehicle
image
driver
determining
Prior art date
Application number
PCT/EP2012/071925
Other languages
English (en)
French (fr)
Inventor
Thomas Fuehrer
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to US14/370,650 priority Critical patent/US20150296199A1/en
Priority to CN201280066102.2A priority patent/CN104039580B/zh
Priority to EP12787679.5A priority patent/EP2800671A1/de
Priority to JP2014550658A priority patent/JP6104279B2/ja
Publication of WO2013102508A1 publication Critical patent/WO2013102508A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling

Definitions

  • the invention relates to a method and a device for driver information.
  • the invention relates to a method and apparatus for outputting personalized information to a driver of a motor vehicle having the features of the independent claims.
  • optical, acoustic or haptic output devices To output information to a driver of a motor vehicle, it is known to use optical, acoustic or haptic output devices. In the first place, these devices are used to output information about the driving state of the motor vehicle, for example an optical speedometer (tachometer) or a haptic warning before leaving a lane. Since the issuing of such information involves the danger of distracting the driver from what is happening around the motor vehicle, such expenditure must always be cautious. In certain cases, statutory requirements must also be observed, for example, in some countries operating a navigation system while driving is not permitted.
  • An inventive method for driver information comprises steps of
  • the display area comprises a surface of an object displayed on the image.
  • the method may perform recognition of objects in the image and provide a surface of a detected object as a display area. This makes it easy to find a coherent display area.
  • the surface of the object can hold little or no relevant information for the guidance of the motor vehicle, so that overlaying with the personalized information represents virtually no information loss for the driver.
  • advertisement information on the surface of the object may be blended by the personalizing information.
  • the representation of the inserted information is aligned in perspective to a position and extent of the surface of the object with respect to the motor vehicle.
  • the output of the personalized information can thus be made in accordance with the perceptible objects of the environment, so that the information recording by the driver can be facilitated.
  • the information can be obtained from a source outside the motor vehicle.
  • the information can be obtained, for example by means of wireless data transfer, from a computer or a computer network, which provides the personalized information to the driver.
  • calendar or contact information, reminders or personalized advertising can be discreetly brought to the driver's attention.
  • the method comprises determining a driving situation of the motor vehicle and selecting the information to be inserted as a function of the driving situation. If, for example, a driving situation requires increased attention from the driver due to its complexity, the personalized information may be limited to brief and urgently marked messages. However, if the driving situation is simple, such as driving at a constant speed on a low-traffic freeway in daylight and good visibility, the information may also be more complex or changed more frequently.
  • the driving situation can be determined, for example, on the basis of a driving purpose, a time of day or a driving speed. An information overload of the driver can be prevented even better.
  • the personalized information can be output to suit the driving situation, so that, for example, a current schedule can be output on a work journey, but personalized weather information of the destination can be output on a holiday trip.
  • a computer program product comprises program code means for carrying out the described method when the computer program product runs on a processor or is stored on a computer-readable medium.
  • the computer program product can, in particular, run on a processing device which is integrated into the motor vehicle and possibly also controls another system, for example a navigation system.
  • the computer program product may also be removable on a motor vehicle
  • Computer run as an output device alternatively an integrated Output device or an output device that is permanently installed in the vehicle, can be used.
  • An inventive system for driver information comprises a recording device for scanning an image of an exterior of a motor vehicle, a determining device for determining personalized information, which are directed to a driver of the motor vehicle, processing means for determining a contiguous display area in the image and for inserting the Information in the image in the area of the display surface, and an output device for outputting the image to the driver.
  • the system is permanently installed in the motor vehicle.
  • it is possible, in particular, to facilitate networking with other systems of the motor vehicle in order, for example, to allow an improved or easier determination of the driving situation of the motor vehicle.
  • the output device comprises a so-called head-up display.
  • Such an optical output device allows an overlay of the immediately visually perceptible environment with a generated image.
  • an overlay can only take place in subregions of the environment, for example by means of an alphanumeric output.
  • a context-sensitive overlay of visually perceptible objects with other information is referred to as augmented reality. This technique can be used advantageously to carry out the inventive output to the driver.
  • the system preferably comprises a receiving device for receiving the information from a source outside the motor vehicle.
  • the receiving device may in particular comprise a unidirectional or bidirectional digital data interface which is connected to a computer or a computer network, for example the Internet.
  • FIG. 1 is a system for driver information
  • FIGS. 2 to 4 show examples of an overlay of visually perceptible information with output personalized information
  • FIG. 5 is a flowchart of a method for execution on the system of FIG.
  • FIG. 1 shows a system 100 for driver information.
  • a processing device 110 On board a motor vehicle 105 there are a processing device 110, a first camera 15, a second camera 120, an interface 125, a receiving device 130 and an output device 135.
  • a processing device 110 On board a motor vehicle 105 there are a processing device 110, a first camera 15, a second camera 120, an interface 125, a receiving device 130 and an output device 135.
  • a processing device 110 On board a motor vehicle 105 there are a processing device 110, a first camera 15, a second camera 120, an interface 125, a receiving device 130 and an output device 135.
  • a receiving device 130 On board a motor vehicle 105 there are a processing device 110, a first camera 15, a second camera 120, an interface 125, a receiving device 130 and an output device 135.
  • not all of the elements shown must be present. as will be explained in more detail below.
  • the processing device 110 preferably comprises a programmable microcomputer.
  • the processing device 110 is installed permanently on board the motor vehicle 105, wherein the processing device 110, in conjunction with the devices connected to it, can take on further processing and control tasks.
  • the processing device 1 10 may be part of a navigation or entertainment system on board the motor vehicle 105.
  • the first camera 1 15 and the second camera 120 which may also be replaced by a stereo camera, are adapted to provide images or a combined image of an exterior of the motor vehicle 105.
  • a viewing angle of the cameras 115 and 120 as closely as possible corresponds to a viewing angle of a driver of the motor vehicle 105.
  • the cameras 1 15 and 120 are preferably aligned in the direction of travel forward and also offset from each other, so that from images that at the same time with the two Cameras 1 15, 120 were recorded for the purpose of tion of depth information can be superimposed.
  • the determination of depth information in the combined image can take place either in the cameras 1 15, 120 or the stereo camera which replaces them or by means of the processing device 110.
  • only a single camera 115 is provided and depth information of the image provided by this camera 15 can be determined, for example, by a geometric distance estimation.
  • the optional interface 125 is configured to provide data indicative of a driving condition of the motor vehicle 105.
  • data may include a position, a speed, an acceleration, a planned route, a time of day, an outside temperature, lighting conditions, and other parameters that are significant to the operation of the motor vehicle 105.
  • the processing device 1 10 can determine the driving state of the motor vehicle 105.
  • the receiving device 130 is also optional and configured to receive personalized information directed to a driver of the motor vehicle 105.
  • the receiving device 130 may be wired or wirelessly connected to a data memory on board the motor vehicle 105, for example, with a mobile phone or a personal computer, for example for the management of appointments.
  • the receiving device 130 may also be configured to wirelessly receive data from a network.
  • This network may include, for example, a cellular network, which may be connected to the Internet.
  • the receiving device 130 is also configured to transmit a request for personalized data from the processing device 110 to another computer, which then provides this data.
  • the output device 135 is an optical output device, preferably with support of a multicolor output.
  • the output device 135 is installed so that the driver of the motor vehicle 105 can easily read it.
  • the output device 135 comprises a freely viewable display, such as a liquid crystal display.
  • the output device 135 comprises a so-called head-up display, which is set up to store information in the viewing position. the area of the driver.
  • the field of view of the cameras 1 15 and 120 includes the driver's main field of vision, so that the directly perceptible optical information from the surroundings of the motor vehicle 105 can be superimposed on the basis of the images provided by the cameras 1 15, 120 by means of the output device 135.
  • the superimposition determines which objects in the environment of the motor vehicle 105 are visible to the driver and which are completely or partially superimposed by information of the image.
  • Figures 2 to 5 show examples of an overlay optically perceptible
  • an area 200 which lies in front of the motor vehicle 105 and which can be viewed by the driver of the motor vehicle 105 when looking in the direction of travel.
  • an image 205 is taken, which was taken by means of the cameras 1 15, 120 and processed by means of the processing device 1 10 of FIG.
  • the image 205 is preferably displayed in the region 200 in such a way that directly perceptible objects and representations of these objects in the image 205 are congruent with one another from the region 200, so that additional information of the image 205 falls on predetermined areas of the field of vision of the driver.
  • the image 205 is not completely reproduced to the driver but only includes additional information that is superimposed on directly visible objects.
  • an object 210 In each representation of FIGS. 2 to 4, an object 210, an area 215 of the respective object 210, and a graphical representation of information 220 are shown.
  • the processing device 110 performs an object recognition on the image 205 in each case.
  • one or more surfaces 215 may be determined, on the basis of which a contiguous display area 220 is determined.
  • several areas 215 of one or more objects 210 can be combined.
  • the object 210 comprises a guardrail.
  • the display area 220 corresponds to the visible surface of the guardrail, and the information 225 shown on the display area 220 relates, for example, to a due travel booking that the driver of the motor vehicle 105 has to do.
  • the object 210 is a truck and the surface 215 is the rear boundary surface thereof.
  • the illustrated personalized information 225 relates, for example, to a due ticket order of the driver of the motor vehicle 105, which are superimposed on the boundary surface.
  • the object 210 is an area of the road ahead of the motor vehicle 105 and the surface of the road forms the display area 220.
  • the illustrated personalized information 225 relates, for example, to general product information presented to the driver.
  • FIG. 5 shows a flow chart of a method 500 for driver information of the driver of the motor vehicle 105 from FIG. 1.
  • the method 500 is set up in particular for execution on the processing device 110 of the system 100 from FIG.
  • the method 500 includes steps 505 to 550, wherein in the simplest possible embodiment, only those steps are shown, which are shown thick outlined. The remaining steps are optional and may be omitted in other embodiments.
  • steps 505 and 510 an image 205 is made whenever possible simultaneously by means of the cameras 1 15 and 120. If only one camera 115 is used, then steps 505 and 510 coincide.
  • an object recognition is performed to detect objects 210 displayed on the image 205. If the image 200 was recorded by means of the two cameras 115, 120 or by means of a stereo camera, then a determination of depth information in the image 200 can be performed beforehand and the object recognition in step 515 can additionally be based on the depth information.
  • a contiguous display area in the image 205 is determined.
  • individual surfaces of the objects determined in step 515 can be used.
  • a surface 215 of an object 210 or multiple surfaces 215 of one or more objects 210 may together form the display surface 220.
  • personalized information directed to the driver of the motor vehicle 105 is obtained.
  • this personalized information is received by the receiving device 130 of FIG.
  • a driving condition of the motor vehicle 105 may be determined.
  • a step 535 personalized information to be displayed is selected on the basis of the information obtained in step 525.
  • the selection may be made based on the driving condition of the motor vehicle 105 determined in step 530.
  • step 540 the information selected for display on the display area 220 selected in step 535 may be enlarged, reduced, rotated, or distorted in perspective.
  • step 545 the information is inserted into the image 205 and subsequently output to the driver of the motor vehicle 105 in a step 550. Examples of possible expenses can be found in FIGS. 2 to 4.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

Ein Verfahren zur Fahrerinformation umfasst Schritte des Abtastens eines Bilds eines Außenbereichs eines Kraftfahrzeugs, des Bestimmens einer zusammenhängenden Anzeigefläche in dem Bild, des Bestimmens von personalisierten Informationen, die an einen Fahrer des Kraftfahrzeugs gerichtet sind, des Einfügens der Informationen in das Bild im Bereich der Anzeigefläche und des Ausgebens des Bilds an den Fahrer. Ein System zur Fahrerinformation an Bord eines Kraftfahrzeugs umfasst eine Aufnahmeeinrichtung zur Abtastung eines Bilds eines Außenbereichs des Kraftfahrzeugs, eine Bestimmungseinrichtung zur Bestimmung von personalisierten Informationen, die an einen Fahrer des Kraftfahrzeugs gerichtet sind, eine Verarbeitungseinrichtung zur Bestimmung einer zusammenhängenden Anzeigefläche in dem Bild und zur Einfügung der Informationen in das Bild im Bereich der Anzeigefläche sowie eine Ausgabeeinrichtung zur Ausgabe des Bilds an den Fahrer.

Description

Beschreibung
Titel
Verfahren und Vorrichtung zur Fahrerinformation Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Fahrerinformation.
Insbesondere betrifft die Erfindung ein Verfahren und eine Vorrichtung zur Ausgabe von personalisierten Informationen an einen Fahrer eines Kraftfahrzeugs mit den Merkmalen der unabhängigen Ansprüche. Stand der Technik
Zur Ausgabe von Informationen an einen Fahrer eines Kraftfahrzeugs ist es bekannt, optische, akustische oder haptische Ausgabeeinrichtungen zu nutzen. In erster Linie werden diese Einrichtungen zur Ausgabe von Informationen über den Fahrzustand des Kraftfahrzeugs genutzt, beispielsweise eine optische Geschwindigkeitsanzeige (Tachometer) oder eine haptische Warnung vor dem Verlassen einer Fahrspur. Da die Ausgabe solcher Informationen die Gefahr birgt, den Fahrer von einem Geschehen im Umfeld des Kraftfahrzeugs abzulenken, müssen solche Ausgaben stets behutsam erfolgen. In bestimmten Fällen sind auch gesetzliche Vorgaben zu beachten, beispielsweise ist in einigen Ländern das Bedienen eines Navigationssystems während der Fahrt unzulässig.
Informationen, die den Fahrer zwar betreffen, jedoch nicht unmittelbar mit der Aufgabe des Führens des Kraftfahrzeugs verknüpft sind, werden daher häufig nicht an den Fahrer des Kraftfahrzeugs weitergeleitet. Dabei wäre es wünschenswert, den Fahrer auch mit Informationen zu versorgen, die über seine gegenwärtige Tätigkeit des Führens des Kraftfahrzeugs hinausgehen. Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zur personalisierten Fahrerinformation für einen Fahrer eines Kraftfahrzeugs bereit- zustellen. Die Erfindung löst diese Aufgaben mittels eines Verfahrens mit den Merkmalen von Anspruch 1 und eines Systems mit den Merkmalen von Anspruch 8. Unteransprüche geben bevorzugte Ausführungsformen wieder. Ein erfindungsgemäßes Verfahren zur Fahrerinformation umfasst Schritte des
Abtastens eines Bilds eines Außenbereichs eines Kraftfahrzeugs, des Bestimmens einer zusammenhängenden Anzeigefläche in dem Bild, das Bestimmen von personalisierten Informationen, die an einen Fahrer des Kraftfahrzeugs gerichtet sind, des Einfügens der Informationen in das Bild im Bereich der Anzeige- fläche und des Ausgebens des Bilds an den Fahrer.
Dadurch ist es möglich, dem Fahrer personalisierte Informationen optisch darzubieten, ohne seine Aufmerksamkeit stark von der Aufgabe des Führens des Kraftfahrzeugs abzulenken. Eine Verkehrssicherheit des Kraftfahrzeugs kann dadurch gewährleistet sein und gesetzliche Vorschriften zur Vermeidung einer Ablenkung des Fahrers können erfüllt sein.
In einer bevorzugten Ausführungsform umfasst die Anzeigefläche eine Oberfläche eines auf dem Bild dargestellten Objekts. In diesem Fall kann das Verfahren eine Erkennung von Objekten in dem Bild durchführen und eine Oberfläche eines erfassten Objekt als Anzeigefläche bereitstellen. So kann auf einfache Weise eine zusammenhängende Anzeigefläche gefunden werden. Außerdem kann die Oberfläche des Objekts nur wenig oder gar keine relevante Information für das Führen des Kraftfahrzeugs bergen, so dass das Überlagern mit den personali- sierten Informationen praktisch keinen Informationsverlust für den Fahrer darstellt. In einer weiteren Ausführungsform können Reklameinformationen auf der Oberfläche des Objekts durch die personalisieren Informationen überblendet werden. Bevorzugterweise ist die Darstellung der eingefügten Informationen an eine Position und Ausdehnung der Oberfläche des Objekts bezüglich des Kraftfahrzeugs perspektivisch angeglichen. Die Ausgabe der personalisierten Informationen kann auf diese Weise in Übereinstimmung mit den wahrnehmbaren Objekten der Umgebung erfolgen, so dass die Informationsaufnahme durch den Fahrer er- leichtert sein kann. Die Informationen können aus einer Quelle außerhalb des Kraftfahrzeugs bezogen werden. Insbesondere können die Informationen, beispielsweise mittels drahtlosem Datentransfer, von einem Computer oder einem Computernetzwerk bezogen werden, welches die personalisierten Informationen für den Fahrer be- reitstellt. So können beispielsweise Kalender- oder Kontaktinformationen, Erinnerungen oder personalisierte Reklame dezent zur Aufmerksamkeit des Fahrers gebracht werden.
In einer weiter bevorzugten Ausführungsform umfasst das Verfahren ein Be- stimmen einer Fahrsituation des Kraftfahrzeugs und das Auswählen der einzufügenden Informationen in Abhängigkeit der Fahrsituation. Erfordert eine Fahrsituation beispielsweise aufgrund ihrer Komplexität ein erhöhtes Maß an Aufmerksamkeit vom Fahrer, so können die personalisierten Informationen auf kurze und als dringlich markierte Nachrichten beschränkt sein. Ist die Fahrsituation jedoch einfach, wie beispielsweise ein Fahren mit konstanter Geschwindigkeit auf einer nur schwach ausgelasteten Autobahn bei Tageslicht und guter Sicht, so können die Informationen auch komplexer sein oder häufiger gewechselt werden.
Die Fahrsituation kann beispielsweise auf der Basis eines Fahrzwecks, einer Ta- geszeit oder einer Fahrgeschwindigkeit bestimmt werden. Eine Informationsüberflutung des Fahrers kann dadurch noch besser verhindert sein. Außerdem können die personalisierten Informationen passend zur Fahrsituation ausgegeben werden, so dass beispielsweise auf einem Arbeitsweg ein aktueller Terminplan, auf einer Urlaubsfahrt jedoch personalisierte Wetterinformationen des Zielorts ausgegeben werden können.
Ein Computerprogrammprodukt umfasst Programmcodemittel zur Durchführung des beschriebenen Verfahrens, wenn das Computerprogrammprodukt auf einer Verarbeitungseinrichtung abläuft oder auf einem computerlesbaren Datenträger gespeichert ist.
Das Computerprogrammprodukt kann insbesondere auf einer Verarbeitungseinrichtung ablaufen, die ins Kraftfahrzeug integriert ist und gegebenenfalls auch ein anderes System steuert, beispielsweise ein Navigationssystem. Das Computer- programmprodukt kann auch auf einem aus dem Kraftfahrzeug entfernbaren
Computer ablaufen, wobei als Ausgabeeinrichtung alternativ eine integrierte Ausgabeeinrichtung oder eine Ausgabeeinrichtung, die im Kraftfahrzeug fest verbaut ist, genutzt werden kann.
Ein erfindungsgemäßes System zur Fahrerinformation umfasst eine Aufnahme- einrichtung zur Abtastung eines Bilds eines Außenbereichs eines Kraftfahrzeugs, eine Bestimmungseinrichtung zur Bestimmung von personalisierten Informationen, die an einen Fahrer des Kraftfahrzeugs gerichtet sind, eine Verarbeitungseinrichtung zur Bestimmung einer zusammenhängenden Anzeigefläche in dem Bild und zur Einfügung der Informationen in das Bild im Bereich der Anzeigeflä- che, und eine Ausgabeeinrichtung zur Ausgabe des Bilds an den Fahrer.
In einer bevorzugten Ausführungsform ist das System fest im Kraftfahrzeug installiert. Dadurch kann insbesondere die Vernetzung mit anderen Systemen des Kraftfahrzeugs erleichtert sein, um etwa eine verbesserte beziehungsweise er- leichtere Bestimmung der Fahrsituation des Kraftfahrzeugs zu erlauben.
In einer besonders bevorzugten Ausführungsform umfasst die Ausgabeeinrichtung ein so genanntes Head-Up-Display. Eine derartige optische Ausgabeeinrichtung erlaubt eine Überlagerung der unmittelbar visuell wahrnehmbaren Umge- bung mit einem generierten Bild. Dabei kann insbesondere eine Überlagerung nur in Teilbereichen der Umgebung erfolgen, etwa mittels einer alphanumerischen Ausgabe. Eine kontextsensitive Überlagerung von visuell wahrnehmbaren Objekten mit weiteren Informationen wird als erweiterte Wirklichkeit ("augmented reality") bezeichnet. Diese Technik kann vorteilhaft benutzt werden, um die erfin- dungsgemäße Ausgabe an den Fahrer durchzuführen.
Ferner umfasst das System vorzugsweise eine Empfangseinrichtung zum Empfangen der Informationen aus einer Quelle außerhalb des Kraftfahrzeugs. Die Empfangseinrichtung kann insbesondere eine unidirektionale oder bidirektionale digitale Datenschnittstelle umfassen, die mit einem Computer oder einem Computernetzwerk, beispielsweise dem Internet, verbunden ist.
Kurze Beschreibung der Figuren Die Erfindung wird nun mit Bezug auf die beigefügten Figuren genauer beschrieben, in denen:
- Figur 1 ein System zur Fahrerinformation;
- Figuren 2 bis 4 Beispiele für eine Überlagerung optisch wahrnehmbarer Informationen mit ausgegebenen personalisierten Informationen; und
- Figur 5 ein Ablaufdiagramm eines Verfahrens zur Ausführung auf dem System aus Figur 1 darstellt.
Genaue Beschreibung von Ausführungsbeispielen
Figur 1 zeigt ein System 100 zur Fahrerinformation. An Bord eines Kraftfahrzeugs 105 befinden sich eine Verarbeitungseinrichtung 1 10, eine erste Kamera 1 15, eine zweite Kamera 120, eine Schnittstelle 125, eine Empfangseinrichtung 130 und eine Ausgabeeinrichtung 135. In unterschiedlichen Ausführungsformen des Systems 100 müssen nicht alle der dargestellten Elemente vorhanden sein, wie im folgenden genauer ausgeführt wird.
Die Verarbeitungseinrichtung 110 umfasst bevorzugterweise einen programmierbaren Mikrocomputer. In einer Ausführungsform ist die Verarbeitungseinrichtung 1 10 fest an Bord des Kraftfahrzeugs 105 installiert, wobei die Verarbeitungseinrichtung 110 in Verbindung mit den mit ihr verbundenen Einrichtungen noch weitere Verarbeitungs- und Steueraufgaben übernehmen kann. Beispielsweise kann die Verarbeitungseinrichtung 1 10 Teil eines Navigations- oder Unterhaltungssystems an Bord des Kraftfahrzeugs 105 sein.
Die erste Kamera 1 15 und die zweite Kamera 120, die auch durch eine Stereo- Kamera ersetzt sein können, sind dazu eingerichtet, Bilder beziehungsweise ein kombiniertes Bild eines Außenbereichs des Kraftfahrzeugs 105 bereitzustellen. Vorzugsweise entspricht ein Blickwinkel der Kameras 115 und 120 möglichst genau einem Blickwinkel eines Fahrers des Kraftfahrzeugs 105. Die Kameras 1 15 und 120 sind vorzugsweise in Fahrtrichtung nach vorne ausgerichtet und außerdem zueinander versetzt angebracht, so dass aus Bildern, die zum gleichen Zeitpunkt mit den beiden Kameras 1 15, 120 aufgenommen wurden, zur Bestim- mung von Tiefeninformationen übereinandergelegt werden können. Die Bestimmung von Tiefeninformationen in dem kombinierten Bild kann entweder in den Kameras 1 15, 120 beziehungsweise der sie ersetzenden Stereokamera oder mittels der Verarbeitungseinrichtung 1 10 erfolgen. In einer weiteren Ausführungsform ist nur eine einzelne Kamera 115 vorgesehen und Tiefeninformationen des durch diese Kamera 1 15 bereitgestellten Bilds können beispielsweise durch eine geometrische Entfernungsschätzung bestimmt werden.
Die optionale Schnittstelle 125 ist dazu eingerichtet, Daten bereitzustellen, die auf einen Fahrzustand des Kraftfahrzeugs 105 hinweisen. Solche Daten können eine Position, eine Geschwindigkeit, eine Beschleunigung, eine geplante Route, eine Tageszeit, eine Außentemperatur, Beleuchtungsverhältnisse und andere Parameter umfassen, die für den Betrieb des Kraftfahrzeugs 105 erheblich sind. Auf der Basis der bereitgestellten Informationen kann die Verarbeitungseinrichtung 1 10 den Fahrzustand des Kraftfahrzeugs 105 bestimmen.
Die Empfangseinrichtung 130 ist ebenfalls optional und dazu eingerichtet, personalisierte Informationen, die an einen Fahrer des Kraftfahrzeugs 105 gerichtet sind, entgegenzunehmen. Die Empfangseinrichtung 130 kann kabelgebunden oder drahtlos mit einem Datenspeicher an Bord des Kraftfahrzeugs 105 verbunden sein, beispielsweise mit einem Mobiltelefon oder einem persönlichen Computer, beispielsweise zur Verwaltung von Terminen. Die Empfangseinrichtung 130 kann jedoch auch zum drahtlosen Empfangen von Daten aus einem Netzwerk eingerichtet sein. Dieses Netzwerk kann beispielsweise ein Mobilfunknetz umfassen, das gegebenenfalls mit dem Internet verbunden ist. In einer bevorzugten Ausführungsform ist die Empfangseinrichtung 130 auch dazu eingerichtet, eine Anfrage nach personalisierten Daten von der Verarbeitungseinrichtung 110 an einen anderen Computer zu übermitteln, der diese Daten dann bereitstellt. Die Ausgabeeinrichtung 135 ist eine optische Ausgabeeinrichtung, vorzugsweise mit Unterstützung einer mehrfarbigen Ausgabe. Die Ausgabeeinrichtung 135 ist so installiert, dass sie der Fahrer des Kraftfahrzeugs 105 leicht ablesen kann. In einer einfachen Ausführungsform umfasst die Ausgabeeinrichtung 135 eine frei einsehbare Anzeige, wie beispielsweise eine Flüssigkristallanzeige. In einer be- vorzugten Ausführungsform umfasst die Ausgabeeinrichtung 135 ein so genanntes Head-Up-Display, welches dazu eingerichtet ist, Informationen in den Sicht- bereich des Fahrers einzuspiegeln. Dabei umfasst der Sichtbereich der Kameras 1 15 und 120 den wesentlichen Sichtbereich des Fahrers, so dass die unmittelbar wahrnehmbaren optischen Informationen aus der Umgebung des Kraftfahrzeugs 105 auf der Basis der von den Kameras 1 15, 120 bereitgestellten Bilder mittels der Ausgabeeinrichtung 135 überlagert werden können. Durch die Überlagerung ist festgelegt, welche Objekte im Umfeld des Kraftfahrzeugs 105 für den Fahrer sichtbar sind und welche durch Informationen des Bildes ganz oder teilweise überlagert sind. Figuren 2 bis 5 zeigen Beispiele für eine Überlagerung optisch wahrnehmbarer
Informationen mit ausgegebenen personalisierten Informationen. Dargestellt ist jeweils ein Bereich 200, der vor dem Kraftfahrzeug 105 liegt und der von dem Fahrer des Kraftfahrzeugs 105 beim Blick in Fahrtrichtung eingesehen werden kann. Aus dem Bereich 200 ist ein Bild 205 entnommen, das mittels der Kameras 1 15, 120 aufgenommen und mittels der Verarbeitungseinrichtung 1 10 aus Figur 1 verarbeitet wurde. Das Bild 205 ist vorzugsweise so in den Bereich 200 eingeblendet, dass aus dem Bereich 200 unmittelbar wahrnehmbare Objekte und Darstellungen dieser Objekte im Bild 205 miteinander deckungsgleich sind, so dass zusätzliche Informationen des Bildes 205 auf vorbestimmte Flächen des Sicht- felds des Fahrers fallen. In einer anderen Ausführungsform ist das Bild 205 nicht vollständig an den Fahrer wiedergegeben sondern umfasst nur zusätzliche Informationen, die unmittelbar sichtbaren Objekten passgenau überlagert sind.
In jeder Darstellung der Figuren 2 bis 4 sind jeweils ein Objekt 210, eine Fläche 215 des betreffenden Objekts 210 und eine grafische Darstellung von Informationen 220 gezeigt. Die Verarbeitungseinrichtung 1 10 führt dazu jeweils auf dem Bild 205 eine Objekterkennung durch. Für jedes erkannte Objekt 210 können eine oder mehrere Oberflächen 215 bestimmt werden, auf deren Basis eine zusammenhängende Anzeigefläche 220 bestimmt wird. Dazu können mehrere Flä- chen 215 eines oder mehrerer Objekte 210 zusammengenommen werden.
In Figur 2 umfasst das Objekt 210 eine Leitplanke. Die Anzeigefläche 220 entspricht der sichtbaren Oberfläche der Leitplanke und die Informationen 225, die auf der Anzeigefläche 220 dargestellt sind, betreffen beispielhaft eine fällige Rei- sebuchung, die der Fahrer des Kraftfahrzeugs 105 zu erledigen hat. In Figur 3 ist das Objekt 210 ein Lastkraftwagen und die Fläche 215 dessen hintere Begrenzungsfläche. Die dargestellten personalisierten Informationen 225 betreffen beispielhaft eine fällige Kartenbestellung des Fahrers des Kraftfahrzeugs 105, die der Begrenzungsfläche überlagert sind.
In Figur 4 ist das Objekt 210 ein Bereich der vor dem Kraftfahrzeug 105 liegenden Straße und die Oberfläche der Straße bildet die Anzeigefläche 220. Die dargestellten, personalisierten Informationen 225 betreffen beispielhaft eine allgemeine Produktinformation, die dem Fahrer dargeboten wird.
Figur 5 zeigt ein Ablaufdiagramm eines Verfahrens 500 zur Fahrerinformation des Fahrers des Kraftfahrzeugs 105 aus Figur 1. Das Verfahren 500 ist insbesondere zur Ausführung auf der Verarbeitungseinrichtung 110 des Systems 100 aus Figur 1 eingerichtet.
Das Verfahren 500 umfasst Schritte 505 bis 550, wobei in der einfachsten möglichsten Ausführungsform nur diejenigen Schritte erforderlich sind, die dick umrandet dargestellt sind. Die restlichen Schritte sind optional und können in anderen Ausführungsformen auch weggelassen werden.
In Schritten 505 und 510 wird möglichst gleichzeitig mittels der Kameras 1 15 und 120 jeweils ein Bild 205 angefertigt. Wird nur eine Kamera 115 verwendet, so fallen die Schritte 505 und 510 zusammen. In einem folgenden Schritt 515 wird eine Objekterkennung durchgeführt, um Objekte 210, die auf dem Bild 205 dargestellt sind, zu erfassen. Wurde das Bild 200 mittels der beiden Kameras 115, 120 beziehungsweise mittels einer Stereokamera aufgenommen, so kann zuvor eine Bestimmung von Tiefeninformationen im Bild 200 durchgeführt werden und die Objekterkennung im Schritt 515 kann sich zusätzlich auf die Tiefeninformationen stützen.
Anschließend wird in einem Schritt 520 eine zusammenhängende Anzeigefläche in dem Bild 205 bestimmt. Dazu können einzelne Oberflächen der im Schritt 515 bestimmten Objekte herangezogen werden. Eine Fläche 215 eines Objekts 210 oder mehrere Flächen 215 eines oder mehrerer Objekte 210 können zusammen die Anzeigefläche 220 bilden. Unabhängig von den bis hier beschriebenen Schritten 505 bis 520 werden in einem Schritt 525 personalisierte Informationen, die an den Fahrer des Kraftfahrzeugs 105 gerichtet sind, bezogen. Vorzugsweise werden diese personalisierten Informationen mittels der Empfangseinrichtung 130 aus Figur 1 empfangen. Außerdem kann in einem Schritt 530 auf der Basis der Informationen, die im Bild 205 enthalten sind, und/oder Informationen, die über die Schnittstelle 525 von anderen Systemen des Kraftfahrzeugs 105 bereitgestellt sind, ein Fahrzustand des Kraftfahrzeugs 105 bestimmt werden.
In einem Schritt 535 werden darzustellende, personalisierte Informationen auf der Basis der in Schritt 525 bezogenen Informationen ausgewählt. Gegebenenfalls kann die Auswahl auf der Basis des in Schritt 530 bestimmten Fahrzustands des Kraftfahrzeugs 105 erfolgen.
In einem optionalen Schritt 540 können die im Schritt 535 ausgewählten Informationen zur Darstellung auf der Anzeigefläche 220 perspektivisch vergrößert, verkleinert, gedreht oder verzerrt werden.
In einem weiteren Schritt 545 werden die Informationen in das Bild 205 eingefügt und anschließend in einem Schritt 550 an den Fahrer des Kraftfahrzeugs 105 ausgegeben. Beispiele für mögliche Ausgaben finden sich in den Figuren 2 bis 4.

Claims

Ansprüche
1. Verfahren (500) zur Fahrerinformation, umfassend:
- Abtasten (505, 510) eines Bilds (205) eines Außenbereichs (200) eines Kraftfahrzeugs (105);
- Bestimmen (520) einer zusammenhängenden Anzeigefläche (220) in dem Bild (205);
- Bestimmen (535) von personalisierten Informationen (225), die an einen Fahrer des Kraftfahrzeugs (105) gerichtet sind;
- Einfügen (545) der Informationen (225) in das Bild (205) im Bereich der Anzeigefläche (220); und
- Ausgeben (550) des Bilds (205) an den Fahrer.
2. Verfahren (500) nach Anspruch 1 , wobei die Anzeigefläche (220) eine Oberfläche (215) eines auf dem Bild (205) dargestellten Objekts (210) umfasst.
3. Verfahren (500) nach Anspruch 2, wobei die Darstellung der eingefügten Informationen (225) an eine Position und Ausdehnung der Oberfläche (215) des Objekts (210) bezüglich des Kraftfahrzeugs (105) perspektivisch angeglichen ist.
4. Verfahren (500) nach einem der vorangehenden Ansprüche, ferner umfassend das Beziehen (525) der Informationen aus einer Quelle außerhalb des Kraftfahrzeugs (105).
5. Verfahren (500) nach einem der vorangehenden Ansprüche, ferner umfassend ein Bestimmen (530) einer Fahrsituation des Kraftfahrzeugs (105) und das Auswählen (535) der einzufügenden Informationen in Abhängigkeit der Fahrsituation.
6. Verfahren (500) nach Anspruch 5, wobei die Fahrsituation wenigstens eines von einem Fahrzweck, einer Tageszeit und einer Fahrgeschwindigkeit um- fasst.
7. Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des Verfahrens (500) nach einem der vorangehenden Ansprüche, wenn das Computerprogrammprodukt auf einer Verarbeitungseinrichtung abläuft oder auf einem computerlesbaren Datenträger gespeichert ist.
8. System (100) zur Fahrerinformation, umfassend:
- eine Aufnahmeeinrichtung (1 10, 1 15) zur Abtastung eines Bilds (205) eines Außenbereichs (200) eines Kraftfahrzeugs (105);
- eine Bestimmungseinrichtung (130) zur Bestimmung von personalisierten Informationen (225), die an einen Fahrer des Kraftfahrzeugs (105) gerichtet sind;
- eine Verarbeitungseinrichtung (110)
o zur Bestimmung einer zusammenhängenden Anzeigefläche (220) in dem Bild (205) und
o zur Einfügung der Informationen (225) in das Bild (205) im Bereich der Anzeigefläche (220); und
- eine Ausgabeeinrichtung (135) zur Ausgabe des Bilds (205) an den Fahrer.
9. System (100) nach Anspruch 8, wobei die Ausgabeeinrichtung (135) ein Head-up-Display umfasst.
10. System (100) nach einem der Ansprüche 8 oder 9, ferner eine Empfangseinrichtung (130) zum Empfangen der Informationen (225) aus einer Quelle außerhalb des Kraftfahrzeugs (105).
PCT/EP2012/071925 2012-01-05 2012-11-06 Verfahren und vorrichtung zur fahrerinformation WO2013102508A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/370,650 US20150296199A1 (en) 2012-01-05 2012-11-06 Method and device for driver information
CN201280066102.2A CN104039580B (zh) 2012-01-05 2012-11-06 用于驾驶员通知的方法和设备
EP12787679.5A EP2800671A1 (de) 2012-01-05 2012-11-06 Verfahren und vorrichtung zur fahrerinformation
JP2014550658A JP6104279B2 (ja) 2012-01-05 2012-11-06 運転者通知方法および運転者通知装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102012200133.6 2012-01-05
DE102012200133A DE102012200133A1 (de) 2012-01-05 2012-01-05 Verfahren und Vorrichtung zur Fahrerinformation

Publications (1)

Publication Number Publication Date
WO2013102508A1 true WO2013102508A1 (de) 2013-07-11

Family

ID=47191714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/071925 WO2013102508A1 (de) 2012-01-05 2012-11-06 Verfahren und vorrichtung zur fahrerinformation

Country Status (6)

Country Link
US (1) US20150296199A1 (de)
EP (1) EP2800671A1 (de)
JP (1) JP6104279B2 (de)
CN (1) CN104039580B (de)
DE (1) DE102012200133A1 (de)
WO (1) WO2013102508A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108944665A (zh) * 2017-04-12 2018-12-07 福特全球技术公司 支持操作位于乘客舱内的物体以及机动车辆

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9851882B2 (en) * 2015-12-27 2017-12-26 Thunder Power New Energy Vehicle Development Company Limited Fully designable vehicle information panel interface
US10366290B2 (en) * 2016-05-11 2019-07-30 Baidu Usa Llc System and method for providing augmented virtual reality content in autonomous vehicles
DE102017204254A1 (de) * 2017-03-14 2018-09-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Erinnerung eines Fahrers an ein Anfahren an einer Lichtsignaleinrichtung
WO2019044536A1 (ja) * 2017-08-31 2019-03-07 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および移動体
EP3573025A1 (de) * 2018-05-24 2019-11-27 Honda Research Institute Europe GmbH Verfahren und system zur automatischen erzeugung eines ansprechenden bildes auf der basis eines von der fahrzeugmontierten kamera aufgenommenen originalbildes
US11762390B1 (en) * 2019-01-25 2023-09-19 Amazon Technologies, Inc. Autonomous machine safety management in a dynamic environment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020167589A1 (en) * 1993-02-26 2002-11-14 Kenneth Schofield Rearview vision system for vehicle including panoramic view
US20100253540A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Enhanced road vision on full windshield head-up display

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550677A (en) * 1993-02-26 1996-08-27 Donnelly Corporation Automatic rearview mirror system using a photosensor array
JPH1026542A (ja) * 1996-07-10 1998-01-27 Toyoda Gosei Co Ltd 自動車用デジタルメータ装置
DE10131720B4 (de) * 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
JP2005070231A (ja) * 2003-08-21 2005-03-17 Denso Corp 車両における表示方法
JP2005069776A (ja) * 2003-08-21 2005-03-17 Denso Corp 車両用表示方法、車両用表示装置
JP3972366B2 (ja) * 2003-09-26 2007-09-05 マツダ株式会社 車両用情報提供装置
JP3931334B2 (ja) * 2003-09-26 2007-06-13 マツダ株式会社 車両用情報提供装置
JP3931336B2 (ja) * 2003-09-26 2007-06-13 マツダ株式会社 車両用情報提供装置
DE10355322A1 (de) * 2003-11-27 2005-06-23 Robert Bosch Gmbh Anzeigegerät
JP2005182306A (ja) * 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
US7561966B2 (en) * 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
DE102004033480A1 (de) * 2004-07-10 2006-02-16 Robert Bosch Gmbh Vorrichtung zur Überwachung einer Fahrzeugbedienung
JP4529735B2 (ja) * 2005-03-07 2010-08-25 株式会社デンソー テレビ放送表示用の表示制御装置および表示制御装置用プログラム
WO2006121986A2 (en) * 2005-05-06 2006-11-16 Facet Technology Corp. Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
JP4740689B2 (ja) * 2005-08-19 2011-08-03 エイディシーテクノロジー株式会社 車載用画像表示装置及び車載用装置
US20070205963A1 (en) * 2006-03-03 2007-09-06 Piccionelli Gregory A Heads-up billboard
CN201030817Y (zh) * 2006-07-20 2008-03-05 张玉枢 机动车文字警示交流系统
US8532871B2 (en) * 2007-06-05 2013-09-10 Mitsubishi Electric Company Multi-modal vehicle operating device
JP4475308B2 (ja) * 2007-09-18 2010-06-09 株式会社デンソー 表示装置
JP2009126249A (ja) * 2007-11-20 2009-06-11 Honda Motor Co Ltd 車両用情報表示装置
JP2009251968A (ja) * 2008-04-07 2009-10-29 Toyota Motor Corp 緊急通報システム、通信管理サーバー、及び車載情報通信装置
JP4645675B2 (ja) * 2008-04-23 2011-03-09 日本精機株式会社 車両用表示装置
CA2725564A1 (en) * 2008-12-19 2010-06-24 Tele Atlas B.V. Dynamically mapping images on objects in a navigation system
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8395529B2 (en) * 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
US8503762B2 (en) * 2009-08-26 2013-08-06 Jacob Ben Tzvi Projecting location based elements over a heads up display
JP5158063B2 (ja) * 2009-12-02 2013-03-06 株式会社デンソー 車両用表示装置
KR101544524B1 (ko) * 2010-12-16 2015-08-17 한국전자통신연구원 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020167589A1 (en) * 1993-02-26 2002-11-14 Kenneth Schofield Rearview vision system for vehicle including panoramic view
US20100253540A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Enhanced road vision on full windshield head-up display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108944665A (zh) * 2017-04-12 2018-12-07 福特全球技术公司 支持操作位于乘客舱内的物体以及机动车辆
CN108944665B (zh) * 2017-04-12 2023-11-03 福特全球技术公司 支持操作位于乘客舱内的物体以及机动车辆

Also Published As

Publication number Publication date
US20150296199A1 (en) 2015-10-15
JP6104279B2 (ja) 2017-03-29
EP2800671A1 (de) 2014-11-12
JP2015504815A (ja) 2015-02-16
DE102012200133A1 (de) 2013-07-11
CN104039580A (zh) 2014-09-10
CN104039580B (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
EP3055650B1 (de) Verfahren und vorrichtung zur augmentierten darstellung
EP1405124B1 (de) Head-up display system und verfahren zur projektion einer markierung eines verkehrszeichens in bezug auf die blickrichtung des fahrers
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102012205316B4 (de) Navigationssystem und Anzeigeverfahren hiervon
EP3658976B1 (de) Verfahren zum bereitstellen einer anzeige in einem kraftfahrzeug, sowie kraftfahrzeug
WO2019170387A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE102018207440A1 (de) Verfahren zur Berechnung einer "augmented reality"-Einblendung für die Darstellung einer Navigationsroute auf einer AR-Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
EP3543059A1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
WO2013102508A1 (de) Verfahren und vorrichtung zur fahrerinformation
WO2019166222A1 (de) Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102011082398A1 (de) Verfahren zur Nutzung eines Fahrerassistenzsystems
EP3695266B1 (de) Verfahren zum betrieb einer anzeigeeinrichtung in einem kraftfahrzeug
DE102011122616A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Einparkhilfe in einem Fahrzeug
DE102017221488A1 (de) Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102015223248A1 (de) Verfahren für ein Fahrerassistenzsystem
DE102017107484A1 (de) Verfahren zum Bereitstellen einer einen Fahrer eines Kraftfahrzeugs unterstützenden Anzeige, Fahrerassistenzsystem und Kraftfahrzeug
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102006040537A1 (de) Fahrzeugassistenzsystem
DE102012018556B4 (de) Assistenzsystem zur Ermöglichung einer erweiterten Vorausschau für nachfolgende Verkehrsteilnehmer
EP3296795A1 (de) Verfahren zur darstellung eines bildobjekts in einem fahrzeug auf einer fahrzeugintern und einer fahrzeugextern wahrgenommenen anzeige
DE102018207407A1 (de) Fahrerassistenzsystem, Fortbewegungsmittel und Verfahren zur Anzeige eines Abbildes eines Umgebungsbereiches eines Fortbewegungsmittels
DE102014225686A1 (de) Verfahren und Vorrichtung zur videobasierten Vorschau eines vorausliegenden Straßenabschnitts für ein Fahrzeug sowie Verfahren und Vorrichtung zum videobasierten Aufzeichnen eines Straßenabschnitts für ein Fahrzeug
DE102022101893A1 (de) Verfahren zur Darstellung von Augmented Reality Informationen in Fahrzeugen
DE102012212016A1 (de) Verfahren zum Betreiben einer optischen Anzeigevorrichtung eines Fahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12787679

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012787679

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14370650

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014550658

Country of ref document: JP

Kind code of ref document: A