[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2019029966A1 - Verfahren und vorrichtung zur fahrerzustandsbewertung sowie fahrzeug - Google Patents

Verfahren und vorrichtung zur fahrerzustandsbewertung sowie fahrzeug Download PDF

Info

Publication number
WO2019029966A1
WO2019029966A1 PCT/EP2018/069594 EP2018069594W WO2019029966A1 WO 2019029966 A1 WO2019029966 A1 WO 2019029966A1 EP 2018069594 W EP2018069594 W EP 2018069594W WO 2019029966 A1 WO2019029966 A1 WO 2019029966A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
vehicle
sectional area
solid angle
object point
Prior art date
Application number
PCT/EP2018/069594
Other languages
English (en)
French (fr)
Inventor
Florian Bade
Martin BUCHNER
Julia Niemann
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Priority to CN201880036410.8A priority Critical patent/CN110691726B/zh
Publication of WO2019029966A1 publication Critical patent/WO2019029966A1/de
Priority to US16/734,520 priority patent/US11628845B2/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Definitions

  • the invention relates to a method and a device for evaluating the driver state with regard to a driver of a vehicle, in particular of a motor vehicle, as well as a motor vehicle having such a device.
  • a cross-traffic assistant prevents a lane from being changed if the driver does not turn his attention to the so-called "blind spot.”
  • a traffic jam assistant automatically initiates braking of the vehicle when When driving in a traffic jam, the driver does not turn his attention to a vehicle in front of him, etc.
  • This object is achieved by a method according to claim 1, a device according to claim 14 and a vehicle according to claim 15 with such a device.
  • a first aspect of the invention relates to a method for evaluating a driver of a vehicle, in particular of a motor vehicle the method comprises the following steps: (i) a detection step in which a driver's line of sight is detected by the sensor in a field of view defined relative to the vehicle, and a spatial angle aligned with the line of sight is determined as a function of at least one parameter influencing the field of view; and (ii) an evaluation step in which at least one object point of the driver's three-dimensional environment is evaluated based on its position with respect to the determined solid angle, and an attention-related driver state is determined and output in dependence on that evaluation.
  • a driver's field of vision means an area from the driver's three-dimensional environment in which objects can be visually perceived by the driver for a given head orientation.
  • the area may be restricted, for example shadowed, by other objects.
  • the field of view is physically measurable or at least assessable, and a parameter influencing the field of view may relate, for example, to the arrangement of these further objects, such as components of a vehicle which obstruct the driver's gaze out of the vehicle.
  • the driver's field of vision is, in particular, an area of the driver's three-dimensional environment in which the driver actively turns his face and thus his attention.
  • a parameter influencing the field of view may also relate, in particular visual, stimulations which cause a change in the head orientation and thus the field of vision.
  • an object point of a three-dimensional environment of a driver is a location which characterizes a position of an object, in particular relative to the driver.
  • An object point may, for example, mark the position of a road user, in particular relative to the driver, or the position of an operating element in the vehicle interior, in particular relative to the driver.
  • a plurality of object points can thus also identify a line and / or a surface, for example a road area, in particular a lane, or a region of a dashboard, in particular a tachometer or another display device.
  • At least one parameter that characterizes an influencing of the field of view it can be determined or at least estimated, which area from the three-dimensional environment of the driver within the determined solid angle is perceived visually or at least particularly clearly and / or reliably by the driver.
  • the determination of the solid angle as a function of the line of sight of the driver allows a spatially highly resolved distinction of object points that lie within or au outside the solid angle, and therefore a reliable assessment of driver attention with respect to at least one object point.
  • a dynamic monitoring of the driver's attention with respect to the at least one object point is made possible. If the driver, in particular his head, and thus also his direction of view, moves according to the method according to the invention, the solid angle is also correspondingly new. Even with only minor corrections of the position of the solid angle in the driver's three-dimensional environment, further object points can enter or leave the determined solid angle. In particular, the driver's attention can thus be monitored with respect to at least one object point in a substantially spatially continuous manner in the driver's three-dimensional environment.
  • the invention enables a more reliable evaluation of the attention of a driver of a vehicle with respect to certain objects in his environment.
  • the solid angle is determined during the detection step such that the viewing direction extends through a center, in particular the geometric center of gravity, of the solid angle.
  • the center in particular the geometric center of gravity, define an area in which the driver's attention is rated as particularly high.
  • the solid angle range can reliably indicate the area in which the driver focuses his attention.
  • the position of the at least one object point is preferably evaluated with respect to the center, in particular the geometric center of gravity, the solid angle.
  • a position of the at least one object point in the region, in particular in the vicinity, of the center is thereby defined as high attention of the driver with respect to the at least one object point, while a position of the at least one object point in an edge region of the solid angle, in particular in FIG Greater distance to the center of the solid angle, as the driver's low attention is defined.
  • the driver's attention to object points can be determined dynamically and differentiated.
  • the at least one parameter characterizes a sitting position and / or anatomical property of the driver.
  • the at least one parameter is sensed or provided via an interface.
  • the driver in particular his head, can be detected by a sensor device, such as a camera, wherein in addition to the head orientation from the sensor data generated thereby, preferably also the position of the head in the vehicle, the relative eye position, i. the viewing direction of the eyes relative to a perpendicular to the driver's face direction, and / or the attitude of the driver is derived.
  • the at least one parameter can also be input via a user interface (Man Machine Interface, MMI) by the driver.
  • MMI Man Machine Interface
  • the at least one parameter may in particular characterize the driver's vision, for example whether the driver is wearing a visual aid and to what extent the vision aid restricts his field of vision, or to what extent an anatomical eye position of the driver, i. the position of the eyes on the driver's head, the field of vision influences.
  • the solid angle can be determined particularly reliably and precisely, whereby a correspondingly accurate evaluation of an object point with regard to its position in relation to the solid angle is made possible.
  • the at least one parameter is determined dynamically as a function of a vehicle state, in particular of a driving situation.
  • the field of vision of the driver in particular physically and / or psychologically, is limited. If the vehicle is approximately in a traffic jam, the field of vision of the driver is essentially limited to the immediate vehicle environment. In other words, the driver's view is restricted by the other vehicles surrounding the vehicle in such a way that, for example, a motorcyclist meandering between the stationary vehicles can not be visually perceived, or only to a limited degree. The same applies, for example, to difficult weather conditions such as snowfall and / or fog. Accordingly, in the case of a limited field of view, preferably also the solid angle can be correspondingly limited so that it covers only a correspondingly reduced section of the field of view.
  • the at least one parameter characterizes the speed of the vehicle.
  • the perception ability of the driver is typically increasingly focused on the road section in front of him (so-called "tunnel view”), so that his field of vision can be increasingly limited with increasing speed.
  • the solid angle range is therefore limited with increasing speed.
  • the at least one parameter is defined by interior components of the vehicle.
  • the at least one parameter thereby characterizes the position of the driver's head relative to the position of the interior components that may affect the driver's gaze, such as rear view mirrors, A, B and / or C pillars, instrument panel, steering wheel, navigation display and / or like.
  • the solid angle can be determined in a manner that object points that are behind one of the interior components with respect to the driver's head are reliably evaluated as not being noticed by the driver.
  • the at least one object point of the driver's three-dimensional environment is given by a predetermined point on the vehicle itself.
  • the at least one object point is a static, ie fixed, object point and given by an operating element of a functionality of the vehicle and / or by a geometry of the vehicle interior.
  • the position of the at least one object point is preferably derived from a model of the vehicle, such as a CAD model.
  • the at least one object point can be formed by at least one node of a grid model of the vehicle.
  • the spatial density of the grid points of the grid model of the vehicle can preferably be adapted as a function of a predefined accuracy of the driver state assessment.
  • the object point as a predetermined point on the vehicle itself can be detected accurately and reliably, whether the driver has a single object point, such as an operating element, or a control surface formed by a plurality of object points, such as a display, the vehicle has turned its attention.
  • one or more objects external to the vehicle are detected by sensors.
  • each of these detected off-vehicle objects may define at least one object point of the driver's three-dimensional environment.
  • a virtual cross-sectional area is defined by the solid angle and a lateral boundary of this cross-sectional area as a function of their distance from the driver.
  • the evaluation of the at least one object point is preferably also carried out on the basis of a mathematical projection of the object point on the virtual cross-sectional area on the basis of its position with respect to the determined solid angle.
  • the virtual cross-sectional area is preferably defined in such a way that it is oriented substantially perpendicular to the determined viewing direction.
  • the lateral boundary of the cross-sectional area can be defined by the intersection line of the determined solid angle with a plane perpendicular to the determined viewing direction be determined.
  • the virtual cross-sectional area may be circular, elliptical, rectangular, trapezoidal, parallelogram-shaped or irregular, in particular depending on the solid angle.
  • the driver's attention to the at least one object point can be determined reliably and precisely.
  • the at least one object point is evaluated as ignored by the driver when the at least one object point is not within the lateral boundary of the virtual cross-sectional area when projecting onto the virtual cross-sectional area. This allows a simple and quick evaluation of object points with respect to the driver's attention.
  • the at least one object point is evaluated as being observed by the driver if the at least one object point lies on the virtual cross-sectional area within the lateral boundary of the virtual cross-sectional area when projected. Based on the lateral boundary of the cross-sectional area object points can thus be divided into object points that the driver can not pay attention to due to external conditions, and object points that can be considered by the driver, at least potentially.
  • the evaluation of the at least one object point characterizes a probability with which the driver observes the at least one object point.
  • the probability can serve as a measure for the attention of the object point by the driver.
  • the attention of the object point by the driver can be evaluated by the probability.
  • this probability is preferably determined on the basis of the distance of the projection of the object point on the virtual cross-sectional area to a center, in particular a center, such as a geometric center of the solid angle and is particularly inversely proportional to this distance, ie the smaller the distance Projection to the center of the solid angle, the higher is the determined probability that the driver perceives the object point.
  • a functionality of the vehicle is controlled on the basis of the issued attention-related driver state.
  • one or more driver assistance systems are controlled on the basis of the issued attention-related driver state, which can accordingly react differently in a predefined driving situation according to the respective driver state.
  • the functionality of the vehicle can be controlled differentiated.
  • a second aspect of the invention relates to a device for determining an attention-related driver state of a driver of a vehicle, in particular a motor vehicle, which is adapted to carry out the method according to the first aspect of the invention.
  • a third aspect of the invention relates to a vehicle, in particular a motor vehicle, which has a device according to the second aspect of the invention.
  • FIG. 1 shows an embodiment of a method for driver status evaluation
  • Fig. 2 an example of object points
  • 3 shows an example of a virtual cross-sectional area.
  • FIG. 1 shows an exemplary embodiment of a method 1 for evaluating the driver state with respect to a driver of a vehicle, in particular of a motor vehicle.
  • a detection step S1 parameters on the basis of which the driver status evaluation is made are recorded.
  • a sensor device such as a camera built into the steering wheel of the vehicle, head pose, sitting position, anatomy and / or the like of the driver can be detected. From these parameters, first a line of sight of the driver is derived.
  • the driver's line of sight is preferably defined by a starting point, such as a driver's head center or a point between the driver's two eyes, such as in the area of the root of the nose, and a vector.
  • the starting point and the vector may be given in a coordinate system, such as a coordinate system of the vehicle.
  • the viewing direction can be understood as a beam with a defined direction and a defined starting point.
  • the driver's line of sight may provide a first rough estimate of the driver's field of vision.
  • the determination of the driver's field of view is further specified in a sub-step Sl a of the acquisition step S1 by determining from the parameters a solid angle which is aligned with the viewing direction.
  • the solid angle can also be understood as a viewing cone, wherein objects lying within the solid angle can be visually perceived by the driver.
  • the solid angle or viewing cone is preferably determined in such a way that its origin lies at the starting point of the viewing direction.
  • the opening parameter of the solid angle i. E. an angular range around the viewing direction, determined.
  • the solid angle is included
  • a second sub-step S1 b of the detection step S1 preferably defines a virtual cross-sectional area through the solid angle.
  • the virtual cross-sectional area is preferably perpendicular to the viewing direction and has a finite extent both in the horizontal direction, ie along a transverse axis of the vehicle, and in the vertical direction, ie along a vertical axis of the vehicle.
  • the horizontal and vertical boundary may depend on the distance of the virtual cross-sectional area to the driver, in particular to the starting point of the driver's line of sight, for example, to the center of his head. If the virtual cross-sectional area is defined approximately at a slight distance from the driver, the virtual cross-sectional area has only a small area. By contrast, if the virtual cross-sectional area is defined at a greater distance from the driver, the virtual cross-sectional area has a larger area.
  • the size of the virtual cross-sectional area in particular the spatial boundary of the virtual cross-sectional area, preferably indicates a measure of the size of the field of vision of the driver.
  • the determination of the virtual cross-sectional area depends on the spatial angle range of the sensory parameters.
  • the parameters entering into the determination of the solid angle or the definition of the virtual cross-sectional area are also referred to as parameters influencing the driver's field of vision.
  • a restriction of the field of view is derived, in particular a horizontal and / or vertical boundary of the virtual cross-sectional area.
  • the distance of the virtual cross-sectional area to the driver is determined on the basis of the parameter influencing the field of view of the driver.
  • a parameter influencing the field of vision of the driver may relate to the arrangement, in particular relative to the head of the driver, of objects in the interior of the vehicle which impair the driver's view from the vehicle. Examples of such objects are A-, B- and / or C-pillars, the rearview mirror, the dashboard or parts thereof and / or the like. In particular, the dashboard or parts thereof form a horizon below which the driver can not visually perceive objects external to the vehicle.
  • Another parameter influencing the field of vision of the driver may concern the driver's vision, in particular when the field of vision is restricted horizontally or vertically by a visual aid or when an anatomical eye position affects the field of vision.
  • Another parameter influencing the driver's field of view may also be due to external circumstances, i. Situations in which there is a psychologically conditioned influence on the field of view, be given.
  • the driver may experience a so-called tunnel vision, which reduces the driver's field of vision.
  • the virtual cross-sectional area can be defined closer to the driver's head.
  • object detection step S2 object points of objects to be evaluated for the driver's attention are detected.
  • the object points define a position of the respective objects relative to the vehicle and / or to the driver, in particular to the driver's head.
  • the object points may be points in a coordinate system of the vehicle.
  • the object points of objects external to the vehicle such as other road users, are determined by sensory detection of the objects external of the vehicle, for example by means of cameras, radar sensors, song sensors, ultrasound sensors and / or the like.
  • the object points of in-vehicle objects are preferably held in a database and read out in the object detection step S2.
  • the position of the detected object points with respect to the solid angle is determined.
  • the object points can be projected onto the virtual cross-sectional area, where the distance from the projection of the object points to the spatial boundary of the cross-sectional area and / or to a center of the cross-sectional area, such as an intersection of the cross-sectional area and the viewing direction, is determined.
  • the center of the cross-sectional area may in particular be the geometric center of gravity of the solid angle.
  • the object points are preferably projected onto the cross-sectional surface by means of imaging matrices which, when applied to the object points, produce a perspective image of the object points. It may be necessary to transform the object points from one coordinate system, such as the coordinate system of the vehicle, into another coordinate system, such as a coordinate system of the driver's head or the virtual cross-sectional area. Different object points, for example object points of vehicle-external object points and object points of vehicle-internal objects, have to be optionally transformed differently, possibly from an external coordinate system of the vehicle surroundings or from an internal coordinate system of the vehicle interior.
  • an evaluation step S4 the determined position of the detected object points with respect to the solid angle, in particular the determined position on the virtual cross-sectional surface, is evaluated.
  • Object points which lie outside the solid angle or its projection outside the spatial boundary of the cross-sectional area lie outside the field of vision of the driver and can therefore not be visually perceived by the driver. These object points are considered as ignored.
  • Object points which lie within the spatial angle or their projection within the spatial boundary of the cross-sectional area are considered to be within the field of vision of the driver and therefore considered as at least potentially observed. These object points can at least potentially be visually perceived by the driver.
  • the evaluation of the driver's attention with regard to an object point may be effected as a function of the distance of the projection of the object point to a center of the solid angle or the virtual cross-sectional area, for example as a function of the distance to the viewing direction.
  • Object points whose projection is close to the center are more likely to be perceived by the driver than object points whose projections lie in an edge region of the virtual cross-sectional area, ie in the vicinity of the spatial boundary of the virtual cross-sectional area, and hence a greater distance from the center respectively.
  • lines and / or surfaces defined by a plurality of object points can also be evaluated with regard to the driver's attention.
  • a cutting length or area of the lines and / or areas defined by the plurality of object points is determined with the virtual cross-sectional area.
  • the probability with which the driver perceives the lines or surfaces defined by the plurality of object points can then be determined.
  • FIG. 2 shows an example of object points 2 in a cockpit of a vehicle, which define the position of objects in a coordinate system, such as the coordinate system of a vehicle.
  • the object points 2 can be subdivided into two groups: object points 2, which are given by objects in or on the vehicle itself and are also referred to below as vehicle-internal object points, and object points 2, which are given by vehicles external to the vehicle and hereinafter also as Vehicle-external object points are called.
  • Object points 2 given by objects in or on the vehicle itself may define positions of controls 3 of the vehicle, such as on a dashboard 4 of the vehicle or structural components 6 of the vehicle, such as an A pillar of the vehicle. Several object points 2 can thereby also define areas 5 in which the driver is informed about information relating to the vehicle state.
  • Vehicle-internal object points are preferably formed by nodes of a wireframe model of the vehicle, in particular of the vehicle interior. In this case, the wireframe model can reproduce the contour of the vehicle interior, with individual object points 2 corresponding to operating elements being arranged on the contour.
  • Vehicle-external object points are determined by sensory detection of the vehicle surroundings, for example by monitoring the vehicle surroundings by means of one or more cameras, radar sensors, laser sensors, ultrasound sensors and / or the like.
  • On the basis of a determined line of sight and a solid angle based thereon or a virtual cross-sectional area 7 determined by the solid angle it can be assessed whether a particular object point 2 lies within the driver's field of vision and, in particular, with what probability it is perceived by the driver.
  • the position of the object points 2 relative to the virtual cross-sectional area 7, in particular to a center 7a of the virtual cross-sectional area 7, which is defined approximately by the intersection of virtual cross-sectional area 7 and viewing direction of the driver is evaluated.
  • the vehicle-external object point 2a which indicates the position of another vehicle in the coordinate system of the vehicle, is closer to the center 7a of the virtual cross-sectional area 7 than an in-vehicle object point 2b, which indicates the position of an operating element of the vehicle in the coordinate system of the vehicle. Accordingly, the driver perceives the other vehicle with a higher probability than the operating element.
  • FIG. 3 shows an example of a virtual cross-sectional area 7, which was determined on the basis of a viewing direction 8 of a driver 9 of a vehicle and a solid angle 10 determined on the basis of the viewing direction 8.
  • the virtual cross-sectional area 7 can be understood as a field of vision of the driver 9.
  • the object points 2a of the object are projected onto the virtual cross-sectional area 7.
  • the position of the projected object points 2a 'with respect to the virtual cross-sectional area 7, in particular on the virtual cross-sectional area 7, indicates the probability with which the object is perceived by the driver 9.
  • the viewing direction 8, the solid angle 10 and / or the virtual cross-sectional area 7 is determined by sensory detection or by means of at least one sensor-sensed parameter influencing the field of vision of the driver 9.
  • the at least one parameter affecting the field of vision of the driver 9 can thereby define the size of the solid angle 10 or the spatial boundary of the virtual visible surface 7. If the vehicle drives at an increased speed, for example, the field of vision of the driver 9 narrows. This is colloquially referred to as Tunnelblick. In the example shown, this is indicated by a further virtual cross-sectional area 7 'whose distance d' to the head of the driver 9 is greater than the distance d of the virtual cross-sectional area 7 to the head of the driver 9.
  • the further virtual cross-sectional area 7 ' which Field of view of the driver 9 can be considered at an increased speed is limited by the smaller solid angle 10 'in space. As a result, the driver 9 no longer perceives the object having the object point 2b at the increased speed. LIST OF REFERENCES

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Fahrerzustandsbewertung sowie ein Fahrzeug, wobei bei einem Erfassungsschritt sensorgestützt eine Blickrichtung des Fahrers in ein relativ zum Fahrzeug definiertes Sichtfeld erfasst wird sowie in Abhängigkeit von zumindest einem das Sichtfeld beeinflussenden Parameter ein an der Blickrichtung ausgerichteter Raumwinkel ermittelt wird und bei einem Bewertungsschritt zumindest ein Objektpunkt der dreidimensionalen Umgebung des Fahrers anhand seiner Lage bezüglich des ermittelten Raumwinkels bewertet wird und ein aufmerksamkeitsbezogener Fahrerzustand in Abhängigkeit von dieser Bewertung bestimmt und ausgegeben wird.

Description

VERFAHREN UND VORRICHTUNG ZUR FAHRERZUSTANDSBEWERTUNG SOWIE FAHRZEUG
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Fahrerzustandsbewer- tung bezüglich eines Fahrers eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, sowie ein Kraftfahrzeug mit einer solchen Vorrichtung.
Zur Steuerung von Funktionalitäten, insbesondere Assistenzfunktionen, eines Fahrzeugs kann in einigen Fällen die Kenntnis der Aufmerksamkeit des Fahrers des Fahrzeugs bezüglich eines die Funktionalität betreffenden Objektes notwendig sein. Es kann etwa vorgesehen sein, dass ein Querverkehrsassistent das Wechseln einer Fahrspur verhindert, wenn der Fahrer seine Aufmerksamkeit nicht oder nur ungenügend dem sog.„toten Winkel" zuwendet. Ähnlich kann etwa vorgesehen sein, dass ein Stauassistent automatisch eine Bremsung des Fahrzeugs einleitet, wenn der Fahrer bei der Fahrt in einem Stau seine Aufmerksamkeit nicht einem vor ihm stehenden Fahrzeug zuwendet. Um die Aufmerksamkeit eines Fahrers bezüglich eines solchen Objekts zu beurteilen, ist es aus dem Stand der Technik bekannt, die visuelle Fokussierung des Fahrers zu überwachen. Dazu kann eine Kopforientierung, d.h. die Neigung des Kopfes bezüglich einer Längs-, Quer- und Vertikalachse des Fahrzeugs, erfasst werden und daraus eine Blickrichtung abgeleitet werden, anhand derer wiederum festgestellt werden kann, ob sich das Objekt im Sichtfeld des Fahrers befindet.
Es ist eine Aufgabe der vorliegenden Erfindung, eine Bewertung eines Fahrerzustands bezüglich eines Fahrers eines Fahrzeugs zu verbessern, insbesondere die Aufmerksamkeit des Fahrers bezüglich eines Punktes oder Objekts präziser und/oder zuverlässiger zu bewerten. Diese Aufgabe wird gelöst durch ein Verfahren gemäß Anspruch 1 , einer Vorrichtung gemäß Anspruch 14 sowie einem Fahrzeug gemäß Anspruch 15 mit einer solchen Vorrichtung.
Ein erster Aspekt der Erfindung betrifft ein Verfahren zur Fahrerzustandsbewertung bezüglich eines Fahrers eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, wobei das Verfahren die folgenden Schritte aufweist: (i) einen Erfassungsschritt, bei dem sensorgestützt eine Blickrichtung des Fahrers in ein relativ zum Fahrzeug definiertes Sichtfeld erfasst wird sowie in Abhängigkeit von zumindest einem das Sichtfeld beeinflussenden Parameter ein an der Blickrichtung ausgerichteter Raumwinkel ermit- telt wird; und (ii) einen Bewertungsschritt, bei dem zumindest ein Objektpunkt der dreidimensionalen Umgebung des Fahrers anhand seiner Lage bezüglich des ermittelten Raumwinkels bewertet wird und ein aufmerksamkeitsbezogener Fahrerzustand in Abhängigkeit von dieser Bewertung bestimmt und ausgegeben wird.
Unter einem Sichtfeld eines Fahrers ist im Sinne der Erfindung ein Bereich aus dem dreidimensionalen Umfeld des Fahrers zu verstehen, in dem Objekte vom Fahrer bei gegebener Kopforientierung visuell wahrnehmbar sind. Insbesondere kann der Bereich durch weitere Objekte eingeschränkt, etwa abgeschattet, sein. In diesem Sinne ist das Sichtfeld physikalisch mess- oder zumindest abschätzbar, und ein das Sichtfeld beeinflussender Parameter kann etwa die Anordnung von diesen weiteren Ob- jekten, etwa Komponenten eines Fahrzeugs, die den Blick des Fahrers aus dem Fahrzeug heraus behindern, betreffen. Das Sichtfeld des Fahrers ist insbesondere ein Bereich aus dem dreidimensionalen Umfeld des Fahrers, dem der Fahrer sein Gesicht und damit seine Aufmerksamkeit aktiv zuwendet. In diesem Sinne kann ein das Sichtfeld beeinflussender Parameter auch, insbesondere visuelle, Stimulationen, welche eine Änderung der Kopforientierung und damit des Sichtfelds bewirken, betreffen.
Unter einem Objektpunkt einer dreidimensionalen Umgebung eines Fahrers ist im Sinne der Erfindung ein Ort, welcher eine Position eines Objekts kennzeichnet, insbesondere relativ zum Fahrer, zu verstehen. Ein Objektpunkt kann etwa die Position eines Verkehrsteilnehmers, insbesondere relativ zum Fahrer, oder die Position eines Bedienelements im Fahrzeuginnenraum, insbesondere relativ zum Fahrer, kennzeichnen. Eine Mehrzahl von Objektpunkten kann somit auch eine Linie und/oder eine Fläche kennzeichnen, etwa einen Straßenbereich, insbesondere eine Fahrspur, oder einen Bereich eines Armaturenbretts, insbesondere einen Tachometer oder eine andere Anzeigevorrichtung. Durch die Berücksichtigung von zumindest einem Parameter, der eine Beeinflussung des Sichtfelds charakterisiert, kann ermittelt oder zumindest abgeschätzt werden, welcher Bereich aus dem dreidimensionalen Umfeld des Fahrers innerhalb des ermittelten Raumwinkels überhaupt oder jedenfalls besonders deutlich und/oder zuverlässig vom Fahrer visuell wahrgenommen wird. Die Ermittlung des Raumwinkels in Abhängigkeit von der Blickrichtung des Fahrers erlaubt dabei eine räumlich hochaufge- löste Unterscheidung von Objektpunkten, die innerhalb oder au ßerhalb des Raumwinkels liegen, und daher eine zuverlässige Bewertung der Fahreraufmerksamkeit bezüglich zumindest eines Objektpunkts.
Dabei wird insbesondere eine dynamische Überwachung der Fahreraufmerksamkeit bezüglich des zumindest einen Objektpunkts ermöglicht. Bewegt sich der Fahrer, ins- besondere sein Kopf, und damit auch seine Blickrichtung, richtet sich nach dem erfindungsgemäßen Verfahren auch der Raumwinkel entsprechend neu aus. Auch bei nur geringfügigen Korrekturen der Lage des Raumwinkels im dreidimensionalen Umfeld des Fahrers können dadurch weitere Objektpunkte in den ermittelten Raumwinkel treten bzw. diesen verlassen. Insbesondere kann somit die Aufmerksamkeit des Fahrers bezüglich zumindest eines Objektpunkts in einer im Wesentlichen räumlich kontinuierlichen Weise im dreidimensionalen Umfeld des Fahrers überwacht werden.
Insgesamt ermöglicht die Erfindung eine zuverlässigere Bewertung der Aufmerksamkeit eines Fahrers eines Fahrzeugs bezüglich bestimmter Objekte in seinem Umfeld.
In einer bevorzugten Ausführung wird der Raumwinkel beim Erfassungsschritt derart ermittelt, dass die Blickrichtung durch ein Zentrum, insbesondere den geometrischen Schwerpunkt, des Raumwinkels verläuft. Dabei kann das Zentrum, insbesondere der geometrische Schwerpunkt, einen Bereich definieren, in welchem die Aufmerksamkeit des Fahrers als besonders hoch bewertet wird. Dadurch kann der Raumwinkelbereich den Bereich zuverlässig angeben, in dem der Fahrer seine Aufmerksamkeit fokussiert.
Die Lage des zumindest einen Objektpunkts wird vorzugsweise bezüglich des Zentrums, insbesondere des geometrischen Schwerpunkts, des Raumwinkels bewertet. Eine Lage des zumindest einen Objektpunkts im Bereich, insbesondere in der Nähe, des Zentrums wird dabei in bevorzugter Weise als hohe Aufmerksamkeit des Fahrers bezüglich des zumindest einen Objektpunkts definiert, während eine Lage des zumindest einen Objektpunkts in einem Randbereich des Raumwinkels, insbesondere in gro ßer Entfernung zum Zentrum des Raumwinkels, als geringe Aufmerksamkeit des Fahrers definiert wird. Dadurch kann die Aufmerksamkeit des Fahrers bezüglich Objektpunkten dynamisch und differenziert ermittelt werden.
In einer weiteren bevorzugten Ausführung charakterisiert der zumindest eine Para- meter eine Sitzposition und/oder anatomische Eigenschaft des Fahrers. Vorzugsweise wird der zumindest eine Parameter sensorisch ermittelt oder über eine Schnittstelle bereitgestellt.
Dazu kann der Fahrer, insbesondere sein Kopf, von einer Sensoreinrichtung, etwa einer Kamera, erfasst werden, wobei neben der Kopforientierung aus den dabei er- zeugten Sensordaten vorzugsweise auch die Position des Kopfes im Fahrzeug, die relative Augenstellung, d.h. die Blickrichtung der Augen relativ zu einer senkrecht zum Gesicht des Fahrers verlaufenden Richtung, und/oder die Haltung des Fahrers abgeleitet wird. Alternativ oder zusätzlich kann der zumindest eine Parameter auch über eine Benutzerschnittstelle (Man Machine Interface, MMI) vom Fahrer eingegeben werden.
Der zumindest eine Parameter kann insbesondere die Sehfähigkeit des Fahrers charakterisieren, etwa ob der Fahrer eine Sehhilfe trägt und inwieweit die Sehhilfe sein Sichtfeld einschränkt, oder inwieweit eine anatomische Augenstellung des Fahrers, d.h. die Lage der Augen am Kopf des Fahrers, das Sichtfeld beeinflusst. Mittels jeder der vorstehend genannten Ausführungen kann der Raumwinkel besonders zuverlässig und präzise ermittelt werden, wodurch eine entsprechend genaue Bewertung eines Objektpunkts hinsichtlich seiner Lage in Bezug auf den Raumwinkel ermöglicht wird.
In einer weiteren bevorzugten Ausführung wird der zumindest eine Parameter dyna- misch in Abhängigkeit von einem Fahrzeugzustand, insbesondere von einer Fahrsituation, ermittelt. Dadurch kann berücksichtigt werden, dass bei bestimmten Fahrzeugzuständen bzw. in bestimmten Fahrsituationen das Sichtfeld des Fahrers, insbesondere physikalisch und/oder psychologisch, eingeschränkt wird. Befindet sich das Fahrzeug etwa in einem Stau, beschränkt sich das Sichtfeld des Fahrers im Wesentlichen auf das unmittelbare Fahrzeugumfeld. In anderen Worten wird die Sicht des Fahrers durch die das Fahrzeug umgebenden weiteren Fahrzeuge derart eingeschränkt, dass beispielsweise ein sich zwischen den stehenden Fahrzeu- gen hindurchschlängelnder Motorradfahrer nicht oder nur eingeschränkt visuell wahrgenommen werden kann. Ähnliches gilt etwa auch bei schwierigen Witterungsbedingungen wie Schneefall und/oder Nebel. Dementsprechend kann im Falle eines beschränkten Sichtfelds, vorzugsweise auch der Raumwinkel entsprechend beschränkt werden, so dass er nur einen entsprechend reduzierten Ausschnitt des Sichtfelds ab- deckt.
In einer weiteren bevorzugten Ausführung charakterisiert der zumindest eine Parameter die Geschwindigkeit des Fahrzeugs. Bei zunehmender Geschwindigkeit ist die Wahrnehmungsfähigkeit des Fahrer typischerweise zunehmend auf den vor ihm liegenden Straßenabschnitt fokussiert (sog. "Tunnelblick"), so dass sein Sichtbereich mit zunehmender Geschwindigkeit zunehmend eingeschränkt sein kann. Vorzugsweise wird der Raumwinkelbereich daher bei zunehmender Geschwindigkeit beschränkt.
In einer weiteren bevorzugten Ausführung wird der zumindest eine Parameter durch Innenraumkomponenten des Fahrzeugs definiert. Vorzugsweise charakterisiert der zumindest eine Parameter dabei die Position des Fahrerkopfs relativ zu der Position der Innenraumkomponenten, die den Blick des Fahrers beeinträchtigen können, etwa von Rückspiegel, A-, B- und/oder C-Säulen, Armaturenbrett, Lenkrad, Navigationsdisplay und/oder dergleichen. Dadurch kann der Raumwinkel in einer Weise ermittelt werden, dass Objektpunkte, die in Bezug auf den Kopf des Fahrers hinter einer der Innenraumkomponenten liegen, zuverlässig als nicht vom Fahrer beachtet bewertet werden.
In einer weiteren bevorzugten Ausführung ist der zumindest eine Objektpunkt der dreidimensionalen Umgebung des Fahrers durch einen vorbestimmten Punkt am Fahrzeug selbst gegeben. Insbesondere ist der zumindest ein Objektpunkt ein stati- scher, d.h. ortsfester, Objektpunkt und durch ein Bedienelement einer Funktionalität des Fahrzeugs und/oder durch eine Geometrie des Fahrzeuginnenraums gegeben. Die Position des zumindest einen Objektpunkts wird dabei vorzugsweise aus einem Modell des Fahrzeugs, etwa einem CAD-Modell, abgeleitet. In einer Ausführung kann der zumindest eine Objektpunkt von zumindest einem Knotenpunkt eines Gittermodells des Fahrzeugs gebildet werden. Vorzugsweise kann die räumliche Dichte der Gitterpunkte des Gittermodells des Fahrzeugs dabei in Abhängigkeit von einer vorgegebenen Genauigkeit der Fahrerzustandsbewertung angepasst werden.
Durch die Ausbildung des Objektpunkts als vorbestimmten Punkt am Fahrzeug selbst kann präzise und zuverlässig erfasst werden, ob der Fahrer einem einzelnen Objektpunkt, etwa einem Bedienelement, oder einer durch mehrere Objektpunkte gebildeten Bedienfläche, etwa einer Anzeige, des Fahrzeugs seine Aufmerksamkeit zugewendet hat.
In einer weiteren bevorzugten Ausführung werden ein oder mehrere fahrzeugexterne Objekte sensorisch erfasst. Insbesondere kann jedes dieser erfassten fahrzeugexternen Objekte wenigstens einen Objektpunkt der dreidimensionalen Umgebung des Fahrers definieren. Dadurch kann auch die Aufmerksamkeit des Fahrers bezüglich der fahrzeugexternen Objekte zuverlässig bewertet werden.
In einer weiteren bevorzugten Ausführung werden anhand des ermittelten Raumwinkels eine virtuelle Querschnittsfläche durch den Raumwinkel sowie eine laterale Begrenzung dieser Querschnittsfläche in Abhängigkeit von deren Entfernung zum Fah- rer definiert. Vorzugsweise wird die Bewertung des zumindest einen Objektpunkts anhand seiner Lage bezüglich des ermittelten Raumwinkels ferner auf Basis einer mathematischen Projektion des Objektpunkts auf die virtuelle Querschnittsfläche vorgenommen. Vorzugsweise wird die virtuelle Querschnittsfläche dabei derart definiert, dass sie im Wesentlichen senkrecht auf der ermittelten Blickrichtung orientiert ist. Die virtuelle Querschnittsfläche durch den Raumwinkel enthält vorzugsweise im Wesentlichen diejenige Fläche A, über die der Raumwinkel Θ gemäß der Formel Θ = A / r2 definierbar ist, wobei die Entfernung vom Fahrer vorzugsweise der Radius r ist, über die der Raumwinkel gemäß der genannten Formel definierbar ist. Die laterale Begrenzung der Querschnittsfläche kann dabei durch die Schnittlinie des ermittelten Raumwinkels mit einer senkrecht auf der ermittelten Blickrichtung stehenden Ebene festgelegt werden. Die virtuelle Querschnittsfläche kann dabei, insbesondere in Abhängigkeit des Raumwinkels, kreisförmig, elliptisch, rechteckig, trapezförmig, paralle- logrammförmig oder unregelmäßig ausgebildet sein.
Durch die mathematische Projektion des zumindest einen Objektpunkts auf die virtu- eile Querschnittsfläche kann die Aufmerksamkeit des Fahrers bezüglich des zumindest einen Objektpunkts zuverlässig und präzise ermittelt werden.
In einer weiteren bevorzugten Ausführung wird der zumindest eine Objektpunkt als vom Fahrer nicht beachtet bewertet, wenn der zumindest eine Objektpunkt bei Projektion auf die virtuelle Querschnittsfläche nicht innerhalb der lateralen Begrenzung der virtuellen Querschnittsfläche liegt. Dies ermöglicht eine einfache und schnelle Bewertung von Objektpunkten bezüglich der Aufmerksamkeit des Fahrers.
In einer weiteren bevorzugten Ausführung wird der zumindest eine Objektpunkt als vom Fahrer beachtet bewertet, wenn der zumindest eine Objektpunkt bei Projektion auf die virtuelle Querschnittsfläche innerhalb der lateralen Begrenzung der virtuellen Querschnittsfläche liegt. Anhand der lateralen Begrenzung der Querschnittsfläche können Objektpunkte somit in Objektpunkte eingeteilt werden, die der Fahrer aufgrund von äußeren Gegebenheiten gar nicht beachten kann, und in Objektpunkte, die vom Fahrer, zumindest potenziell, beachtet werden können.
In einer weiteren bevorzugten Ausführung charakterisiert die Bewertung des zumin- dest einen Objektpunkts eine Wahrscheinlichkeit, mit welcher der Fahrer den zumindest einen Objektpunkt beachtet. Die Wahrscheinlichkeit kann dabei als Maß für die Beachtung des Objektpunkts durch den Fahrer dienen. In anderen Worten kann die Beachtung des Objektpunkts durch den Fahrer mittels der Wahrscheinlichkeit bewertet werden. Dabei wird die diese Wahrscheinlichkeit vorzugsweise anhand des Ab- Stands der Projektion des Objektpunkts auf die virtuelle Querschnittsflache zu einem Zentrum, insbesondere einem Mittelpunkt, etwa einem geometrischen Zentrum, des Raumwinkels ermittelt und ist insbesondere umgekehrt proportional zu diesem Abstand, d.h. umso kleiner der Abstand der Projektion zum Zentrum des Raumwinkels ist, desto höher ist die ermittelte Wahrscheinlichkeit, dass der Fahrer den Objektpunkt wahrnimmt. Dadurch kann das Sichtfeld des Fahrers in einen zentralen Sichtbereich um die Blickrichtung herum, auf welchen der Fahrer visuell fokussiert, und einen peripheren Sichtbereich am Rand des Raumwinkels eingeteilt werden. Die Bewertung zumindest eines Objektpunkts bezüglich der Aufmerksamkeit des Fahrers kann somit dynamisch und differenziert erfolgen. In einer weiteren bevorzugten Ausführung wird auf Basis des ausgegebenen auf- merksamkeitsbezogenen Fahrerzustands eine Funktionalität des Fahrzeugs gesteuert. Vorzugsweise werden auf Basis des ausgegebenen aufmerksamkeitsbezogenen Fahrerzustands ein oder mehrere Fahrerassistenzsysteme gesteuert, welche demnach in einer vorgegebenen Fahrsituation gemäß des jeweiligen Fahrerzustands un- terschiedlich reagieren können. Die Funktionalität des Fahrzeugs kann dadurch differenziert gesteuert werden.
Ein zweiter Aspekt der Erfindung betrifft eine Vorrichtung zum Ermitteln eines aufmerksamkeitsbezogenen Fahrerzustands eines Fahrers eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, welche dazu eingerichtet ist, das Verfahren nach dem ers- ten Aspekt der Erfindung auszuführen.
Ein dritter Aspekt der Erfindung betrifft ein Fahrzeug, insbesondere ein Kraftfahrzeug, welches eine Vorrichtung nach dem zweiten Aspekt der Erfindung aufweist.
Die in Bezug auf den ersten Aspekt der Erfindung und dessen vorteilhafte Ausgestaltung beschriebenen Merkmale und Vorteile gelten, wo technisch sinnvoll, auch für die genannten weiteren Aspekte der Erfindung und deren jeweilige vorteilhafte Ausgestaltung sowie umgekehrt.
Weitere Merkmale, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung im Zusammenhang mit den Figuren, in denen durchgängig dieselben Bezugszeichen für dieselben oder einander entspre- chende Elemente der Erfindung verwendet werden. Es zeigen, wenigstens teilweise schematisch:
Fig. 1 ein Ausführungsbeispiel eines Verfahrens zur Fahrerzustandsbewertung; Fig. 2 ein Beispiel für Objektpunkte; und Fig. 3 ein Beispiel für eine virtuelle Querschnittsfläche.
Fig. 1 zeigt ein Ausführungsbeispiel eines Verfahrens 1 zur Fahrerzustandsbewer- tung bezüglich eines Fahrers eines Fahrzeugs, insbesondere eines Kraftfahrzeugs.
In einem Erfassungsschritt S1 werden Parameter, auf deren Basis die Fahrerzu- Standsbewertung vorgenommen wird, erfasst. Mittels einer Sensorvorrichtung, etwa einer im Lenkrad des Fahrzeugs verbauten Kamera, können Kopfpose, Sitzposition, Anatomie und/oder dergleichen des Fahrers erfasst werden. Aus diesen Parametern wird zunächst eine Blickrichtung des Fahrers abgeleitet.
Die Blickrichtung des Fahrers wird vorzugsweise durch einen Ausgangspunkt, etwa einen Kopfmittelpunkt des Fahrers oder einen Punkt zwischen den beiden Augen des Fahrers, etwa im Bereich der Nasenwurzel, sowie einen Vektor, definiert. Der Ausgangspunkt und der Vektor können in einem Koordinatensystem, etwa einem Koordinatensystem des Fahrzeugs, gegeben sein. Insbesondere kann die Blickrichtung als Strahl mit einer definierten Richtung und einem definierten Ausgangspunkt ver- standen werden. Die Blickrichtung des Fahrers kann eine erste grobe Abschätzung des Sichtfelds des Fahrers liefern.
Die Bestimmung des Fahrersichtfelds wird in einem Unterschritt Sl a des Erfassungsschritts S1 weiter präzisiert, indem anhand der Parameter ein Raumwinkel, welche an der Blickrichtung ausgerichtet ist, ermittelt wird. Der Raumwinkel kann auch als Sichtkegel aufgefasst werden, wobei innerhalb des Raumwinkels liegende Objekte vom Fahrer visuell wahrgenommen werden können. Der Raumwinkel bzw. Sichtkegel wird in bevorzugter Weise derart ermittelt, dass sein Ursprung im Ausgangspunkt der Blickrichtung liegt.
Anhand der Parameter wird beispielsweise die Öffnung des Raumwinkels, d.h. ein Winkelbereich um die Blickrichtung herum, ermittelt. Der Raumwinkel ist dabei
Um auf eine mathematische Weise die Lage von Objektpunkten, welche die Position eines Objekts, bezüglich dessen die Aufmerksamkeit des Fahrers bewertet werden soll, in Bezug zum Raumwinkel beurteilen zu können, wird anhand des ermittelten Raumwinkels in einem zweiten Unterschritt S1 b des Erfassungsschritts S1 vorzugsweise eine virtuelle Querschnittsfläche durch den Raumwinkel definiert. Die virtuelle Querschnittsfläche steht dabei in bevorzugter Weise senkrecht auf der Blickrichtung und weist sowohl in horizontaler Richtung, d.h. entlang einer Querachse des Fahr- zeugs, und in vertikaler Richtung, d.h. entlang einer Vertikalachse des Fahrzeugs, eine endliche Ausdehnung auf.
Die horizontale und vertikale Begrenzung kann dabei vom Abstand der virtuellen Querschnittsfläche zum Fahrer, insbesondere zu dem Ausgangspunkt der Blickrichtung des Fahrers, etwa zu seinem Kopfmittelpunkt, abhängen. Wird die virtuelle Quer- schnittsfläche etwa in geringem Abstand zum Fahrer definiert, weist die virtuelle Querschnittsfläche nur eine kleine Fläche auf. Wird die virtuelle Querschnittsfläche dagegen in höherem Abstand zum Fahrer definiert, weist die virtuelle Querschnittsfläche eine größere Fläche auf.
Die Größe der virtuellen Querschnittsfläche, insbesondere die räumliche Begrenzung der virtuellen Querschnittsfläche, gibt dabei vorzugsweise ein Maß für die Größe des Sichtfelds des Fahrers an.
Die Bestimmung der virtuellen Querschnittsfläche, insbesondere deren räumliche Begrenzung, hängt über den Raumwinkelbereich von den sensorisch erfassten Parametern ab. Die in die Ermittlung des Raumwinkels bzw. die Definition der virtuellen Querschnittsfläche eingehenden Parameter werden auch als das Sichtfeld des Fahrers beeinflussende Parameter bezeichnet.
Aus diesen das Sichtfeld des Fahrers beeinflussenden Parametern, etwa der Anatomie und/oder der Sitzposition des Fahrers, wird eine Beschränkung des Sichtfelds abgeleitet, insbesondere eine horizontale und/oder vertikale Begrenzung der virtuel- len Querschnittsfläche. Alternativ oder zusätzlich wird anhand der das Sichtfeld des Fahrers beeinflussenden Parameter auch der Abstand der virtuellen Querschnittsfläche zum Fahrer festgelegt.
Ein das Sichtfeld des Fahrers beeinflussender Parameter kann die Anordnung, insbesondere relativ zum Kopf des Fahrers, von Objekten im Innenraum des Fahrzeugs, welche die Sicht des Fahrers aus dem Fahrzeug heraus beeinträchtigen, betreffen. Beispiele für solche Objekte sind A-, B- und/oder C-Säulen, der Rückspiegel, das Armaturenbrett oder Teile davon und/oder dergleichen. Insbesondere bilden das Armaturenbrett oder Teile davon einen Horizont, unterhalb dessen der Fahrer fahrzeugexterne Objekte nicht visuell wahrnehmen kann. Ein weiterer das Sichtfeld des Fahrers beeinflussenden Parameter kann eine Sehfähigkeit des Fahrers, insbesondere wenn das Sichtfeld durch eine Sehhilfe horizontal oder vertikal eingeschränkt wird oder wenn eine anatomische Augenstellung das Sichtfeld beeinträchtigt, betreffen.
Ein anderer das Sichtfeld des Fahrers beeinflussender Parameter kann auch durch äußere Umstände, d.h. Situationen, in denen es zu einer psychologisch bedingten Beeinflussung des Sichtfelds kommt, gegeben sein. Bei hohen Geschwindigkeiten des Fahrzeugs kann beim Fahrer etwa ein sog. Tunnelblick auftreten, durch den das Sichtfeld des Fahrers verkleinert wird. Bei höheren Geschwindigkeiten kann daher die virtuelle Querschnittsfläche näher am Kopf des Fahrers definiert werden. In einem Objekterfassungsschritt S2 werden Objektpunkte von Objekten, die bezüglich der Aufmerksamkeit des Fahrers bewertet werden sollen, erfasst. Die Objektpunkte definieren dabei eine Position der jeweiligen Objekte relativ zum Fahrzeug und/oder zum Fahrer, insbesondere zum Kopf des Fahrers. Die Objektpunkte können etwa Punkte in einem Koordinatensystem des Fahrzeugs sein. Die Objektpunkte von fahrzeugexternen Objekten, etwa anderen Verkehrsteilnehmern, werden durch sensorisches Erfassen der fahrzeugexternen Objekte, etwa mittels Kameras, Radarsensoren, Liedersensoren, Ultraschall Sensoren und/oder dergleichen, ermittelt.
Die Objektpunkte von fahrzeuginternen Objekten, etwa Komponenten der Fahrzeu- ginnenausstattung wie Lenkrad, Fahrzeugzustandsanzeigen und/oder Bedienelemente von Fahrzeugfunktionalitäten, werden vorzugsweise in einer Datenbank vorgehalten und im Objekterfassungsschritt S2 ausgelesen. In einem Abbildungsschritt S3 wird die Lage der erfassten Objektpunkte bezüglich des Raumwinkels ermittelt. Dazu können die Objektpunkte auf die virtuelle Querschnittsfläche projiziert werden, wo der Abstand von der Projektion der Objektpunkte zu der räumlichen Begrenzung der Querschnittsfläche und/oder zu einem Zentrum der Querschnittsfläche, etwa einem Schnittpunkt der Querschnittsfläche und der Blickrichtung, ermittelt wird. Das Zentrum der Querschnittsfläche kann insbesondere der geometrische Schwerpunkt des Raumwinkels sein.
Die Objektpunkte werden vorzugsweise mittels Abbildungsmatrizen, welche bei Anwendung auf die Objektpunkte eine perspektivische Abbildung der Objektpunkte be- wirken, auf die Querschnittsfläche projiziert. Dabei kann es notwendig sein, die Objektpunkte von einem Koordinatensystem, etwa dem Koordinatensystem des Fahrzeugs, in ein anderes Koordinatensystem, etwa einem Koordinatensystem des Kopfes des Fahrers bzw. der virtuellen Querschnittsfläche, zu transformieren. Unterschiedliche Objektpunkte, beispielsweise Objektpunkte fahrzeugexterner Objekt- punkte und Objektpunkte fahrzeuginterner Objekte, müssen dabei gegebenenfalls unterschiedlich transformiert werden, etwa aus einem externen Koordinatensystem des Fahrzeugumfelds oder aus einem internen Koordinatensystem des Fahrzeuginnenraums.
In einem Bewertungsschritt S4 wird die ermittelte Lage der erfassten Objektpunkte bezüglich des Raumwinkels, insbesondere der ermittelten Lage auf der virtuellen Querschnittsfläche, bewertet. Objektpunkte, welche au ßerhalb des Raumwinkels bzw. deren Projektion außerhalb der räumlichen Begrenzung der Querschnittsfläche liegt, liegen au ßerhalb des Sichtfelds des Fahrers und können daher vom Fahrer nicht visuell wahrgenommen werden. Diese Objektpunkte werden als nicht beachtet be- wertet.
Objektpunkte, welche innerhalb des Raumwinkels bzw. deren Projektion innerhalb der räumlichen Begrenzung der Querschnittsfläche liegt, werden als innerhalb des Sichtfelds des Fahrers liegend und daher als zumindest potentiell beachtet bewertet. Diese Objektpunkte können zumindest potentiell vom Fahrer visuell wahrgenommen werden. Die Bewertung der Aufmerksamkeit des Fahrers bezüglich eines Objektpunkts kann in Abhängigkeit vom Abstand der Projektion des Objektpunkts zu einem Zentrum des Raumwinkels bzw. der virtuellen Querschnittsfläche, etwa in Abhängigkeit des Ab- stands zur Blickrichtung, erfolgen. Objektpunkte, deren Projektion in der Nähe des Zentrums liegt, werden mit einer höheren Wahrscheinlichkeit vom Fahrer wahrgenommen als Objektpunkte, deren Projektionen in einem Randbereich der virtuellen Querschnittsfläche, d.h. in der Nähe der räumlichen Begrenzung der virtuellen Querschnittsfläche, liegen und daher einen größeren Abstand zum Zentrum aufweisen.
Dabei können auch von einer Mehrzahl von Objektpunkten definierte Linien und/oder Flächen bezüglich der Aufmerksamkeit des Fahrers bewertet werden. Dazu wird eine Schnittlänge bzw. -fläche der durch die Mehrzahl von Objektpunkten definierten Linien und/oder Flächen mit der virtuellen Querschnittsfläche ermittelt. In Abhängigkeit der Größe der Schnittlänge bzw. -fläche kann dann die Wahrscheinlichkeit, mit der der Fahrer die durch die Mehrzahl von Objektpunkten definierte Linien bzw. Flächen wahrnimmt, ermittelt werden.
In Fig. 2 ist ein Beispiel für Objektpunkte 2 in einem Cockpit eines Fahrzeugs gezeigt, welche die Position von Objekten in einem Koordinatensystem, etwa dem Koordinatensystem eines Fahrzeugs, definieren.
Die Objektpunkte 2 können in zwei Gruppen eingeteilt werden: Objektpunkte 2, wel- che durch Objekte im oder am Fahrzeug selbst gegeben sind und im Folgenden auch als fahrzeuginterne Objektpunkte bezeichnet werden, und Objektpunkte 2, welche durch fahrzeugexterne Objekte gegeben sind und im Folgenden auch als fahrzeugexterne Objektpunkte bezeichnet werden.
Objektpunkte 2, welche durch Objekte im oder am Fahrzeug selbst gegeben sind, können Positionen von Bedienelementen 3 des Fahrzeugs, etwa auf einem Armaturenbrett 4 des Fahrzeugs oder strukturelle Komponenten 6 des Fahrzeugs, etwa einer A-Säule des Fahrzeugs, definieren. Mehrere Objektpunkte 2 können dabei auch Flächen 5 definieren, in denen dem Fahrer etwa eine den Fahrzeugzustand betreffende Information angezeigt wird. Fahrzeuginterne Objektpunkte werden vorzugsweise von Knotenpunkten eines Drahtgittermodells des Fahrzeugs, insbesondere des Fahrzeuginnenraums, gebildet. Das Drahtgittermodell kann dabei die Kontur des Fahrzeuginnenraums wiedergeben, wobei auf der Kontur einzelne, Bedienelementen entsprechende Objektpunkte 2 an- geordnet sind.
Fahrzeugexterne Objektpunkte werden durch sensorisches Erfassen des Fahrzeugumfelds ermittelt, etwa durch das Überwachen des Fahrzeugumfelds mittels einer oder mehreren Kameras, Radarsensoren, Lasersensoren, Ultraschallsensoren und/oder dergleichen. Anhand einer ermittelten Blickrichtung und einem darauf basierenden Raumwinkel bzw. einer anhand des Raumwinkels ermittelten virtuellen Querschnittsfläche 7 durch den Raumwinkel kann bewertet werden, ob ein bestimmter Objektpunkt 2 im Sichtfeld des Fahrers liegt und insbesondere, mit welcher Wahrscheinlichkeit er vom Fahrer wahrgenommen wird. Dabei wird vorzugsweise die Lage der Objektpunkte 2 relativ zur virtuellen Querschnittsfläche 7, insbesondere zu einem Zentrum 7a der virtuellen Querschnittsfläche 7, welches etwa durch den Schnittpunkt von virtueller Querschnittsfläche 7 und Blickrichtung des Fahrers definiert wird, bewertet.
Im gezeigten Beispiel liegt der fahrzeugexterne Objektpunkt 2a, welcher die Position eines weiteren Fahrzeugs im Koordinatensystem des Fahrzeugs angibt, näher am Zentrum 7a der virtuellen Querschnittsfläche 7 als ein fahrzeuginterner Objektpunkt 2b, welcher die Position eines Bedienelements des Fahrzeugs im Koordinatensystem des Fahrzeugs angibt. Entsprechend nimmt der Fahrer das weitere Fahrzeug mit einer höheren Wahrscheinlichkeit wahr als das Bedienelement. In Fig. 3 ist ein Beispiel einer virtuellen Querschnittsfläche 7 gezeigt, welche auf Grundlage einer Blickrichtung 8 eines Fahrers 9 eines Fahrzeugs und eines anhand der Blickrichtung 8 ermittelten Raumwinkels 10 ermittelt wurde. Die virtuelle Querschnittsfläche 7 kann dabei als Sichtfeld des Fahrers 9 aufgefasst werden. Um eine Bewertung der Aufmerksamkeit bezüglich eines Objektes, dessen Position durch Objektpunkte 2a gegeben ist, zu ermitteln, werden die Objektpunkte 2a des Objekts auf die virtuelle Querschnittsfläche 7 projiziert. Die Lage der projizierten Objektpunkte 2a' bezüglich der virtuellen Querschnittsfläche 7, insbesondere auf der vir- tuellen Querschnittsfläche 7, gibt die Wahrscheinlichkeit an, mit der das Objekt vom Fahrer 9 wahrgenommen wird.
Dabei wird das Objekt, dessen projizierte Objektpunkte 2a' im Bereich eines Zentrums 7a der virtuellen Querschnittsfläche 7, insbesondere in der Nähe des Schnittpunkts von virtueller Querschnittsfläche 7 und Blickrichtung 8, liegen, mit höherer Wahrscheinlichkeit wahrgenommen als ein Objekt mit entsprechendem Objektpunkt 2b, dessen projizierter Objektpunkt 2b' im Bereich des Rands der virtuellen Querschnittsfläche 7, insbesondere im Bereich der von der durch den Raumwinkel 10 gebildeten räumlichen Begrenzung der virtuellen Querschnittsfläche 7, liegt.
Die Blickrichtung 8, der Raumwinkel 10 und/oder die virtuelle Querschnittsfläche 7 wird durch sensorisches Erfassen bzw. anhand von zumindest einem sensorisch er- fassten, das Sichtfeld des Fahrers 9 beeinflussenden Parameters, ermittelt. Der zumindest eine das Sichtfeld des Fahrers 9 beeinflussende Parameter kann dabei die Größe des Raumwinkels 10 bzw. die räumliche Begrenzung der virtuellen Sichtfläche 7 definieren. Fährt das Fahrzeug etwa mit einer erhöhten Geschwindigkeit, schränkt sich das Sichtfeld des Fahrers 9 ein. Dies wird umgangssprachlich als Tunnelblick bezeichnet. Im gezeigten Beispiel ist dies durch eine weitere virtuelle Querschnittsfläche 7' angedeutet, deren Abstand d' zum Kopf des Fahrers 9 größer ist als der Abstand d der virtuellen Querschnittsfläche 7 zum Kopf des Fahrers 9. Die weitere virtuelle Querschnitts- fläche 7', die als Sichtfeld des Fahrers 9 bei einer erhöhten Geschwindigkeit aufge- fasst werden kann, wird durch den kleineren Raumwinkel 10' räumlich begrenzt. Dadurch nimmt der Fahrer 9 das Objekt mit dem Objektpunkt 2b bei der erhöhten Geschwindigkeit nicht mehr wahr. Bezuqszeichenliste
1 Verfahren zur Fahrerzustandsbewertung
2, 2a, 2b Objektpunkte
2a', 2b' projizierte Objektpunkte
3 Bedienelemente
4 Armaturenbrett
5 Fläche
6 Komponenten des Fahrzeuginnenraums 7, 7' virtuelle Querschnittsfläche
7a Zentrum der virtuellen Querschnittsfläche
8 Blickrichtung
9 Fahrer
10 Raumwinkel
S1 - S4 Verfahrensschritte

Claims

ANSPRÜCHE
Verfahren (1 ) zur Fahrerzustandsbewertung bezüglich eines Fahrers (9) eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, wobei das Verfahren die folgenden Schritte aufweist:
einen Erfassungsschritt (S1 ), bei dem sensorgestützt eine Blickrichtung (8) des Fahrers (9) in ein relativ zum Fahrzeug definiertes Sichtfeld erfasst wird sowie in Abhängigkeit von zumindest einem das Sichtfeld beeinflussenden Parameters ein an der Blickrichtung (9) ausgerichteter Raumwinkel (10) ermittelt wird; und
einen Bewertungsschritt (S4), bei dem zumindest ein Objektpunkt (2) der dreidimensionalen Umgebung des Fahrers (9) anhand seiner Lage bezüglich des ermittelten Raumwinkels (10) bewertet wird und ein aufmerksamkeitsbezoge- ner Fahrerzustand in Abhängigkeit von dieser Bewertung bestimmt und ausgegeben wird.
Verfahren (1 ) nach Anspruch 1 , wobei beim Erfassungsschritt der Raumwinkel (10) derart ermittelt wird, dass die Blickrichtung (8) durch Zentrum des Raumwinkels (10) verläuft.
Verfahren (1 ) nach einem der vorangehenden Ansprüche, wobei der zumindest eine Parameter eine Sitzposition und/oder anatomische Eigenschaft des Fahrers (9) charakterisiert und sensorisch ermittelt oder über eine Schnittstelle bereitgestellt wird.
Verfahren (1 ) nach einem der vorangehenden Ansprüche, wobei der zumindest eine Parameter dynamisch in Abhängigkeit von einem Fahrzeugzustand ermittelt wird.
Verfahren (1 ) nach Anspruch 4, wobei der zumindest eine Parameter die Geschwindigkeit des Fahrzeugs charakterisiert.
Verfahren (1 ) nach einem der vorangehenden Ansprüche, wobei der zumindest eine Parameter durch Innenraumkomponenten (6) des Fahrzeugs definiert wird. Verfahren (1 ) nach einem der vorangehenden Ansprüche, wobei der zumindest eine Objektpunkt (2) der dreidimensionalen Umgebung des Fahrers (9) durch einen vorbestimmten Punkt am Fahrzeug selbst gegeben ist.
Verfahren (1 ) nach Anspruch 1 , wobei ein oder mehrere fahrzeugexterne Objekte sensorisch erfasst werden und jedes dieser erfassten fahrzeugexternen Objekte wenigstens einen Objektpunkt (2) der dreidimensionalen Umgebung des Fahrers (9) definiert.
Verfahren (1 ) nach einem der vorangehenden Ansprüche, wobei anhand des ermittelten Raumwinkels (10) eine virtuelle Querschnittsfläche (7) durch den Raumwinkel (10) sowie eine laterale Begrenzung dieser Querschnittsfläche (10) in Abhängigkeit von deren Entfernung (d) zum Fahrer (9) definiert werden; und
die Bewertung des zumindest einen Objektpunkts (2) anhand seiner Lage bezüglich des ermittelten Raumwinkels (10) auf Basis einer mathematischen Projektion des Objektpunkts (2) auf die virtuelle Querschnittsfläche (7) vorgenommen wird.
Verfahren (1 ) nach Anspruch 9, wobei der zumindest eine Objektpunkt (2) als vom Fahrer (9) nicht beachtet bewertet wird, wenn der zumindest eine Objektpunkt (2) bei Projektion auf die virtuelle Querschnittsfläche (7) nicht innerhalb der lateralen Begrenzung der virtuellen Querschnittsfläche (7) liegt.
Verfahren (1 ) nach Anspruch 9 oder 10, wobei der zumindest eine Objektpunkt (2) als vom Fahrer (9) beachtet bewertet wird, wenn der zumindest eine Objektpunkt (2) bei Projektion auf die virtuelle Querschnittsfläche (7) innerhalb der lateralen Begrenzung der virtuellen Querschnittsfläche (7) liegt.
Verfahren (1 ) nach Anspruch 1 1 , wobei die Bewertung des zumindest einen Objektpunkts (2) eine Wahrscheinlichkeit charakterisiert, mit welcher der Fahrer (9) den zumindest einen Objektpunkt (2) beachtet.
13. Verfahren (1 ) nach einem der vorangehenden Ansprüche, wobei auf Basis des ausgegebenen aufmerksamkeitsbezogenen Fahrerzustands eine Funktionalität des Fahrzeugs gesteuert wird.
14. Vorrichtung zum Ermitteln eines aufmerksamkeitsbezogenen Fahrerzustands eines Fahrers (9) eines Fahrzeugs, insbesondere eines Kraftfahrzeugs, welche dazu eingerichtet ist, das Verfahren (1 ) nach einem der Ansprüche 1 bis 13 auszuführen.
15. Fahrzeug, insbesondere Kraftfahrzeug, aufweisend eine Vorrichtung nach Anspruch 13.
PCT/EP2018/069594 2017-08-07 2018-07-19 Verfahren und vorrichtung zur fahrerzustandsbewertung sowie fahrzeug WO2019029966A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880036410.8A CN110691726B (zh) 2017-08-07 2018-07-19 用于评估驾驶员状态的方法和设备以及车辆
US16/734,520 US11628845B2 (en) 2017-08-07 2020-01-06 Method and device for driver state evaluation and vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017213679.0 2017-08-07
DE102017213679.0A DE102017213679A1 (de) 2017-08-07 2017-08-07 Verfahren und Vorrichtung zur Fahrerzustandsbewertung sowie Fahrzeug

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/734,520 Continuation US11628845B2 (en) 2017-08-07 2020-01-06 Method and device for driver state evaluation and vehicle

Publications (1)

Publication Number Publication Date
WO2019029966A1 true WO2019029966A1 (de) 2019-02-14

Family

ID=63042004

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/069594 WO2019029966A1 (de) 2017-08-07 2018-07-19 Verfahren und vorrichtung zur fahrerzustandsbewertung sowie fahrzeug

Country Status (4)

Country Link
US (1) US11628845B2 (de)
CN (1) CN110691726B (de)
DE (1) DE102017213679A1 (de)
WO (1) WO2019029966A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113901579A (zh) * 2021-09-30 2022-01-07 江铃汽车股份有限公司 一种汽车下车体整洁遮蔽评估方法及其系统
DE102021213197A1 (de) 2021-11-23 2023-05-25 Volkswagen Aktiengesellschaft Verfahren zum Erfassen von mindestens einem Wahrnehmungsprofil eines Benutzers eines Fahrzeuges, Computerprogrammprodukt, Steuereinheit und Fahrzeug

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100156617A1 (en) * 2008-08-05 2010-06-24 Toru Nakada Apparatus, method, and program of driving attention amount determination
JP2014120111A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015106395A (ja) * 2013-12-03 2015-06-08 日産自動車株式会社 信号情報提示装置
DE102015207474A1 (de) * 2015-04-23 2016-10-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Veränderung des Blickfelds oder Gesichtsfelds eines Fahrers eines Kraftfahrzeugs
DE102015117610A1 (de) * 2015-10-16 2017-04-20 Connaught Electronics Ltd. Verfahren zum Überprüfen einer Wahrnehmung eines visuellen Warnhinweises durch einen Fahrzeugnutzer, Fahrerassistenzsystem und Kraftfahrzeug

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101466305B (zh) * 2006-06-11 2012-05-30 沃尔沃技术公司 用于确定和分析视觉兴趣位置的方法
DE102009002979A1 (de) * 2009-05-11 2010-11-18 Robert Bosch Gmbh Projektionsanzeigevorrichtung für Fahrzeuge
JP5661942B2 (ja) * 2011-10-06 2015-01-28 本田技研工業株式会社 警報装置
US20130169785A1 (en) * 2011-12-30 2013-07-04 Agco Corporation Method of detecting and improving operator situational awareness on agricultural machines
JP5966640B2 (ja) * 2012-06-08 2016-08-10 株式会社豊田中央研究所 漫然運転検出装置及びプログラム
DE102013203925B4 (de) * 2013-03-07 2015-10-22 Ifm Electronic Gmbh Steuersystem für Fahrzeugscheinwerfer
DE102013221526A1 (de) * 2013-10-23 2015-04-23 Robert Bosch Gmbh Steuervorrichtung für ein Fahrzeug, Anzeigevorrichtung und Verfahren zum Betreiben einer Anzeigeeinrichtung in einem Fahrzeug
JP6090129B2 (ja) * 2013-11-27 2017-03-08 株式会社デンソー 視認領域推定装置
DE102013021150A1 (de) * 2013-12-13 2015-06-18 Man Truck & Bus Ag Verfahren zur Anzeige von optischen Informationen in Fahrzeugen
DE102014009638A1 (de) * 2014-06-27 2015-12-31 Audi Ag Verfahren zum Erfassen einer Blickrichtung eines Fahrers in einem Kraftfahrzeug und Blickrichtungserfassungseinrichtung für ein Kraftfahrzeug
CN107848416B (zh) * 2015-08-03 2020-12-22 三菱电机株式会社 显示控制装置、显示装置及显示控制方法
KR101916993B1 (ko) * 2015-12-24 2018-11-08 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어방법
US10421459B2 (en) * 2016-12-20 2019-09-24 GM Global Technology Operations LLC Contextual-assessment vehicle systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100156617A1 (en) * 2008-08-05 2010-06-24 Toru Nakada Apparatus, method, and program of driving attention amount determination
JP2014120111A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015106395A (ja) * 2013-12-03 2015-06-08 日産自動車株式会社 信号情報提示装置
DE102015207474A1 (de) * 2015-04-23 2016-10-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Veränderung des Blickfelds oder Gesichtsfelds eines Fahrers eines Kraftfahrzeugs
DE102015117610A1 (de) * 2015-10-16 2017-04-20 Connaught Electronics Ltd. Verfahren zum Überprüfen einer Wahrnehmung eines visuellen Warnhinweises durch einen Fahrzeugnutzer, Fahrerassistenzsystem und Kraftfahrzeug

Also Published As

Publication number Publication date
US20200189602A1 (en) 2020-06-18
CN110691726B (zh) 2023-03-28
US11628845B2 (en) 2023-04-18
DE102017213679A1 (de) 2019-02-07
CN110691726A (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
DE112009003557B4 (de) Fahrzeug-Anzeigevorrichtung undAnzeigeverfahren
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE10039795C2 (de) Verfahren zur Warnung eines Fahrers eines Fahrzeugs
DE102015201456B4 (de) Verfahren und System zur Ausgabe einer Warnmeldung in einem Fahrzeug
EP3437929A1 (de) Sichtsystem mit fahrsituationsbedingter sichtfeld-/sichtbereicheinblendung
DE102015115666A1 (de) Leistungsfahrsystem und Leistungsfahrverfahren
DE102011079913A1 (de) Sichtunterstützungssystem für einen Fahrer und Fahrzeug mit einem solchen System
DE102014214514A1 (de) Vorrichtung und Verfahren zum Austausch von Daten zwischen Fahrzeugen zum Einrichten einer Kolonnenfahrt
EP3167427A1 (de) Zusammenfügen von teilbildern zu einem abbild einer umgebung eines fortbewegungsmittels
DE102014105374B4 (de) Fahrerassistenzsystem
DE102019201407A1 (de) Verfahren und Vorrichtung zum Steuern der Aufmerksamkeit eines Fahrers
WO2016162207A1 (de) Verfahren zur bestimmung einer die aufmerksamkeit eines fahrzeugführers abbildenden masszahl und vorrichtung zur aufmerksamkeitsüberwachung eines fahrzeugführers
EP3078015B1 (de) Verfahren und vorrichtung zum erzeugen einer warnung mittels zweier durch kameras erfasster bilder einer fahrzeugumgebung
DE102016210088B3 (de) Verfahren und Vorrichtung zur Darstellung einer Umgebung eines Kraftfahrzeugs
WO2019037905A1 (de) Verfahren zum betreiben eines assistenzsystems für ein fahrzeug und assistenzsystem
DE102015119704A1 (de) Alarmsystem für Hindernisse und ein Verfahren für den Betrieb desselben
DE112019003127T5 (de) Head-up-display-einrichtung
EP2996327B1 (de) Surround-view-system für fahrzeuge mit anbaugeräten
DE102011016217A1 (de) Verfahren und Kamerasystem zum Warnen eines Fahrers eines Kraftfahrzeugs vor einer Kollisionsgefahr und Kraftfahrzeug mit einem Kamerasystem
WO2019029966A1 (de) Verfahren und vorrichtung zur fahrerzustandsbewertung sowie fahrzeug
WO2015091024A2 (de) Vorrichtung, verfahren und computerprogramm zum unterstützen eines kurswechsels eines fahrzeugs
DE112019007195T5 (de) Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
DE102016223909A1 (de) Verfahren und Vorrichtung zur sensorgestützten Fahrerzustandsbewertung
EP2603403A1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
DE102015007246A1 (de) Verfahren zum Betreiben eines Anzeigesystems und Anzeigesystem für ein Kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18746649

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18746649

Country of ref document: EP

Kind code of ref document: A1