[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102019108075A1 - Method and control device for operating a sensor system of a device and a motor vehicle - Google Patents

Method and control device for operating a sensor system of a device and a motor vehicle Download PDF

Info

Publication number
DE102019108075A1
DE102019108075A1 DE102019108075.4A DE102019108075A DE102019108075A1 DE 102019108075 A1 DE102019108075 A1 DE 102019108075A1 DE 102019108075 A DE102019108075 A DE 102019108075A DE 102019108075 A1 DE102019108075 A1 DE 102019108075A1
Authority
DE
Germany
Prior art keywords
data
recognized
sensor system
sensor unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019108075.4A
Other languages
German (de)
Inventor
Joachim Fröschl
Markus Strassberger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102019108075.4A priority Critical patent/DE102019108075A1/en
Publication of DE102019108075A1 publication Critical patent/DE102019108075A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/44Monopulse radar, i.e. simultaneous lobing
    • G01S13/4454Monopulse radar, i.e. simultaneous lobing phase comparisons monopulse, i.e. comparing the echo signals received by an interferometric antenna arrangement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9329Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles cooperating with reflectors or transponders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/02Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using radio waves
    • G01S3/14Systems for determining direction or deviation from predetermined direction
    • G01S3/46Systems for determining direction or deviation from predetermined direction using antennas spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Sensorsystems (13) eines Geräts (10), wobei das Sensorsystem (13) zumindest eine Sensoreinheit (M,K,T,F), welche eine adaptive Signalfilterungseinrichtung (31) aufweist, umfasst und wobei bei dem Verfahren durch eine Steuervorrichtung (15) aus zumindest einer Objektdatenquelle Objektdaten (27) empfangen werden, anhand der Objektdaten (27) erkannt wird, dass sich unter dem zumindest einen Objekt (17) ein Kandidatenobjekt (18) befindet, das Sensorsystem (13) für eine Erfassung des erkannten Kandidatenobjekts (18) adaptiert wird, das erkannte Kandidatenobjekt (18) mittels des adaptierten Sensorsystems (13) erfasst wird und hierdurch Erfassungsdaten (14) betreffend das erkannte Kandidatenobjekt (18) erzeugt werden, in Abhängigkeit von den Erfassungsdaten (14) auf der Grundlage eines vorbestimmten Relevanzkriteriums (20) erkannt wird, ob ein Signalisierungsbedarf betreffend das erkannte Kandidatenobjekt (18) besteht, und im Falle eines erkannten Signalisierungsbedarfs ein das erkannte Kandidatenobjekt (18) beschreibendes Hinweissignal (21) erzeugt wird.The invention relates to a method for operating a sensor system (13) of a device (10), wherein the sensor system (13) comprises at least one sensor unit (M, K, T, F) which has an adaptive signal filtering device (31) and where at the method by a control device (15) from at least one object data source object data (27) are received, based on the object data (27) it is recognized that there is a candidate object (18) under the at least one object (17), the sensor system (13) is adapted for a detection of the recognized candidate object (18), the recognized candidate object (18) is detected by means of the adapted sensor system (13) and detection data (14) relating to the detected candidate object (18) are generated as a result, depending on the detection data (14 ) it is recognized on the basis of a predetermined relevance criterion (20) whether there is a need for signaling with regard to the recognized candidate object (18), and if so If the signaling requirement is recognized, a notification signal (21) describing the recognized candidate object (18) is generated.

Description

Die Erfindung betrifft ein Verfahren zum Betreiben eines Sensorsystems in einem Gerät. Bei dem Gerät kann es sich beispielsweise um ein Kraftfahrzeug oder um ein portables Assistenzgerät handeln. Ein Assistenzgerät kann beispielsweise von einer Person in einem Gefahrenbereich zu deren Schutz getragen werden. Das Sensorsystem des Geräts weist zumindest eine Sensoreinheit auf, die eine adaptive Signalfilterungseinrichtung aufweist.The invention relates to a method for operating a sensor system in a device. The device can be, for example, a motor vehicle or a portable assistance device. An assistance device can, for example, be worn by a person in a danger area for their protection. The sensor system of the device has at least one sensor unit which has an adaptive signal filtering device.

Eine Person oder ein Benutzer kann bei der Benutzung eines Geräts darin unterstützt werden, Objekte in der Umgebung des Geräts zu detektieren und diese bei der Benutzung zu berücksichtigen. Im Falle eines Kraftfahrzeugs kann dies bedeuteten, dass durch das Kraftfahrzeug die Umgebung auf zumindest ein Objekt hin überwacht und beispielsweise im Falle einer Kollisionsgefahr mit einem solchen Objekt eine Schutzmaßnahme gegen die Kollision ausgelöst wird. Im Falle eines portablen Assistenzgeräts kann beispielsweise eine Gefahrenquelle in der Umgebung detektiert werden und der Benutzer des Assistenzgeräts auf diese Gefahrenquelle aufmerksam gemacht werden.When using a device, a person or a user can be supported in detecting objects in the vicinity of the device and taking these into account during use. In the case of a motor vehicle, this can mean that the motor vehicle monitors the surroundings for at least one object and, for example, in the event of a risk of collision with such an object, a protective measure against the collision is triggered. In the case of a portable assistance device, for example, a source of danger in the vicinity can be detected and the user of the assistance device can be made aware of this source of danger.

Zum Erkennen von zumindest einem Objekt in der Umgebung eines Geräts kann das Gerät mit einem Sensorsystem ausgestattet sein, das zumindest eine Sensoreinheit zum Erzeugen von Erfassungsdaten vorsieht. Diese Erfassungsdaten beschreiben das zumindest eine detektierte Objekt in der Umgebung. Für die Detektion eines Objekts in der Umgebung durch eine Sensoreinheit ist aber in der Regel eine Verarbeitung der rohen Sensordaten der jeweiligen Sensoreinheit mittels einer Signalfilterungseinrichtung vorgesehen. Die jeweils für einen Objekttyp vorgesehene Verarbeitung der rohen Sensordaten entspricht einer objekttyp-spezifischen Filtercharakteristik. Die Signalfilterungseinrichtung hebt gemäß der Filtercharakteristik diejenigen Signalanteile in den Sensordaten hervor, die zur Detektion eines bestimmten Objekttyps notwendig oder vorteilhaft sind (beispielsweise für die Detektion einer Person oder eines Fahrzeugs oder einer vorbestimmten Gefahrenquelle). Sollen nun allerdings mittels einer Sensoreinheit Objekte unterschiedlichen Objekttyps in der Umgebung erkannt werden, so müssen die Sensordaten der Sensoreinheit entsprechend mit unterschiedlichen Filtercharakteristiken verarbeitet werden, um für jeden Objekttyp eine optimale oder angepasste Detektion zu ermöglichen. Um eine Signalfilterungseinrichtung einer Sensoreinheit mit mehreren Filtercharakteristiken betreiben zu können, sind aber entsprechende Rechenressourcen notwendig, was die Implementierung eines solchen Sensorsystems in einem Gerät technisch aufwendig macht.To detect at least one object in the vicinity of a device, the device can be equipped with a sensor system that provides at least one sensor unit for generating detection data. These detection data describe the at least one detected object in the vicinity. For the detection of an object in the environment by a sensor unit, processing of the raw sensor data of the respective sensor unit by means of a signal filtering device is usually provided. The processing of the raw sensor data provided for an object type corresponds to an object-type-specific filter characteristic. According to the filter characteristic, the signal filtering device highlights those signal components in the sensor data that are necessary or advantageous for the detection of a certain object type (for example for the detection of a person or a vehicle or a predetermined source of danger). However, if objects of different object types in the environment are to be detected by means of a sensor unit, the sensor data of the sensor unit must be processed accordingly with different filter characteristics in order to enable optimal or adapted detection for each object type. In order to be able to operate a signal filtering device of a sensor unit with a plurality of filter characteristics, however, corresponding computing resources are necessary, which makes the implementation of such a sensor system in a device technically complex.

Ein Überwachungssystem, das mittels eines Sensorsystems Objekte unterschiedlichen Objekttyps in einer Umgebung eines Kraftfahrzeugs erfasst und kartographiert, ist beispielsweise aus der DE 10 2017 203 785 A1 bekannt.A monitoring system which detects and maps objects of different object types in the surroundings of a motor vehicle by means of a sensor system is, for example, from the DE 10 2017 203 785 A1 known.

Der Erfindung liegt die Aufgabe zugrunde, von einem Gerät aus mittels dessen Sensorsystems Objekte unterschiedlichen Objekttyps zu detektieren und auf die detektierten Objekte zu reagieren.The invention is based on the object of detecting objects of different object types from a device by means of its sensor system and of reacting to the detected objects.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.The object is achieved by the subjects of the independent claims. Advantageous embodiments of the invention are described by the dependent claims, the following description and the figures.

Durch die Erfindung ist ein Verfahren zum Betreiben eines Sensorsystems eines Geräts bereitgestellt. In der beschriebenen Weise kann es sich bei dem Gerät beispielsweise um ein Kraftfahrzeug oder ein mobiles Endgerät (zum Beispiel ein Smartphone oder ein Tablet-PC) oder ein portables Assistenzgerät (wie beispielsweise zum Schutz einer Person in einem Gefahrenbereich) handeln. Das Verfahren geht davon aus, dass das Sensorsystem zumindest eine Sensoreinheit umfasst, welche eine adaptive Signalfilterungseinrichtung aufweist. Der Begriff „adaptiv“ meint, dass eine Filtercharakteristik der Signalfilterungseinrichtung einstellbar ist. Ein Beispiel für eine solche adaptive Signalfilterungseinrichtung ist ein adaptives Richtmikrofon, bei welchem eine Erfassungsrichtung für Schall eingestellt oder ausgerichtet werden kann. Es handelt sich dann also um eine räumliche Filterung des erfassten Schalls. Durch Einstellen einer bestimmten Filtercharakteristik der Signalfilterungseinrichtung ist die Sensoreinheit in der Lage, einen bestimmten Objekttyp, beispielsweise ein Objekt in einer bestimmten relativen Richtung bezüglich des Geräts, zu erfassen, während ein Objekt eines anderen Objekttyps nur suboptimal erfasst wird, beispielsweise ein Objekt in einer anderen Richtung. Durch Einstellen einer Filtercharakteristik in der Signalfilterungseinrichtung kann also die Erfassung eines bestimmten Objekttyps begünstigt oder verbessert werden. The invention provides a method for operating a sensor system of a device. In the manner described, the device can be, for example, a motor vehicle or a mobile terminal device (for example a smartphone or a tablet PC) or a portable assistance device (for example to protect a person in a danger area). The method assumes that the sensor system comprises at least one sensor unit which has an adaptive signal filtering device. The term “adaptive” means that a filter characteristic of the signal filtering device can be set. An example of such an adaptive signal filtering device is an adaptive directional microphone in which a detection direction for sound can be set or aligned. It is then a matter of spatial filtering of the recorded sound. By setting a specific filter characteristic of the signal filtering device, the sensor unit is able to detect a specific object type, for example an object in a specific relative direction with respect to the device, while an object of another object type is only detected suboptimally, for example an object in another Direction. By setting a filter characteristic in the signal filtering device, the detection of a specific object type can be promoted or improved.

Für jeden Objekttyp kann der Fachmann eine objekttyp-spezifische Filtercharakteristik bereitstellen.A person skilled in the art can provide an object-type-specific filter characteristic for each object type.

Das erfindungsgemäße Verfahren sieht vor, dass die folgenden Schritte durch eine Steuervorrichtung des Geräts ausgeführt werden. Aus zumindest einer Objektdatenquelle werden Objektdaten, die zumindest ein in der Umgebung oder in dem Gerät angeordnetes Objekt oder potentiell angeordnetes Objekt beschreiben, empfangen. Mit anderen Worten liefert die zumindest eine Objektdatenquelle eine Information darüber, welches zumindest eine Objekt sich in der Umgebung oder in dem Gerät (also eine Gerätekomponente) befindet oder potentiell befinden könnte. Die Objektdaten müssen das jeweilige Objekt dabei nicht genau beschreiben, sondern die Objektdaten können beispielsweise nur eine Angabe sein, dass sich das jeweilige Objekt in der Umgebung oder in dem Gerät befindet oder potentiell befindet (beispielsweise mit einer vorbestimmten Mindestwahrscheinlichkeit und/oder aufgrund einer Beschaffenheit der Umgebung). Mittels einer Objekterkennungseinrichtung wird dann anhand der Objektdaten erkannt, dass sich unter dem zumindest einen Objekt, wie es durch die Objektdaten beschrieben oder angekündigt wird, ein Kandidatenobjekt eines vorbestimmten Objekttyps, das heißt mit einer vorbestimmten Objekteigenschaft, befindet. Es wird also erkannt, ob eines von dem zumindest einen Objekts ein Kandidatenobjekt ist, weil es einen bestimmten Objekttyp aufweist. Die Objekterkennungseinrichtung stellt also fest oder detektiert, dass zumindest ein Objekt jeweils als Kandidatenobjekt zu behandeln ist, weil es einem vorbestimmten Objekttyp entspricht. Ein Kandidatenobjekt ist im Zusammenhang mit der vorliegenden Erfindung ein Objekt, auf das ein Benutzer es Geräts aufmerksam gemacht werden soll und/oder das bei einem Betrieb des Geräts berücksichtigt werden soll. Als Objekttyp kann beispielsweise vorgesehen sein, dass das Objekt eine Person oder ein Fahrzeug oder ein stationärer Gegenstand oder eine Gefahrenquelle (beispielswiese ein Feuer oder eine Hitzequelle) ist. Die Objekterkennungseinrichtung interpretiert also die Objektdaten dahingehend, dass erkannt wird, ob sich in der Umgebung ein Kandidatenobjekt befindet oder angeordnet ist.The method according to the invention provides that the following steps are carried out by a control device of the device. From at least one object data source, object data describing at least one object or potentially arranged object arranged in the environment or in the device are received. In other words, the at least one object data source supplies information about which at least one object is or could potentially be in the vicinity or in the device (i.e. a device component). The object data do not have to describe the respective object exactly, but the object data can, for example, only be an indication that the respective object is located in the vicinity or in the device or is potentially located (for example with a predetermined minimum probability and / or due to a nature of the Surroundings). An object recognition device then uses the object data to recognize that there is a candidate object of a predetermined object type, that is to say with a predetermined object property, under the at least one object, as described or announced by the object data. It is thus recognized whether one of the at least one object is a candidate object because it has a certain object type. The object recognition device thus establishes or detects that at least one object is to be treated as a candidate object because it corresponds to a predetermined object type. In connection with the present invention, a candidate object is an object to which a user of the device is to be made aware and / or which is to be taken into account when the device is operated. As an object type it can be provided, for example, that the object is a person or a vehicle or a stationary object or a source of danger (for example a fire or a source of heat). The object recognition device thus interprets the object data to the effect that it is recognized whether a candidate object is located or is arranged in the vicinity.

Daraufhin wird durch die Steuervorrichtung das Sensorsystem des Geräts für eine Erfassung des erkannten Kandidatenobjekts adaptiert, indem in der jeweiligen Signalfiltereinrichtung der zumindest einen Sensoreinheit des Sensorsystems aus mehreren möglichen Filtercharakteristiken eine solche Filtercharakteristik ausgewählt wird, die für den Objekttyp des erkannten Kandidatenobjekts vorgesehen ist. Entsprechend wird in der jeweiligen Signalfiltereinrichtung die ausgewählte Filtercharakteristik eingestellt. Mit anderen Worten wird in dem Sensorsystem die zumindest eine Sensoreinheit für das Sensieren oder Erfassen des Kandidatenobjekts sensibilisiert oder spezialisiert oder konfiguriert, indem in der Signalfiltereinrichtung der Sensoreinheit die Filtercharakteristik eingestellt wird, die für den entsprechenden Objekttyp des Kandidatenobjekts vorgesehen ist.The control device then adapts the sensor system of the device for a detection of the recognized candidate object, in that such a filter characteristic is selected from several possible filter characteristics in the respective signal filter device of the at least one sensor unit of the sensor system that is provided for the object type of the recognized candidate object. The selected filter characteristic is set accordingly in the respective signal filter device. In other words, the at least one sensor unit is sensitized or specialized or configured in the sensor system for sensing or detecting the candidate object by setting the filter characteristic provided for the corresponding object type of the candidate object in the signal filter device of the sensor unit.

In einem nächsten Schritt wird dann das erkannte Kandidatenobjekt mittels des adaptierten Sensorsystems erfasst. Mit anderen Worten erzeugt die zumindest eine Sensoreinheit des Sensorsystems nun Sensordaten, die mittels der Signalfiltereinrichtung der jeweiligen Sensoreinheit gemäß der eingestellten Filtercharakteristik verarbeitet oder aufbereitet werden. Hierdurch liefert die zumindest eine Sensoreinheit des Sensorsystems zu dem erfassten Kandidatenobjekt entsprechende Erfassungsdaten (mittels der eingestellten Filtercharakteristik verarbeitete Sensordaten), die auf der Grundlage der jeweils eingestellten Filtercharakteristik erzeugt werden.In a next step, the recognized candidate object is then recorded using the adapted sensor system. In other words, the at least one sensor unit of the sensor system now generates sensor data that are processed or prepared by means of the signal filter device of the respective sensor unit in accordance with the set filter characteristic. As a result, the at least one sensor unit of the sensor system delivers corresponding acquisition data for the acquired candidate object (sensor data processed by means of the set filter characteristic), which is generated on the basis of the respectively set filter characteristic.

Mittels einer Auswerteeinrichtung wird dann in Abhängigkeit von den Erfassungsdaten auf der Grundlage eines vorbestimmten Relevanzkriteriums überprüft oder erkannt, ob ein Signalisierungsbedarf betreffend das erkannte Kandidatenobjekt besteht. Das Kandidatenobjekt ist also ein Kandidat dafür, ob auf dieses Kandidatenobjekt reagiert werden muss. Dies wird durch die Auswerteeinheit überprüft, indem anhand der Erfassungsdaten betreffend das erkannte Kandidatenobjekt überprüft wird, ob das Kandidatenobjekt relevant ist für eine Signalisierung, wobei die Relevanz vom Fachmann durch ein Relevanzkriterium festgelegt werden kann. Mit anderen Worten kann bei dem Verfahren durch Vorgeben eines Relevanzkriteriums festgelegt werden, wann die Steuervorrichtung einen Signalisierungsbedarf feststellt. Im Falle eines erkannten Signalisierungsbedarfs wird ein das erkannte Kandidatenobjekt beschreibendes Hinweissignal erzeugt. Andernfalls, falls das Relevanzkriterium unerfüllt ist, wird kein Hinweissignal erzeugt.By means of an evaluation device, it is then checked or recognized, as a function of the detection data on the basis of a predetermined relevance criterion, whether there is a need for signaling with regard to the recognized candidate object. The candidate object is therefore a candidate for whether there is a need to react to this candidate object. This is checked by the evaluation unit by checking, on the basis of the detection data relating to the recognized candidate object, whether the candidate object is relevant for signaling, the relevance being able to be determined by a person skilled in the art using a relevance criterion. In other words, in the method, by specifying a relevance criterion, it can be determined when the control device determines a need for signaling. In the case of a recognized need for signaling, a notification signal describing the recognized candidate object is generated. Otherwise, if the relevance criterion is not met, no notification signal is generated.

Als konkretes Beispiel kann angenommen werden, dass das Gerät ein Kraftfahrzeug ist und aus der Objektdatenquelle Objektdaten betreffend andere Verkehrsteilnehmer empfangen werden, die Objekte in der Umgebung des Kraftfahrzeugs darstellen. Die Objekterkennungseinrichtung kann dann beispielsweise erkennen, dass sich als ein Kandidatenobjekt ein Fußgänger nahe dem Kraftfahrzeug befindet. Ob auf den Fußgänger reagiert werden muss, hängt von seiner Relevanz für das Kraftfahrzeug ab, also z.B. von einer Kollisionsgefahr. Dazu muss das Verhalten des Fußgängers erkannt werden. Um das Verhalten des Fußgängers auswerten oder erkennen zu können, kann das Sensorsystem zum Erfassen von Personen adaptiert werden, indem eine entsprechende Filtercharakteristik in der zumindest einen Sensoreinheit eingestellt wird, die beispielsweise darauf spezialisiert sein kann, eine Form und/oder Bewegung eines Fußgängers in Sensordaten der zumindest einen Sensoreinheit zu erkennen oder zu betonen oder hervorzuheben. Erfasst oder sensiert man dann mit diesem adaptiven Sensorsystem das Kandidatenobjekt, also den Fußgänger, so kann die besagte Auswerteeinrichtung mit den so erzeugten Erfassungsdaten dann erkennen, ob der Fußgänger ein Relevanzkriterium erfüllt, das beispielsweise besagen kann, dass sich der Fußgänger entlang einer Bewegungsbahn bewegt, welche die geplante Bewegungsbahn des Kraftfahrzeugs kreuzen wird, dass also Kollisionsgefahr besteht. In diesem Falle kann dann ein Signalisierungsbedarf erkannt werden und ein Hinweissignal erzeugt werden, das beispielsweise den Benutzer des Geräts, also hier den Fahrer des Kraftfahrzeugs, vor dem Fußgänger warnt.As a specific example, it can be assumed that the device is a motor vehicle and object data relating to other road users are received from the object data source and represent objects in the vicinity of the motor vehicle. The object recognition device can then recognize, for example, that a pedestrian is located near the motor vehicle as a candidate object. Whether it is necessary to react to the pedestrian depends on its relevance for the motor vehicle, for example on the risk of a collision. For this, the behavior of the pedestrian must be recognized. In order to be able to evaluate or recognize the behavior of the pedestrian, the sensor system can be adapted to detect people by setting a corresponding filter characteristic in the at least one sensor unit, which can be specialized, for example, in sensor data for a shape and / or movement of a pedestrian to recognize or emphasize or highlight the at least one sensor unit. If the candidate object, i.e. the pedestrian, is then detected or sensed with this adaptive sensor system, the said evaluation device can then use the detection data generated in this way to detect whether the pedestrian fulfills a relevance criterion, which can for example say that the pedestrian is moving along a movement path, which will cross the planned path of movement of the motor vehicle that so there is a risk of collision. In this case, a need for signaling can then be recognized and a notification signal can be generated which, for example, warns the user of the device, that is to say here the driver of the motor vehicle, of the pedestrian.

Durch die Erfindung ergibt sich der Vorteil, dass in dem Sensorsystem die zumindest eine Sensoreinheit nicht stets mehrere unterschiedliche Filtercharakteristiken parallel betreiben oder aktiviert halten muss, sondern dass jede Sensoreinheit erst im Bedarfsfall mit einer angepassten oder passenden Filtercharakteristik für einen jeweils aktuell benötigten Objekttyp betrieben wird. Somit können Rechenressourcen gespart werden und/oder eine Echtzeitfähigkeit des Sensorsystems gewährleistet werden.The invention has the advantage that the at least one sensor unit in the sensor system does not always have to operate several different filter characteristics in parallel or keep them activated, but that each sensor unit is only operated with an adapted or suitable filter characteristic for a currently required object type when required. Computing resources can thus be saved and / or real-time capability of the sensor system can be guaranteed.

Besonders bevorzugt ist bei dem erfindungsgemäßen Verfahren, mittels einer akustischen Ortung eine Einfallsrichtung eines Geräuschs zu erfassen. Dies kann durch Auswerten eines Phasenversatzes zwischen den Mikrofonsignalen zweier Mikrofone einer Sensoreinheit oder mehr als zweier Mikrofone durchgeführt werden. Es kann hierdurch eine relative Lage einer Schallquelle, die das Geräusch verursacht, erkannt werden. Insbesondere bei Verwendung von mehr als zwei Mikrofonen ist eine eindeutige Richtungserkennung möglich. Anschließend wird dann eine Filtercharakteristik in der Sensoreinheit mit den Mikrofonen und/oder in einer anderen Sensoreinheit derart eingestellt, dass die Erfassung der Erfassungsdaten in Richtung der Schallquelle ausgerichtet wird. Als Ausführungsbeispiel hierfür kann angesehen werden, dass die Objektdaten als Objekte unterschiedliche Schallquellen (im Gerät oder in dessen Umgebung) beschreiben und dass als Kandidatenobjekt eine Schallquelle mit einer vorbestimmte Klangcharakteristik eines vorbestimmten Objekttyps, beispielsweise „Verkehrsunfall“ oder „defekte Gerätekomponente des Geräts“, erkannt wird. Die Erfassungsdaten können dann mittels zumindest einer Sensoreinheit mit eingestellter Filtercharakteristik erfasst werden, um beispielsweise eine Relevanz der Schallquelle, d.h. beispielsweise des Verkehrsunfalls oder des Defekts der Gerätekomponente, mittels des Relevanzkriteriums zu überprüfen.It is particularly preferred in the method according to the invention to detect a direction of incidence of a sound by means of acoustic localization. This can be done by evaluating a phase offset between the microphone signals of two microphones of a sensor unit or more than two microphones. In this way, a relative position of a sound source that is causing the noise can be recognized. Unambiguous directional recognition is possible, in particular when using more than two microphones. A filter characteristic is then set in the sensor unit with the microphones and / or in another sensor unit in such a way that the acquisition of the acquisition data is oriented in the direction of the sound source. As an exemplary embodiment, it can be seen that the object data describe different sound sources (in the device or in its surroundings) as objects and that a sound source with a predetermined sound characteristic of a predetermined object type, for example “traffic accident” or “defective device component of the device”, is recognized as the candidate object becomes. The acquisition data can then be acquired by means of at least one sensor unit with a set filter characteristic in order, for example, to determine the relevance of the sound source, i.e. for example the traffic accident or the defect of the device component, using the relevance criterion.

Handelt es sich bei der Filtercharakteristik beispielsweise um eine Richtcharakteristik eines Richtsensors, beispielsweise eines Richtmikrofons oder eines Radars, so besteht somit nicht der Bedarf, dauerhaft die Umgebung vollständig mit dem Richtsensor abzutasten oder zu erfassen, sondern erst bei Bedarf wird der Richtsensor auf ein erkanntes Kandidatenobjekt ausgerichtet und ansonsten kann der Richtsensor in eine andere Richtung ausgerichtet werden.If the filter characteristic is, for example, a directional characteristic of a directional sensor, for example a directional microphone or a radar, then there is no need to permanently scan or record the entire environment with the directional sensor, but rather the directional sensor is only aimed at a recognized candidate object when required aligned and otherwise the directional sensor can be aligned in a different direction.

Die Erfindung umfasst auch Ausführungsformen, durch die sich zusätzliche Vorteile ergeben.The invention also comprises embodiments which result in additional advantages.

Wie bereits ausgeführt, kann es sich bei der Filtercharakteristik um eine Richtcharakteristik der jeweiligen Sensoreinheit handeln. In einer Ausführungsform ist entsprechend bei zumindest einer der zumindest einen Sensoreinheit des Sensorsystems mittels der Signalfiltereinrichtung ein richtungsselektiver Erfassungsbereich bereitgestellt. Die Richtcharakteristik ist also nicht omnidirektional, sondern richtungsselektiv. Durch das Einstellen der Filtercharakteristik wird der Erfassungsbereich der Sensoreinheit auf das Kandidatenobjekt ausgerichtet. Bei der Signalfiltereinrichtung ergibt sich somit eine räumliche Filterung, was hier ebenfalls als eine Filtercharakteristik bezeichnet wird. Ein Beispiel für eine solche Sensoreinheit ist ein Richtmikrofon, das beispielsweise auf der Grundlage eines Mikrofonarrays aus mehreren Mikrofonen gebildet sein kann. Durch Überlagern der Mikrofonsignale mehrerer Mikrofone kann nach dem Prinzip des sogenannten Beamforming und/oder des Null-Steering eine richtungsselektive Schallerfassung erfolgen. Im Falle eines Radarsystems kann ebenfalls das Abstrahlen von Radarstrahlung beispielsweise mittels einer sogenannten Patch-Antenne in Bezug auf die Richtung gesteuert werden, sodass eine Abstrahlrichtung festgelegt werden kann, wodurch sich ebenfalls eine Filtercharakteristik in Form einer räumlichen Filterung ergibt, da nur Objekte entlang der Abstrahlrichtung erfasst werden. Bei einer Kamera ergibt durch einen auf einen Raumwinkel kleiner als 360° begrenzten Bilderfassungsbereich ebenfalls eine räumliche Selektivität, die durch Verschwenken einer Optik der Kamera räumlich ausgerichtet werden kann. Der Objekttyp eines Objekts umfasst hierbei also insbesondere die relative Richtung oder Lage des jeweiligen Objekts bezüglich des Geräts. Dies kann als Winkelangabe oder als eine Indexangabe eines vordefinierten Kreissektors (z.B. „vorne links“) vorgesehen werden. Das Ausrichten des Erfassungsbereichs auf das Kandidatenobjekt weist den Vorteil auf, dass die Erfassungsdaten mehr Informationen und/oder Details zum Kandidatenobjekt enthalten. So steht die jeweilige Sensoreinheit vollständig oder zumindest überwiegend zum Erfassen des Kandidatenobjekts zur Verfügung. Eine demgegenüber nachteilige Alternative wäre, die Filtercharakteristik zyklisch zu verändern und somit die Umgebung mittels eines Rasterverfahrens zu scannen, sodass das Kandidatenobjekt jeweils nur zeitweise im Erfassungsbereich der zumindest einen Sensoreinheit liegen würde.As already stated, the filter characteristic can be a directional characteristic of the respective sensor unit. In one embodiment, a direction-selective detection area is correspondingly provided in at least one of the at least one sensor unit of the sensor system by means of the signal filter device. The directional characteristic is therefore not omnidirectional, but direction-selective. By setting the filter characteristic, the detection area of the sensor unit is aligned with the candidate object. The signal filter device thus results in spatial filtering, which is also referred to here as a filter characteristic. An example of such a sensor unit is a directional microphone, which can be formed from a plurality of microphones on the basis of a microphone array, for example. By superimposing the microphone signals of several microphones, direction-selective sound detection can take place according to the principle of so-called beamforming and / or zero steering. In the case of a radar system, the emission of radar radiation can also be controlled in relation to the direction, for example by means of a so-called patch antenna, so that an emission direction can be determined, which also results in a filter characteristic in the form of spatial filtering, since only objects along the emission direction are recorded. In the case of a camera, an image capturing area limited to a solid angle of less than 360 ° likewise results in a spatial selectivity which can be spatially aligned by pivoting an optical system of the camera. The object type of an object here includes in particular the relative direction or position of the respective object with respect to the device. This can be provided as an angle specification or as an index specification of a predefined circle sector (e.g. "front left"). Aligning the detection area to the candidate object has the advantage that the detection data contain more information and / or details on the candidate object. The respective sensor unit is completely or at least predominantly available for detecting the candidate object. A disadvantageous alternative on the other hand would be to change the filter characteristic cyclically and thus to scan the surroundings by means of a raster method so that the candidate object would only be in the detection area of the at least one sensor unit at times.

Die räumliche Filterung ist aber nur eine Möglichkeit. In einer Ausführungsform wird bei zumindest einer Sensoreinheit des Sensorsystems mittels der Signalfiltereinrichtung durch das Einstellen der Filtercharakteristik ein Zoom (Vergrößerung) und/oder eine Signalverarbeitung eingestellt. Beispiele für eine Signalverarbeitung sind jeweils die folgenden: Kantendetektion, Segmentierung, Optical-Flow-Analyse. Es kann also beispielsweise vorgesehen sein, dass als Filtercharakteristik für einen bestimmten Objekttyp vorgesehen ist, dass auf das Kandidatenobjekt gezoomt wird, also eine Optik oder allgemein eine Linse derart eingestellt oder verändert wird, dass ein Abbild des Kandidatenobjekts vergrößert auf einem Sensor der Sensoreinheit abgebildet wird. Eine Signalverarbeitung lässt sich durch Einstellen der Filtercharakteristik ebenfalls anpassen, sodass je nach Objekttyp solche Merkmale des Kandidatenobjekts, die für die Überprüfung des Relevanzkriteriums notwendig oder relevant sind, gegenüber anderen Merkmalen hervorgehoben oder betont sind (im Vergleich zu den rohen Sensordaten).Spatial filtering is only one option. In one embodiment, a zoom (magnification) and / or signal processing is set in at least one sensor unit of the sensor system by means of the signal filter device by setting the filter characteristic. Examples of signal processing are each the following: Edge detection, segmentation, optical flow analysis. It can therefore be provided, for example, that the filter characteristic for a specific object type is that the candidate object is zoomed in, that is, an optical system or generally a lens is set or changed in such a way that an image of the candidate object is shown enlarged on a sensor of the sensor unit. Signal processing can also be adapted by setting the filter characteristics so that, depending on the object type, those characteristics of the candidate object that are necessary or relevant for checking the relevance criterion are highlighted or emphasized compared to other characteristics (compared to the raw sensor data).

Damit die korrekte Filtercharakteristik für einen Objekttyp herausgesucht werden kann, werden in der beschriebenen Weise die Objektdaten der zumindest einen Objektdatenquelle benutzt. In einer Ausführungsform wird als eine Objektdatenquelle zumindest eine Sensoreinheit des Sensorsystems selbst benutzt, welche bereits vor dem Adaptieren des Sensorsystems (also vor dem Einstellen einer objekttyp-spezifischen Filtercharakteristik) Sensordaten als Objektdaten bereitstellt. Mit anderen Worten kann zumindest ein Teil der Objektdaten mittels des Sensorsystems im nicht-adaptierten Zustand erzeugt werden. Beispielsweise kann als Sensoreinheit ein Richtmikrofon genutzt werden, das zunächst omnidirektional betrieben wird, also keine bevorzugte Erfassungsrichtung eingestellt hat. Wird dann in den Sensordaten ein Geräusch durch die Objekterkennungseinrichtung erkannt, welches auf ein Kandidatenobjekt hinweist, beispielsweise ein Knall, welcher auf einen Unfall hinweist, so kann daraufhin entsprechend eine Filtercharakteristik ausgewählt werden, welche auf die Schallquelle des Knalls oder allgemein des Geräuschs ausgerichtet ist. Die Objekterkennungseinrichtung kann hierzu eine Einfallsrichtung des Geräuschs in an sich bekannter Weise aus eine Phasenbeziehung von Mikrofonsignalen mehrerer Mikrofone ermitteln. Zudem kann für zumindest eine weitere Sensoreinheit, beispielsweise eine verschwenkbare Kamera, ebenfalls eine Filtercharakteristik eingestellt werden, welche auf die Schallquelle und damit auf das Kandidatenobjekt ausgerichtet ist. Die Detektion eines Kandidatenobjekts mittels einer Sensoreinheit kann somit dazu genutzt werden, auch zumindest eine andere Sensoreinheit auf das Kandidatenobjekt auszurichten. Die Nutzung des Sensorsystems als eine Objektdatenquelle weist den Vorteil auf, dass in dem Gerät die Objektdaten selbst hergeleitet oder erzeugt werden können.So that the correct filter characteristic can be found for an object type, the object data of the at least one object data source are used in the manner described. In one embodiment, at least one sensor unit of the sensor system itself is used as an object data source, which sensor unit provides sensor data as object data even before the sensor system is adapted (that is, before an object-type-specific filter characteristic is set). In other words, at least some of the object data can be generated by means of the sensor system in the non-adapted state. For example, a directional microphone can be used as a sensor unit, which is initially operated omnidirectionally, that is, has not set a preferred detection direction. If a noise is then recognized in the sensor data by the object recognition device, which indicates a candidate object, for example a bang which indicates an accident, a filter characteristic can then be selected that is aligned with the sound source of the bang or the sound in general. For this purpose, the object recognition device can determine a direction of incidence of the noise in a manner known per se from a phase relationship of microphone signals from several microphones. In addition, a filter characteristic can also be set for at least one further sensor unit, for example a pivotable camera, which is aligned with the sound source and thus with the candidate object. The detection of a candidate object by means of a sensor unit can thus be used to align at least one other sensor unit with the candidate object. The use of the sensor system as an object data source has the advantage that the object data itself can be derived or generated in the device.

In einer Ausführungsform wird als eine Objektdatenquelle eine stationäre Servereinrichtung des Internets genutzt. Eine solche Servereinrichtung wird auch als Backend für das Gerät bezeichnet. Das Gerät kann für einen Datenaustausch beispielsweise mittels einer Funkverbindung mit der Servereinrichtung gekoppelt sein. Die Servereinrichtung kann auf einem Computer oder einem Computerverbund basieren. An die Servereinrichtung können durch die Steuervorrichtung Positionsdaten ausgesendet werden, welche eine aktuelle Position des Geräts in der Umgebung beschreibt. Aus der Servereinrichtung werden dann als Objektdaten Datenbankdaten einer Datenbank empfangen, in welcher das zumindest eine Objekt registriert ist. Mit anderen Worten kann also mittels der Positionsdaten der Servereinrichtung signalisiert werden, wo sich das Gerät aktuell befindet. In der Servereinrichtung können dann aus einer Datenbank solche Datenbankdaten herausgesucht und der Steuervorrichtung des Geräts bereitgestellt werden, die angeben, welches zumindest eine Objekt sich in der Umgebung des Geräts befindet oder befinden könnte. Somit kann also auf eine Datenbank registrierter Objekte zurückgegriffen werden.In one embodiment, a stationary server device of the Internet is used as an object data source. Such a server device is also referred to as a backend for the device. The device can be coupled to the server device for data exchange, for example by means of a radio link. The server device can be based on a computer or a computer network. The control device can send position data to the server device which describes a current position of the device in the vicinity. Database data of a database in which the at least one object is registered are then received from the server device as object data. In other words, the position data of the server device can be used to signal where the device is currently located. In the server device, such database data can then be searched out from a database and provided to the control device of the device, which data indicate which at least one object is or could be located in the vicinity of the device. This means that a database of registered objects can be used.

In einer Ausführungsform wird als eine Objektdatenquelle eine digitale Umgebungskarte genutzt, in welcher die Umgebung kartographiert ist. Aus der Umgebungskarte werden als Objektdaten Karteneinträge betreffend das zumindest eine Objekt ausgelesen. Somit können also vorbekannte stationäre Objekte, von denen jedes in der Umgebungskarte als Karteneintrag registriert ist, erkannt und daraufhin überprüft werden, ob sie ein Kandidatenobjekt darstellen und/oder das Relevanzkriterium erfüllen.In one embodiment, a digital map of the surroundings is used as an object data source, in which the surroundings are mapped. Map entries relating to the at least one object are read out from the map of the surroundings as object data. Thus, previously known stationary objects, each of which is registered in the map of the surroundings as a map entry, can be recognized and checked to determine whether they represent a candidate object and / or meet the relevance criterion.

In einer Ausführungsform wird als eine Objektdatenquelle ein jeweiliger portabler Sender genutzt, welcher jeweils an einem des zumindest einen Objekts angeordnet ist. Ein solcher Sender ist also ein Signalgeber, der an einem Objekt befestigt wird und welcher als Objektdaten ein Funksignal, welches das jeweilige Objekt beschreibt, aussendet. Der Sender stellt also einen funkbasierten Marker dar, um das jeweilige Objekt zu markieren. Dies ermöglicht es in vorteilhafter Weise, ein jeweiliges Objekt mittels einer Funkortung oder Funkpeilung zu lokalisieren und/oder zu erkennen. Zudem kann durch das Funksignal beispielsweise auch der Objekttyp des jeweiligen Objekts signalisiert werden, sodass eine aufwendige Auswertung von beispielsweise Bilddaten entfallen kann.In one embodiment, a respective portable transmitter which is arranged on one of the at least one object is used as an object data source. Such a transmitter is therefore a signal transmitter which is attached to an object and which transmits a radio signal describing the respective object as object data. The transmitter thus represents a radio-based marker to mark the respective object. This advantageously makes it possible to localize and / or recognize a respective object by means of radio location or radio direction finding. In addition, the radio signal can also be used to signal the object type of the respective object, so that there is no need for a complex evaluation of image data, for example.

Die beschriebene Objekterkennungseinrichtung, die anhand der Objektdaten erkennt, ob sich ein Kandidatenobjekt in der Umgebung befindet, kann auf der Grundlage einer Software oder eines Programmcodes für eine Recheneinrichtung der Steuervorrichtung realisiert sein. In einer Ausführungsform wird die Objekterkennungseinrichtung dabei mittels einer Methode des maschinellen Lernens realisiert, sodass durch die Objekterkennungseinrichtung mittels der Methode des maschinellen Lernens das Kandidatenobjekt detektiert und/oder sein Objekttyp erkannt wird. Ein Beispiel für eine Methode des maschinellen Lernens ist das Betreiben eines künstlichen neuronalen Netzwerks. Durch die Verwendung einer Methode des maschinellen Lernens ergibt sich der Vorteil, dass auch bei einer Abweichung eines Erscheinungsbilds oder allgemein der Objektdaten von Trainings-Objektdaten, anhand welcher die Objekterkennungseinrichtung gemäß der Methode des maschinellen Lernens trainiert wird, dennoch zuverlässig ein Kandidatenobjekt und/oder sein Objekttyp erkannt werden kann. Die Objekterkennungseinrichtung kann zusätzlich oder alternativ dazu auch eine Methode der Signalverarbeitung beruhen, die beispielsweise ein Hidden-Markov-Modell (HMM) zur Erkennung und/oder einen Bildverarbeitungsalgorithmus und/oder eine sogenanntes Expertensystem nutzt.The object recognition device described, which recognizes on the basis of the object data whether a candidate object is located in the environment, can be implemented on the basis of software or program code for a computing device of the control device. In one embodiment, the object recognition device is implemented using a machine learning method, so that the candidate object is detected and / or its object type is recognized by the object recognition device using the machine learning method. An example of a method of machine learning is the operation of an artificial neural network. By using A method of machine learning has the advantage that even if there is a discrepancy between the appearance or the object data in general from training object data, on the basis of which the object recognition device is trained according to the machine learning method, a candidate object and / or its object type are still reliably recognized can. The object recognition device can additionally or alternatively also be based on a method of signal processing that uses, for example, a Hidden Markov Model (HMM) for recognition and / or an image processing algorithm and / or a so-called expert system.

Die beschriebene Auswerteeinrichtung, die anhand der Erfassungsdaten das Relevanzkriterium überprüft, kann auf der Grundlage einer Software oder eines Programmcodes für eine Recheneinrichtung der Steuervorrichtung realisiert sein. Auch im Zusammenhang mit der Auswerteeinrichtung sieht eine Ausführungsform vor, dass bei der Auswerteeinrichtung das Relevanzkriterium zumindest teilweise durch eine Methode des maschinellen Lernens implementiert ist. Mit anderen Worten kann die Auswertung einer Situation, in welcher sich das Gerät befindet und zu welcher entschieden werden muss, ob das Kandidatenobjekt relevant ist, mittels einer Methode des maschinellen Lernens erfolgen, also beispielsweise auf der Grundlage eines künstlichen neuronalen Netzwerks. Hierdurch wird es in vorteilhafter Weise ermöglicht, auch eine Situation mit mehreren Objekten in der Umgebung des Geräts dahingehend zu überprüfen, ob ein als Kandidatenobjekt erkanntes Objekt für das Gerät im Sinnen des Relevanzkriteriums relevant ist. Es kann eine Kombination mehrerer Parameter des Kandidatenobjekts, beispielsweise eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit und der Objekttyp, mittels einer Methode des maschinellen Lernens verknüpft werden, um ein Relevanzkriterium zu definieren. Ein Relevanzkriterium auf der Grundlage einer Methode des maschinellen Lernens weist zudem den Vorteil auf, dass durch Trainings-Erfassungsdaten mit Beispielsituationen vorgegeben werden kann, wann ein Kandidatenobjekt relevant ist.The evaluation device described, which checks the relevance criterion on the basis of the detection data, can be implemented on the basis of software or a program code for a computing device of the control device. In connection with the evaluation device, too, one embodiment provides that the relevance criterion is implemented at least partially in the evaluation device by a method of machine learning. In other words, the evaluation of a situation in which the device is located and for which a decision must be made as to whether the candidate object is relevant can be carried out using a machine learning method, for example on the basis of an artificial neural network. This advantageously makes it possible to also check a situation with several objects in the vicinity of the device to determine whether an object recognized as a candidate object is relevant for the device in terms of the relevance criterion. A combination of several parameters of the candidate object, for example a movement direction and a movement speed and the object type, can be linked by means of a method of machine learning in order to define a relevance criterion. A relevance criterion based on a method of machine learning also has the advantage that it is possible to specify when a candidate object is relevant by means of training acquisition data with example situations.

Wie bereits ausgeführt, wird in einer Ausführungsform als Gerät ein Kraftfahrzeug vorgesehen oder betrieben. Alternativ dazu ist in einer Ausführungsform als Gerät ein mobiles Endgerät, also beispielsweise ein Smartphone oder ein Tablet-PC, vorgesehen oder betrieben. Alternativ dazu ist in einer Ausführungsform als Gerät ein portables Assistenzgerät vorgesehen oder betrieben, also beispielsweise ein Gerät, wie es eine Person zum Erkennen einer Gefahr tragen kann, wenn die Person einen Gefahrenbereich betritt. Beispielsweise kann ein Feuerwehrmann beim Betreten eines brennenden Gebäudes ein solches Assistenzgerät tragen, um den Feuerwehrmann vor einer Gefahr zu warnen, die in Form eines Kandidatenobjekts erkannt wird.As already stated, in one embodiment a motor vehicle is provided or operated as a device. As an alternative to this, in one embodiment, a mobile terminal device, for example a smartphone or a tablet PC, is provided or operated as the device. As an alternative to this, in one embodiment, a portable assistance device is provided or operated as a device, that is to say, for example, a device that a person can wear to recognize a danger when the person enters a danger area. For example, a firefighter can wear such an assistance device when entering a burning building in order to warn the firefighter of a danger that is recognized in the form of a candidate object.

Falls ein Kandidatenobjekt das Relevanzkriterium erfüllt, wird in der beschriebenen Weise das Hinweissignal erzeugt. Dies kann für den Fall wichtig sein, dass der Benutzer des Geräts das Kandidatenobjekt noch nicht selbstständig oder von sich aus erkannt hat. Um dies zu überprüfen, sieht eine Ausführungsform vor, dass der Signalisierungsbedarf zum Erzeugen des Hinweissignals zusätzlich in Abhängigkeit von einem Erkennungssignal einer Aufmerksamkeitserkennung des Geräts ermittelt wird. Die Aufmerksamkeitserkennung signalisiert mittels des Erkennungssignals, ob ein Benutzer des Geräts die Umgebung wahrnimmt und/oder in welche Richtung der Benutzer blickt. Beispielsweise kann die Aufmerksamkeitserkennung signalisieren, ob der Benutzer die Augen geöffnet hat und/oder ob der Benutzer von sich aus zu dem Kandidatenobjekt blickt oder schaut. Als Aufmerksamkeitserkennung kann beispielsweise die an sich bekannte Blickrichtungserkennung bereitgestellt sein, die beispielsweise auf der Grundlage von Bilddaten einer Videokamera und/oder einer Infrarotkamera durch Auswertung zumindest eines Kamerabilds, das Augen des Benutzers zeigt, ermittelt, in welche Richtung der Benutzer blickt und/oder ob der Benutzer die Augen geschlossen hat. Zusätzlich oder alternativ dazu kann die Aufmerksamkeitserkennung auf der Grundlage einer Auswertung zumindest eines Bilds von einem Kopf des Benutzers erfolgen, dessen räumliche Ausrichtung ebenfalls einen Hinweis auf die aktuelle Blickrichtung des Benutzers gibt.If a candidate object meets the relevance criterion, the notification signal is generated in the manner described. This can be important in the event that the user of the device has not yet recognized the candidate object independently or on his own. In order to check this, one embodiment provides that the signaling requirement for generating the notification signal is additionally determined as a function of a recognition signal of an alertness recognition of the device. The attention recognition uses the recognition signal to signal whether a user of the device perceives the surroundings and / or in which direction the user is looking. For example, the attention recognition can signal whether the user has opened his eyes and / or whether the user is looking at the candidate object himself. As attention recognition, for example, the per se known line of sight recognition can be provided, which determines, for example, on the basis of image data from a video camera and / or an infrared camera by evaluating at least one camera image showing the user's eyes, in which direction the user is looking and / or whether the user has closed their eyes. In addition or as an alternative to this, the attention recognition can take place on the basis of an evaluation of at least one image of a head of the user, the spatial orientation of which also provides an indication of the current direction of view of the user.

Das Verfahren kann für unterschiedliche Einsatzzwecke genutzt werden. Der Einsatzzweck kann durch festlegen des Objekttyps eingestellt werden. In einer Ausführungsform ist durch den Objekttyp angegeben, dass es sich bei dem Kandidatenobjekt um einen Verkehrsteilnehmer handelt. Damit kann das Verfahren beispielsweise für ein Kraftfahrzeug vorteilhafter Weise ertüchtigt werden. Wie bereits ausgeführt, kann der Objekttyp eine relative Lage oder Richtung eines Objekts angeben, d.h. es handelt sich um ein Objekt mit einer vorbestimmten relativen Lage oder in einer vorbestimmten relativen Richtung bezüglich des Geräts. Hierdurch kann in vorteilhafter Weise eine bedarfsangepasste Ausrichtung eines Richtungssensors erfolgen. In einer Ausführungsform ist durch den Objekttyp angegeben, dass es sich um ein Objekt mit einer vorbestimmten relativen Bewegungsrichtung bezüglich des Geräts handelt. Hierdurch kann ein Objekt, das sich auf einem Kollisionskurs mit dem Gerät befindet, als Kandidatenobjekt erkannt werden. In einer Ausführungsform ist durch den Objekttyp angegeben, dass es sich bei dem Kandidatenobjekt um ein Objekt mit einer potentiellen Anomalie handelt, also beispielsweise um ein defektes Objekt. Hierdurch kann in vorteilhafter Weise eine defekte Komponente des Geräts automatisiert erkannt werden. Mittels der Objekterkennungseinrichtung kann beispielsweise ein vorbestimmter Klang oder ein vorbestimmtes Geräusch oder ein vorbestimmtes Erscheinungsbild erkannt werden, welches einen Hinweis auf einen Defekt gibt. Durch Adaptieren des Sensorsystems können dann Erfassungsdaten zu dem Kandidatenobjekt, das heißt der potentiell defekten Komponente, ermittelt werden. Anschließend kann durch die Auswerteeinrichtung anhand des Relevanzkriteriums verifiziert werden, ob das Kandidatenobjekt, das heißt die potentiell defekte Komponente, tatsächlich defekt ist. In einer Ausführungsform ist durch den Objekttyp angegeben, dass es sich bei dem Kandidatenobjekt um ein Objekt mit einer vorbestimmten Beschaffenheit und/oder mit einem vorbestimmten Bewegungsverhalten handelt. Befinden sich in der Umgebung beispielsweise mehrere Personen, so kann ein vorbestimmtes Bewegungsverhalten beispielsweise angeben, dass es sich um eine winkende Person handelt. Dies kann beispielsweise durch die Objekterkennungseinrichtung auf der Grundalge von Kamerabildern erkannt werden, welche die Umgebung abbilden. Danach kann durch Einstellen einer entsprechenden Filtercharakteristik beispielsweise die Person gezoomt werden, um dann mittels der Auswerteeinrichtung die so erhaltenen Erfassungsdaten daraufhin zu überprüfen, ob die winkende Person das Relevanzkriterium erfüllt, also das Hinweissignal zu dieser Person erzeugt werden soll.The process can be used for different purposes. The intended use can be set by specifying the object type. In one embodiment, the object type indicates that the candidate object is a road user. The method can thus advantageously be upgraded for a motor vehicle, for example. As already stated, the object type can specify a relative position or direction of an object, ie it is an object with a predetermined relative position or in a predetermined relative direction with respect to the device. In this way, an alignment of a directional sensor that is adapted to requirements can advantageously take place. In one embodiment, the object type indicates that it is an object with a predetermined relative direction of movement with respect to the device. This enables an object that is on a collision course with the device to be recognized as a candidate object. In one embodiment, the object type indicates that the candidate object is an object with a potential anomaly, that is to say, for example, a defective object. This allows in advantageously, a defective component of the device can be automatically recognized. By means of the object recognition device, for example, a predetermined sound or a predetermined noise or a predetermined appearance can be recognized, which gives an indication of a defect. By adapting the sensor system, detection data on the candidate object, that is to say the potentially defective component, can then be determined. The evaluation device can then use the relevance criterion to verify whether the candidate object, that is to say the potentially defective component, is actually defective. In one embodiment, the object type indicates that the candidate object is an object with a predetermined quality and / or with a predetermined movement behavior. If there are several people in the vicinity, for example, a predetermined movement behavior can indicate, for example, that the person is waving. This can be recognized, for example, by the object recognition device on the basis of camera images which depict the surroundings. Then, by setting a corresponding filter characteristic, the person can be zoomed, for example, in order to then use the evaluation device to check the acquisition data obtained in this way to determine whether the waving person fulfills the relevance criterion, i.e. whether the warning signal for this person should be generated.

In Bezug auf das Hinweissignal sieht eine Ausführungsform vor, dass mittels des Hinweissignals eine Ausgabeeinrichtung zum Ausgeben eines akustischen und/oder visuellen und/oder haptischen Hinweises angesteuert wird. Mit anderen Worten kann also ein Benutzer des Geräts mittels des Hinweissignals über die Ausgabeeinrichtung auf das erkannte Kandidatenobjekt hingewiesen werden, wenn dieses das Relevanzkriterium erfüllt. Zusätzlich oder alternativ dazu sieht eine Ausführungsform vor, dass mittels des Hinweissignals eine Steuereinrichtung zum benutzerunabhängigen Einstellen eines Betriebsverhaltens des Geräts angesteuert wird. Dies bedeutet, dass das Gerät in Abhängigkeit von dem Hinweissignal automatisch auf das Kandidatenobjekt reagiert, also der Benutzer des Geräts keinen Beitrag leisten muss, sondern die Steuereinrichtung des Geräts automatisiert ändert. Im Falle eines Kraftfahrzeugs kann beispielsweise als Betriebsverhalten eine Fahrtrajektorie oder eine Fahrtrichtung geändert werden, um einem Kandidatenobjekt auszuweichen.With regard to the notification signal, one embodiment provides that an output device for outputting an acoustic and / or visual and / or haptic notification is controlled by means of the notification signal. In other words, a user of the device can be informed of the recognized candidate object by means of the notification signal via the output device, if this fulfills the relevance criterion. Additionally or alternatively, one embodiment provides that a control device for user-independent setting of an operating behavior of the device is controlled by means of the notification signal. This means that the device automatically reacts to the candidate object as a function of the notification signal, that is to say that the user of the device does not have to make a contribution, but rather changes the control device of the device automatically. In the case of a motor vehicle, for example, a driving trajectory or a driving direction can be changed as operating behavior in order to avoid a candidate object.

Um das erfindungsgemäße Verfahren in einem Gerät durchzuführen, ist durch die Erfindung auch eine Steuervorrichtung für ein Gerät bereitgestellt. Es handelt sich bei dem Gerät um ein solches mit einem Sensorsystem, welches wiederum zumindest eine Sensoreinheit aufweist, welche eine adaptive Signalfiltereinrichtung in der beschriebenen Weise umfasst. Die erfindungsgemäße Steuervorrichtung weist eine Recheneinrichtung auf, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Recheneinrichtung kann hierzu zumindest einen Mikroprozessor aufweisen. Das Verfahren kann als Programmcode oder Software implementiert sein, die Programminstruktionen aufweist, die dazu eingerichtet sind, bei Ausführen durch die Recheneinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode oder die Software kann in einem Datenspeicher der Recheneinrichtung gespeichert sein, der mit dem zumindest einen Mikroprozessor gekoppelt sein kann.In order to carry out the method according to the invention in a device, the invention also provides a control device for a device. The device is one with a sensor system, which in turn has at least one sensor unit which comprises an adaptive signal filter device in the manner described. The control device according to the invention has a computing device which is set up to carry out an embodiment of the method according to the invention. For this purpose, the computing device can have at least one microprocessor. The method can be implemented as program code or software that has program instructions which are set up to carry out the embodiment of the method according to the invention when executed by the computing device. The program code or the software can be stored in a data memory of the computing device, which can be coupled to the at least one microprocessor.

In Bezug auf die Realisierung des Verfahrens im Zusammenhang mit einem Gerät, das als Kraftfahrzeug ausgestaltet ist, sieht die Erfindung ein Kraftfahrzeug vor, das ein Sensorsystem umfasst, welches zumindest eine Sensoreinheit mit einer adaptiven Signalfiltereinrichtung aufweist. Das erfindungsgemäße Kraftfahrzeug ist dadurch gekennzeichnet, dass es eine Ausführungsform der beschriebenen erfindungsgemäßen Steuervorrichtung aufweist. Das Kraftfahrzeug kann beispielsweise als Personenkraftwagen oder Lastkraftwagen oder als Personenbus ausgestaltet sein.With regard to the implementation of the method in connection with a device which is designed as a motor vehicle, the invention provides a motor vehicle which comprises a sensor system which has at least one sensor unit with an adaptive signal filter device. The motor vehicle according to the invention is characterized in that it has an embodiment of the described control device according to the invention. The motor vehicle can be configured, for example, as a passenger vehicle or truck or as a passenger bus.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar.Further features of the invention emerge from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures can be used not only in the respectively specified combination, but also in other combinations or on their own.

Die Erfindung wird nun anhand eines bevorzugten Ausführungsbeispiels sowie unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:The invention will now be explained in more detail using a preferred exemplary embodiment and with reference to the drawings. Show it:

Im Folgenden sind Ausführungsformen der Erfindung beschrieben. Hierzu zeigt:

  • 1 eine schematische Darstellung einer Ausführungsform eines erfindungsgemäßen Kraftfahrzeugs, das eine Steuervorrichtung aufweist, die eine Ausführungsform des erfindungsgemäßen Verfahrens durchführen kann;
  • 2 eine schematische Darstellung eines Geräts mit einem Sensorsystem, das als Sensoreinheit mit adaptiver Signalfilterungseinrichtung eine Richtmikrofoneinrichtung aufweist;
  • 3 eine schematische Darstellung eines Geräts mit einem Sensorsystem, das als Sensoreinheit eine stereoskopische Kameraanordnung aufweist;
  • 4 eine schematische Darstellung eines Geräts, welches ein Sensorsystem mit einer Sensoreinheit aufweist, die eine Wärmestrahlung erfassen kann;
  • 5 eine schematische Darstellung eines Geräts mit einem Sensorsystem, das eine Sensoreinheit aufweist, die einen gerichteten Funkempfang vorsieht;
  • 6 eine schematische Darstellung eines Geräts, bei welchem eine geräteexterne Servereinrichtung als Objektdatenquelle für Objektdaten genutzt wird; und
  • 7 ein Flussschaudiagramm zur Veranschaulichung einer Ausführungsform des erfindungsgemäßen Verfahrens.
Embodiments of the invention are described below. This shows:
  • 1 a schematic representation of an embodiment of a motor vehicle according to the invention which has a control device which can carry out an embodiment of the method according to the invention;
  • 2 a schematic representation of a device with a sensor system which has a directional microphone device as a sensor unit with an adaptive signal filtering device;
  • 3 a schematic representation of a device with a sensor system which has a stereoscopic camera arrangement as a sensor unit;
  • 4th a schematic representation of a device that has a sensor system with a sensor unit that can detect thermal radiation;
  • 5 a schematic representation of a device with a sensor system having a sensor unit that provides a directional radio reception;
  • 6th a schematic representation of a device in which a device-external server device is used as an object data source for object data; and
  • 7th a flowchart to illustrate an embodiment of the method according to the invention.

In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are each provided with the same reference symbols.

1 zeigt ein Gerät 10, bei dem es sich beispielsweise um ein Kraftfahrzeug 11 handeln kann, wie durch ein Lenkrad 12 symbolisch veranschaulicht ist. In dem Gerät 10 kann ein Sensorsystem 13 bereitgestellt sein, durch welches Erfassungsdaten 14 erzeugt werden können, die durch eine Steuervorrichtung 15 des Geräts empfangen werden können. Mittels des Sensorsystems 13 kann durch das Gerät 10 eine Umgebung 16 des Geräts erfasst oder sensiert werden, sodass Objekte 17 in der Umgebung 16 erkannt oder abgebildet werden können. Die Erfassungsdaten 14 können sich dabei auf ein Objekt 17, das als ein Kandidatenobjekt 18 erkannt wurde, konzentrieren oder darauf begrenzt sein. In Abhängigkeit von den Erfassungsdaten 14 kann die Steuervorrichtung 15 mittels einer Auswerteeinrichtung 19 ermitteln, ob das Kandidatenobjekt 18 ein Relevanzkriterium 20 erfüllt. Für diesen Fall kann vorgesehen sein, dass durch die Steuervorrichtung 15 ein Hinweissignal 21 erzeugt wird. Die Steuervorrichtung 15 kann beispielsweise als ein Steuergerät oder eine Steuerschaltung des Geräts 10 ausgestaltet sein. Die Steuervorrichtung 15 kann eine Recheneinrichtung 22 aufweisen, durch welche die hier beschriebenen Verfahrensschritte in Form einer Software oder eines Programmcodes realisiert sein können. 1 shows a device 10 , which is, for example, a motor vehicle 11 can act as if through a steering wheel 12 is illustrated symbolically. In the device 10 can be a sensor system 13 be provided by which acquisition data 14th can be generated by a control device 15th received by the device. By means of the sensor system 13 can through the device 10 an environment 16 of the device are detected or sensed, so that objects 17th in the neighborhood 16 can be recognized or mapped. The acquisition data 14th can refer to an object 17th that as a candidate object 18th was recognized, focus or be limited to it. Depending on the acquisition data 14th can the control device 15th by means of an evaluation device 19th determine whether the candidate object 18th a relevance criterion 20th Fulfills. For this case it can be provided that by the control device 15th a warning signal 21st is produced. The control device 15th can for example be used as a control device or a control circuit of the device 10 be designed. The control device 15th can be a computing device 22nd have, by means of which the method steps described here can be implemented in the form of software or program code.

Mittels des Hinweissignals 21 kann beispielsweise eine Ausgabeeinrichtung 23 und/oder eine Steuereinrichtung 24 angesteuert werden. Mittels der Ausgabeeinrichtung 23 kann beispielsweise ein Benutzer des Geräts 10 darauf hingewiesen werden, dass sich in der Umgebung 16 ein Kandidatenobjekt 18 befindet, welches das Relevanzkriterium 20 befindet. Im Falle eines Kraftfahrzeugs 11 kann als Kandidatenobjekt 18 beispielsweise ein anderer Verkehrsteilnehmer erkannt werden, von dem durch eine Objekterkennungseinrichtung 25 der Steuervorrichtung 15 erkannt werden kann, dass es von einem vorbestimmten Objekttyp 26 ist. Dies kann durch die Objekterkennungseinrichtung 25 auf der Grundlage von Objektdaten 27 erkannt werden, die die Umgebung 16 oder zumindest die Objekte 17 oder das Kandidatenobjekt 18 beschreiben. Wird durch die Objekterkennungseinrichtung 25 erkannt, dass in der Umgebung 16 ein Objekt 17 ein Kandidatenobjekt 18 von dem vorbestimmten Objekttyp 26 angeordnet ist oder sich darin befindet, kann beispielsweise durch eine Stelleinrichtung 28 das Sensorsystem 13 dahingehend adaptiert werden, dass ein Erfassungsbereich 29 des Sensorsystems 13 auf das Kandidatenobjekt 18 ausgerichtet wird. Das Adaptieren wird im Weiteren noch genauer beschrieben. Anschließend kann das Sensorsystem 13 die Erfassungsdaten 14 erzeugen, auf deren Grundlage die Auswerteeinrichtung 19 überprüfen kann, ob das Kandidatenobjekt 18 auch das Relevanzkriterium 20 erfüllt. In diesem Fall, bevorzugt nur in diesem Fall, wird das Hinweissignal 21 erzeugt.By means of the notification signal 21st can for example be an output device 23 and / or a control device 24 be controlled. By means of the output device 23 can for example be a user of the device 10 Be advised that in the area 16 a candidate object 18th which is the relevance criterion 20th is located. In the case of a motor vehicle 11 can be used as a candidate object 18th for example, another road user can be recognized by an object recognition device 25th the control device 15th it can be recognized that it is of a predetermined object type 26th is. This can be done by the object recognition device 25th based on property data 27 be recognized that the environment 16 or at least the objects 17th or the candidate object 18th describe. Used by the object recognition device 25th recognized that in the area 16 an object 17th a candidate object 18th of the predetermined object type 26th is arranged or is located therein, for example by an actuating device 28 the sensor system 13 be adapted to the effect that a detection area 29 of the sensor system 13 on the candidate object 18th is aligned. The adaptation is described in more detail below. Then the sensor system 13 the acquisition data 14th generate, on the basis of which the evaluation device 19th can check whether the candidate object 18th also the relevance criterion 20th Fulfills. In this case, preferably only in this case, the notification signal is activated 21st generated.

Die Steuereinrichtung 24 kann dazu ausgelegt werden, ein Betriebsverhalten des Geräts 10 auch unabhängig von dem Benutzer in Abhängigkeit von dem Hinweissignal 21 einzustellen oder zu verändern. Im Falle eines Kraftfahrzeugs 11 kann beispielsweise automatisiert ein Ausweichmanöver gefahren werden, wobei es sich dann bei der Steuereinrichtung 24 beispielsweise um ein Fahrerassistenzsystem handeln kann.The control device 24 can be designed for an operating behavior of the device 10 also independent of the user depending on the notification signal 21st set or change. In the case of a motor vehicle 11 For example, an evasive maneuver can be carried out in an automated manner, which then applies to the control device 24 can for example be a driver assistance system.

Um das Sensorsystem 13 dahingehend zu adaptieren, dass der Erfassungsbereich 29 auf das Kandidatenobjekt 18 ausgerichtet wird, kann wie folgt vorgegangen werden.To the sensor system 13 to adapt to the effect that the detection area 29 on the candidate object 18th can be adjusted as follows.

Das Sensorsystem 13 kann zumindest eine Sensoreinheit M, K, T, F aufweisen, wobei in 1 beispielhaft vier Sensoreinheiten M, K, T, F dargestellt sind. Beispielhaft ist des Weiteren dargestellt, dass jede Sensoreinheit M, K, T, F jeweils mehrere Sensoren aufweisen kann, nämlich die Sensoreinheit M die Sensoren M1, M2, die Sensoreinheit K die Sensoren K1, K2, die Sensoreinheit T die Sensoren T1, T2 und die Sensoreinheit F die Sensoren F1, F2, die jeweils ein Sensorsignal oder Sensordaten 30 erzeugen können, welche jeweils die Umgebung 16 beschreiben oder abbilden. Jede Sensoreinheit M, K, T, F kann eine Signalfiltereinrichtung 31 aufweisen, welche die jeweiligen Sensordaten 30 der Sensoren der jeweiligen Sensoreinheit M, K, T, F empfangen kann und diese gemäß einer aktuell eingestellten Filtercharakteristik 32 aus den Sensordaten 30 die Erfassungsdaten 14 erzeugen kann. Die Filtercharakteristik 32 ist bei den Signalfiltereinrichtungen 31 einstellbar, das heißt es sind mehrere mögliche Filtercharakteristiken 33 vorgesehen, von denen eine als aktuelle Filtercharakteristik 32 eingestellt oder ausgewählt werden kann. Es kann auch eine Filtercharakteristik 33 vorgesehen sein, welche einen ungerichteten Empfang oder eine ungerichtete Sensierung vorsieht, das heißt, es werden die Sensordaten 30 eines der Sensoren der jeweiligen Sensoreinheit M, K, T, F als Erfassungsdaten durchgeschleust oder weitergeleitet.The sensor system 13 can at least one sensor unit M. , K , T , F. have, where in 1 for example four sensor units M. , K , T , F. are shown. It is also shown as an example that each sensor unit M. , K , T , F. each may have several sensors, namely the sensor unit M. the sensors M1 , M2 , the sensor unit K the sensors K1 , K2 , the sensor unit T the sensors T1 , T2 and the sensor unit F. the sensors F1 , F2 that each have a sensor signal or sensor data 30th which each can produce the environment 16 describe or depict. Any sensor unit M. , K , T , F. can be a signal filter device 31 have which the respective sensor data 30th the sensors of the respective sensor unit M. , K , T , F. can receive and this according to a currently set filter characteristic 32 from the sensor data 30th the acquisition data 14th can generate. The filter characteristic 32 is at the signal filter devices 31 adjustable, i.e. there are several possible filter characteristics 33 provided, one of which is the current filter characteristic 32 can be set or selected. It can also have a filter characteristic 33 be provided, which an omnidirectional reception or an omnidirectional sensing provides, that is, it will be the sensor data 30th one of the sensors of the respective sensor unit M. , K , T , F. passed through or forwarded as acquisition data.

Durch die mehreren Sensoren M1, M2, K1, K2, T1, T2, F1, F2 kann durch die jeweilige Sensoreinheit M, K, T, F jeweils auch eine gerichtete Sensierung oder Umgebungserfassung erfolgen, wodurch sich der Erfassungsbereich 29 in der Umgebung 16 verschwenken oder ausrichten oder umlenken lässt. Hierdurch kann in der beschriebenen Weise das Sensorsystem 13 dahingehend adaptiert werden, dass die Erfassung des Kandidatenobjekts 18 erfolgt, das heißt die Erfassungsdaten 14 das Kandidatenobjekt 18, aber nicht die übrigen Objekte 17 beschreiben oder erfassen.Because of the multiple sensors M1 , M2 , K1 , K2 , T1 , T2 , F1 , F2 can through the respective sensor unit M. , K , T , F. directional sensing or detection of the surroundings also take place, which increases the detection area 29 in the neighborhood 16 can pivot or align or deflect. This allows the sensor system in the manner described 13 be adapted to the effect that the detection of the candidate object 18th takes place, i.e. the acquisition data 14th the candidate object 18th but not the rest of the objects 17th describe or record.

Zur Veranschaulichung sei angenommen, dass es sich bei dem Gerät 10 um das beschriebene Kraftfahrzeug 11 handelt, welches durch die Umgebung 16 entlang einer Bewegungsrichtung 34 fährt. Die Objekte 17 in der Umgebung 16 weisen ebenfalls eine Bewegungsrichtung 35 auf. Durch die Objektdaten 27 kann durch die Objekterkennungseinrichtung 25 erkannt werden, dass die Bewegungsrichtung 35 des Kandidatenobjekts 18 einen Kollisionskurs mit der Bewegungsrichtung 34 des Kraftfahrzeugs 11 bildet, während die übrigen Bewegungsrichtungen 35 die übrigen Objekte 17 als gefahrlos darstellen. Der Objekttyp 26 stellt also ein mögliches Kollisionsobjekt dar, das durch die Objekterkennungseinrichtung 25 in dem Kandidatenobjekt 18 erkannt wird. Indem also ein Objekt 17 als Objekttyp 26 in Form eines Kollisionsobjekts erkannt wird, wird dieses Objekt zum Kandidatenobjekt 18. Daraufhin können Ausrichtungsdaten oder Richtungsdaten 37 beispielsweise an die Stelleinrichtung 28 durch die Objekterkennungseinrichtung 25 gegeben werden, welche angeben, in welcher relativen Position zum Gerät 10 sich das Kandidatenobjekt 18 befindet. Daraufhin kann beispielsweise die Stelleinrichtung 28 ein in den Signalfiltereinrichtungen 31 der Sensoreinheiten M, K, T, F als Filtercharakteristik 32 eine Erfassungsrichtung einstellen, die auf das Kandidatenobjekt 18 ausgerichtet ist. Somit ergeben sich beim Betrieb des Sensorsystems 13 Erfassungsdaten 14, die das Kandidatenobjekt 18 genauer oder detaillierter beschreiben als die übrigen Objekte 17. Somit kann die Auswerteeinrichtung 19 auf der Grundlage der Erfassungsdaten 14 entscheiden, ob das Kandidatenobjekt 18 das Relevanzkriterium 20 erfüllt, also beispielsweise ein tatsächliches Kollisionsobjekt darstellt, oder ob die Kollision beispielsweise deshalb unmöglich ist, weil sich das Kandidatenobjekt 18 langsam bewegt und den Weg des Kraftfahrzeugs 11 erst hinter dem Kraftfahrzeug kreuzen wird. Ist dagegen das Relevanzkriterium 20 erfüllt, also beispielsweise eine Kollisionsgefahr gegeben, so kann mittels des Hinweissignals 21 der Fahrer des Kraftfahrzeugs 11 durch die Anzeigeeinrichtung 23 gewarnt werden und/oder mittels der Steuereinrichtung 24 ein Ausweichmanöver eingeleitet werden.To illustrate, it is assumed that the device 10 around the motor vehicle described 11 acts which by the environment 16 along a direction of movement 34 moves. The objects 17th in the neighborhood 16 also indicate a direction of movement 35 on. Through the property data 27 can through the object recognition device 25th can be recognized that the direction of movement 35 of the candidate object 18th a collision course with the direction of movement 34 of the motor vehicle 11 forms, while the other directions of movement 35 the remaining objects 17th present as safe. The object type 26th thus represents a possible collision object that is detected by the object detection device 25th in the candidate object 18th is recognized. So by an object 17th as an object type 26th is recognized in the form of a collision object, this object becomes the candidate object 18th . Alignment data or direction data 37 for example to the control device 28 by the object recognition device 25th given, which indicate in which position relative to the device 10 the candidate object 18th is located. Then, for example, the adjusting device 28 one in the signal filter devices 31 of the sensor units M. , K , T , F. as a filter characteristic 32 set a detection direction aimed at the candidate object 18th is aligned. This results in the operation of the sensor system 13 Acquisition data 14th that the candidate object 18th describe more precisely or in more detail than the other objects 17th . Thus, the evaluation device 19th based on the acquisition data 14th decide whether the candidate object 18th the relevance criterion 20th fulfilled, so for example represents an actual collision object, or whether the collision is impossible, for example, because the candidate object 18th moves slowly and the way of the motor vehicle 11 will only cross behind the vehicle. On the other hand, it is the criterion of relevance 20th fulfilled, so there is, for example, a risk of collision, then by means of the notification signal 21st the driver of the motor vehicle 11 by the display device 23 be warned and / or by means of the control device 24 an evasive maneuver can be initiated.

Im Folgenden sind anhand von 2, 3, 4, 5 und 6 mögliche Sensoreinheiten beschrieben, die in dem Sensorsystem 13 einzeln oder in einer Kombination bereitgestellt sein können, um eine gerichtete Erfassung zu ermöglichen. The following are based on 2 , 3 , 4th , 5 and 6th possible sensor units described in the sensor system 13 can be provided individually or in a combination to enable directed detection.

2 zeigt das Gerät 10 mit einer Ausführungsform der Sensoreinheit M, bei welcher vier Sensoren M1, M2, M3, M4 bereitgestellt sind. Bei der Sensoreinheit M kann es sich um eine Richtmikrofoneinheit handeln, bei welcher als Sensoren M1, M2, M3, M4 Mikrofone vorgesehen sein können, die zu einem Mikrofonarray angeordnet sind. Es kann zum einen vorgesehen sein, mittels der Sensoreinheit M Objektdaten 27 zu erzeugen, indem ein von einem Objekt 17 in der Umgebung 16 ausgehendes Geräusch 40, das von dem Objekt 17 entlang einer Einfallsrichtung 41 auf die Sensoreinheit M trifft, erkannt wird, dass das Geräusch 40 auf einen Objekttyp 26 hinweist, der das Objekt 17 als Kandidatenobjekt 18 identifiziert. Zum Erzeugen der Richtungsdaten 37 kann ausgewertet werden, mit welchem Zeitunterschied eine Wellenfront 42 ein Schall des Geräuschs 40 auf die einzelnen Sensoren M1, M2, M3, M4 trifft. Der Zeitunterschied entspricht einem Phasenversatz 43, welcher abhängig ist von der Einfallsrichtung 41. Hierdurch kann eine relative horizontale Lage oder Richtung des Kandidatenobjekts 18 bezüglich des Geräts 10, also beispielsweise des Kraftfahrzeugs 11, mittels der Sensoreinheit M erkannt werden. Sollen dann auch Erfassungsdaten 14 mittels der Sensoreinheit M erzeugt werden, kann durch Einstellen einer Richtcharakteristik als Filtercharakteristik 32 eine Verarbeitung der Sensorsignale oder Sensordaten 30 vorgesehen sein, bei welcher in an sich bekannter Weise durch ein Beamforming ein sogenannter Beam (Hauptbeam) oder Erfassungsstrahl als Erfassungsbereich 44 gebildet werden kann, der auf das Kandidatenobjekt 18 ausgerichtet ist. Dies geschieht durch eine gewichtete Überlagerung der Sensordaten 30, wobei durch Vorsehen eines Zeitversatzes zwischen den Sensordaten 30 der unterschiedlichen Sensoren M1, M2, M3, M4 eine räumliche Ausrichtung oder eine Schwenkrichtung des Beams eingestellt wird. Die Mikrofone, das heißt die Sensoren M1, M2, M3, M4 können ausgelegt sein, einen Infraschall und/oder einen Schall des hörbaren Spektrums (5 Hertz bis 20 Kilohertz) und/oder einen Ultraschall zu erfassen. Die Richtungserkennung kann beispielsweise auf der Grundlage einer Korrelation erkannt werden. Die Sensoren M1, M2, M3, M4 können räumlich beabstandet angeordnet sein. 2 shows the device 10 with one embodiment of the sensor unit M. , in which four sensors M1 , M2 , M3 , M4 are provided. At the sensor unit M. it can be a directional microphone unit, which acts as sensors M1 , M2 , M3 , M4 Microphones can be provided which are arranged to form a microphone array. On the one hand, it can be provided by means of the sensor unit M. Object data 27 to generate by one of an object 17th in the neighborhood 16 outgoing sound 40 that from the object 17th along a direction of incidence 41 on the sensor unit M. hits, it is recognized that the noise 40 on an object type 26th indicates who the object 17th as a candidate object 18th identified. For generating the direction data 37 can be evaluated with what time difference a wave front 42 a sound of noise 40 on the individual sensors M1 , M2 , M3 , M4 meets. The time difference corresponds to a phase shift 43 which depends on the direction of incidence 41 . This allows a relative horizontal position or direction of the candidate object 18th regarding the device 10 , so for example the motor vehicle 11 , by means of the sensor unit M. be recognized. Should then also acquisition data 14th by means of the sensor unit M. can be generated by setting a directional characteristic as a filter characteristic 32 processing of the sensor signals or sensor data 30th be provided in which, in a manner known per se, a so-called beam (main beam) or detection beam as the detection area by means of beamforming 44 can be formed on the candidate object 18th is aligned. This is done by means of a weighted superimposition of the sensor data 30th , whereby by providing a time offset between the sensor data 30th of the different sensors M1 , M2 , M3 , M4 a spatial alignment or a pivoting direction of the beam is set. The microphones, that is, the sensors M1 , M2 , M3 , M4 can be designed to produce an infrasound and / or a sound of the audible spectrum ( 5 Hertz to 20 kilohertz) and / or an ultrasound. The direction recognition can for example be recognized on the basis of a correlation. The sensors M1 , M2 , M3 , M4 can be arranged spatially spaced apart.

3 veranschaulicht, wie eine Sensoreinheit K als Sensoren K1, K2 jeweils eine Kamera aufweisen kann, um hierdurch ein Objekt 17 in der Umgebung 16 optisch zu erfassen, das heißt elektromagnetische Wellen 45, die von dem Objekt 17 ausgehen, zu erfassen. Es kann sich hierbei um sichtbares Licht und/oder Infrarotlicht und/oder ultraviolette Strahlung handeln, die von den Sensoren K1, K2 erfasst werden kann. Die Sensoren K1, K2 können räumlich beabstandet angeordnet sein. Hierdurch kann eine stereoskopische oder allgemein eine räumliche Erkennung ermöglicht werden, das heißt anhand der Sensordaten 30 der Sensoren kann auch ein Abstand 47 des Objekts 17 zum Gerät 10, beispielsweise des Kraftfahrzeugs 11, ermittelt werden. Hierzu kann eine entsprechende Filtercharakteristik 33 vorgesehen sein, wobei unterschiedliche Filtercharakteristiken 33 unterschiedliche Überlagerungen der Sensordaten 30 der Sensoren K1, K2 vorsehen können, um für unterschiedliche Abstandsbereiche jeweils eine Abstandsmessung zu ermöglichen. Eine weitere Adaption der Sensoreinheit K mittels unterschiedlicher Filtercharakteristiken 33 kann beispielsweise dadurch erreicht werden, dass die Sensoren K1, K2, das heißt die jeweilige Kamera, räumlich verschwenkbar angeordnet ist, also gedreht werden kann und/oder der Zoom oder die Vergrößerung mittels einer Optik der jeweiligen Kamera eingestellt werden kann. Somit kann durch eine aktuelle Filtercharakteristik 32 eine richtungsbezogene Auswertung und/oder ein vergrößerter Bildausschnitt und/oder eine erhöhte optische Auflösung und/oder Überabtastung erfolgen, beispielsweise zur Gestenerkennung. Auch eine Bildwiederholrate kann variabel sein, sodass sich durch eine jeweils aktuell eingestellte Bildwiederholrate eine Filtercharakteristik ergibt, nämlich eine zeitliche Filterung. 3 illustrates how a sensor unit K as sensors K1 , K2 can each have a camera to thereby an object 17th in the Surroundings 16 to detect optically, that is, electromagnetic waves 45 by the object 17th go out to capture. This can be visible light and / or infrared light and / or ultraviolet radiation emitted by the sensors K1 , K2 can be captured. The sensors K1 , K2 can be arranged spatially spaced apart. This enables stereoscopic or, in general, spatial recognition, that is to say on the basis of the sensor data 30th the sensors can also be a distance 47 of the object 17th to the device 10 , for example the motor vehicle 11 , be determined. A corresponding filter characteristic can be used for this 33 be provided, with different filter characteristics 33 different overlays of the sensor data 30th of the sensors K1 , K2 can be provided in order to enable a distance measurement for different distance ranges. Another adaptation of the sensor unit K by means of different filter characteristics 33 can be achieved, for example, that the sensors K1 , K2 , that is to say the respective camera, is arranged to be spatially pivotable, that is to say it can be rotated and / or the zoom or the magnification can be adjusted by means of an optical system of the respective camera. Thus, through a current filter characteristic 32 a direction-related evaluation and / or an enlarged image section and / or an increased optical resolution and / or oversampling take place, for example for gesture recognition. An image repetition rate can also be variable, so that a currently set image repetition rate results in a filter characteristic, namely temporal filtering.

Um mittels der Sensoreinheit K auch allgemein Objektdaten 27 zu erzeugen, kann vorgesehen sein, einen größtmöglichen Erfassungsbereich für die Sensoreinheit K einzustellen und dann in den Sensordaten 30 zunächst ein Kandidatenobjekt 18 zu erkennen, um dann mittels der Einstellung der Filtercharakteristik 32 den Erfassungsbereich 44 auf das Kandidatenobjekt 18 auszurichten.To by means of the sensor unit K also general object data 27 to generate, it can be provided that the largest possible detection area for the sensor unit K and then in the sensor data 30th first a candidate object 18th to be recognized then by means of the setting of the filter characteristic 32 the detection area 44 on the candidate object 18th align.

4 veranschaulicht eine Sensoreinheit T mit wärmesensitiven Sensoren T1, T2, die jeweils beispielsweise als Infrarotkamera ausgestaltet sein können. Eine von einem Objekt 17 ausgehende Wärmestrahlung 48 kann durch die Sensoren T1, T2 als Objektdaten 27 bereitgestellt werden. Durch Ausrichten des Erfassungsbereichs 44 der Sensoreinheit T in der Weise, wie es im Zusammenhang mit der Sensoreinheit K (3) beschrieben wurde, können auch Erfassungsdaten 14 mit einem begrenzten Erfassungsbereich 44, der auf ein Kandidatenobjekt 18 ausgerichtet ist, erfasst werden. 4th illustrates a sensor unit T with heat-sensitive sensors T1 , T2 which can each be designed as an infrared camera, for example. One from an object 17th outgoing thermal radiation 48 can through the sensors T1 , T2 as object data 27 to be provided. By aligning the detection area 44 the sensor unit T in the way as it relates to the sensor unit K ( 3 ), acquisition data can also be used 14th with a limited detection area 44 pointing to a candidate object 18th is aligned.

5 veranschaulicht, wie bei einer Sensoreinheit F als Sensoren F1, F2 Funkempfänger vorgesehen sein können, durch welche eine Funkstrahlung 49 empfangen werden kann, die von einem Objekt 17 ausgehen können. Hierzu kann, wie in 1 und 5 veranschaulicht ist, an dem Objekt auch ein Sender 50 angeordnet sein, welcher die Funkstrahlung 49 erzeugen kann. Durch Auswerten einer Einfallsrichtung 41, beispielsweise auf Grundlage des Phasenversatzes einer Wellenfront 42 der Funkstrahlung 49 kann die Einfallsrichtung 41 ermittelt werden und in derselben Weise interpretiert werden, wie es im Zusammenhang mit 2 beschrieben wurde. 5 illustrates how with a sensor unit F. as sensors F1 , F2 Radio receivers can be provided through which a radio radiation 49 that can be received by an object 17th can go out. For this purpose, as in 1 and 5 is illustrated, a transmitter on the object 50 be arranged, which the radio radiation 49 can generate. By evaluating a direction of incidence 41 , for example based on the phase shift of a wavefront 42 the radio radiation 49 can be the direction of incidence 41 can be determined and interpreted in the same way as it is related to 2 has been described.

Das Funksignal 51, welches die Funkstrahlung 49 darstellt, kann auf der Grundlage von WLAN (Wireless Local Area Network), 5G (Mobilfunk), UV (ultraviolettes Licht) oder einem Radarsignal erfolgen. Die Sensoreinheit F kann auch einen Sender 52 aufweisen, welcher die Funkstrahlung 49 erzeugt, sodass die Sensoren F1, F2 ein reflektiertes Funksignal aus der Einfallsrichtung 41 empfangen.The radio signal 51 which the radio radiation 49 can be based on WLAN (Wireless Local Area Network), 5G (cellular network), UV (ultraviolet light) or a radar signal. The sensor unit F. can also be a transmitter 52 have which the radio radiation 49 generated so the sensors F1 , F2 a reflected radio signal from the direction of incidence 41 receive.

Durch das Funksignal 51 kann auch eine Quelle für Objektdaten 27 gebildet sein, indem in dem Funksignal 51 der Objekttyp 26 angegeben ist, sodass zu dem Objekt 17 entschieden werden kann, ob es sich um ein Kandidatenobjekt 18 handelt. Für das Erzeugen der Erfassungsdaten kann mittels der mehreren Sensoren F1, F2 ein Erfassungsbereich 44 auf das Kandidatenobjekt 18 beschränkt oder ausgerichtet werden. Dies kann in der beschriebenen Weise mittels Beamforming für das Funksignal oder die Funkwellen erfolgen.By the radio signal 51 can also be a source for object data 27 be formed by adding in the radio signal 51 the object type 26th is specified so that the object 17th it can be decided whether it is a candidate object 18th acts. The multiple sensors can be used to generate the detection data F1 , F2 a detection area 44 on the candidate object 18th restricted or aligned. This can be done in the manner described by means of beamforming for the radio signal or the radio waves.

In Bezug auf die 1 einerseits und die 3 bis 5 andererseits sei hier angemerkt, dass der jeweilige Erfassungsbereich 44 der einzelnen Sensoreinheiten jeweils den Erfassungsbereich 29 darstellen kann oder eine Kombination mehrerer der Erfassungsbereich 44 kann den Erfassungsbereich 29 des Sensorsystems 13 darstellen.Regarding the 1 one hand and the 3 to 5 on the other hand, it should be noted here that the respective detection area 44 the detection area of the individual sensor units 29 can represent or a combination of several of the detection area 44 can change the detection area 29 of the sensor system 13 represent.

6 veranschaulicht, wie Objektdaten 27 aus einer Servereinrichtung 53 des Internets 54 empfangen werden können. Die Servereinrichtung 53 kann eine Datenbank 55 aufweisen, aus welcher die Objektdaten 27 ausgelesen werden können in Abhängigkeit von Positionsdaten 56, die durch die Steuervorrichtung 15 an die Servereinrichtung 53 übermittelt werden können. Die Positionsdaten 56 können beispielsweise mittels eines Empfängers für ein GNSS-Positionssignal, beispielsweise ein GPS-Signal, erzeugt werden. 1 veranschaulicht, wie eine Kommunikation zwischen der Servereinrichtung 53 und der Steuervorrichtung 15 vorgesehen sein kann. 1 zeigt, dass eine Kommunikationsverbindung 57 auf der Grundlage einer Kommunikationseinrichtung 58 erzeugt werden kann, die mittels einer Funkverbindung 59 die Steuervorrichtung 15 mit dem Internet 54 verbinden kann. Die Kommunikationseinrichtung 58 kann hierbei auf der Grundlage einer WLAN-Technologie und/oder einer Mobilfunk-Technologie realisiert sein. 6th illustrates how object data 27 from a server facility 53 of the internet 54 can be received. The server facility 53 can be a database 55 have from which the object data 27 can be read out depending on position data 56 by the control device 15th to the server facility 53 can be transmitted. The position data 56 can for example be generated by means of a receiver for a GNSS position signal, for example a GPS signal. 1 illustrates how communication between the server device 53 and the control device 15th can be provided. 1 shows that a communication link 57 based on a communication facility 58 can be generated by means of a radio link 59 the control device 15th with the Internet 54 can connect. The communication facility 58 can do this based on a WLAN technology and / or a cellular technology.

7 veranschaulicht eine Ausführungsform eines Verfahrens, wie es insgesamt durch die Steuervorrichtung 15 ausgeführt werden kann. In einem Schritt S10 kann eine Initialisierung der Sensoreinheiten M, K, T, F erfolgen, soweit sie in dem Gerät 10 vorhanden sind. Durch die Initialisierung kann beispielsweise eine ungerichtete Erfassung oder eine Erfassung mit einem größtmöglichen Erfassungsbereich 44 vorgesehen sein. 7th illustrates an embodiment of a method as it is overall performed by the control device 15th can be executed. In one step S10 can initialize the sensor units M. , K , T , F. if they are in the device 10 available. The initialization enables, for example, a non-directional detection or a detection with the largest possible detection area 44 be provided.

Mittels des Sensorsystems 13 selbst können somit Objektdaten 27 erzeugt werden, beispielsweise Roh-Sensordaten in Form von zu der Steuervorrichtung 15 durchgeleiteter Sensordaten 30, um aus Objekten 17 der Umgebung 16 ein Kandidatenobjekt 18 zu ermitteln. Von den Objekten 17 kann jeweils in einem Schritt S11 eine akustische Kennung als Teil der Objektdaten 27, in einem Schritt S12 eine optische Kennung als Teil der Objektdaten 27, in einem Schritt S13 eine thermische Kennung als Teil der Objektdaten 27, in einem Schritt S14 zumindest eine weitere Kennung als Teil der Objektdaten 27 erzeugt werde. In einem Schritt S15 können als weitere Objektdaten 27 die Datenbankdaten aus der Servereinrichtung 53 ermittelt werden. In einem Schritt S16 kann durch die Objekterkennungseinrichtung 25 ermittelt werden, ob ein Kandidatenobjekt 18 in der Umgebung 16 vorhanden ist. Ist dies der Fall, kann in einem Schritt S17 durch Adaptieren des Sensorsystems 13 der Erfassungsbereich 29, das heißt mindestens einer der Erfassungsbereiche 44, auf das Kandidatenobjekt 18 ausgerichtet werden, sodass Erfassungsdaten 14 erzeugt werden, auf deren Grundlage die Auswerteeinrichtung 19 entscheiden kann, ob das Hinweissignal 21 erzeugt werden soll (Relevanzkriterium 20 erfüllt). Ergibt eine Überprüfung in einem Schritt S18, dass der Betrieb des Geräts 10 nicht beendet ist, also beispielsweise ein Kraftfahrzeug 11 weiterfährt, kann mit dem Schritt S11 weiter fortgefahren werden (veranschaulicht durch ein „-“-Symbol). Ergibt sich in Schritt S18 dagegen ein Ende des Betriebs des Geräts 10, also beispielsweise ein Fahrtende eines Kraftfahrzeugs 11, so kann in einem Schritt S19 die Sensierung beendet werden (symbolisiert durch ein „+“-Symbol).By means of the sensor system 13 object data themselves can thus 27 are generated, for example raw sensor data in the form of to the control device 15th transmitted sensor data 30th to get out of objects 17th the environment 16 a candidate object 18th to investigate. From the objects 17th can be done in one step at a time S11 an acoustic identifier as part of the object data 27 , in one step S12 an optical identifier as part of the object data 27 , in one step S13 a thermal identifier as part of the object data 27 , in one step S14 at least one further identifier as part of the object data 27 will be generated. In one step S15 can be used as further object data 27 the database data from the server device 53 be determined. In one step S16 can through the object recognition device 25th determine whether a candidate object 18th in the neighborhood 16 is available. If this is the case, it can be done in one step S17 by adapting the sensor system 13 the detection area 29 , i.e. at least one of the detection areas 44 , on the candidate object 18th aligned so that collection data 14th are generated, on the basis of which the evaluation device 19th can decide whether the warning signal 21st should be generated (relevance criterion 20th Fulfills). Provides a one-step review S18 that the operation of the device 10 is not finished, so for example a motor vehicle 11 continues, can with the step S11 can be continued (indicated by a "-" symbol). Results in step S18 however, an end to the operation of the device 10 , so for example the end of a journey of a motor vehicle 11 so can in one step S19 the sensing can be ended (symbolized by a "+" symbol).

Bevorzugt ist eine gerichtete Sensierung der Umwelt oder Umgebung 16 mittels einer Kombination aus optischer, akustischer und/oder informeller Datengewinnung vorgesehen, also eine Ausrichtung zumindest eines Erfassungsbereichs 44.Directional sensing of the environment or surroundings is preferred 16 provided by means of a combination of optical, acoustic and / or informal data acquisition, that is, an alignment of at least one detection area 44 .

Vorgeschlagen wird somit ein Richtsensorsystem (siehe 1, Sensorsystem 13), das aufbauend auf einer gerichteten und insbesondere akustischen Sensierung und den zusätzlichen Informationen bezüglich einer definierten Relevanz oder Objekttyp aus Kameraerfassung / Bildobjekterkennung oder basierend auf anderen Wellenlängen eine relevante Situation erkennt und signalisiert.A directional sensor system is therefore proposed (see 1 , Sensor system 13 ), which, based on directional and in particular acoustic sensing and the additional information relating to a defined relevance or object type from camera detection / image object detection or based on other wavelengths, detects and signals a relevant situation.

Ein wesentliches Merkmal ist die Adaption durch Filterung der Relevanz. D.h. die Signalfilterung wird entsprechend der zu erwartenden Situation oder es zu erwartenden Kandidatenobjekts in ihrer Charakteristik angepasst. Dies entspricht in anderen Worten einer automatisierten „Schärfung der Sinne“.An essential feature is the adaptation by filtering the relevance. I.e. the signal filtering is adapted in its characteristics according to the situation to be expected or the candidate object to be expected. In other words, this corresponds to an automated “sharpening of the senses”.

Die Relevanz / Relevanzklasse oder der Objekttyp bezieht sich auf beispielsweise Personen (winken, rufen, Gestik), Situationen (bewegte Objekte, Unfall), Gegebenheiten (Gefahr, Ladenobjekt, „Geocash“).The relevance / relevance class or the object type relates, for example, to people (waving, shouting, gestures), situations (moving objects, accidents), circumstances (danger, shop object, "geocash").

Ergänzend kann zu dem Objekt oder der Richtung eine Anfrage an ein Backendsystem (siehe 6) erfolgen (z.B. unbeschrankter Bahnübergang / Fahrplan / Zug auf der Strecke, Öffnungszeit Verkaufsladen/Werkstatt/Händler oder allgemein georeferenziert hinterlegtes Wissen), um die Sensierung beziehungsweise Informationsauswertung damit zu konkretisieren.In addition, a request can be sent to a backend system for the object or the direction (see 6th ) take place (e.g. unrestricted level crossing / timetable / train on the route, opening times of the shop / workshop / dealer or generally geo-referenced knowledge) in order to concretize the sensing or information evaluation.

Eine spezifische akustische Kennung oder Erkennung ist in 2 veranschaulicht:

  • - Mikrofon M1/M2: Infraschall + hörbarer Schall + Ultraschall.
  • - Mehr als zwei, örtlich getrennte Sensoren zur Richtungserkennung.
  • - Die Filterung der Information (z.B. spezifisches Geräusch / akustische Kennung aus Abstrahlung, Spektrum, Korrelation, Reflektion)
  • - Option: örtlich ausrichtbares Richtmikrofon.
  • - Schärfung der Filterung - Laufzeitunterschied: temporär höhere Abtastung in definiertem Zeitfenster entsprechend der gewünschten Richtung.
A specific acoustic identifier or recognition is in 2 illustrates:
  • - microphone M1 / M2 : Infrasound + audible sound + ultrasound.
  • - More than two locally separated sensors for direction detection.
  • - The filtering of information (e.g. specific noise / acoustic identification from radiation, spectrum, correlation, reflection)
  • - Option: locally adjustable directional microphone.
  • - Sharpening of the filtering - Runtime difference: temporarily higher sampling in a defined time window according to the desired direction.

Eine spezifische optische Kennung ist in 3 veranschaulicht:

  • - Die optische Erkennung basiert auf der Erkennung mittels Kamerasystemen. Mit zwei versetzten Kameras ist eine räumliche Erkennung möglich. Diese kann mit Methoden der Bildverarbeitung erfolgen. Die Bildverarbeitung kann weiterhin Objekte erkennen.
  • - Option: örtlich ausrichtbare Richtkamera.
  • - Schärfung der Filterung: Richtungsbezogene Auswertung des Bildsensors reduziert auf Bildausschnitt aber mit erhöhter Auflösung / Überabtastung, z.B. zur Gestenerkennung bei erhöhter Entfernung
A specific optical identifier is in 3 illustrates:
  • - Optical recognition is based on recognition using camera systems. Spatial recognition is possible with two offset cameras. This can be done using image processing methods. The image processing can still recognize objects.
  • - Option: locally adjustable directional camera.
  • - Sharpening of the filtering: Direction-related evaluation of the image sensor reduced to image section but with increased resolution / oversampling, e.g. for gesture recognition at a greater distance

Eine spezifische Wärmekennung ist in 4 veranschaulicht: Nutzung in vergleichbarer Weise für erweitertes optisches Spektrum wie z.B. Wärmestrahlung.A specific heat identifier is in 4th illustrates: Usage in a comparable way for an extended optical spectrum such as thermal radiation.

Eine weitere spezifische Kennung ist in 5 veranschaulicht: Nutzung in vergleichbarer Weise für WLAN, 5G, UV, Passivradare.Another specific identifier is in 5 illustrates: Use in a comparable way for WLAN, 5G, UV, passive radars.

Die jeweilige gesamte Filtercharakteristik des Sensorsystems 13 basiert auf der „Summe“ der Informationen.The respective overall filter characteristics of the sensor system 13 is based on the "sum" of the information.

Für die Auswahl der jeweiligen Charakteristik oder Erfassungsdaten ist ein Entscheidungssystem oder eine Objekterkennungseinrichtung 25, z.B. mit einem Kl-System, vorteilhaft. Beispiele:

  • • Ein bestimmtes Objekt hat eine definierte akustische Ausstrahlung, Geräusch (Bahn, Martinshorn, ...)
  • • Ein bestimmtes Objekt hat eine definierte optische Ausstrahlung (Lichtstärke, Farben)
  • • Ein bestimmtes Objekt hat eine definiertes Wärmebild
  • • Ein bestimmtes Objekt hat eine definierte Position
A decision system or an object recognition device is used for the selection of the respective characteristic or detection data 25th , for example with a Kl system, advantageous. Examples:
  • • A certain object has a defined acoustic charisma, noise (train, siren, ...)
  • • A certain object has a defined optical appearance (light intensity, colors)
  • • A certain object has a defined thermal image
  • • A certain object has a defined position

Für die Charakterisierung einer Situation ist eine Auswerteeinrichtung 19 mit einem Kl-System hilfreich und vorteilhaft.An evaluation device is used to characterize a situation 19th Helpful and beneficial with a Kl system.

Die so interpretierte Situation kann in Summe beispielsweise sein: eine rufende Person, mit bestimmter Kleidung und Gepäckstück, die an einem bestimmten Ort abgeholt werden möchte. Entspricht dies dem Relevanzkriterium 20, kann das Hinweissignal 21 erzeugt werden.The situation interpreted in this way can, in sum, be, for example: a calling person with certain clothes and luggage who wants to be picked up at a certain location. Does this correspond to the relevance criterion 20th , can be the warning signal 21st be generated.

Die 7 zeigt ein beispielhaftes Flussdiagramm eines Ablaufs eines Softwareprogramms für die Steuervorrichtung 15.The 7th shows an exemplary flowchart of a sequence of a software program for the control device 15th .

Weitere Optionen:

  • • Synchronisation mit der Aufmerksamkeitserkennung Fahrer zur besseren Kommunikation der Situation
  • • Erkennung von Anomalien / Defekten eines Objektes (eigenes Fahrzeug, Motor, im Prinzip auch für Kaffeemaschine, Waschmaschine oder anderes Gerät)
  • • Erkennung der Beschaffenheit eines Fahrbahnbelags.
More options:
  • • Synchronization with the driver's attention recognition for better communication of the situation
  • • Detection of anomalies / defects of an object (own vehicle, engine, in principle also for coffee machine, washing machine or other device)
  • • Detection of the condition of a road surface.

Variante portable/mobile: Portables Assistenzsystem oder Assistenzgerät, das z.B. einem Jogger / -in oder gehörbehinderten Menschen hilft bei gleichzeitigem Hören von Musik oder anderem. trotzdem Gefahren oder sich annähernde Objekte oder Ähnliches zu erkennen.Variant portable / mobile: Portable assistance system or assistance device, e.g. helps a jogger or hearing impaired person while listening to music or other things. nevertheless to recognize dangers or approaching objects or the like.

Beispiel für ein Kommunikationsszenario Fahrzeug - Jogger: Fahrzeug erkennt Jogger und teilt ihm per Datenübertragung seine Position und akustische Kennung (z.B. Motorengeräusch oder codiertes akustisches Signal) mit. Dazu kann der beschriebene Sender 50 bereitgestellt werden. Das System des Joggers ermittelt die geeignete Signalfilterung und Signalverarbeitung, es leitet ein evtl. vorhandenes Gefahrensignal / Gefahrenwarnung ab.Example of a communication scenario between vehicle and jogger: The vehicle detects the jogger and communicates its position and acoustic identifier (e.g. engine noise or coded acoustic signal) via data transmission. The described transmitter can do this 50 to be provided. The jogger's system determines the appropriate signal filtering and signal processing, it derives any danger signal / warning that may be present.

Ein ähnliches Assist-Szenario ist bei Handwerkern oder allgemein bei Menschen in Gefahrenbereichen (Gleisarbeiter, verkehrsregelnder Polizist, Feuerwehrmann, Technisches Hilfswerk) denkbar.A similar assist scenario is conceivable for craftsmen or in general for people in danger areas (track workers, traffic regulating police officers, firefighters, technical aid organizations).

Es ergeben sich die folgenden Vorteile:

  • - Verbesserung der Umwelt-/Objekterkennung inkl. Informationsverarbeitung mittels Backend- / Objektvernetzung,
  • - Verbesserung der Risikobewertung, vor allem im Bereich Fahrerassistenz und automatisiertes bzw. autonomes Fahren,
  • - Ableitung weiterer kundenwerter Funktionen (Objekterkennung),
  • - Kostenneutral durch Nutzung vorhandener Sensorik.
The following advantages result:
  • - Improvement of the environment / object recognition including information processing by means of backend / object networking,
  • - Improvement of the risk assessment, especially in the area of driver assistance and automated or autonomous driving,
  • - Deriving further customer-worthy functions (object recognition),
  • - Cost-neutral through the use of existing sensors.

Die Beispiele zeigen somit insgesamt eine gerichtete, sensor- oder domänenübergreifende Umgebungsbewertung, wie sie durch die Erfindung ermöglicht wird.Overall, the examples thus show a directed, sensor-wide or cross-domain environmental assessment, as made possible by the invention.

BezugszeichenlisteList of reference symbols

1010
Gerätdevice
1111
KraftfahrzeugMotor vehicle
1212th
Lenkradsteering wheel
1313
AnzeigeeinrichtungDisplay device
1313
SensorsystemSensor system
1414th
ErfassungsdatenAcquisition data
1515th
SteuervorrichtungControl device
1616
UmgebungSurroundings
1717th
Objektobject
1818th
KandidatenobjektCandidate object
1919th
AuswerteeinrichtungEvaluation device
2020th
RelevanzkriteriumRelevance criterion
2121st
HinweissignalWarning signal
2222nd
RecheneinrichtungComputing device
2323
AusgabeeinrichtungOutput device
2424
SteuereinrichtungControl device
2525th
ObjekterkennungseinrichtungObject recognition device
2626th
ObjekttypObject type
2727
ObjektdatenObject data
2828
StelleinrichtungAdjusting device
2929
ErfassungsbereichDetection area
3030th
SensordatenSensor data
3131
SignalfiltereinrichtungSignal filter device
3232
FiltercharakteristikFilter characteristic
3333
FiltercharakteristikFilter characteristic
3434
BewegungsrichtungDirection of movement
3535
BewegungsrichtungDirection of movement
3737
RichtungsdatenDirection data
4040
Geräuschnoise
4141
EinfallsrichtungDirection of incidence
4242
WellenfrontWavefront
4343
PhasenversatzPhase shift
4444
ErfassungsbereichDetection area
4545
Wellenwaves
4747
Abstanddistance
4848
WärmestrahlungThermal radiation
4949
FunkstrahlungRadio radiation
5050
SenderChannel
5151
FunksignalRadio signal
5252
SenderChannel
5353
ServereinrichtungServer setup
5454
InternetInternet
5555
DatenbankDatabase
5656
PositionsdatenPosition data
5757
KommunikationsverbindungCommunication link
5858
KommunikationseinrichtungCommunication facility
5959
FunkverbindungRadio link

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 102017203785 A1 [0004]DE 102017203785 A1 [0004]

Claims (15)

Verfahren zum Betreiben eines Sensorsystems (13) eines Geräts (10), wobei das Sensorsystem (13) zumindest eine Sensoreinheit (M,K,T,F), welche eine adaptive Signalfilterungseinrichtung (31) aufweist, umfasst und wobei bei dem Verfahren durch eine Steuervorrichtung (15): - aus zumindest einer Objektdatenquelle Objektdaten (27), die zumindest ein in einer Umgebung (16) des Geräts (10) oder in dem Gerät (10) angeordnetes oder potentiell angeordnetes Objekt (17) beschreiben, empfangen werden, - mittels einer Objekterkennungseinrichtung (25) anhand der Objektdaten (27) erkannt wird, dass sich unter dem zumindest einen Objekt (17) ein Kandidatenobjekt (18) eines vorbestimmten Objekttyps (26) befindet, - das Sensorsystem (13) für eine Erfassung des erkannten Kandidatenobjekts (18) adaptiert wird, indem in der jeweiligen Signalfilterungseinrichtung (31) der zumindest einen Sensoreinheit (M,K,T,F) aus mehreren möglichen Filtercharakteristiken (33) eine Filtercharakteristik (32), die für den Objekttyp (26) des erkannten Kandidatenobjekts (18) vorgesehen ist, ausgewählt und in der jeweiligen Signalfilterungseinrichtung (31) eingestellt wird, - das erkannte Kandidatenobjekt (18) mittels des adaptierten Sensorsystems (13) erfasst wird und hierdurch Erfassungsdaten (14) betreffend das erkannte Kandidatenobjekt (18) erzeugt werden, - mittels einer Auswerteeinrichtung (19) in Abhängigkeit von den Erfassungsdaten (14) auf der Grundlage eines vorbestimmten Relevanzkriteriums (20) erkannt wird, ob ein Signalisierungsbedarf betreffend das erkannte Kandidatenobjekt (18) besteht, und - im Falle eines erkannten Signalisierungsbedarfs ein das erkannte Kandidatenobjekt (18) beschreibendes Hinweissignal (21) erzeugt wird.Method for operating a sensor system (13) of a device (10), wherein the sensor system (13) comprises at least one sensor unit (M, K, T, F) which has an adaptive signal filtering device (31) and wherein in the method by a Control device (15): - Object data (27) which describe at least one object (17) arranged or potentially arranged in an environment (16) of the device (10) or in the device (10) are received from at least one object data source, - it is recognized by means of an object recognition device (25) based on the object data (27) that a candidate object (18) of a predetermined object type (26) is located under the at least one object (17), - The sensor system (13) is adapted for detecting the recognized candidate object (18) by a filter characteristic (32) from several possible filter characteristics (33) in the respective signal filtering device (31) of the at least one sensor unit (M, K, T, F) ), which is provided for the object type (26) of the recognized candidate object (18), is selected and set in the respective signal filtering device (31), - the recognized candidate object (18) is detected by means of the adapted sensor system (13) and, as a result, detection data (14) relating to the recognized candidate object (18) are generated, - by means of an evaluation device (19) as a function of the detection data (14) on the basis of a predetermined relevance criterion (20) it is recognized whether there is a need for signaling relating to the recognized candidate object (18), and - In the case of a recognized need for signaling, a notification signal (21) describing the recognized candidate object (18) is generated. Verfahren nach Anspruch 1, wobei bei zumindest einer der zumindest einen Sensoreinheit (M,K,T,F) des Sensorsystems (13) mittels der Signalfiltereinrichtung (31) ein richtungsselektiver Erfassungsbereich (44) bereitstellt wird, und durch das Einstellen der Filtercharakteristik (32) der Erfassungsbereich (44) der jeweiligen Sensoreinheit (M,K,T,F) auf das Kandidatenobjekt (18) ausgerichtet wird.Procedure according to Claim 1 , with at least one of the at least one sensor unit (M, K, T, F) of the sensor system (13) providing a direction-selective detection area (44) by means of the signal filter device (31), and by setting the filter characteristic (32) the detection area ( 44) of the respective sensor unit (M, K, T, F) is aligned with the candidate object (18). Verfahren nach einem der vorhergehenden Ansprüche, wobei bei zumindest einer Sensoreinheit (M, K, T, F) des Sensorsystems (13) mittels der Signalfiltereinrichtung (13) durch das Einstellen der Filtercharakteristik (32) ein Zoom und/oder eine Signalverarbeitung eingestellt wird.Method according to one of the preceding claims, wherein in at least one sensor unit (M, K, T, F) of the sensor system (13) a zoom and / or signal processing is set by means of the signal filter device (13) by setting the filter characteristic (32). Verfahren nach einem der vorhergehenden Ansprüche, wobei als Objektdatenquelle zumindest eine Sensoreinheit (M,K,T,F) des Sensorsystems (13) genutzt wird, welche bereits vor dem Adaptieren des Sensorsystems (13) Sensordaten (30) als Objektdaten (27) bereitstellt.Method according to one of the preceding claims, wherein at least one sensor unit (M, K, T, F) of the sensor system (13) is used as the object data source, which provides sensor data (30) as object data (27) even before the sensor system (13) is adapted . Verfahren nach einem der vorhergehenden Ansprüche, wobei als Objektdatenquelle eine stationäre Servereinrichtung (53) des Internets (54) genutzt wird, an welche Positionsdaten (56), welche eine aktuelle Position des Geräts (10) in der Umgebung (16) beschreiben, ausgesendet werden und aus welcher als Objektdaten (27) Datenbankdaten einer Datenbank (55), in welcher das zumindest eine Objekt (17) registriert ist, empfangen werden.Method according to one of the preceding claims, wherein a stationary server device (53) of the Internet (54) is used as the object data source, to which position data (56) describing a current position of the device (10) in the environment (16) are sent and from which database data from a database (55) in which the at least one object (17) is registered is received as object data (27). Verfahren nach einem der vorhergehenden Ansprüche, wobei als Objektdatenquelle eine digitale Umgebungskarte, in welcher die Umgebung (16) kartographiert ist, genutzt wird und aus welcher als Objektdaten (27) Karteneinträge betreffend das zumindest eine Objekt (17) ausgelesen werden.Method according to one of the preceding claims, wherein a digital environment map in which the environment (16) is mapped is used as the object data source and from which map entries relating to the at least one object (17) are read as object data (27). Verfahren nach einem der vorhergehenden Ansprüche, wobei als Objektdatenquelle ein jeweiliger portabler Sender (50) genutzt wird, welcher jeweils an einem des zumindest einen Objekts (17) angeordnet ist und welcher als Objektdaten (27) ein Funksignal (51), welches das jeweilige Objekt (17) beschreibt, aussendet.Method according to one of the preceding claims, wherein a respective portable transmitter (50) is used as the object data source, which is respectively arranged on one of the at least one object (17) and which as object data (27) is a radio signal (51) which the respective object (17) describes, sends out. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch die Objekterkennungseinrichtung (25) mittels einer Methode des maschinellen Lernens das Kandidatenobjekt (18) detektiert und/oder sein Objekttyp (26) erkannt wird.Method according to one of the preceding claims, wherein the candidate object (18) is detected and / or its object type (26) is recognized by the object recognition device (25) by means of a machine learning method. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei der Auswerteeinrichtung (19) das Relevanzkriterium (20) zumindest teilweise durch eine Methode des maschinellen Lernens implementiert ist.Method according to one of the preceding claims, wherein in the evaluation device (19) the relevance criterion (20) is at least partially implemented by a method of machine learning. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Gerät (10) ein Kraftfahrzeug (11) oder ein mobiles Endgerät oder ein portables Assistenzgerät betrieben wird.Method according to one of the preceding claims, wherein a motor vehicle (11) or a mobile terminal or a portable assistance device is operated as the device (10). Verfahren nach einem der vorhergehenden Ansprüche, wobei der Signalisierungsbedarfs zusätzlich in Abhängigkeit von einem Erkennungssignal einer Aufmerksamkeitserkennung des Geräts (10) ermittelt wird, wobei die Aufmerksamkeitserkennung mittels des Erkennungssignals signalisiert, ob ein Benutzer des Geräts (10) die Umgebung (16) wahrnimmt und/oder in welche Richtung der Benutzers blickt.Method according to one of the preceding claims, wherein the signaling requirement is additionally determined as a function of a recognition signal of an attention recognition of the device (10), the attention recognition signaling by means of the recognition signal whether a user of the device (10) perceives the surroundings (16) and / or in which direction the user is looking. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch den Objekttyp (26) angegeben ist, dass es sich bei dem Kandidatenobjekt (18) um - ein Objekt mit einer vorbestimmten relativen Lage oder in einer vorbestimmten relativen Richtung bezüglich des Geräts und/oder - ein Objekt mit einer vorbestimmten relativen Bewegungsrichtung bezüglich des Geräts und/oder - einen Verkehrsteilnehmer und/oder - ein Objekt (17) mit einer potentiellen Anomalie und/oder - ein Objekt (17) mit einer vorbestimmten Beschaffenheit und/oder einem vorbestimmten Bewegungsverhalten handelt.Method according to one of the preceding claims, wherein the object type (26) indicates that the candidate object (18) is - an object with a predetermined relative position or in a predetermined relative direction with respect to the device and / or - an object with a predetermined relative direction of movement with respect to the device and / or - a road user and / or - an object (17) with a potential anomaly and / or - an object (17) is of a predetermined nature and / or a predetermined movement behavior. Verfahren nach einem der vorhergehenden Ansprüche, wobei mittels des Hinweissignals (21) eine Ausgabeeinrichtung (23) zum Ausgeben eines akustischen und/oder visuellen und/oder haptischen Hinweises und/oder eine Steuereinrichtung (24) zum benutzerunabhängigen Einstellen eines Betriebsverhaltens des Geräts (10) angesteuert wird.Method according to one of the preceding claims, wherein by means of the notification signal (21) an output device (23) for outputting an acoustic and / or visual and / or haptic notification and / or a control device (24) for user-independent setting of an operating behavior of the device (10) is controlled. Steuervorrichtung (15) für ein Gerät (10) mit einem Sensorsystem (13), das zumindest eine Sensoreinheit (M,K,T,F), welche eine adaptive Signalfilterungseinrichtung (31) aufweist, umfasst, dadurch gekennzeichnet, dass die Steuervorrichtung (15) eine Recheneinrichtung (22) aufweist, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Control device (15) for a device (10) with a sensor system (13) which comprises at least one sensor unit (M, K, T, F) which has an adaptive signal filtering device (31), characterized in that the control device (15 ) has a computing device (22) which is set up to carry out a method according to one of the preceding claims. Kraftfahrzeug (11) mit einem Sensorsystem (13), das zumindest eine Sensoreinheit (M, K, T, F), welche eine adaptive Signalfilterungseinrichtung (31) aufweist, umfasst, gekennzeichnet durch eine Steuervorrichtung (15) nach Anspruch 14.Motor vehicle (11) with a sensor system (13) which comprises at least one sensor unit (M, K, T, F) which has an adaptive signal filtering device (31), characterized by a control device (15) according to Claim 14 .
DE102019108075.4A 2019-03-28 2019-03-28 Method and control device for operating a sensor system of a device and a motor vehicle Pending DE102019108075A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019108075.4A DE102019108075A1 (en) 2019-03-28 2019-03-28 Method and control device for operating a sensor system of a device and a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019108075.4A DE102019108075A1 (en) 2019-03-28 2019-03-28 Method and control device for operating a sensor system of a device and a motor vehicle

Publications (1)

Publication Number Publication Date
DE102019108075A1 true DE102019108075A1 (en) 2020-10-01

Family

ID=72612810

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019108075.4A Pending DE102019108075A1 (en) 2019-03-28 2019-03-28 Method and control device for operating a sensor system of a device and a motor vehicle

Country Status (1)

Country Link
DE (1) DE102019108075A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020126701A1 (en) 2020-10-12 2022-04-14 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining the attentiveness of a driver
CN114862158A (en) * 2022-04-22 2022-08-05 同济大学 Automatic driving automobile scene risk assessment method based on passable area
DE102021112712A1 (en) 2021-05-17 2022-11-17 Deutsche Telekom Ag PROCEDURE FOR CONTROLLING A VEHICLE

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004035856A1 (en) * 2003-08-14 2005-03-10 Roland Bittner Electrical auxiliary device for use in a traffic system, e.g. a traffic data collection system or traffic warning system, whereby the device is mounted at least partially in a mounting tube or pipe of existing infrastructure
DE102004045690A1 (en) * 2003-10-29 2005-06-02 Volkswagen Ag Sound source detection device, especially for use in a motor vehicle driver assistance system, detects phase displacements or signal time of flight differences from sound sources that are detected using multiple microphones
DE102014110958A1 (en) * 2013-08-02 2015-04-16 Honda Motor Co., Ltd. Vehicle pedestrian communication system and procedure
DE102016213807A1 (en) * 2016-07-27 2018-02-01 Robert Bosch Gmbh Concept for monitoring a parking lot for motor vehicles
DE102017203785A1 (en) * 2017-03-08 2018-09-13 Bayerische Motoren Werke Aktiengesellschaft monitoring system
DE102017213130A1 (en) * 2017-07-31 2019-01-31 Robert Bosch Gmbh Method and camera unit for monitoring an environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004035856A1 (en) * 2003-08-14 2005-03-10 Roland Bittner Electrical auxiliary device for use in a traffic system, e.g. a traffic data collection system or traffic warning system, whereby the device is mounted at least partially in a mounting tube or pipe of existing infrastructure
DE102004045690A1 (en) * 2003-10-29 2005-06-02 Volkswagen Ag Sound source detection device, especially for use in a motor vehicle driver assistance system, detects phase displacements or signal time of flight differences from sound sources that are detected using multiple microphones
DE102014110958A1 (en) * 2013-08-02 2015-04-16 Honda Motor Co., Ltd. Vehicle pedestrian communication system and procedure
DE102016213807A1 (en) * 2016-07-27 2018-02-01 Robert Bosch Gmbh Concept for monitoring a parking lot for motor vehicles
DE102017203785A1 (en) * 2017-03-08 2018-09-13 Bayerische Motoren Werke Aktiengesellschaft monitoring system
DE102017213130A1 (en) * 2017-07-31 2019-01-31 Robert Bosch Gmbh Method and camera unit for monitoring an environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020126701A1 (en) 2020-10-12 2022-04-14 Bayerische Motoren Werke Aktiengesellschaft Method and device for determining the attentiveness of a driver
DE102021112712A1 (en) 2021-05-17 2022-11-17 Deutsche Telekom Ag PROCEDURE FOR CONTROLLING A VEHICLE
CN114862158A (en) * 2022-04-22 2022-08-05 同济大学 Automatic driving automobile scene risk assessment method based on passable area

Similar Documents

Publication Publication Date Title
EP3682367B1 (en) Gesture control for communication with an autonomous vehicle on the basis of a simple 2d camera
DE102013014106B4 (en) Vehicle identification device based on V2V communication and identification method therefor
EP3181421B1 (en) Method and system for automatically guiding a follow vehicle with a front vehicle
EP2753532B1 (en) Method and device for an assist system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver
EP1375253A2 (en) Method for monitoring inner and outer space of a vehicle and a vehicle with at least an omniview camera
DE102004045690A1 (en) Sound source detection device, especially for use in a motor vehicle driver assistance system, detects phase displacements or signal time of flight differences from sound sources that are detected using multiple microphones
DE102017223284B4 (en) Procedure for the assisted operation of a vehicle
DE102019120461A1 (en) METHOD AND SYSTEM FOR EVALUATING AN ERROR THREAT DETECTION
DE102014206708A1 (en) Device for monitoring a motor vehicle and method for operating such a device
DE102013207369A1 (en) Method and device for securing a fully automatic movement of a vehicle
DE102019108075A1 (en) Method and control device for operating a sensor system of a device and a motor vehicle
WO2019219718A1 (en) Acoustic detection of a vehicle environment
WO2018206213A1 (en) Method and apparatus for the spatially resolved detection of an object outside a vehicle with the aid of a sensor installed in a vehicle
DE102014105374B4 (en) Driver assistance system
DE102014219388A1 (en) Collision avoidance with vehicle door via Car2X
DE102015004605B4 (en) Method of operating a control system of a mobile unit and mobile unit
EP2423052B1 (en) Method and device for detecting people
DE102015014207B4 (en) Device and method for transmitting a radio signal relating to an emergency vehicle on an emergency journey
DE102015218970A1 (en) Method and system for comparing characteristics of a road user
DE102015103361A1 (en) TRAFFIC DENSITY SENSITIVITY VOTERS
WO2017125332A2 (en) Detection of a dangerous situation in road traffic
DE102014215430A1 (en) Method and device for monitoring a parked vehicle
DE102013220306A1 (en) A method of notifying a vehicle via an authorized person's instruction
DE102016010818A1 (en) Device for issuing a warning
DE102019000060A1 (en) Controlling a vehicle using a control system

Legal Events

Date Code Title Description
R163 Identified publications notified