DE4001493A1 - Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten - Google Patents
Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraetenInfo
- Publication number
- DE4001493A1 DE4001493A1 DE4001493A DE4001493A DE4001493A1 DE 4001493 A1 DE4001493 A1 DE 4001493A1 DE 4001493 A DE4001493 A DE 4001493A DE 4001493 A DE4001493 A DE 4001493A DE 4001493 A1 DE4001493 A1 DE 4001493A1
- Authority
- DE
- Germany
- Prior art keywords
- learning
- vehicle
- cycle
- sensors
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000008569 process Effects 0.000 title claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 10
- 230000006399 behavior Effects 0.000 claims description 9
- 230000010365 information processing Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 2
- 208000033748 Device issues Diseases 0.000 claims 1
- 230000003542 behavioural effect Effects 0.000 claims 1
- 238000003780 insertion Methods 0.000 claims 1
- 230000037431 insertion Effects 0.000 claims 1
- 230000004044 response Effects 0.000 claims 1
- 230000003319 supportive effect Effects 0.000 claims 1
- 230000007704 transition Effects 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 2
- 230000007935 neutral effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 7
- 238000004088 simulation Methods 0.000 description 5
- 210000002364 input neuron Anatomy 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 101100102516 Clonostachys rogersoniana vern gene Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/87—Combinations of sonar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
Die Erfindung betrifft ein Verfahren und eine Einrichtung
zur selbsttätigen Steuerung oder Steuerungsunterstützung
von autonom oder teilautonom bewegbaren Geräten, wie Fahr
zeugen, Robotern etc., mit den Merkmalen des Oberbegriffs
des Anspruchs 1.
Bei einem bekannten Verfahren wird zur Verarbeitung der
Sensorsignale ein herkömmlicher Rechner eingesetzt, der auf
dem Prinzip des "von Neuman-Rechners" basiert, welcher mit
Rechenwerk, Leitwerk und Speicher versehen ist und über
Programme gesteuert wird.
Bei komplexen Realzeitaufgaben wie der Sensordatenverarbei
tung für eine autonome Steuerung eines Fahrzeugs oder eines
Roboterarmes, hat der Einsatz eines solchen konventionellen
Rechners die folgenden Nachteile:
- 1. Die Daten müssen in serieller Informationsverarbeitung von einem Rechenprogramm gesteuert durch das Rechenwerk geleitet und verrechnet werden. Dies ist zeitaufwendig.
- 2. Die Programmerstellung ist kompliziert und oft sehr zeitaufwendig.
- 3. Das Systemwissen muß vorher explizit bekannt sein.
- 4. Nur lineare Zusammenhänge sind abbildbar. Synergetische oder komplexe kybernetische Systeme sind nicht abbildbar.
- 5. Die Steuerung ist empfindlich bei Störungen der Sensor daten, des Verarbeitungsprogrammes und gegen Geräteaus fall (keine Fehlertoleranz).
Eine informationsverarbeitende Netzwerkstruktur, ein soge
nanntes "Neuronales Netz", bezeichnet ein informationsverar
beitendes System, das aus parallel arbeitsfähigen Prozesso
ren besteht, die untereinander prinzipiell beliebig, meist
jedoch nach hierarchischen Gesichtspunkten verknüpft sind,
wobei die Prozessoren sowohl einfache als auch komplexe
Rechenvorgänge ausführen können, die Verknüpfung der Prozes
soren untereinander über multiplikative Verbindungen er
folgt, welche über die Dauer der Informationsverarbeitung
justierbar, also veränderlich gestaltet sind, und bestimmte
Prozessoren des Systems die designierte Aufgabe übernehmen,
mit der Umgebung Informationen auszutauschen.
Neuronale Netze sind bisher im wesentlichen Gegenstand
theoretischer Untersuchungen mit dem Ziel gewesen, die
durch die "von Neuman"-Architektur heutiger Rechner aufer
legten Grenzen zu sprengen (Aufsatz "Natürliche und künst
liche Intelligenz" von R. Opitz DE-Z Forum (Data General
GmbH, 1984, S. 15-18)). Mithilfe von Strukturrechnern mit
adaptiven, neuronalen Netzwerken, welche zahlreiche mitein
ander verbundene Knoten, sogenannte Neuronen, aufweisen,
suchen Forscher derzeit weltweit Funktionen bzw. Eigenschaf
ten eines menschlichen Gehirnes zu verstehen, zu simulieren
und letztendlich nachzubilden. Pragmatische Umsetzungen
sind jedoch aufgrund fehlenden Verständnisses und von Trans
ferschwierigkeiten der kybernetischen Zusammenhänge nicht
anzutreffen. So sind keine praktischen Applikationen in
industriell hergestellten Produkten bekannt.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und
eine Einrichtung der im Oberbegriff des Anspruchs 1 angege
benen Art zu schaffen, bei denen die selbsttätige Steuerung
oder Steuerungshilfe von Geräten, die in einer mindestens
ein Hindernis aufweisenden Umgebung sich bewegen und eine
Fahr- oder Bewegungsaufgabe besitzen, mit dem Ziel einer
kollisionsfreien Umfahrung des Hindernisses oder der Hinder
nisse und einer umgebungsangepaßten Rangieraufgabenabwick
lung verbessert werden.
Zur Lösung dieser Aufgabe dienen ein Verfahren mit den
Merkmalen des Anspruchs 1 und eine Einrichtung mit den
Merkmalen des Anspruchs 13.
Vorteilhafte Ausgestaltungen der Erfindung sind in den
Unteransprüchen angegeben.
Mit besonderem Vorteil ist die Erfindung zur selbsttätigen
Steuerung von Fahrzeugen wie auch als Fahr- oder Rangier
hilfe einsetzbar. Die Fahrzeugsteuerung mit einem Verfahren
und einer Einrichtung nach der Erfindung ermöglicht nämlich
- - eine Hinderniskollisionsvermeidung bei autonomer Fahrt, wobei sich eine Parallelfahrt zu Objekten, ein Durchfah ren von Toren und dgl. realisieren lassen;
- - eine Fahrhilfe für einen das Fahrzeug normalerweise führenden Fahrer, beispielsweise beim Parken, bei der Nahbereichsnavigation oder bei der Rückwärtsfahrt;
- - eine verbesserte Situationserkennung durch Klassifizieren einer Hindernis- oder Objektkontur;
- - kooperatives Verhalten bei Überholfahrt und Ausweichmanö vern;
- - Vermeidung von Auffahrunfällen.
Die Anwendung eines Verfahrens und einer Einrichtung nach
der Erfindung ermöglicht aber nicht nur vorteilhafte Lösun
gen im Straßenverkehr sondern auch von Transportaufgaben in
Fabriken, auf Bahnhöfen und Flughäfen sowie im Baustellen
verkehr mit komplexen unüberschaubaren Umgebungsbedingungen.
Durch die mindest zeitweise autonome Fahrzeugführung läßt
sich menschliches Fehlverhalten bei der Fahrzeugführung
weitgehend ausschalten.
Die Erfindung kann aber auch bei anderen bewegbaren Geräten,
wie Robotern angewendet werden, bei denen die Steuerung der
Roboterbewegung mithilfe herkömmlicher Rechner höchst um
ständlich und zeitaufwendig ist und stets auch einer aufwen
digen Programmierung bedarf, insbesondere in hostiler,
chaotischer und dynamisch sich verändernder bzw. von vorne
herein unbekannter Umgebung.
Eine Programmierung entfällt beim Einsatz eines neuronalen
Netzwerkes. Es ist für die Zwecke der Erfindung möglich,
einen herkömmlichen von-Neuman-Rechner zur Simulation eines
neuronalen Netzes einzusetzen. Zum Bereitstellen höherer
Realzeitfähigkeit werden vorteilhaft jedoch statt eines
herkömmlichen Rechners "echte" neuronale Rechner eingesetzt,
die über sogenannte Neurochips verfügen.
Die Erfindung ist im folgenden anhand von Zeichnungen mit
weiteren Einzelheiten näher erläutert.
Es zeigen:
Fig. 1 ein Schema eines mit einer Steuerung gemäß der
Erfindung ausgerüsteten autonomen oder teilauto
nomen Fahrzeuges;
Fig. 2 ein Schema der Simulation der Lernphase einer
autonomen Fahrzeugführung;
Fig. 3 ein Schema der Simulation der Kannphase einer
autonomen Fahrzeugführung;
Fig. 4 und 5 Bildschirmdarstellungen während der Konfigura
tionsphase und der Lernphase;
Fig. 6 und 7 Bildschirmdarstellungen vor dem Start der
Lernphase und beim Training des neuronalen Netz
werkes;
Fig. 8 eine kombinierte Bildschirmdarstellung während
der Kannphase;
Fig. 9 ein Beispiel für den Aufbau eines neuronalen
Netzwerkes nach der Erfindung für autonome Fahr
zeugführung im Verkehr.
Im Schema nach Fig. 1 sind an einem Fahrzeug 2 insgesamt
neun Ultraschallsensoren 4 mit Meßkeulen 8 angeordnet,
deren Ausgangssignale an die Eingänge 8 eines Vorprozessors
10 zur binären Kodierung abgegeben werden. An den Ausgängen
12 dieses Vorprozessors 10 liegen siebenundzwanzig Ausgangs
signale in binärer Form vor. Diese siebenundzwanzig Aus
gangssignale werden an eine Eingangsschnittstelle eines
insgesamt mit dem Bezugszeichen 14 bezeichneten neuronalen
Netzwerkes eingegeben und von dort über die mit 16 bezeich
neten Neuronen in Form von Ausgangssignalen 18 zu einer
Wandlervorrichtung 20 weitergegeben, welche die Ausgangssig
nale in Steuersignale 22 wandelt, deren Anzahl der Anzahl
der auszuführenden Fahrfunktionen (Beschleunigen/Bremsen)
entspricht. Diese Signale werden in insgesamt mit dem Be
zugszeichen 24 bezeichnete Aktuatoren (Bremsen/Antriebe) des
Fahrzeuges zur Auslösung der gewünschten Fahrfunktion einge
geben, wie in Fig. 1 mit einer Fächer von Pfeilen angedeutet
ist.
Die dadurch ausgelöste Fahrfunktion führt zu neuen Sensor
signalen, die wie beschrieben erneut verarbeitet werden.
Fig. 2 zeigt ein Übersichtsschema einer Simulation der mit
einem System nach Fig. 1 durchführbaren Steuerung mittels
zweier Personalcomputer PC1 und PC2.
In dem mit 26 bezeichneten Block der Fig. 2 wird auf dem
Bildschirm des PC1 ein sogenannter Fahrgrund durch Aufbauen
von Hindernissen in einem zweidimensionalen Feld erstellt.
Im Block 28 wird durch fremdgesteuertes Führen des Fahrzeugs
durch den Fahrgrund längs einer gewählten zu lernenden Bahn
eine Lerndatei erstellt.
Im Block 30 wird auf dem Bildschirm des PC2 das neuronale
Netzwerk 14 nach Fig. 1 mit der Lerndatei trainiert.
In Fig. 3 ist schematisch das Fahren des Fahrzeugs in der
"Kannphase" dargestellt. Hier sind die beiden Personalcom
puter PC1 und PC2 sehr interaktiv zusammengeschaltet. Auf
dem Bildschirm des PC1 wird gemäß der Darstellung im Block
32 festgestellt, wie das Fahrzeug in dem mit Block 26 er
stellten Fahrgrund autonom, d. h. von dem neuronalen Netzwerk
14 gesteuert fährt. Im Block 34 werden das trainierte Netz
werk und die Sensoren auf dem Bildschirm des PC2 darge
stellt.
In den Fig. 4 und 5 sind die Bildschirmdarstellungen gemäß
den Blöcken 26 und 28 in Fig. 2 detailliert dargestellt.
In den Fig. 4 und 5 sind Hindernisse durch dunkel gefärbte
Kreise 27, Rechtecke 29, 31 und einen Winkel 33 symbolisiert.
Diese Hindernisse werden gemäß Fig. 4 zu der gezeigten
Konfiguration, d. h. einem "Fahrgrund" durch Betätigen
einer nicht gezeigten Maus plaziert. Unter dem eigentlichen
Bildschirm 36 des PC1 sind Tasten 38 bis 46 gezeichnet,
welche durch Antippen die Funktion "Laden", "Speichern",
"neu", "Hilfe" und "zurück" ausführen können.
Bestehende Fahrgründe können verändert werden. Dazu ist das
Feld "Laden" aufzurufen und der Name des Fahrgrundes anzu
geben.
Mit "Speichern" können modifizierte oder neu erstellte
Fahrgründe gespeichert werden.
Mit der Taste "neu" kann die Fläche jederzeit gelöscht und
ein neuer Fahrgrund erstellt werden.
Durch Betätigen der Taste "zurück" kann die Konfigurati
onsphase beendet und ins Hauptmenü gesprungen werden.
Gemäß der Darstellung in Fig. 5 wird nach Erstellen eines
Fahrgrundes auf dem Bildschirm 36 des PC1 ein simuliertes
Fahrzeug 50 in den Fahrgrund plaziert und fremdgesteuert
längs eines Lernparcours durch den Fahrgrund gesteuert, der
mittels einer strichpunktierten Linie 52 in Fig. 5 angedeu
tet ist.
Über die Tasten 38 bis 46 werden in diesem Fall die Funkti
onen "Laden", "Start", "Stop", "Hilfe" und "zurück" einge
stellt.
In dem rechts vom Bildschirm 36 dargestellten Feld 37 ist
die Fahrtrichtung ablesbar, in welche das Fahrzeug 50 auf
dem Bildschirm mittels einer Windrose fremdgesteuert wird.
Bevor ein neuronales Netzwerk trainiert werden kann, muß es
dimensioniert und parametriert werden. Da neun Sensoren 4
am Fahrzeug 2 vorgesehen sind und deren Werte mit drei bit
codiert werden, beträgt die Größe des Inputvektors und
damit die Anzahl der Neuronen 16 an der Eingangsschnittstel
le insgesamt siebenundzwanzig. Bei dem gezeigten Beispiel
besteht der Outputvektor aus vier bit, obwohl acht Fahrmög
lichkeiten in der Einheit 20 codiert sind.
Es besteht somit die Möglichkeit, die Topologie inklusive
sogenannter "versteckter Ebenen" zu variieren, sowie die
Lernparameter zu verändern. Diese Parameter werden im neuro
nalen Simulator in einer Tabelle eingetragen. In dieser
Tabelle entspricht ein Koeffizient I dem Lernparameter η
und ein Koeffizient II dem Momenten-Term α. Für eine opti
male Wahl der Parameter η, α werden in der Literatur für
andere Fälle die Werte η=0,9 und α=0,6 empfohlen. Andere
Werte können jedoch erfahrungsgemäß zu schnellerer Konver
genz führen.
Nachfolgend wird die Durchführung einer Lernphase auf dem
neuronalen Simulator anhand der Fig. 6 und 7 erläutert. Zu
Beginn wird im Simulator ein neuronales Netzwerk mit sieben
undzwanzig Input-Neuronen, vier Output-Neuronen und einer
beliebigen Anzahl und Größe von versteckten Ebenen aufge
baut. Dieses Netz wird mit Zufallswerten aus einem kleinen
Wertebereich (-0,1/01) initialisiert. Nun kann der Lernvor
gang gestartet werden. Die Input-Neuronen sind in dem Block
30 (gemäß Fig. 2), welcher den Bildschirm des PC2 symboli
siert, mit der Bezugszahl 56 und die Output-Neuronen mit
der Bezugszahl 58 bezeichnet. Unterhalb der Input-Neuronen
56 sind eine OK-Taste 60 und eine Löschtaste 62 dargestellt.
Darunter sind drei Fenster 64, 66 und 68 dargestellt, wobei
in den Fenstern 64, 66 der Hinweis erscheint, daß eine Kon
vergenzdatei und eine Informationsdatei angelegt werden. Im
Fenster 68 erscheint zur Bestätigung der Name der Lerndatei.
Durch Anklicken der OK-Taste wird der Lernvorgang gestartet.
Die Konvergenzdatei dient dazu, den Ablauf des Lernvorganges
bei längeren Lernzeiten (2 Stunden bis 3 Tage) nachvoll
ziehen zu können. Nach jedem Lernzyklus, d. h. nach vollstän
digem Durchlauf durch die Lerndatei, werden der globale
Fehler des Netzes, die Anzahl der Zyklen und die Anzahl der
Felder beim letzten Durchlauf der Lerndatei eingetragen.
Die Konvergenzdatei kann bei längerer Lerndauer bis zu 100
KB groß werden. Mithilfe der Konvergenzdatei kann ein Über
schreiten lokaler Minima sowie die Konvergenzgeschwindigkeit
erkannt werden.
Die Informationsdatei besteht in jedem Fall nur aus vier
Zeilen. Diese Zeilen werden nach jedem Lernzyklus aufs neue
in die Informationsdatei eingetragen. Der Inhalt sieht z. B.
folgendermaßen aus:
Anzahl Lernschritte - 60 792
Anzahl Zyklen - 447
Anzahl Muster - 136
globaler Fehler - 0,057
Anzahl Lernschritte - 60 792
Anzahl Zyklen - 447
Anzahl Muster - 136
globaler Fehler - 0,057
Diese Datei gibt somit den aktuellen Lernzustand des neuro
nalen Netzwerkes an. Dies ermöglicht ein Abbrechen des
Lernvorgangs und ein späteres Weitertrainieren des Netzes.
In Fig. 7 ist das Training des neuronalen Netzwerkes darge
stellt. Wurde die OK-Taste 60 gedrückt, so ist die Darstel
lung auf dem Bildschirm 30 etwa folgendermaßen:
Im Teil unterhalb der Input-Neuronen 56 werden die Anzahl
der Muster, die Anzahl der Darstellungen, die Anzahl der
Zyklen (Durchläufe durch die Lerndatei), die Anzahl der
Fehler im aktuellen Zyklus sowie der globale Fehler, der
nach jedem Zylkus neu berechnet wird, in der Zeile 70 ange
zeigt. In der Sensorikzeile 72 werden aus der Lerndatei
gelesene und in einen binären Input-Vektor kodierte Werte
angezeigt. Oberhalb des Netzwerkes werden im Feld 74 der
aktuelle Output des Netzes und im Feld 76 der gewünschte,
d. h. der zu trainierende Output angezeigt.
Im Normalfall wird der globale Fehler stetig kleiner werden.
Wenn der globale Fehler sich sehr nahe bei Null befindet
und sich über mehrere Zyklen hinweg nicht mehr verändert,
kann der Lernvorgang abgebrochen werden. Dabei muß der
Fehler pro Zyklus nicht unbedingt Null sein. Bei sehr großen
Lerndateien (mehr als 500 Muster) kann es zu sich widerspre
chenden Lernmustern kommen. In diesem Fall wird der globale
Fehler auf eine Zahl zwischen drei und zehn konvergieren
und noch einige Fehler pro Zyklus aufweisen. Diese können
selektiert und korrigiert werden. Trotzdem ist das Netz aus
reichend trainiert und kann in der Kannphase ausprobiert
werden. Der Lernvorgang wird mittels einer nicht dargestell
ten "Escape"-Taste abgebrochen.
In Fig. 8 ist die Kannphase durch interaktives Zusammenwir
ken der beiden Personalcomputer PC1 und PC2 und Darstellung
von deren beiden Bildschirmen 28 und 30 dargestellt.
Durch Betätigen der Taste 38 wird ein gewünschter Fahrgrund
im Bildschirm des PC1 dargestellt und das Fahrzeug 50 wie
gezeigt positioniert.
Auf dem PC2 wird der Simulator gestartet und das zum Fahr
grund gemäß PC1 trainierte neuronale Netz geladen und ge
startet, wobei sich der in Fig. 8 rechts dargestellte Bild
schirmaufbau ergibt. Durch Anwählen der Taste 40 wird die
Simulation gestartet.
Auf dem Bildschirm 36 des PC1 sieht man das Fahrzeug 50
autonom durch das neuronale Netzwerk auf PC2 gesteuert um
die Hindernisse herum fahren. Werden die Hindernisse ge
schnitten oder überfahren, so bedeutet dies, daß
- - das Netz nicht ausreichend trainiert wurde,
- - die Lerndatei zu wenig Lernmuster enthielt,
- - die Lerndatei zu viele sich widersprechende Input-Output- Relationen aufwies,
- - ein falscher Fahrgrund geladen wurde.
Da durch Neupositionieren des Fahrzeuges und erneutes Star
ten eine andere Bahn gefunden werden kann, sollten einige
Starts an verschiedenen Ausgangspositionen ausprobiert
werden.
Wenn auch kein perfektes Fahrverhalten erwartet werden
kann, sollte doch ein prinzipiell an den aufgebauten Hinder
nissen orientiertes Fahrverhalten, wie reflexives Ausweichen
an den Hindernissen, offensichtlich werden.
Auf dem Bildschirm des PC2 erkennt man in der Zeile 70 die
aktuellen Sensorik-Werte, den kodierten Input-Vektor, den
Output-Vektor, sowie die aktuelle Fahrtrichtung des Fahrzeu
ges 50.
Die Kannphase wird durch Drücken der Stop-Taste 42 beendet.
Bei dem beschriebenen Beispiel ist das autonome Fahren
eines Fahrzeugs 50 nach dem Lernen eines Hindernisumfahrens
auf einem vorgegebenen Fahrgrund (Fig. 4) dargestellt.
Jedoch läßt sich die Erfindung auch auf mehrere solche
Fahrzeuge zum Trainieren kooperativen Fahrverhaltens solcher
mehrerer Fahrzeuge anwenden. Dabei ist nach dem Erstellen
eines Fahrgrundes und einer Lerndateigenerierung sowie
einem Training am Lernfahrzeug ein trainiertes Netz zur
Steuerung aller Fahrzeuge anzustreben, wobei die Fahrzeuge
frei wählbar positionierbar sind und ein kollisionsfreies
simultanes autonomes Fahren aller Fahrzeuge das endgültige
Lernziel ist.
Ein Beispiel für den Aufbau der Gesamtarchitektur eines
Lernfahrzeuges mit neuronalem Netzwerk ist in Fig. 9 darge
stellt. Es beinhaltet Fahrstrategie, Wegplanung, Objekter
kennung, Landkarten und ein Lernmodul.
Dabei sind in den beiden unteren ovalen Feldern 80, 82 Sen
soren für die Gesamtposition des Fahrzeuges und Entfernungs
meßsensoren sowie in dem oberen ovalen Feld 84 Aktuatoren
zur Betätigung der verschiedenen Fahrfunktionen angedeutet.
Das Feld 86 enthält eine map mit Umgebungshindernissen,
während das Feld 88 eine map mit sonstigen Umgebungseigen
schaften enthält.
Im Feld 90 ist ein Hindernis-Klassifizierer angedeutet. Den
Feldern 86, 88, 90 sind Felder 92, 94, 96 nachgeschaltet. Dabei
enthält das Feld 92 einen Modul für Lernen nach einem über
geordneten Lernziel. Das Feld 94 enthält eine Optimierungs-
Vorrichtung für die Wegplanung. Das Feld 96 enthält einen
Baustein zum Entwickeln von Fahrstrategien. Zwischen das
Aktuatorik-Feld 84 und die Felder 94, 96 ist eine Steuerein
richtung zur assoziativen Aktuatorik-Steuerung angeordnet.
Mit dem beschriebenen Verfahren und der beschriebenen Ein
richtung gemäß der Erfindung lassen sich folgende vorteil
hafte Wirkungen erzielen:
- 1. Beim Training eines Simulationsfahrzeuges mit Sensorik, Aktuatorik und einem neuronalen Netzwerk stellte sich heraus, daß gefahrene Bahnen in Hinderniskursen teilweise abstrahiert (Reflexverhalten) gespeichert wurden und nach Wiederabruf ein ähnliches Fahrverhalten durch das Netzwerk für das Fahrzeug erzielbar war.
- 2. Es war nicht wie bisher notwendig, Fahrzeugsteuerungen und Fahrverhalten mit erheblichem Aufwand zu pro grammieren.
- 3. Die Fehlertoleranz gegen Sensorstörungen war sehr hoch.
- 4. Neben dem Training von Einzelhindernisfahrten waren sehr komplexe Fahrsituationen ohne mathematische Aufbereitung erlernbar.
- 5. Bei Verwendung mehrerer Fahrzeuge mit Steuerung war durch ein Netzwerk kooperatives Fahrverhalten erreichbar (Ausweichmanöver, Fahrstrategien).
- 6. Es konnte eine vollkommen neue Art und Qualität der Leistungserzeugung durch "Lernen an Beispielen" mittels einer Lernphase (Training durch Beispiele) und einer Kannphase (Abruf der Informationen aus dem Netz) und die Informationsspeicherung erreicht werden.
- 7. Die Abdeckung komplexer Informationsrepräsentationen ist sehr hoch.
- 8. Die Abrufzeitkonstante liegt im Bereich von Millisekun den. Dies ist um Faktoren höher als konventionelle KI- Systeme und eignet dieses Verfahren für diverse Realzeit aufgaben der Regelung und Steuerung von kybernetischen Prozessen.
- 9. Das Lernen nach dem beschriebenen Beispiel kann durch Lernen nach einem übergeordneten Lernziel (Reinforcement Learning) und ein Versuchsmodul ersetzt werden. Damit entstehen Systemarchitekturen.
- 10. Die simulierten Netzwerke können nach Training in neuro nale VLSI-Implementationen umgesetzt und in Produkten verwendet werden.
Claims (15)
1. Verfahren zur selbsttätigen Steuerung von autonom oder
teilautonom bewegbaren Geräten mit die Umgebung auf
nehmenden Ortungssensoren zum Abgeben von Sensorsig
nalen, welche für den Abstand des Gerätes von minde
stens einem Hindernis oder Objekt charakteristisch
sind, und mit einer Verarbeitungseinheit, in welche
die Sensorsignale eingegeben werden, und welche minde
stens ein Steuersignal für Antriebe/Bremsen des Gerätes
zum Beschleunigen/Abbremsen der jeweiligen Bewegung
des Gerätes abgibt, um eine Kollision mit dem Hindernis
zu vermeiden und gewünschtes Fahr- und Bewegungsverhal
ten zu erzeugen, dadurch gekennzeichnet,
daß die Verarbeitungseinheit als informationsver
arbeitende Netzwerkstruktur ("neuronales Netz") ausge
bildet oder simuliert ist, daß das Gerät in einer
Lernphase aus einer begrenzten Anzahl ausgewählter
Situationen fremdgesteuert einen Bewegungsablaufzyklus
ausführt, daß die dabei gewonnenen Sensor- und Aktua
tor-Datensätze der Netzwerkstruktur in einer Lernphase
wiederholt eingegeben und der Bewegungsablaufzyklus
lehrhaft vorgegeben werden, und daß bei Unterschreiten
eines vorgegebenen globalen Fehlers die Lernphase
abgeschlossen und zu einer Kannphase übergegangen
wird, in welcher das Gerät in bekannter oder unbekann
ter Umgebung autonom den oder einen in unbekannter
Umgebung durch die Objekte beeinflußten gelernten
Bewegungablaufzyklus mindestens angenähert ausführt.
2. Verfahren nach Anspruch 1, dadurch gekenn
zeichnet, daß in einer Datenerfassungsphase
die Sensor-/Aktuator-Datensätze bei jeder Durchführung
des fremdgesteuerten Bewegungsablaufzyklus in eine
Lerndatei eingespeichert werden.
3. Verfahren nach Anspruch 2, dadurch gekenn
zeichnet, daß in jedem Lernzyklus während der
Lernphase die Lerndatei vollständig mehrmals und lern
adäquat zusammengestellt durchlaufen (zu Vermeidung
von Verlernen) und die Anzahl der Zyklen, der globale
Fehler und die Anzahl der Fehler beim Durchlauf der
Lerndatei in eine Konvergenzdatei eingetragen werden,
und daß bei Überschreiten einer vorgegebenen Konver
genzmarke der Lernzyklus beendet wird.
4. Verfahren nach Anspruch 2 oder 3, dadurch ge
kennzeichnet, daß in der Lernphase eine
Informationsdatei, enthaltend die Anzahl der Lern
schritte, die Anzahl der Zyklen, die Anzahl der Lern
muster (Fahrgründe) und den globalen Fehler, erstellt
wird.
5. Verfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß das Gerät
ein Fahrzeug und der Bewegungsablaufzyklus ein Fahr
zyklus längs einer Bahn mit dem Fahrzeug in einer das
mindestens eine Hindernis aufweisenden Umgebung (Fahr
grund) sind.
6. Verfahren nach einem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, daß das Gerät ein Robo
ter und der Bewegungsablaufzyklus ein kinematischer
dreidimensionaler Ablauf längs einer Bewegungsbahn mit
dem Roboter in einer mindestens ein Hindernis aufwei
senden Umgebung (Fahrgrund) ist.
7. Verfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß die Or
tungssensoren jeweils problemisomorph aufgebaut werden
und die gewonnenen Sensorsignale aller Sensoren für
die informationsverarbeitende Netzstruktur gemeinsam
zu mindestens einem Steuersignal (Eingabevektor) verar
beitet werden.
8. Verfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß sowohl
Objekte bzw. Objektkonturen als auch Objektklassi
fikationen zum Training des Netzwerkes gemeinsam als
Eingabegröße (Vektor) benutzt werden und gemeinsam die
Abbildung der Aktuatorik-Datensätze erzeugen.
9. Verfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß weiter
gehendes selbsttätiges Lernen mit Vorgabe eines Lern
zieles (Lernsätze) durch Einfügung und Verwendung
eines Probier- und Bewegungszyklus mit begrenzter
Anzahl von Versuchen durchgeführt wird und positive
Reaktionen im Netzwerk gespeichert werden, während
negative Verhalten verfallen (Selbstadaption).
10. Verfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß globale
Bewegungsstrategien und Abläufe mit lokal/situativen
trainierten Verhaltensrepräsentationen kombiniert
werden, und im Eingabevektor des Netzwerkes Anteile
der Bewegungsstrategie mit trainiert werden, die in
der Kannphase durch höhere Hierarchien im Sinne von
hierarchischen Netzwerkarchitekturen eingerichtet und
gesetzt werden.
11. Verfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß
Bewegungsabläufe unter Verwendung von vergangenen zeit
stufenweise vorhergehenden Bewegungsmustern mit Gewich
tungsstufen in der Trainingsphase im Eingabevektor
benutzt werden und in der Kannphase dadurch Prozeduren
der Bewegung berücksichtigt und erzeugt werden.
12. Verfahren nach einem der vorangehenden Ansprüche,
dadurch gekennzeichnet, daß herkömm
liche Rechner mit simulierten neuronalen Netzwerken,
Hybridsysteme mit speziell angepaßten Elementen
und/oder Neurochips verwendet werden.
13. Einrichtung zur selbsttätigen oder unterstützenden
Steuerung von autonom oder teilautonom bewegbaren
Geräten, wie Fahrzeugen, mit die Umgebung aufnehmenden
Ortungssensoren zum Bilden von Sensorsignalen, welche
für den Abstand des Gerätes von mindestens einem Hin
dernis, einer Objektkontur od. dgl. charakteristisch
sind, und mit einer Verarbeitungseinheit, in welche
die Sensorsignale eingegeben werden, und welche Steuer
signale für Antriebe/Bremsen des Gerätes zum Beschleu
nigen/Abbremsen der jeweiligen Bewegung des Gerätes
abgibt, dadurch gekennzeichnet, daß die
Verarbeitungseinheit eine informationsverarbeitende
Netzwerkstruktur (neuronales Netz) mit einer der Anzahl
der Sensorsignale entsprechenden Anzahl von Eingabe-
Schnittstellen, einer Vielzahl von Neuronen (Knoten
punkten) und einer der Anzahl von Antriebs-/Bremsfunk
tionen entsprechenden Anzahl von Ausgabe-Schnittstellen
für das mindestens eine Steuersignal ist.
14. Einrichtung nach Anspruch 13, bei dem die Sensoren an
einem Fahrzeug angebracht sind, das sich autonom in
einer vorgegebenen Umgebung bewegen soll, dadurch
gekennzeichnet, daß die Sensoren als
sowohl sendende als auch empfangende Sensoren, insbe
sondere als Ultraschallsensoren oder Mikrowellen
sensoren, ausgebildet sind, die synchron mit einer
Taktzeit betätigt werden, welche gleich oder größer
als die einem vorgegebenen größten Hindernisabstand
entsprechende Laufzeit (Summe aus Hin- und Rücklauf
zeit) eines Sensorimpulses bei einer vorgegebenen
maximalen Fahrzeuggeschwindigkeit ist.
15. Einrichtung nach Anspruch 13 oder 14, dadurch ge
kennzeichnet, daß die Anzahl der Neuronen
an den Eingabe-Schnittstellen gleich dem Produkt aus
der Anzahl Sensoren multipliziert mit der Informations
anzahl (z. B. 3 bit) parallel je Sensorsignal ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4001493A DE4001493A1 (de) | 1990-01-19 | 1990-01-19 | Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4001493A DE4001493A1 (de) | 1990-01-19 | 1990-01-19 | Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4001493A1 true DE4001493A1 (de) | 1991-07-25 |
Family
ID=6398398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4001493A Ceased DE4001493A1 (de) | 1990-01-19 | 1990-01-19 | Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4001493A1 (de) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4218599A1 (de) * | 1992-06-05 | 1993-12-16 | Bodenseewerk Geraetetech | Navigations- und Führungssystem für autonome, mobile Roboter |
EP0582236A1 (de) * | 1992-08-04 | 1994-02-09 | Takata Corporation | Steuerungssystem mit neuronalem Netzwerk zum Voraussagen und Vermeiden von Zusammenstössen eines Fahrzeuges |
EP0718732A3 (de) * | 1994-11-15 | 1996-08-28 | Alexander Kaske | Verfahren und Vorrichtung zum Steuern eines autonom explorierenden Roboters |
DE19517198C1 (de) * | 1995-05-11 | 1996-10-10 | Samson Ag | Verfahren zur Führung der Hubstellung eines Stellgliedes |
DE19523111A1 (de) * | 1995-06-26 | 1997-01-02 | Daimler Benz Ag | Einrichtung zur Regelung des Abstandes eines Kraftfahrzeuges zu einem vorausfahrenden Fahrzeug |
DE10226140A1 (de) * | 2002-06-13 | 2004-01-08 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Vermeiden von Kollisionen zwischen Industrierobotern und anderen Objekten |
US6678582B2 (en) | 2002-05-30 | 2004-01-13 | Kuka Roboter Gmbh | Method and control device for avoiding collisions between cooperating robots |
DE10324517A1 (de) * | 2003-05-28 | 2004-12-16 | Daimlerchrysler Ag | Roboter und Anlernverfahren dafür |
EP1659471A1 (de) * | 2004-11-17 | 2006-05-24 | Hitachi, Ltd. | Autonomes mobiles Gerät mit Detektionssystem zum Bestimmen einer Objektposition und der eigenen Position |
DE19704983B4 (de) * | 1997-01-29 | 2006-07-06 | Diehl Bgt Defence Gmbh & Co. Kg | Autonomes System, insbesondere autonome Plattform |
DE102006044086B4 (de) * | 2006-09-20 | 2013-05-29 | Audi Ag | System und Verfahren zur Simulation von Verkehrssituationen, insbesondere unfallkritischen Gefahrensituationen, sowie ein Fahrsimulator |
DE102016009655A1 (de) | 2016-08-09 | 2017-04-06 | Daimler Ag | Verfahren zum Betrieb eines Fahrzeugs |
CN107491072A (zh) * | 2017-09-05 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | 车辆避障方法和装置 |
DE102016218232A1 (de) | 2016-09-22 | 2018-03-22 | Volkswagen Aktiengesellschaft | Positionsbestimmungssystem für eine mobile Einheit, Fahrzeug und Verfahren zum Betreiben eines Positionsbestimmungssystems |
DE102017108348B3 (de) | 2017-04-20 | 2018-06-21 | Valeo Schalter Und Sensoren Gmbh | Konfiguration eines Sensorsystems mit einem neuronalen Netzwerk für ein Kraftfahrzeug |
DE102017121581A1 (de) | 2017-09-18 | 2019-03-21 | Valeo Schalter Und Sensoren Gmbh | Verwendung eines Verfahrens zum Verarbeiten mittels Ultraschall erhaltener Daten |
DE102017123388A1 (de) | 2017-10-09 | 2019-04-11 | Valeo Schalter Und Sensoren Gmbh | Positionsbestimmung mittels Ultraschall unter Verwendung eines künstlichen neuronalen Netzwerk |
DE102017127600A1 (de) * | 2017-11-22 | 2019-05-23 | Connaught Electronics Ltd. | Verfahren zum automatischen Parken für ein Kraftfahrzeug mit einem Fahrunterstützungssystem |
DE102018205050A1 (de) * | 2018-04-04 | 2019-10-10 | Zf Friedrichshafen Ag | Erkennen eines Beförderungswunsches einer Person für eine Beförderung mit einem Personenbeförderungsfahrzeug |
CN111542836A (zh) * | 2017-10-04 | 2020-08-14 | 华为技术有限公司 | 一种使用神经网络为对象选择动作的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4875172A (en) * | 1984-09-28 | 1989-10-17 | Yutaka Kanayama | Locomotion-command method for mobile robots |
-
1990
- 1990-01-19 DE DE4001493A patent/DE4001493A1/de not_active Ceased
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4875172A (en) * | 1984-09-28 | 1989-10-17 | Yutaka Kanayama | Locomotion-command method for mobile robots |
Non-Patent Citations (4)
Title |
---|
FUJIWARA, K., u.a.: Development of Guidless Robot Vehicle, In: Proc. of 11th Intern. Symposium on Industrial Robots 1981, S. 203-210 * |
KLAR, H., RAMACHER, U.: Microelectronics for Artificial Neural Nets Fortschr. Ber. VDI Reihe 21 Nr. 42 Düsseldorf: VDI-Verlag 1989 * |
LEVI, P.: Autonome mobile Roboter, In: Technische Rundschau, 1987, H. 13, S. 126-135 * |
OPITZ, R.: Natürliche und künstliche Intelligenz In: Forum(Data General GmbH) 1984, S. 15-18 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4218599A1 (de) * | 1992-06-05 | 1993-12-16 | Bodenseewerk Geraetetech | Navigations- und Führungssystem für autonome, mobile Roboter |
EP0582236A1 (de) * | 1992-08-04 | 1994-02-09 | Takata Corporation | Steuerungssystem mit neuronalem Netzwerk zum Voraussagen und Vermeiden von Zusammenstössen eines Fahrzeuges |
US5541590A (en) * | 1992-08-04 | 1996-07-30 | Takata Corporation | Vehicle crash predictive and evasive operation system by neural networks |
EP0718732A3 (de) * | 1994-11-15 | 1996-08-28 | Alexander Kaske | Verfahren und Vorrichtung zum Steuern eines autonom explorierenden Roboters |
DE19517198C1 (de) * | 1995-05-11 | 1996-10-10 | Samson Ag | Verfahren zur Führung der Hubstellung eines Stellgliedes |
DE19523111A1 (de) * | 1995-06-26 | 1997-01-02 | Daimler Benz Ag | Einrichtung zur Regelung des Abstandes eines Kraftfahrzeuges zu einem vorausfahrenden Fahrzeug |
DE19704983B4 (de) * | 1997-01-29 | 2006-07-06 | Diehl Bgt Defence Gmbh & Co. Kg | Autonomes System, insbesondere autonome Plattform |
US6678582B2 (en) | 2002-05-30 | 2004-01-13 | Kuka Roboter Gmbh | Method and control device for avoiding collisions between cooperating robots |
DE10226140A1 (de) * | 2002-06-13 | 2004-01-08 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Vermeiden von Kollisionen zwischen Industrierobotern und anderen Objekten |
DE10324517A1 (de) * | 2003-05-28 | 2004-12-16 | Daimlerchrysler Ag | Roboter und Anlernverfahren dafür |
EP1659471A1 (de) * | 2004-11-17 | 2006-05-24 | Hitachi, Ltd. | Autonomes mobiles Gerät mit Detektionssystem zum Bestimmen einer Objektposition und der eigenen Position |
US7660665B2 (en) | 2004-11-17 | 2010-02-09 | Hitachi, Ltd. | Autonomous mobile equipment and position-of-object and own position detecting system |
DE102006044086B4 (de) * | 2006-09-20 | 2013-05-29 | Audi Ag | System und Verfahren zur Simulation von Verkehrssituationen, insbesondere unfallkritischen Gefahrensituationen, sowie ein Fahrsimulator |
DE102016009655A1 (de) | 2016-08-09 | 2017-04-06 | Daimler Ag | Verfahren zum Betrieb eines Fahrzeugs |
US11415996B2 (en) | 2016-09-22 | 2022-08-16 | Volkswagen Aktiengesellschaft | Positioning system for a mobile unit, vehicle and method for operating a positioning system |
DE102016218232A1 (de) | 2016-09-22 | 2018-03-22 | Volkswagen Aktiengesellschaft | Positionsbestimmungssystem für eine mobile Einheit, Fahrzeug und Verfahren zum Betreiben eines Positionsbestimmungssystems |
WO2018054579A1 (de) | 2016-09-22 | 2018-03-29 | Volkswagen Aktiengesellschaft | Positionsbestimmungssystem für eine mobile einheit, fahrzeug und verfahren zum betreiben eines positionsbestimmungssystems |
DE102016218232B4 (de) | 2016-09-22 | 2024-02-15 | Volkswagen Aktiengesellschaft | Positionsbestimmungssystem für eine mobile Einheit, Fahrzeug und Verfahren zum Betreiben eines Positionsbestimmungssystems |
DE102017108348B3 (de) | 2017-04-20 | 2018-06-21 | Valeo Schalter Und Sensoren Gmbh | Konfiguration eines Sensorsystems mit einem neuronalen Netzwerk für ein Kraftfahrzeug |
CN107491072A (zh) * | 2017-09-05 | 2017-12-19 | 百度在线网络技术(北京)有限公司 | 车辆避障方法和装置 |
CN107491072B (zh) * | 2017-09-05 | 2021-03-30 | 百度在线网络技术(北京)有限公司 | 车辆避障方法和装置 |
DE102017121581B4 (de) | 2017-09-18 | 2019-05-09 | Valeo Schalter Und Sensoren Gmbh | Verwendung eines Verfahrens zum Verarbeiten mittels Ultraschall erhaltener Daten |
DE102017121581A1 (de) | 2017-09-18 | 2019-03-21 | Valeo Schalter Und Sensoren Gmbh | Verwendung eines Verfahrens zum Verarbeiten mittels Ultraschall erhaltener Daten |
CN111542836A (zh) * | 2017-10-04 | 2020-08-14 | 华为技术有限公司 | 一种使用神经网络为对象选择动作的方法 |
CN111542836B (zh) * | 2017-10-04 | 2024-05-17 | 华为技术有限公司 | 一种使用神经网络为对象选择动作的方法 |
DE102017123388A1 (de) | 2017-10-09 | 2019-04-11 | Valeo Schalter Und Sensoren Gmbh | Positionsbestimmung mittels Ultraschall unter Verwendung eines künstlichen neuronalen Netzwerk |
DE102017127600A1 (de) * | 2017-11-22 | 2019-05-23 | Connaught Electronics Ltd. | Verfahren zum automatischen Parken für ein Kraftfahrzeug mit einem Fahrunterstützungssystem |
DE102018205050A1 (de) * | 2018-04-04 | 2019-10-10 | Zf Friedrichshafen Ag | Erkennen eines Beförderungswunsches einer Person für eine Beförderung mit einem Personenbeförderungsfahrzeug |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4001493A1 (de) | Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten | |
DE3534183C2 (de) | ||
EP3765927B1 (de) | Verfahren zum erzeugen eines trainingsdatensatzes zum trainieren eines künstlichen-intelligenz-moduls für eine steuervorrichtung eines fahrzeugs | |
DE102019104974A1 (de) | Verfahren sowie System zum Bestimmen eines Fahrmanövers | |
EP3982349B1 (de) | Fluggerät sowie verfahren und rechnergestütztes system zur steuerung eines fluggeräts | |
DE102019118366A1 (de) | Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs | |
EP3776515B1 (de) | Verfahren und vorrichtung zur abstimmung von fahrmanövern zwischen einem fahrzeug und mindestens einem alius-fahrzeug | |
DE102018119867B4 (de) | Autonome Verhaltenssteuerung unter Verwendung von Richtlinienauslösung und -ausführung | |
DE102021110309A1 (de) | Verfahren zum Modellieren eines menschlichen Fahrverhaltens zum Trainieren von Bewegungssteuerungen, die auf einem neuronalen Netzwerk basieren | |
AT524822B1 (de) | Verfahren zum Testen eines Fahrerassistenzsystems eines Fahrzeugs | |
WO2020169374A1 (de) | Verfahren zum validieren von automatisierten funktionen eines fahrzeugs | |
DE102021101225A1 (de) | Autonomes Fahrzeug und Verfahren zu dessen Betrieb | |
DE102018216561A1 (de) | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Strategie eines Agenten | |
Kornhauser | Neural network approaches for lateral control of autonomous highway vehicles | |
DE102020211260A1 (de) | Einlernen von Trajektorien bei einem Kraftfahrzeug | |
DE102022131178B3 (de) | Verfahren zum automatisierten Führen eines Fahrzeugs sowie Verfahren zum Erzeugen eines hierzu fähigen Modells des Maschinellen Lernens sowie Prozessorschaltung und Fahrzeug | |
WO2021191120A1 (de) | VERFAHREN ZUR BESTIMMUNG EINES WERTES EINER REGLERGRÖßE | |
WO2021244793A1 (de) | Ferngesteuerter eingriff in die taktikplanung von autonomen fahrzeugen | |
DE102020204042A1 (de) | Verfahren und System zum Programmieren eines autonom betriebenen Fahrzeugs zum Durchführen einer Trajektorie | |
DE102015223329A1 (de) | Verfahren zur Steuerung eines Flurförderfahrzeugs, Auswertevorrichtung für ein Flurförderfahrzeug, Flurförderfahrzeug | |
EP4414142A1 (de) | Autonomes ansteuern einer vorrichtung | |
DE102021210593A1 (de) | Verfahren zum Trainieren eines neuronalen Umfeld-Netzwerks zum Bestimmen eines Objekt-angereicherten Umfelds einer mobilen Plattform | |
DE10134055C1 (de) | Fahrzeug-Führungssystem und Verfahren zur Durchführung einer automatischen Fahrzeug-Führung | |
DE102023205411A1 (de) | Computerimplementiertes Verfahren zum Steuern eines robotischen Systems und robotisches System | |
DE102021212697A1 (de) | Verfahren zum Bestimmen eines Bewegungspfades für ein mobiles Gerät |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8131 | Rejection |