Beschreibung
Verfahren zur Reaktion auf Kontextänderungen mit einem neuro¬ nalen Netz und neuronales Netz zur Reaktion auf Kontextände- rungen
Die Erfindung betrifft ein Verfahren zur Reaktion auf Kon¬ textänderungen mit einem neuronalen Netz,' sowie ein neurona¬ les Netz, welches auf Kontextänderungen reagieren kann.
Unter Kontext wird ein äußerer Sinnzusammenhang verstanden, welcher angibt, welches Verhalten in einer bestimmten Situa¬ tion sinnvoll ist.
Bei einem Aktienkurs könnte der Kontext angeben, ob der Kurs steigt oder fällt, und abhängig von diesem Kontext wäre es eine sinnvolle Entscheidung, die Aktie zu kaufen oder zu ver¬ kaufen. Der Kontext kann auch angeben, dass ein Wetterum¬ schwung bevorsteht, und abhängig von diesem Wetterumschwung wäre eine positive oder negative Wettervorhersage sinnvoll. Der Kontext kann weiterhin auch eine veränderliche Strategie eines Spielers eines Computerspieles sein, und abhängig von dieser Strategie kann ein bestimmtes Verhalten einer Figur in dem Computerspiel sinnvoll sein (z.B. Angriff oder Verteidi- gung) .
Die Erfindung betrifft also eine Methode der Datenverarbei¬ tung, um für eine vorgegebene Situation ein richtiges Verhal¬ ten zu finden. Als Verhalten wird hierbei bereits die Ein- Schätzung der Situation verstanden, das Verhalten kann aber auch eine Entscheidung oder eine Handlung umfassen.
Bekannt sind intelligente Software-Agenten, welche mit Metho¬ den der künstlichen Intelligenz entwickelt werden. Es handelt sich hierbei um regelbasierte Systeme, welche eine Datenbasis mit Regeln besitzen sowie eine Logik zur Abarbeitung der Re¬ geln. Die Regeln sind hierbei explizit formuliert und müssen
durch den Entwickler manuell eingegeben werden. Es handelt sich hierbei um ein deklaratives Programmiermodell. Ein Bei¬ spiel für solche intelligenten Agenten sind BDI-Agenten (Be- lieve-Desire-Intention) . Diese erfassen sensorisch Daten, verarbeiten diese mit einer Menge von Regeln und wählen ein Verhalten.
Eine bekannte Weiterbildung ist die Implementation einer Fuz- zy-Logik, die jedoch auch eine explizite Regelformulierung benötigt. In der Psychologie sind weitere Modelle für das menschliche Verhalten bekannt, die ebenfalls auf expliziten Regeln beruhen.
Gegenstand der Erfindung ist auch das dynamische Verstär- kungslernen (dynamic reinforcement learning) , bei dem ein System oder Agent Rückmeldungen zu seinem Verhalten erhält, welche dazu dienen, ihm die flexible Reaktion auf Kontextän¬ derungen zu ermöglichen. Wenn das System oder der Agent z. B. eine Kaufen-Entscheidung trifft und der Aktienkurs anschlie- ßend fällt, so kann das System oder der Agent durch entspre¬ chende Rückmeldung lernen, und in der nächsten Situation ein richtigeres Verhalten wählen. Unter Verhalten wird eine Ent¬ scheidung, eine Situationsbewertung oder eine Handlung ver¬ standen. Die Bewertung einer Situation kann auch als Gefühl bezeichnet werden. Das dynamische Verstärkungslernen ist in der Schrift [1] beschrieben.
Als lernende Systeme sind insbesondere neuronale Netze be¬ kannt. Einem solchen neuronalen Netz werden Informationen ü- ber die gegenwärtige Situation in Form von Eingabeinformatio¬ nen zugeführt. Die Eingabeinformationen werden durch das neu¬ ronale Netz verarbeitet. Anschließend können dem neuronalen Netz Ausgabeinformationen entnommen werden. Die Ausgabeinfor¬ mationen beschreiben das Verhalten des neuronalen Netzes und stellen somit eine Entscheidung, eine Situationsbewertung o- der eine Handlungsanweisung dar. Ein neuronales Netz kann trainiert werden, so dass es lernt, welche Ausgabeinformation
für eine gegebene Eingabeinformation richtig ist. Dies wird als synaptisches Lernen bezeichnet. Mit Synapsen werden die Verbindungen zwischen den einzelnen Neuronen, den Elementen des neuronalen Netzes, bezeichnet. Durch Ausprägung der sy- naptischen Stärken erlernt das neuronale Netz in diesem Zu¬ sammenhang die richtige Abbildung von Eingabeinformationen auf Ausgabeinformationen.
Der Vorteil neuronaler Netze liegt darin, dass die Regeln zur Abbildung der Eingabeinformationen auf Ausgabeinformationen nicht explizit und deklarativ vorgegeben werden müssen. Viel¬ mehr erlernt das neuronale Netz eine implizite Regel- Repräsentation aus den Daten, mit welchen es trainiert wird. Nachteilig wirkt sich hierbei jedoch aus, dass das neuronale Netz nicht flexibel auf Kontextänderungen reagieren kann. Ei¬ ne Kontextänderung, also eine Änderung des äußeren Sinnzusam¬ menhangs, stellt die Anforderung an das neuronale Netz, die Abbildung von Eingabeinformationen auf Ausgabeinformationen mit sofortiger Wirkung umzustellen. Bei dem synaptischen Ler- nen handelt es sich jedoch um einen inkrementellen, zeitver¬ zögerten Prozess, welcher keine flexible und schnelle Reakti¬ on auf Kontextänderungen ermöglicht.
Somit stellt sich die Aufgabe, ein Verfahren zur Reaktion auf Kontextänderungen sowie eine Datenverarbeitungseinheit an¬ zugeben, welche auf Kontextänderungen reagieren kann.
Bei dem Verfahren zur Reaktion auf Kontextänderungen mit ei¬ nem neuronalen Netz werden einer Eingabeschicht des neurona- len Netzes Eingabeinformationen zugeführt. Weiterhin werden einer Ausgabeschicht des neuronalen Netzes Ausgabeinformatio¬ nen entnommen. Ferner sind in dem neuronalen Netz mehrere Mo¬ delle gespeichert, welche jeweils eine Abbildung der Eingabe¬ informationen auf die Ausgabeinformationen vorgeben. Hierbei kann jeweils nur ein Modell gleichzeitig aktiv sein. Es wer¬ den nun folgende Schritte wiederholt: Das neuronale Netz bil¬ det eine zugeführte Eingabeinformation mit dem aktiven Modell
auf eine Ausgabeinformation ab. Diese wird anschließend der Ausgabeschicht entnommen. Wenn die entnommene Ausgabeinforma¬ tion für die zugeführte Eingabeinformation in einem aktuellen Kontext falsch ist, erhält das neuronale Netz eine Falsch- Rückmeldung, woraufhin das neuronale Netz ein anderes Modell aktiviert.
Vorzugsweise wird aus der entnommenen Ausgabeinformation eine Aktion abgeleitet und ausgeführt.
In einer Weiterbildung enthält das neuronale Netz erregende gepulste Neuronen. Diese bilden Modellpools, wobei jedem Mo¬ dell mindestens ein Modellpool zugeordnet ist. Die Modell¬ pools konkurrieren miteinander, wobei sich ein aktiver Mo- dellpool in der Konkurrenz durchsetzt.
Gemäß einer Ausführungsform der Erfindung enthält das neuro¬ nale Netz hemmende gepulste Neuronen. Diese bilden mindestens einen hemmenden Pool. Der hemmende Pool übt eine globale Hem- mung auf die konkurrierenden Modellpools aus. Die Falsch- Rückmeldung aktiviert den hemmenden Pool. Der aktivierte hem¬ mende Pool führt eine vollständige Hemmung aller Modellpools durch. Die vollständige Hemmung deaktiviert daraufhin den ak¬ tiven Modellpool. Nach der vollständigen Hemmung wird ein an- derer Modellpool aktiviert.
Gemäß einer Weiterbildung der Erfindung adaptieren sich Sy¬ napsen der erregenden gepulsten Neuronen des aktiven Modell¬ pools. Dadurch sinken rekurrente Gewichte des aktiven Modell- pools ab. Dies führt dazu, dass der aktive Modellpool nach der vollständigen Hemmung in der Konkurrenz gegenüber den an¬ deren Modellpools unterliegt.
Vorzugsweise wird die Adaption der Synapsen als kurzzeitige synaptische Depression (STD) implementiert.
Gemäß einer Ausführungsform der Erfindung bilden erregende gepulste Neuronen Regelpools. Jeder dieser Regelpools ver¬ schaltet jeweils eine der Eingabeinformationen mit einer der Ausgabeinformationen. Die Regelpools treten miteinander in Konkurrenz, wobei der aktive Modellpool eine Auswahl von Re¬ gelpools unterstützt. Die zugeführte Eingabeinformation akti¬ viert einen Regelpool aus dieser Auswahl. Der entsprechend aktivierte Regelpool aktiviert die zu entnehmende Ausgabein¬ formation. Diese wird im Anschluss entnommen.
In einer besonderen Ausführungsform der Erfindung enthält das neuronale Netz Verschaltungen, welche durch Hebb'sches Lernen ausgebildet werden.
Das neuronale Netz zur Reaktion auf Kontextänderungen weist eine Eingabeschicht auf, der Eingabeinformationen zuführbar sind. Weiterhin ist eine Zwischenschicht vorhanden, durch die die Eingabeinformationen auf Ausgabeinformationen abbildbar sind. Weiterhin ist eine Ausgabeschicht vorhanden, an der die Ausgabeinformationen entnehmbar sind. Schließlich weist das neuronale Netz noch eine Modellschicht auf, mit der die Ab¬ bildung in der Zwischenschicht abhängig von einem Kontext steuerbar ist.
Gemäß einer Weiterbildung enthält die Modellschicht erregende gepulste Neuronen. Weiterhin enthält die Modellschicht mehre¬ re Modellpools, welche aus den erregenden gepulsten Neuronen bestehen. Mit den Modellpools ist die Abbildung in der Zwi¬ schenschicht abhängig von einem Kontext steuerbar.
Gemäß einer Weiterbildung der Erfindung enthält das neuronale Netz hemmende gepulste Neuronen. Weiterhin enthält das neuro¬ nale Netz einen hemmenden Pool, welcher aus den hemmenden ge¬ pulsten Neuronen besteht. Der hemmende Pool ist mit den Mo- dellpools verschaltet. Weiterhin ist der hemmende Pool durch eine Falsch-Rückmeldung aktivierbar, wenn eine entnommene Ausgabeinformation falsch ist.
Gemäß einer Weiterbildung der Erfindung weist das neuronale Netz in einem ersten Modul die Modellschicht und in einem zweiten Modul die anderen Schichten auf.
In einer besonderen Ausführungsform weist die EingabeSchicht für jede Eingabeinformation einen Eingabepool auf, welcher aus erregenden gepulsten Neuronen besteht und durch Zufuhr der jeweiligen Eingabeinformation aktivierbar ist. Weiterhin weist die Zwischenschicht Regelpools auf, durch welche je¬ weils eine Eingabeinformation mit einer Ausgabeinformation verschaltbar ist. Hierbei bestehen die Regelpools aus erre¬ genden gepulsten Neuronen. Ferner weist die AusgäbeSchicht für jede Ausgabeinformation einen Ausgabepool auf, welcher aus erregenden gepulsten Neuronen besteht. Weiterhin sind die Modellpools mit den Regelpools so verschaltet, dass abhängig von der Aktivierung der Modellpools nur eine Auswahl von Re¬ gelpools aktivierbar ist. Weiterhin ist durch eine zugeführte Eingabeinformation ein repräsentativer Eingabepool aktivier- bar, welcher die zugeführte Eingabeinformation repräsentiert. Ferner ist durch den repräsentativen Eingabepool ein bevor¬ zugter Regelpool aktivierbar, welcher zu der Auswahl von Re¬ gelpools gehört, welche mit einem aktiven Modellpool ver¬ schaltet sind. Schließlich ist durch den bevorzugten Regel- pool ein repräsentativer Ausgabepool aktivierbar, wobei der repräsentative Ausgabepool eine entnehmbare Ausgabeinformati¬ on repräsentiert.
Das neuronales Netz kann weiterhin eine oder mehrere zusätz- liehe Eingabeschichten, Zwischenschichten, Ausgabeschichten, Modellschichten oder andere Schichten aufweisen. Diese zu¬ sätzlichen Schichten können die Eingabeinformationen, die Ausgabeinformationen oder andere Informationen speichern, filtern, bewerten, vernetzen oder kategorisieren oder andere Funktionen übernehmen.
Der Vorteil des erfindungsgemäßen Verfahrens liegt darin, dass die Regeln für das Verhalten äußerst implizit repräsen¬ tiert sind und nicht explizit angegeben werden müssen. Wei¬ terhin ist es möglich, bereits nach einer einzigen Falsch- Rückmeldung die Abbildung von Eingabeinformationen auf Ausga¬ beinformationen zu wechseln. Dadurch erreicht das Verfahren eine große Schnelligkeit und Flexibilität bei der Reaktion auf Kontextänderungen, welche es gegenüber herkömmlichen neu¬ ronalen Netzen auszeichnet.
Weiterhin beschreibt die Erfindung ein quantitatives mathema¬ tisches Modell mit direkter biologischer Relevanz, indem es konkret die neurodynamischen Prozesse abbildet, welche auch in der biologischen Forschung erkannt wurden. Das Verhalten ergibt sich somit als autonomes, emergentes Phänomen und weist gegenüber herkömmlichen Agenten mit deklarativer Regel¬ repräsentation deutliche Vorteile auf.
Im Gegensatz zur deklarativen Regelformulierung bei herkömm- liehen BDI-Agenten erlaubt die Erfindung neben der impliziten Regelrepräsentation eine dynamische Regelselektion, welche auch ein Zufallselement mit einschließt. Das Zufallselement ergibt sich aus dem emergenten, freien Zusammenspiel der Neu¬ ronen und Pools des neuronalen Netzes.
Im Folgenden wird die Erfindung anhand von Ausführungsbei¬ spielen näher erläutert, die in den Figuren schematisch dar¬ gestellt sind. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche Elemente. Im Einzelnen zeigt:
Fig. 1 eine erste Ausführungsform des neuronalen Netzes; Fig. 2 eine zweite Ausführungsform des neuronalen Netzes; Fig. 3 Gewichte eines ersten Moduls; Fig. 4 Gewichte eines zweiten Moduls; Fig. 5 den Aufbau eines Pools.
Figur 1 zeigt ein neuronales Netz 1 mit einer Eingabeschicht 10, einer Zwischenschicht 20, einer Ausgabeschicht 30 sowie einer Modellschicht 40. Dem neuronalen Netz 1 wird eine Ein¬ gabeinformation 2 zugeführt und später eine Ausgabeinformati- on 3 entnommen. Die Eingabeschicht 10 weist starke Verbindun¬ gen zur Zwischenschicht 20 auf, welche wiederum starke Ver¬ bindungen zur Ausgäbeschicht 30 aufweist. Die Modellschicht 40 weist starke Verbindungen zur Zwischenschicht 20 auf.
Mit einer starken Verbindung zwischen zwei Schichten ist ge¬ meint, dass die Schichten überdurchschnittlich viele Verbin¬ dungen aufweisen oder dass die Verbindungen überdurchschnitt¬ lich stark ausgeprägt sind. Die Verbindungen werden in der Regel über Synapsen hergestellt, welche Neuronen der einen Schicht mit Neuronen der anderen Schicht verbinden. Eine starke Verbindung zweier Schichten bedeutet somit, dass be¬ sonders viele synaptische Verbindungen zwischen den Schichten bestehen oder, dass die synaptischen Verbindungen besonders stark ausgeprägt sind. Die synaptische Stärke kann durch ein Gewicht w beschrieben werden. Höhere Werte für ein synapti¬ sches Gewicht w bedeuten eine stärkere synaptische Verbindung zwischen den beteiligten Neuronen.
Die Neuronen des neuronalen Netzes können in den Schichten und über die Schichten hinweg teilweise oder vollständig ver¬ knüpft sein. Im Fall der vollständigen Verknüpfung liegt Vollvernetzung vor, das bedeutet, dass jedes Neuron mit jedem anderen Neuron verbunden, verknüpft bzw. vernetzt ist.
Gemäß einer Ausführungsform der Erfindung sind die Schichten miteinander rückgekoppelt, d. h. es existieren jeweils auch starke Verbindungen in umgekehrter Richtung. Diese Rückkoppe¬ lung führt zu einer Verschiebung des Gleichgewichts im Wett¬ bewerb der einzelnen Neuronen bzw. Gruppen (Pools) von Neuro- nen.
Die Stärke der vorwärts gerichteten Verbindungen, also von der Eingabeschicht 10 über die Zwischenschicht 20 zur Ausga¬ beschicht 30 sowie von der Modellschicht 40 zur Zwischen¬ schicht 20, ist zweckmäßigerweise stärker ausgebildet als die Stärke der rückwärts gerichteten Verbindungen.
Durch die Zwischenschicht 20 wird die zugeführte Eingabein- formation 2 auf die entnommene Ausgabeinformation 3 abgebil¬ det. Die Zwischenschicht 20 hat hierzu unterschiedliche Ab- bildungen gespeichert, von denen jeweils eine durch die Mo¬ dellschicht 40 aktiviert wird. Hierdurch ist eine schnelle Reaktion auf Kontextänderungen möglich, da die Abbildung in der Zwischenschicht 20 flexibel verändert werden kann.
Gemäß einer Ausführungsform enthalten die Eingabeschicht 10, die Zwischenschicht 20, die AusgäbeSchicht 30, sowie die Mo¬ dellschicht 40 Gruppen (Pools) von Neuronen. Es ist auch mög¬ lich, dass nur einzelne dieser Schichten Pools enthalten. Die Pools der jeweiligen Schicht können erregende gepulste Neuro- nen enthalten. Erregende gepulste Neuronen werden durch Pulse anderer erregender gepulster Neuronen aktiviert und senden selbst Pulse an weitere Neuronen aus. Die Aktivität eines Pools von gepulsten Neuronen kann unter Verwendung einer Mean-Field-Näherung modelliert werden.
Die Pools sind an der Biologie des menschlichen Gehirns ange¬ lehnt. Im menschlichen Gehirn bilden große und homogene Popu- lationen von Neuronen, die eine ähnliche externe Eingabe emp¬ fangen, gegenseitig verkoppelt sind und wahrscheinlich zusam- men als eine Einheit fungieren, Gruppen (Pools) . Diese Pools können eine robustere Verarbeitungs- und Codierungseinheit bilden, weil ihre momentane Populations-Mittelwertanwort, im Gegensatz zum zeitlichen Mittel eines relativ stochastischen Neurons in einem großen Zeitfenster, besser an die Analyse von schnellen Wechseln in der realen Welt angepasst ist.
Wenn ein Neuron ein anderes aktivieren kann, so bedeutet dies, dass eine starke Verbindung zwischen den beiden Neuro¬ nen besteht. Gleiches gilt für den Fall, dass ein Pool einen anderen Pool aktiviert. Dies bedeutet, dass mindestens eine starke Verbindung mindestens eines Neurons des ersten Pools mit einem Neuron des zweiten Pools vorliegt.
Figur 5 zeigt, dass auch die Neuronen 101 eines Pools 100 miteinander stark verbunden sind. Es kann, wie in Figur 5 ge- zeigt, eine teilweise Verknüpfung, aber auch eine vollständi¬ ge Vernetzung der Neuronen 101 des Pools 100 vorliegen. Die Neuronen 101 des Pools 100 sind über starke Verbindungen 102 verknüpft, tragen also in gegenseitiger Unterstützung zur Ak¬ tivierung des Pools 100 bei. Je größer die Aktivität der Neu- ronen 101 ist, desto größer ist die Aktivität des Pools 100.
Die Aktivität der Neuronen 101 kann durch mathematische Mo¬ delle beschrieben werden. Weitere Informationen zu der mathe¬ matischen Modellierung von Pools bei der Entwicklung neurona- ler Netze sowie unterschiedliche mathematische Modelle für gepulste Neuronen, wie sie im Rahmen der Ausführungsbeispiele zum Einsatz kommen, sind u. a. aus den Schriften [2], [3] und [4] bekannt.
Wenn mehrere Pools 100 in einer Schicht in Konkurrenz treten, so bedeutet dies, dass die Verbindungen zwischen den Pools 100 in der Schicht schwach ausgeführt sind. Dies bedeutet, dass sich die Pools 100 in einer Schicht nicht gegenseitig unterstützen. Wenn die Pools 100 nun auch noch einer globalen Hemmung unterliegen, so wird sich in der Konkurrenz nur ein Pool 100 mit der größten Aktivität durchsetzen können.
Mit Neuronen 101 sind im Rahmen der Erfindung immer künstli¬ che Neuronen 101 gemeint. Diese modellieren teilweise oder vollständig jeweils einen bestimmten Typ eines aus der Biolo¬ gie bekannten Neurons. Die Modellierung kann durch eine e- lektronische Schaltung oder ein mathematisches Modell erfol-
gen, welches durch eine Datenverarbeitungsanlage berechnet wird. Mit einer Verbindung zweier Pools 100 ist gemeint, dass die Neuronen 101 dieser Pools 100 stark oder schwach mitein¬ ander verbunden sind, d. h. dass z. B. viele oder wenige, starke oder schwache synaptische Verbindungen zwischen den
Neuronen des einen und den Neuronen 101 des anderen Pools 100 existieren.
Die in Figur 5 gezeigten starken Verbindungen 102 zwischen den Neuronen 101 des Pools 100 dienen der Selbstverstärkung des Pools 100. Die Stärke dieser starken Verbindungen 102 entspricht z. B. den synaptischen Stärken zwischen den Neuro¬ nen 101, welche innerhalb des Pools 100 als rekurrente Ge¬ wichte bezeichnet werden.
Erfindungsgemäß speichert das neuronale Netz 1 für jeden Kon¬ text, also für jede Klasse von Situationen, ein Modell. Das Modell gibt jeweils an, wie die Eingabeinformationen auf die Ausgabeinformationen abgebildet werden sollen. Das Modell be- schreibt somit, welches Verhalten in einer bestimmten Situa¬ tion richtig ist. Unterschiedliche Situationen können unter¬ schiedliches Verhalten erfordern. Dies ist immer dann der Fall, wenn sich von einer Situation auf die nächste der Kon¬ text ändert. Dies bedeutet, dass in der zweiten Situation an- dere Ausgabeinformationen gewählt werden müssen als in der ersten Situation. Unterschiedlichen Situationen kann somit ein unterschiedlicher Kontext zugrunde liegen. Mit den Model¬ len versucht das neuronale Netz 1 nun, für jeden Kontext, al¬ so für jede Klasse von Situationen, anzugeben, wie die Einga- beinformationen auf die Ausgabeinformationen abgebildet wer¬ den sollen.
Wenn das neuronale Netz 1 dann mit einer veränderten Situati¬ on, der ein anderer Kontext zugrunde liegt, konfrontiert wird, so braucht es nur sein Modell zu wechseln.
Gemäß einer Ausführungsform der Erfindung enthält die Zwi¬ schenschicht 20 Regelpools 21, die miteinander in Konkurrenz treten, wobei sich nur ein aktivierter Regelpool 23 durchset¬ zen kann. Die Regelpools 21 stellen jeweils eine Verschal- tungsmöglichkeit einer Eingabeinformation mit einer Ausgabe¬ information dar. Durch den aktivierten Regelpool 23 wird die zugeführte Eingabeinformation 2 mit der zu entnehmenden Aus¬ gabeinformation 3 verschaltet.
Diese Verschaltung besteht aus starken Verbindungen zwischen Neuronen der Eingabeschicht 10, Neuronen des Regelpools 23 und Neuronen der AusgäbeSchicht 30. Verschaltung bedeutet al¬ so, dass Neuronen, Pools oder Schichten nicht nur miteinander verknüpft sind, was bei einer Vollvernetzung ohnehin vor- liegt, sondern dass die Gewichte der Verknüpfungen stark sind.
Gemäß einer Ausführungsform der Erfindung enthält die Modell¬ schicht 40 Modellpools 41, die miteinander konkurrieren, wo- bei sich nur ein aktiver Modellpool 42 durchsetzen kann. Der aktive Modellpool 42 ist mit einer Auswahl 22 von Regelpools 21 verschaltet. Dies bedeutet, dass die Regelpools 21 in der Auswahl 22 in ihrer Konkurrenz mit den anderen Regelpools 21 unterstützt werden, solange der aktive Modellpool 42 akti- viert ist. Der aktive Modellpool 42 bestimmt somit, welche
Regelpools 21 aktiviert werden können, und damit, wie die zu¬ geführte Eingabeinformation 2 auf die zu entnehmende Ausgabe¬ information 3 abgebildet wird. Welcher Regelpool 21 in der Auswahl 22 aktiviert wird, hängt von der zugeführten Eingabe- information 2 ab. Welche Ausgabeinformation 3 entnommen wird, hängt von dem aktivierten Regelpool 23 ab.
Die oben angesprochenen Modelle werden also jeweils durch ei¬ nen Modellpool 41 sowie durch die mit dem Modellpool 41 ver- schalteten Regelpools 21 sowie deren Zusammenspiel gebildet.
Gemäß einer Ausführungsform der Erfindung enthält das neuro¬ nale Netz 1 einen hemmenden Pool 50, welcher aus hemmenden, gepulsten Neuronen gebildet wird. Der hemmende Pool 50 ist mit der Modellschicht 40 verbunden, und übt eine globale Hem- mung auf die konkurrierenden Pools 41 auf. Dies ist notwen¬ dig, damit sich jeweils nur ein aktiver Modellpool 42 in der Konkurrenz durchsetzen kann.
Der hemmende Pool 50 wird hierbei durch die Modellpools 41 angeregt. Dies bedeutet, dass der aktive Modellpool 42 durch seine Aktivität den hemmenden Pool 50 stimuliert und dadurch die anderen Modellpools 41 indirekt hemmt. Nach dem gleichen Prinzip kann auch Konkurrenz in den anderen Schichten imple¬ mentiert werden.
Wenn ein Pool einen anderen aktiviert oder anregt, so bedeu¬ tet dies, dass zwischen den Neuronen der beiden Pools starke Verbindungen bestehen. Bei der Anregung oder Aktivierung han¬ delt es sich um erregende Verbindungen, z. B. starke, erre- gende, synaptische Verbindungen. Im Fall der Hemmung handelt es sich um hemmende Verbindungen, z. B. hemmende, synaptische Verbindungen.
Gemäß einer Ausführungsform der Erfindung ist der hemmende Pool 50 auch mit den anderen Schichten stark verbunden oder es gibt einen oder mehrere hemmende Pools, die mit den ande¬ ren Schichten verschaltet sind, d. h. einen hemmenden Ein- fluss auf sie ausüben.
Wenn die entnommene Ausgabeinformation 3 falsch war, so muss das neuronale Netz 1 informiert werden, dass seine aktuelle Abbildung bzw. sein aktuelles Modell nicht der gegenwärtigen Situation bzw. dem gegenwärtigen Kontext entspricht. Hierzu wird der hemmende Pool 50 durch eine Falsch-Rückmeldung 4 ak- tiviert, wodurch die globale Hemmung zu einer vollständigen
Hemmung aller Modellpools 41 verstärkt wird. Dadurch wird der aktive Modellpool 42 mit allen anderen Modellpools 41 deakti-
viert. Der aktive Modellpool 42 unterliegt anschließend in der Konkurrenz gegenüber den anderen Modellpools 41, wodurch ein anderer Modellpool 41 aktiviert wird.
Die Falsch-Rückmeldung 4 kann z. B. dadurch implementiert werden, dass die Neuronen des hemmenden Pools 50 über deren synaptische Eingänge von außen aktiviert werden.
Damit der aktive Modellpool 42 nach der vollständigen Hemmung in der Konkurrenz unterliegt, werden gemäß einer Ausführungs- form der Erfindung Synapsen der erregenden, gepulsten Neuro¬ nen des aktiven Modellpools 42 derart adaptiert, dass die Selbstverstärkung des aktiven Modellpools 42 mit der Zeit ab¬ nimmt. Indem die synaptischen Stärken der erregenden, gepuls- ten Neuronen des aktiven Modellpools 42 gesenkt werden, sin¬ ken auch die rekurrenten Gewichte des aktiven Modellpools 42. Ein solches Verfahren ist aus der Fachliteratur als "kurzzei¬ tige synaptische Depression (STD)" bekannt. Es können jedoch auch andere Verfahren zum Einsatz kommen.
Nachdem der aktive Modellpool 42 in der Konkurrenz unterlegen ist, wird ein anderer Modellpool 41 aktiviert, der z. B. eine Auswahl 24 von Regelpools 21 unterstützt. Es wird nun also eine andere Abbildung gewählt, womit der Kontextänderung Rechnung getragen wird. Bei der nächsten zugeführten Eingabe¬ information 2 würde der ehemals aktivierte Regelpool 23 in der Konkurrenz mit den Regelpools 21 aus der Auswahl 24 un¬ terliegen, da diese nun durch die Modellschicht 40 unter¬ stützt werden. Dadurch wird die nächste zugeführte Eingabein- formation 2 mit einer anderen entnehmbaren Ausgabeinformation 3 verschaltet.
Gemäß einer Ausführungsform der Erfindung weist auch die Ein¬ gabeschicht 10 Eingabepools 11 auf, die miteinander in Kon- kurrenz treten, wobei sich immer nur ein Eingabepool 11 in der Konkurrenz durchsetzen kann. Hierbei kann jeder Eingabe¬ information ein eigener Eingabepool 11 zugeordnet sein. Es
kann jedoch auch eine Vorverarbeitung stattfinden, so dass aus den Eingabeinformationen bestimmte Merkmale extrahiert werden, die anschließend durch einen Eingabepool 11 repräsen¬ tiert werden. So kann ein Eingabepool 11 für eckige Formen und ein anderer Eingabepool für runde Formen aktiviert wer¬ den.
In einer Variante der Erfindung weist auch die Ausgabeschicht 30 Ausgabepools 31 auf, welche miteinander in Konkurrenz ste- hen, wobei sich auch wieder nur ein Ausgabepool 31 in der Konkurrenz durchsetzen kann.
Figur 1 zeigt den Fall, dass ein aktiver Modellpool 42 eine Auswahl 22 von Regelpools 21 unterstützt. Weiterhin wird durch die zugeführte Eingabeinformation 2 ein repräsentativer Eingabepool 12 aktiviert. Dieser aktiviert innerhalb der Aus¬ wahl 22 den aktivierten Regelpool 23. Dieser wiederum ist mit einem repräsentativen Ausgabepool 32 verschaltet, weshalb dieser aktiviert wird. Im Anschluss wird die Ausgabeinforma- tion 3 entnommen, welche durch den repräsentativen Ausgabe¬ pool 32 repräsentiert wird.
Gemäß einer Ausführungsform der Erfindung werden die Schich¬ ten durch mindestens einen nicht-spezifischen Pool angeregt, welcher aus erregenden gepulsten Neuronen besteht. Dieser er¬ hält keine spezifischen Eingaben von einer der Schichten und trägt mit spontanen Pulsen zur Ausbildung realistischer Puls¬ verteilungen bei. Die Neuronen des nicht-spezifischen Pools sind nicht mit den anderen Schichten bzw. Pools korreliert, d. h. sie sind nicht spezifisch aktivierbar, da sie zwar mit den anderen Schichten/Pools vernetzt sein können, aber nicht mit starken Verbindungen.
Das neuronale Netz 1 kann als Attraktor-rekurrentes autoasso- ziatives neuronales Netz ausgeführt sein. Solche Netze sind in den genannten Schriften beschrieben. Hierbei sind die sy¬ naptischen Verbindungen von der Eingabeschicht 10 zur Zwi-
schenschicht 20, von der Zwischenschicht 20 zu der Ausgabe¬ schicht 30, und von der Modellschicht 40 zu der Zwischen¬ schicht 20 jeweils stärker ausgeführt sind als in der Rück¬ richtung.
Gemäß einer Ausführungsform wird angenommen, dass die synap¬ tischen Stärken zwischen den Neuronen des neuronalen Netzes 1 so ausgeführt sind, als ob sie durch Hebb'sches Lernen ausge¬ bildet worden seien. Dies bedeutet, dass die synaptische Stärke zwischen Neuronen, welche eine korrelierte Aktivität haben, stark ist, wohingegen die synaptische Stärke zwischen unkorrelierten Neuronen schwächer ausfällt. Dementsprechend können die synaptischen Stärken zwischen den erregenden ge¬ pulsten Neuronen innerhalb eines der erregenden Pools, also eines Eingabepools 11, eines Regelpools 21, eines Ausgabe¬ pools 31 oder eines Modellpools 41, mit einem starken Gewicht von z. B. w = 2,1 ausgeführt sein. Die hemmenden Neuronen in dem hemmenden Pool 50 oder anderen hemmenden Pools können mit einem Gewicht von w = 1 miteinander verbunden sein, welches zu einem nicht-oszillierenden Verhalten beiträgt. Die hemmen¬ den Neuronen können außerdem mit allen erregenden Neuronen des jeweiligen Moduls oder des gesamten neuronalen Netzes 1 mit dem gleichen Gewicht w = 1 verbunden sein. Das Gewicht zwischen zwei erregenden gepulsten Neuronen, welche in unter- schiedlichen erregenden Pools derselben Schicht liegen, ist dagegen vorzugsweise schwach ausgeführt. Die Neuronen der er¬ regenden Pools sind weiterhin vorzugsweise mit Neuronen in dem nicht-selektiven Pool mit einer vorwärts gerichteten sy¬ naptischen Stärke von w = 1 und einer rückwärts gerichteten synaptischen Stärke verbunden, welche ebenfalls schwach aus¬ fällt.
Gemäß einer Ausführungsform der Erfindung ist jeder Regelpool 21 mit einem Eingabepool 11, einem Modellpool 41 sowie einem Ausgabepool 31 so verbunden, als ob die Verbindung durch
Hebb'sches Lernen während der Einübung unterschiedlicher Ver¬ haltensweisen ausgebildet worden wäre. Die synaptische Stärke
der Verbindungen zwischen den Modellpools 41 und den Regel¬ pools 21 liegt z. B. bei w = 1,1.
Das Wechselspiel zwischen den Schichten entspricht der multi- arealen Verschaltung im menschlichen Gehirn. Das neuronale Netz 1 kann auch weitere Schichten aufweisen. Diese weiteren Schichten können die Funktionen bestimmter Gehirnareale ab¬ bilden. Auf diese Weise kann die Funktionalität des neurona¬ len Netzes 1 erheblich erweitert werden. Denkbar ist z. B. die Filterung von Eingabeinformationen durch Modellierung ei¬ ner selektiven Aufmerksamkeit, sowie die Implementation von Arbeits- oder Langzeit-Gedächtnisfunktionen. Die weiteren Schichten können in beschriebener Weise aufgebaut sein und miteinander wechselwirken, oder auch andere bekannte Verfah- ren implementieren.
Das neuronale Netz 1 kann als neurodynamisches Netz ausge¬ führt sein, insbesondere in der Form eines neurodynamisehen Netzes gepulster Neuronen. Dies kann die Verwendung bekannter neuronaler Netze (artificial neural networks) , Multilagen-
Perceptrons, SOMs (seif organizing maps) etc. mit einschlie¬ ßen. Die gepulsten Neurone können z. B. als so genannte spi- kende oder auch als so genannte pulscodierende Neurone ausge¬ bildet sein.
Weitere Hinweise zur Implementation der Schichten, Pools, der Verbindungen und Neuronen sowie deren Wechselspiel finden sich in [2], [3] und [4]. Die Dynamik .der jeweiligen Neuro¬ nen, Pools und Schichten kann durch eines oder mehrere Kon- zepte der folgenden Gruppe implementiert werden: Mean-Field- Ansatz, Integrate-and-Fire-Ansatz, Ansatz für pulscodierende Neurone, Multikompartiment-Ansatz und Hodgkin-Huxley-Ansatz. Hierzu wird auf die genannten Schriften verwiesen.
Intelligente Agenten, welche das erfindungsgemäße Verfahren bzw. das neuronale Netz einsetzen, können zur neurokognitiven Prozess-Steuerung, insbesondere für technische Vorgänge, zur
neurokognitiven Fahrerassistenz sowie zur neurokognitiven Ro- botersteuerung eingesetzt werden.
Die Erfindung beruht auf dem Prinzip des beeinflussten Wett- bewerbs (Biased Competition) . Einerseits wirkt ein aktives Modell, welches durch den aktiven Modellpool 42 sowie durch die Verschaltungen der Regelpools 21, welche zu der Auswahl 22 gehören, gebildet wird, steuernd (top-down) auf die Abbil¬ dung von Eingabeinformationen auf Ausgabeinformationen ein. Andererseits wirken die Eingabeinformationen als entgegenge¬ setzter Einfluss (bottom-up) , welcher bestimmte Neuronen und Pools aktiviert. Die tatsächliche Verschaltung der zugeführ¬ ten Eingabeinformation 2 mit der entnommenen Ausgabeinforma¬ tion 3 entwickelt sich aus einem Wechselspiel dieser beiden Einflüsse. Das neuronale Netz 1 erreicht somit ein hohes Maß an Flexibilität, wodurch es in seinem Verhalten, d. h. in seiner Abbildung von Eingabeinformationen auf Ausgabeinforma¬ tionen flexibel auf Kontextänderungen, d. h. veränderte Situ¬ ationen, reagieren kann.
Da das neuronale Netz 1 unmittelbar die neurodynamisehen Pro¬ zesse im menschlichen Gehirn abbildet, ist es von direkter biologischer Relevanz. Dies beruht auf der genauen Simulation der biologischen Prozesse im Gehirn. Beispielsweise können die gepulsten Neuronen als Integrieren-und-Feuern-Neuronen
(integrate and fire) implementiert werden. Es kann von neuro- kognitiver Modellierung gesprochen werden, d. h. das mensch¬ liche Verhalten wird unmittelbar durch die beteiligten neuro¬ nalen Prozesse modelliert.
Hieraus ergibt sich eine Anzahl an medizinisch-klinischen An¬ wendungen. So kann das erfindungsgemäße neuronale Netz und Verfahren als Modell für klinische Versuchsergebnisse heran¬ gezogen werden. Zunächst werden Versuche mit einem Probanden durchgeführt, um das Verhalten in Situationen mit wechselndem Kontext zu untersuchen. Anschließend wird das erfindungsgemä¬ ße Verfahren mit einem neuronalen Netz unter den gleichen
Versuchsbedingungen durchgeführt. Durch den Vergleich der Er¬ gebnisse können Hypothesen über die Funktionsweise des Ge¬ hirns unmittelbar überprüft werden.
Gleiches gilt für krankhafte Störungen. So können bei der Si¬ mulation mit dem erfindungsgemäßen Verfahren veränderte che¬ mische Voraussetzungen, z. B. Stoffwechselstörungen oder ver¬ änderte Konzentrationen von Neuro-Transmittern, berücksich¬ tigt werden. Durch diese inverse Modellierung kann das Ver- halten, beispielsweise eines schizophrenen Patienten, durch das erfindungsgemäße Verfahren simuliert werden. Aus den Er¬ gebnissen und dem Vergleich mit Versuchsergebnissen mit schi¬ zophrenen Patienten können wiederum Hypothesen bezüglich der Natur der Störung im Gehirn überprüft werden. Gleiches gilt für andere Störungen.
Ein intelligenter Agent, welcher das erfindungsgemäße Verfah¬ ren bzw. das erfindungsgemäße neuronale Netz implementiert, ist in äußerst vielseitiger Weise einsetzbar. Beispielsweise könnte ein solcher Agent zur Chart-Analyse herangezogen wer¬ den. Hierbei wird versucht, aus dem bisherigen Verlauf eines Aktienkurses auf seine zukünftige Entwicklung zu schließen. In diesem Anwendungsfall wird dem neuronalen Netz 1 als Ein¬ gabeinformation 2 beispielsweise der Kursverlauf einer Aktie während der letzten sechs Monate zugeführt. Die entnommene Ausgabeinformation 3 stellt nun eine Kauf- bzw. Verkaufsemp¬ fehlung dar. Wenn sich die Empfehlung als falsch heraus¬ stellt, bekommt das neuronale Netz 1 eine Falsch-Rückmeldung 4. Auf diese Weise kann das neuronale Netz 1 flexibel auf Kontextänderungen reagieren, beispielsweise wenn die Stimmung an der Börse umschwingt. Bei der nächsten zugeführten Einga¬ beinformation 2, z. B. dem Kursverlauf einer anderen Aktie während der letzten sechs Monate, kann das neuronale Netz 1 die veränderte Stimmung an der Börse, also den geänderten Kontext, bereits berücksichtigen.
Die Erfindung eignet sich besonders für komplexe Zusammenhän¬ ge, die nicht durch ein deklaratives Regel-Modell erfasst werden können. Hierzu zählen Entwicklungen an den Börsen oder die Wettervorhersage. Das neuronale Netz 1 ist bildlich ge- sprochen in der Lage, eine Bauchentscheidung zu treffen. Dies liegt darin begründet/ dass die entnommene Ausgabeinformation 2 auch als Gefühl interpretiert werden kann. Das Gefühl be¬ ruht auf einer intuitiven Interpretation der Eingabeinforma¬ tionen, wobei intuitiv bedeutet, dass die Eingabeinformatio- nen durch implizite, nicht durch explizit repräsentierte Re¬ geln auf die Ausgabeinformationen abgebildet werden. Die ent¬ nommene Ausgabeinformation 3 gibt in diesem Zusammenhang als Gefühl eine generelle Richtung des Handels vor. Auf Grundlage des Gefühls, dass der Aktienkurs fallen wird, können unter- schiedliche Entscheidungen getroffen werden, etwa das Halten einer Aktienposition, das Reduzieren, oder das vollständige Verkaufen. Liegt als entnommene Ausgabeinformation 3 ein Ge¬ fühl vor, dass der Aktienkurs steigen wird, so sind als Hand¬ lungen der Neukauf sowie das Aufstocken oder Halten einer Ak- tienposition möglich. Durch den Zwischenschritt der Situati¬ onsbewertung mit Hilfe eines Gefühls als entnommene Ausgabe¬ information 3 wird somit das Verhalten des intelligenten A- genten flexibilisiert.
Intelligente Agenten mit flexiblem, menschähnlichen Verhalten sind auch anderweitig einsetzbar, etwa als Charaktere bei Trainingssimulationen und Computerspielen.
Die Erfindung betrifft unter anderem den Bereich der kogniti- ven Flexibilität und Verhaltensänderung. Die dynamische Ver¬ stärkung (Dynamic Reinforcement) unterstützt hierbei das Ler¬ nen. In einer Ausführungsform der Erfindung bildet das neuro¬ nale Netz 1 als Abbildung in der Zwischenschicht 20 Assozia¬ tionen zwischen Eingabeinformationen und einer Belohnung bzw. Bestrafung aus. Durch das Wechselspiel mit der Modellschicht 40 können diese Assoziationen bereits nach einer Falsch- Rückmeldung 4 umgekehrt werden. Die Falsch-Rückmeldung 4 er-
folgt immer dann, wenn als Ausgabeinformation 3 eine Beloh¬ nungserwartung entnommen wurde und diese nicht eintritt bzw. eine Bestrafung eintritt. Die Falsch-Rückmeldung 4 kann auch dann erfolgen, wenn als Ausgabeinformation 3 entnommen wird, dass das neuronale Netz 1 eine Bestrafung erwartet, und diese aber ausbleibt bzw. eine Belohnung eintritt. Auf diese Weise lernt das neuronale Netz 1, wann eine Belohnung, und wann ei¬ ne Bestrafung zu erwarten ist, und reagiert mit einem Gefühl als zu entnehmender Ausgabeinformation 3, welches diese Er- Wartung repräsentiert, und aus welchem eine passende Handlung abgeleitet werden kann.
Figur 2 zeigt eine spezielle Ausführungsform der Erfindung. Das neuronale Netz 1 ist hier in ein erstes Modul 5 und ein zweites Modul 6 gegliedert. Dem zweiten Modul 6 wird eine
Eingabeinformation 2 zugeführt und eine Ausgabeinformation 3 entnommen. Wenn die Ausgabeinformation falsch ist, wird dem ersten Modul 5 eine Falsch-Rückmeldung 4 zugeführt.
Das erste Modul 5 weist eine Modellschicht 40 auf. Das zweite Modul 6 weist eine Eingabeschicht 10, eine Zwischenschicht 20 sowie eine Ausgabeschicht 30 auf.
Die Eingabeschicht 10 enthält zwei Eingabepools 15 und 16, welche miteinander in Konkurrenz treten. Wird ein erstes Ob¬ jekt zugeführt, so wird der Eingabepool 15 aktiviert. Wird ein zweites Objekt zugeführt, so wird der Eingabepool 16 ak¬ tiviert.
Die Zwischenschicht 20 weist eine Auswahl 22 und eine Auswahl 24 von Regelpools auf. Die Auswahl 22 enthält Regelpools 25 und 26, die Auswahl 24 enthält Regelpools 27 und 28. Die Aus¬ gabeschicht 30 enthält Ausgabepools 35 und 36. Die Modell¬ schicht 40 enthält Modellpools 45 und 46. Innerhalb jeder Schicht treten die Pools miteinander in Konkurrenz. Die Kon¬ kurrenz in der Modellschicht 40 wird durch einen hemmenden Pool 50 unterstützt, welcher aus hemmenden Neuronen besteht,
und durch die Falsch-Rückmeldung 4 zusätzlich erregt werden kann. Die Konkurrenz in den Schichten des zweiten Moduls 6 wird durch einen hemmenden Pool 60 unterstützt, welcher mit diesen Schichten verbunden ist und eine globale Hemmung auf die enthaltenen Neuronen ausübt. Dem ersten Modul 5 ist ein nicht-spezifischer Pool 70 zugeordnet, dessen Aktivität durch die Schichten der beiden Module nicht beeinflusst wird. Glei¬ chermaßen enthält das Modul 6 einen nicht-spezifischen Pool 80, dessen Aktivität nicht durch die Schichten beeinflusst wird. Die nicht-spezifischen Pools 80 und 70 tragen mit spon¬ tanen Pulsen zur Ausbildung realistischer Pulsverteilungen bei.
In einer speziellen Ausführungsform der Erfindung wird das zweite Modul 6 mit 1600 gepulsten Neuronen (hier Pyramidal¬ zellen) und 400 hemmenden gepulsten Neuronen implementiert. Das erste Modul 5 kann mit 1000 erregenden gepulsten Neuronen und 200 hemmenden Neuronen implementiert werden. Diese Zahlen stellen lediglich ein Beispiel dar. Das Verhältnis von erre- genden Pyramidalzellen zu hemmenden Neuronen kann z. B. 80:20 betragen. Gemäß einer Ausführungsform der Erfindung sind alle Neuronen miteinander voll verknüpft. Die Pools können z. B. aus 80 oder 100 Neuronen gebildet werden.
In einer speziellen Ausführungsform sind alle Pools des ers¬ ten Moduls einschließlich des hemmenden Pools 50 und des nicht-spezifischen Pools 70 miteinander vernetzt. Weiterhin sind alle Pools des zweiten Moduls 6 einschließlich des hem¬ menden Pools 60 und des nicht-spezifischen Pools 80 miteinan- der vernetzt.
Die Vernetzung der Pools erfolgt über synaptische Verbindun¬ gen zwischen den in den Pools enthaltenen Neuronen. Die Stär¬ ke der synaptischen Verbindungen zwischen den einzelnen Pools für das erste Modul ist in Figur 3 exemplarisch angegeben.
Eine synaptische Stärke von ww steht hierbei für eine schwa¬ che synaptische Stärke, zum Beispiel von ww = 0,878. Eine sy-
naptische Stärke von ws steht für eine starke synaptische Stärke (zum Beispiel von ws = 2,1) . Aus Figur 3 geht hervor, dass die Modellpools 45 und 46 untereinander nur schwach ver¬ bunden sind. Die Verbindungen der Neuronen innerhalb eines der beiden Pools sind dagegen stark. Auf diese Weise bilden die Neuronen der beiden Pools zwei Teams, die miteinander in Konkurrenz treten. Die Verbindungen von den Modellpools 45 und 46 zu dem nicht-spezifischen Pool 70 sind in neutraler Stärke (w = 1) ausgeführt. In umgekehrter Richtung sind die Verbindungen des nicht-spezifischen Pools 70 zu den Modell¬ pools 45 und 46 schwach ausgeführt.
Figur 4 zeigt exemplarisch synaptische Stärken der Verbindun¬ gen zwischen den Pools des zweiten Moduls einschließlich des hemmenden Pools 60 und des nicht-spezifischen Pools 80. Die
Pools der Schichten sind jeweils mit einer starken synapti¬ schen Stärke ws mit sich selbst vernetzt. Die Verbindungen zu den anderen Pools der jeweils gleichen Schicht fallen"dagegen schwach aus (mit ww) . Dies dient ebenfalls der Konkurrenz. Von besonderer Bedeutung sind die Gewichte bzw. synaptischen Stärken Wff und Wf]3. Die synaptische Stärke Wff ist die Stär¬ ke einer vorwärts gerichteten Verbindung (Feed Forward) , zum Beispiel in Höhe von Wff = 2,1. Die synaptische Stärke Wf]3 ist die synaptische Stärke einer rückwärts gerichteten Ver- bindung (Feedback), zum Beispiel Wf]3 = 1,7. Es zeigt sich nun, dass der Eingabepool 15 mit den Regelpools 25 und 27 stark verbunden ist (mit Wff) . In umgekehrter Richtung liegt eine ebenfalls starke, jedoch etwas schwächer ausgeprägte sy¬ naptische Stärke vor (mit Wf]3) . Somit liegt zwischen der Ein- gabeschicht 10 und der Zwischenschicht 20 eine rekurrente
Verbindung vor. Dies bedeutet, dass sich zwischen den beiden Schichten ein dynamisches Wechselspiel entwickelt. Die Einga¬ beschicht 10 übt zwar den größeren Einfluss auf die Zwischen¬ schicht 20 aus, Prozesse in der Zwischenschicht wirken jedoch auch rekurrent auf die Eingabeschicht zurück. Auf diese Weise kann eine selektive Verarbeitung von Eingabeinformationen implementiert werden.
Die Regelpools 25 bis 28 weisen wiederum starke vorwärts ge¬ richtete Verbindungen zu den Ausgabepools 35 und 36 auf. Auch hier existieren rückwärts gerichtete, rekurrente Verbindungen (mit ww) . Die Eingabeschicht 10 ist somit rekurrent mit der
Zwischenschicht 20, und die Zwischenschicht 20 rekurrent mit der Ausgäbeschicht 30 verbunden. Die synaptischen Stärken aus Figur 3 und Figur 4 entsprechen den Werten, die durch Trai¬ ning des neuronalen Netzes 1 mittels Hebb'schem Lernen zu er- warten wären.
Der Modellpool 45 ist mit den Regelpools 25 und 26 stark ver¬ bunden (synaptische Stärke zum Beispiel w = 1,1), wodurch er die Auswahl 22 bildet. Der Modellpool 46 ist mit den Regel- pools 27 und 28 stark verbunden (synaptische Stärke zum Bei¬ spiel w = 1,1), wodurch er die Auswahl 24 bildet. Anschaulich gesehen wird der Eingabepool 15 durch den Regelpool 25 der Auswahl 22 mit dem Ausgabepool 35 verschaltet. Ebenso wird der Eingabepool 16 über den Regelpool 26 der Auswahl 22 mit dem Ausgabepool 36 verschaltet. Die Verschaltung der Eingabe¬ pools 15 und 16 mit den Ausgabepools 35 und 36 erfolgt über die Regelpools 27 und 28 der Auswahl 24 genau umgekehrt. An¬ schaulich gesehen stellen somit die Auswahl 22 und die Aus¬ wahl 24 zwei unterschiedliche Abbildungen von Eingabeinforma- tionen auf Ausgabeinformationen bereit. Welche der beiden Ab¬ bildungen zum Einsatz kommt, hängt davon ab, welcher der bei¬ den Modellpools 45 und 46 aktiviert ist.
Der Ausgabepool 35 und der Ausgabepool 36 können jeweils eine Situationsbewertung repräsentieren (zum Beispiel posi¬ tiv/negativ) , eine Entscheidung (zum Beispiel kau¬ fen/verkaufen) oder eine Handlung (zum Beispiel einen Schritt vorwärts/rückwärts gehen) .
Gemäß einer Ausführungsform der Erfindung wird die zugeführte Eingabeinformation 2 allen Neuronen des neuronalen Netzes 1 zum Beispiel über jeweils 800 Verbindungen von außerhalb des
Netzwerks zugeführt. Neben der Eingabeinformation kann über diese Verbindungen auch ein Hintergrundrauschen zugeführt werden, welches ein spontanes Feuern von Neuronen außerhalb des Netzwerks darstellt.
Die Zustände, in denen sich das neuronale Netz 1 stabilisie¬ ren kann, können auch als globale Attraktoren bezeichnet wer¬ den. Diese sind jeweils aus einzelnen Attraktoren für jeden Pool zusammengesetzt. Wenn ein Pool in der Konkurrenz ge- winnt, konvergiert die Aktivität in der betreffenden Schicht zu dem betreffenden Attraktor. Der globale Attraktor setzt sich somit aus einer Kombination aktivierter Pools in der Eingabeschicht 10, in der Zwischenschicht 20, in der Ausgabe¬ schicht 30 sowie in der Modellschicht 40 zusammen. Durch die optionalen rekurrenten Verbindungen zwischen den Schichten ergibt sich in einer, in mehreren oder in allen Schichten ein gesteuerter Wettbewerb. Dies führt zu einem autonomen, emer- genten und hochgradig flexiblen Verhalten des neuronalen Net¬ zes 1.
In einem konkreten AnwendungsSzenario wird als Eingabeinfor¬ mation 2 der Verlauf eines Aktienkurses während der letzten 6 Monate zugeführt. Hierdurch wird der Eingabepool 15 akti¬ viert. Weiterhin ist der Modellpool 45 aktiviert. Dieser rep- räsentiert ein Modell, welches von einer positiven Stimmung an der Börse ausgeht. Durch den Modellpool 45 wird der Wett¬ bewerb in der Zwischenschicht 20 dahingehend gesteuert, dass die Pools .in der Auswahl 22 sich in der Konkurrenz durchset¬ zen können. Innerhalb der Auswahl 22 wird der Regelpool 25 aktiviert, welcher mit dem Eingabepool 15 stark verbunden ist. Der Regelpool 25 wiederum aktiviert über eine starke Verbindung den Ausgabepool 35, welcher die Ausgabeinformation "Aktie kaufen" repräsentiert, welche dem neuronalen Netz als Ausgabeinformation 3 entnommen wird. Während der Modellpool 45 aktiv ist, erschöpft sich seine Selbstverstärkung, das heißt die synaptischen Gewichte der inneren Verbindungen des Modellpools 45 nehmen mit der Zeit ab. Wenn die entnommene
Ausgabeinformation 3 falsch war, weil der Aktienkurs nach dem Kauf gefallen ist, so wird der hemmende Pool 50 über eine Falsch-Rückmeldung aktiviert. Dieser verstärkt daraufhin sei¬ ne globale Hemmung zu einer vollständigen Hemmung der Modell- pools 45 und 46, die sich auch auf das zweite Modul 6 erstre¬ cken kann. Anschließend unterliegt der ehemals aktive Modell¬ pool 45 in der Konkurrenz mit dem Modellpool 46, da sich die Selbstverstärkung des Modellpools 45 gegenüber der Selbstver¬ stärkung des Modellpools 46 erschöpft hat. Deshalb gewinnt nun der Modellpool 46 in der Konkurrenz. Der Modellpool 46 unterstützt nun die Auswahl 24 in der Zwischenschicht 20. Wird nun der gleiche Kursverlauf als Eingabeinformation 2 zu¬ geführt, wird wiederum der Eingabepool 15 aktiviert. Dieser aktiviert nun den Regelpool 27, da dieser zu der Auswahl 24 gehört, welche durch den Modellpool 46 unterstützt wird. Der Regelpool 27 wiederum aktiviert den Ausgabepool 36. Dieser repräsentiert die Ausgabeinformation "Aktie nicht kaufen", welche im Anschluss als Ausgabeinformation 3 entnommen wird. Das neuronale Netz 1 hat sein Verhalten somit in einem Schritt an den veränderten Kontext, zum Beispiel einen Stim¬ mungsumschwung an der Börse, angepasst.
Geeignete Werte für die synaptischen Stärken können von den genannten Werten abweichen und sind im Experiment ermittelbar bzw. optimierbar. Das generelle Vorgehen hierzu ist in der Schrift [2] beschrieben.
Die in den Figuren gezeigten Ausführungsformen sind aus¬ schließlich als mögliche Beispiele angeführt.
Insbesondere kann das Auslesen der Ausgabeinformation 3 auch anders realisiert sein. Z. B. ist es denkbar, dass dies aus jeder Schicht oder aus den jeweiligen Pools heraus erfolgt.
Ferner sind mehrere Eingabe-, Ausgabe-, Zwischen- oder Mo¬ dellschichten denkbar. Unterschiedliche Eingabeschichten 10
könnten unterschiedliche Merkmale (Farbe, Form, Größe, Ort, Bewegung, usw.) der Eingabeinformation repräsentieren.
Unterschiedliche Modellschichten 40 könnten unterschiedliche Aspekte eines Modells (unterschiedliche Dimensionen eines
Kontextes) repräsentieren. Z.B. könnte in einem Computerspiel eine Modellschicht 40 speichern, ob der Spieler geübt oder ungeübt ist, sowie eine weitere, welche Strategie der Spieler aktuell verfolgt. Somit könnte das Modell einen Kontext rep- räsentieren, der sich aus unterschiedlichen Aspekten zusam¬ mensetzt.
Unterschiedliche Ausgabeschichten 30 könnten unterschiedliche Aspekte einer Ausgabeinformation (z.B. Kaufen/Verkaufen, Dringlichkeit, Sicherheit der Empfehlung) repräsentieren.
In diesen Szenarien könnte die Zwischenschicht 20 auch in mehreren Schichten ausgeführt sein. In jedem Fall käme ihr die Aufgabe zu, die zusätzlichen Schichten in sinnvoll mit- einander zu vernetzen.
Zusätzliche und bestehende Schichten können sowohl nach dem Prinzip der Konkurrenz als auch nach dem Prinzip der Koopera¬ tion organisiert sein. Konkurrenz: Innerhalb einer Schicht treten bestimmte Merkmale oder Merkmalgruppen miteinander in Konkurrenz um Repräsenta¬ tion. Das erzeugt als emergenten Prozess eine Gewichtungskar- te (salicency map) , so dass bestimmte Merkmale intensiver repräsentiert werden als andere. Man erhält eine kontextab- hängige Informationsselektion. Dies kann durch konkurrierende Pools implementiert werden.
Kooperation: Merkmale können auch dynamisch zu Merkmalgruppen oder Kategorien gebunden werden. Ein Merkmal kann auch so die Repräsentation eines anderen Merkmale begünstigen. Dies kann durch Pools implementiert werden, die mit starken Gewichten untereinander verbunden sind und sich somit gegenseitig un-
terstützen. Z.B. können so in der Eingabeschicht 10 mehrere Pools gleichzeitig aktiviert sein und dadurch mehrere Eigen¬ schaften einer Eingabeinformation gleichzeitig repräsentie¬ ren.
Zusätzliche Schichten können nach dem Prinzip des beeinfluss- ten Wettbewerbs und der beeinflussten Kooperation (biased Competition and Cooperation) implementiert werden: Durch die Verbindung zwischen Schichten kann eine Schicht jeweils den Kompetitionsvorgang in einer oder mehreren anderen Schichten lenken. Dieser Vorgang kann rekurrent sein, so dass durch diesen wechselseitigen Lenkvorgang sukzessive und dynamisch ein immer besserer Abgleich von verschiedenen Merkmal-Räumen der verschiedenen Schichten miteinander entsteht. Insbesonde- re enthält jede Repräsentation, weil sie nur einen Teilaspekt der Umgebung abdeckt, zwangsläufig Mehrdeutigkeiten. Beein- flusster Wettbewerb stellt einen Mechanismus dar, durch den die verschiedenen Schichten durch die Information ihres spe¬ ziellen Merkmalraums Mehrdeutigkeiten in den jeweils anderen Merkmal-Räumen auflösen können. Jede Repräsentation entwi¬ ckelt sich vor dem Kontext aller anderen Repräsentationen. Kooperation kann dann verschiedene Merkmale zu Gruppierungen binden, das heißt zueinander in Beziehung setzen.
Das Herstellen von Beziehungen kann in dynamischer Weise ge¬ schehen für (a) gegenwärtige Merkmale untereinander,
(b) gegenwärtige Merkmale mit anderen Merkmalräumen,
(c) gegenwärtige Merkmale mit vergangenen Werten andere Merk¬ male und Merkmalräume, und (d) dem Gesamtzustand mit zukünf- tigen, aber erwarteten Merkmale. Insbesondere das Miteinbe¬ ziehen der Vergangenheit kann dem kausalen Charakter der Sig¬ nale Rechnung tragen.
Dynamische Daten aus technischen Systemen können nach Vorver- arbeitung ggf. zur Dimensionsreduktion als Eingabeinformatio¬ nen in das neuronale Netz 1 eingespeist werden. Dieses kann verschiedene Merkmale extrahieren (z.B. Independent Compo-
nents oder nichtparametrische Merkraalvektoren analog zu selbstorganisierenden Merkmalskarten) in einer oder mehreren Eingabeschichten, von denen manche auch mit einer persisten¬ ten Aktivität (Arbeitsgedächtnis-Funktion) ausgestattet sein können. Optimierung des neuronalen Netzes kann durch biolo¬ gisch motivierte Lernregeln (z.B. Hebb-Regel oder spike time dependent plasticity) geschehen, mit denen sich auch Kosten¬ funktionen zur Bewertung dessen, wie gut eine dynamische Auf¬ gabe gelöst wird, aufstellen lassen.
Zitierte Literatur
[1] Sutton, R. S. und Barto, A. G. (1998): "Reinforcement
Learning", Bradford Book, S. 87-160.
[2] Szabo, M., Almeida, R., Deco, G. und Stetter, M. (2004) : "(Kooperation and biased competition model can explain attentional filtering in the prefrontal cortex", Eur. J. Neurosci., Vol. 9, S. 1669-1677.
[3] Brunei, N. und Wang, X. J. (2001) : "Effects of neuro- modulation in a cortical network model of object working memory dominated by recurrent inhibition", Comput. Neu¬ rosci. 11: 63-85.
[4] Koch, C. und Segev, I (Hrsg.) (2001) : "Methods in Neuro¬ nal Modeling: From Synapses to Networks", MIT Press, Cambridge, MA, Kapitel 1-5.